as a PDF

Transcription

as a PDF
EURO-MEDITERRANEAN ECONOMICS AND FINANCE
REVIEW
Vol. 1, N°5, December 2006
This review is a referred journal. It publishes quality papers dealing with key issues in
Economics, Finance, Management and NTIC in the Euro-Mediterranean region. The journal
bridges the gap between theory and practice by publishing both academic and professional
papers with the objective of sharing ideas between scholars and practitioners.
Since there is currently no specific review to publish those interesting studies, the journal fills
the gap.
The journal is co-published by University of Cergy and ISC Paris, members of the
REMEREG Network (Réseau Euro-Mediterranéen d’Enseignement et de Recherche en
Economie-Gestion, 14 academic institutions)1.
Members of the Editorial board include Nobel Prize winners and well-known professors:
Harry Markowich, Gordon Alexander, Jose Scheinkman, etc. They also include Editors from
several referenced journals as K. Chen (Editor International Journal of Business), Dilip Gosch
(Editor, International Journal of Business), Aman Agrawal (Editor, Quarterly Journal of
Finance, India), Eric Briys (Cyberlibris) and many other talented personalities.
We hope that the journal will match your expectations.
The journal is available online at :
http://emefir.france-paris.org
For any information or subscription, contact : [email protected]
ISC Paris
University of Cergy
Centre de Recherches
Laboratoire Thema
22 Boul. du Fort de Vaux
33, boul. du Port
F-75017 Paris
F- 95011 Cergy Pontoise Cedex
[email protected]
[email protected]
1
Association Méditerranéenne de Finance, Assurance et de Management ( AMFAM) - Association
Française de Finance (AFFI) - Université Bordeaux 4 Montesquieu, France - Université de Cergy,
France - Institut Supérieur du Commerce (ISC Paris), France - Université Paris X Nanterre, France Université de Poitiers, France - Université de Minho, Portugal - Université de Sfax, Tunisie Université de Lugano, Suisse - Indian Institute of Finance, India - Université Méditerranéenne de
Tunisie - Université Badji Mohktar d’Annaba, Algérie - Université Pierre Mendes-France Grenoble,
France etc…
1
EDITORIAL BOARD
Co-editors :
Mondher BELLALAH
President AMFAM, President REMEREG
Georges PARIENTE
ISC Paris, France
Jean-Luc PRIGENT
Univ of Cergy, France
Editors :
Ezzeddine ABAOUB
FSEG Tunis, Tunisia
Imed ABDELJAOUEB
IHEC Tunis, Tunisia
Mickaël ADLER
U. Colombia, USA
Rudy AERNOUDT
Brussels Business School, Belgium
Mohamed AYADI
HEC Montréal, Canada
Makram BELLALAH
ESSEC, France
Hatem BEN AMEUR
HEC Montréal, Canada
Jean-François BOULIER
Crédit Agricole Asset Management, France
A.BOURI
FSEG, Sfax, Tunisie
Michaël BRENNAN
UCLA, USA
Eric BRIYS
Cyberlibris, Belgique
Harvey CAMPBELL
USA
Ephraim CLARK
Middlessex University , UK
Georges CONSTANTINIDES
U. Chicago, USA
K.C. CHEN
IJB, USA
Manuel José DA ROCHA ARMADA
Université of Minho, Portugal
Gabriel DESGRANGES
Univ. de Cergy, France
Joao DUQUE
ISEG, Portugal
Robert ENGLE
Nobel Prize, USA
Alain FINET
ULB, Belgique
Patrice FONTAINE
ESA Grenoble, France,
Abdelfettah GHORBEL
Technopole Sfax, Tunisia
Moncef HERGLI
Professor, Tunisia
Harry MARKOVICH
Harry Markovich Company , USA
Nizar TOUZI
CREST, France
André de PALMA
Univ.of Cergy, France
François QUITTARD-PINON
Univ. de Lyon 1, France
Tahar RAJHI
FSEG Tunis, Tunisia
Richard ROLL
UCLA, USA
Jean-michel SAHUT
ESC La Rochelle, France
Olivier SCAILLET
HEC, Genève, Switzerland
Héracles VLADIMIROU
Univ. Cyprus, Cyprus
2
Lecture comittee :
Aman AGRAWAL
Co-editor of Finance India
Gordon ALEXANDER
The Anderson School at UCLA, United States
Giovanni BARONE-ADESI
University of Lugano, Switzerland
Dilip GOSCH
Editor, International Journal of Finance, USA
Campbell HARVEY
Duke University, United States, USA
Gérard HIRIGOYEN
Univ. of Bordeaux IV, France
Bertrand JACQUILLAT
IEP, Paris, France
Frank JANSEEN
Université Catholique de Louvain, Belgium
Michel LEVASSEUR
University of Lille 2, France
Jose SCHEINKMAN
Princeton University, USA
Paul WILLMOTT
Editor Derivatives, U.K
3
TABLE OF CONTENTS
Article 1 : « Testing World Equity Market Integration New Evidence from the ICAPM »
Mohamed El hedi ABOURI
Page 6
Article 2 : « Business angels: the smartest money for starters? » Rudy AERNOUDT
Page 16
Article 3 : « Board structure, Ownership structure, and Firm performance: Evidence from
Banking » by Mohamed BELKHIR
Page 28
Article 4 : « IPO’s Initial Returns: Underpricing Versus Noisy Trading » Mounira BEN ARAB
and Adel KARAA
Page 48
Article 5 : « Effects and compatibilities of the economic integrations concluded by developing
countries. Case of the free trade area established between Tunisia and Morocco » Karim
CHAABOUNI
Page 70
Article 6 : « Efficience, productivité et progrès technologique en fonction de la taille de la firme
bancaire : Preuves empiriques sur les banques commerciales en Tunisie » Sameh Charfeddine
KARRAY and Pr. Jamel Eddine CHICHTI
Page 86
Article 7 : « Inflation Targeting monetary policies and real interest rates: a panel data unit root
test robust to structural shifts for OECD countries » Imed DRINE and Nicolas MILLION
Page 99
Article 8 : « Business Development Strategy in the Internet Age » Simona FIT, Dorin COSMA
Page 113
Article 9 : « Risk and Portfolio management and Optimization » Slim GHORBEL
Page 129
Article 10 : « L’impact des caractéristiques des dirigeants sur la croissance de l’emploi des
P.M.E. : Etat de la question et étude empirique » Prof. Frank JANSSEN
Page 139
Article 11 : « Coûts de transaction et dynamique non linéaire des prix des actifs financiers : une
note théorique » Fredj JAWADI and Slim CHAOUACHI
Page 161
Article 12 : « The Interaction between Economic Reforms and FDI in MENA Countries » Anis
KHAYATI
Page 177
Article 13 : « R&D Investment and the Financial Performance of Technological Firms » JeanSébastien LANTZ and Jean-Michel SAHUT
Page 191
Article 14 : « Enjeux de la gestion du risque de crédit » Laurence LE PODER
Page 208
Article 15 : « Les opérations à effet de levier sous-valorisent-elles les entreprises cibles? »
Olivier LEVYNE
Page 222
Article 16 : « Ratio Combinations » Slim MAHFOUD
Page 234
Article 17 : « Concentration des Places Boursières Européennes et Stratégies de Diversification
de Portefeuille » Anthony MILOUDI
Page 241
Article 18 : « Architecture organisationnelle et performance des décisions des gérants de
portefeuilles boursiers » Jean MOUSSAVOU
Page 258
Article 19 : « The Challenges of Basel 2 implementation in the US Professor » Dr. John RYAN
Page 272
Article 20 : « Influence du marché et de la clientèle desservies sur les facteurs de croissance des
PME manufacturières » Josée ST-PIERRE, Frank JANSSEN, Pierre-André JULIEN, Catherine
THERRIEN
Page 291
4
FORTHCOMING PAPERS N°6
« A real options approach to invest in sustainable transport under population growth uncertainty » Linda
SALAHALDIN and Thierry GRANGER
« A new corporate growth metrics: a joint EVA-Real Options approach » Francesco BALDI
« On Real Options and Information Costs » Mondher BELLALAH and Inass EL FARISSI
« The Value of Software Cost Estimate Accuracy » Said BOUKENDOUR
« Soft Binomial Model in Real Option Methodology Application (fuzzy - stochastic approach) » ZDENĚK
ZMEŠKAL, DANA DLUHOŠOVÁ
« Planning under uncertainty: assessing the robustness of location decision options » Tarik DRIOUCHI, Michel
J. LESEURE
« A Study on the Real Options Analysis and its Potential Application in Corporate and Investment Banking »
Cedric FRANKLIN
« Investments in an energy substation: a real options approach for a regulated distribution company » Joel Arthur
GUIMARÃES Junior
« Are Exit Decisions Capital Replacement Decisions? Evidence from the Tanker Industry » George N. DIKOS
«Determination of Real Options Value by Monte Carlo Simulation and Fuzzy Numbers » Juan G. Lazo LAZO,
Marley Maria B. R. VELLASCO, Marco Aurélio C. PACHECO, Marco Antonio DIAS
« Acquisitions as a real options bidding game » Han T.J. Smit Ward A. van den Berg Wouter De Maeseneire
« Optimal Investment in Duopoly with Random Investment Timings » Rui Barroso de MOURA
«A Real Options Approach to the process of risk measurement, allocation and management, in Project Finance
type funding structures » Jose Antonio de SOUSA NETO, Virginia Izabel de OLIVEIRA
« Une Extension des Equations et du Rapport entre Bêtas de la Dette et de l’Actif de Merton , Applications à la
Valorisation de la Dette et à l’Évaluation d’Entreprises » Didier VANOVERBERGHE
« Evaluation des brevets et des licences avec les options réelles » Jean-Sébastien LANTZ
« Inference by Genetic Programming of an analytical expression for the Optimal Exercise Threshold of an asset
that follows a Mean Reversion Process » Dan POSTERNAK, Marco Aurélio C. PACHECO, Juan G. Lazo
LAZO
« REAL OPTIONS WITH UNKNOWN-DATE EVENTS » Óscar Gutiérrez Francisco RUIZ-ALISEDA
« Real Options and the Adoption of Organic Farming - an Empirical Analysis » Oliver MUSSHOFF, Martin
ODENING
« Real Estate Investments in Rio de Janeiro: Risk Management and Real Options » Katia ROCHA, Luciana
SALLES, Francisco ALCARAZ, José Alberto SARDINHA, José Paulo TEIXEIRA
« Real Options in Partnership Deals: The Perspective of Cooperative Game Theory » Nicos SAVVA and Stefan
SCHOLTES
« Valuing a storage unit for handling random fluctuations in the supply of wind-generated electricity Sydney »
Howell Helena PINTO
5
Testing World Equity Market Integration: New
Evidence from the ICAPM
Mohamed El Hedi ABOURI
EconomiX, Université Paris X, 200, avenue de la République Nanterre 92001, France
[email protected]
Abstract
In this paper, we develop and test a partially integrated international asset pricing model using
an asymmetric multivariate GARCH specification for two developed markets (the U.S. and
the U.K.) and two emerging markets (Hong Kong and Singapore) over the period 1970-2003.
The evidence supports the equity market integration hypothesis and suggests that domestic
risk is not a priced factor for the markets of Singapore, UK and US, whereas the Hong Kong
stock market prices both domestic and world market risks.
Key words : International Asset Pricing, Integration, Diversification.
JEL Classification : F36; C32; G15
6
Introduction
Studying equity market integration is an
empirical question that has decisive
impact on a number of issues affecting
problems that are addressed by financial
market theory. Recently, this question has
become more relevant as national
markets throughout the world become
more open to foreign investors. Markets
are said to be integrated if similar assets
in different countries command the same
expected return, while markets where the
expected return on an asset depends on its
location are said to be segmented. In
other terms, in fully integrated markets
investors face common and countryspecific risks but price only common risk
factors because country-specific risk is
fully diversified, while in completely
segmented markets expected returns
would be determined by domestic risk
factors. When equity markets are partially
segmented, investors face both common
and country-specific risks and price them
both.
Empirical papers investigating equity
market integration have been mainly
limited to developed markets. These
papers include, among others, De Santis
and Gerard (1997), Carrieri et al. (2003),
De Santis et al. (2003) and Arouri (2005,
2006). The findings of these studies
support
the
financial
integration
hypothesis of developed equity markets.
Recently, some papers have tented to
focus on emerging markets, in particular
Asian equity markets, partly as a result of
their high rates of economic growth and
the 1997 Asian crisis. The results of these
studies are heterogeneous. Masih and
Masih
(1997,2001)
show
using
cointegration methods that the Asian
Newly Industrializing Countries of Hong
Kong, Singapore, Taiwan and South
Korea share long run relationship with
developed markets (U.S., Japan, U.K. and
Germany). Lim et al. (2003) examine the
linkages between stock markets in the Asian
region over the period 1988-2002 using nonparametric cointegration techniques and find
that there is a common force which brings
these markets together in the long run. In
contrast, Roca and Selvanathan (2001) show
using
different
recent
econometric
techniques that there is no short-term and
long-term linkages among the stock markets
of Australia, Hong Kong, Singapore and
Taiwan. Phylaktis and Ravazzolo (2000)
study the potential linkages between stock
prices and exchange rate dynamics for a
group of Pacific-Basin capital markets and
show lack of comovment during the eighties
for the free stock markets of Singapore and
Hong Kong. More recently, Phylaktis and
Ravazzolo (2004) apply multivariate
cointegration methods to investigate stock
market interactions amongst a group of
Pacific-Basin
countries
and
the
industrialized countries of Japan and US
over the period 1980-1998. They show that
although the linkages have increased in
recent years, there is room for long-term
gains by investing in Pacific-Asian markets.
In particular, their results show that the
Asian crisis did not have a substantial effect
on the degree of linkages of these markets.
In the current paper, we study the potential
integration of two Pacific-Basin countries
(Hong Kong and Singapore), U.K. and U.S.
with the world market. We estimate a
partially segmented international capital
asset pricing model (ICAPM) where both
local and global sources of risk are priced.
The emerging markets of Hong Kong and
Singapore have enjoyed remarkably rapid
economic growth in the past decades and are
gaining increased influence in the world
capital markets. Therefore, the integration of
these markets with developed markets
deserves closer attention.
This study is primarily motivated by several
reasons. Firstly, most studies that examine
the interdependence between international
stock markets use cointegration methods and
then test indirectly the stock market
7
integration hypothesis. Moreover, a
weakness of cointegration methods is that
a focus on comparative statics does not
take into account the time variation in
equity risk premia (see for instance,
Harvey (1991) and Bekaert and Harvey
(1995)), which may yield confusing and
partial results. To accommodate this
feature of the data, we estimate a
dynamic version of the model, in which
both the prices and quantities of risk vary
over time. Secondly, empirical papers
investigating directly stock market
integration have been mainly limited to
developed markets and only some papers
have tented to focus on emerging
markets. As shown above, the results of
these studies are heterogeneous. In this
paper, the dynamic ICAPM is estimated
using a multivariate GARCH process for
5 markets: the world market, 2 developed
markets and 2 emerging markets. Finally,
if, as is argued in univariate and bivariate
cases by Glosten et al. (1993) and Kroner
and Ng (1998), the conditional variances
and covariances are higher during stock
market downturns, the econometric
specification should allow for asymmetric
effects in variances and covariances. In
the current paper, we propose an
asymmetric extension of the multivariate
GARCH-in-Mean process of De Santis
and Gerard (1997). This approach, with
sign and size asymmetric effects, allows
to the prices of domestic and world
market risks, betas and correlations to
vary asymmetrically through time.
The rest of the paper is organised as
follows. Section 2 presents the model and
introduces the econometric methodology.
Section 3 describes the data and examines
the empirical results. Concluding remarks
are in section 4.
systematic risk measured by its covariance
with the market portfolio. Under the
hypothesis of perfect stock market
integration, an international conditional
version of the CAPM can be written as:
(
Methodology
The capital asset pricing model (CAPM)
predicts that the expected excess return
on an asset is proportional to its
(
)
where Ritl is the excess return on asset l in
country i, RWt is the excess return on the
world market portfolio and δ m ,t −1 is the price
of world market risk. All expectations are
taken with respect to the set of information
variables Ω t −1 .
Conversely, under the hypothesis of
complete stock market segmentation, the
returns will be generated by the following
version of the conditional domestic CAPM:
(
)
(
)
E Ritl / Ω t −1 = δ i ,t −1 Cov Ritl , Rit / Ω t −1 , ∀ l , i
(2)
where Rit is the excess return on market
portfolio of country i and δ i ,t −1 is the price
of domestic risk.
At the national level, (2) can be written as:
E (Rit / Ω t −1 ) = δ i ,t −1 Var (Rit / Ω t −1 ), ∀i
(3)
However, recent studies suggest that
expected returns should be influenced by
both global and local risk factors, i.e.
markets should be partially integrated, see
among others, Bekaert and Harvey (1995)
and Gerard et al. (2003). In this partially
segmented framework, the returns should be
governed by
E (R it / Wt - 1 ) = j
+
I.
)
E Ritl / Ω t −1 = δ m,t −1Cov Ritl , RWt / Ω t −1 , ∀i
(1)
(1 - j
i ,t - 1
i ,t - 1
dm ,t - 1Cov (R it , RW t / Wt - 1 )
) di ,t - 1 V ar (R it / Wt - 1 ) " i
(4)
where ϕ i ,t −1 is interpreted as a measure of
the degree of market integration.
8
In investigating stock market integration,
we test for each country whether the
integration degree ϕ i ,t −1 is significantly
equal to zero and to 1. If ϕ i ,t −1 is zero,
then only domestic variance is priced: the
market i is completely segmented. If
ϕ i ,t −1 is one, then only the covariance
with the world market portfolio is priced
and
the
hypothesis
of
market
segmentation is rejected. Finally, if
0 < ϕ i ,t −1 < 1 , the market i is partially
conditional variances and covariances are
higher during stock market downturns, the
econometric specification should allow for
asymmetric effects in variances and
covariances. To accommodate this feature of
the data, we propose an asymmetric
extension of the multivariate GARCH
process proposed by De Santis and Gerard
(1997). Formally, H t can be written as
follows:
Η t = C ′C + aa′ * ε t −1ε t′−1 + bb′ * Η t −1 + ss ′ * ξ t −1ξ t′−1 + zz ′ *η t −1η t′−1
(6)
integrated in the world stock market.
Next,
consider
the
econometric
methodology. Equation (4) has to hold
for every asset including the market
portfolio. A benchmark system of
equations can be used to test the partially
integrated conditional ICAPM. For an
economy with N risky assets (the Nth
asset the world stock market portfolio),
the following system of pricing
restrictions has to be satisfied at each
point in time:
R1t = ϕ1 δm,t−1h1Nt + (1−ϕ1)δd1,t−1 h11,t +ε1t
M
RN−1,t = ϕN−1 δm,t−1hN−1,Nt + (1−ϕN−1)δd,N−1,t−1 hN−1,N−1,t + εN−1,t
RN,t =δm,t−1hN,Nt +εNt
(5)
where
ε t = (ε 1t , K , ε N −1,t , ε Nt ) ′ / Ω t −1 ~ Ν (0, Η t )
, Η t is the (N × N ) conditional
covariance matrix of asset returns, hiNt is
the conditional covariance of domestic
market i with the market portfolio and
hiit the conditional variance of market i.
The dynamics of conditional moments
are left unspecified by the model. A
common assumption made in literature is
that the second moments of returns
follow
a
GARCH(1,1)
process.
Moreover, if, as is argued in univariate
and bivariate cases by Glosten et al.
(1993) and Kroner and Ng (1998), the
where
ξ it = ε it Iξ it
where
Iξ it = 1
if
I η it = 1
if
ε it < 0 otherwise Iξ it = 0 ,
η it = ε it I η
it
where
ε it > hiit otherwise 0,
C is a (N × N ) lower triangular matrix and
a, b, s and z are (N × 1) vectors of unknown
parameters.
This parameterisation implies that the
variances in H t depend asymmetrically only
on past squared residuals and an
autoregressive component, while the
covariances depend asymmetrically upon
past cross-products of residuals and an
autoregressive component. In particular, it
guarantees that the conditional variance
matrix is definite and positive. We find the
symmetric GARCH process of De Santis
and Gerard (1997) when s = z = 0 .
The final step is completing a process for the
evolution of conditional prices of risk. The
evidence in Harvey (1991) and De Santis
and Gerard (1997) suggests that the price of
risk is time varying. Furthermore, Merton
(1980) shows the price of world market risk
to be equal to the world aggregate risk
aversion coefficient. Since most investors
are risk averse, the price of risk must be
positive. In this paper, we follow De Santis
and Gerard (1997) and Gerard et al. (2003)
and model the dynamics of the risk prices as
a positive function of information variables:
9
δ t −1 = exp(κ W′ Z t −1 )
and
) , where Z and Z are
δ di ,t −1 = exp(κ
respectively a set of global and local
information variables included in Ωt −1
and κ is a set of weights that the investor
uses to evaluate the conditionally
expected returns.
i
i′ Z t −1
i
Equations (5) and (6) constitute our
benchmark model. Under the assumption
of conditional normality, the loglikelihood function can be written as
follows:
ln L (θ ) = −
TN
1 T
1 T
ln( 2π ) − ∑ ln Η t (θ ) − ∑ ε t′ (θ )Η t−1 (θ )ε t (θ )
2
2 t =1
2 t =1
(7)
where θ is the vector of unknown
parameters. To avoid incorrect inference
due to the misspecification of the
conditional density of asset returns the
quasi-maximum
likelihood
(QML)
approach of Bollerslev and Wooldridge
(1992) is used. Simplex algorithm is used
to initialize the process, then the
estimation is performed using BHHH
algorithm.
II.
Data and estimation results
We use monthly returns on stock indexes
for four countries plus a value weighted
world market index over the period
February 1970– December 2003. Given
the aim of the paper, we select two large
markets (the United States and the United
Kingdom) and two small markets (Hong
Kong and Singapore). All the indices are
obtained from Morgan Stanley Capital
International (MSCI) and include both
capital gains and dividend yields. Returns
are computed in excess of the 30-day
Eurodollar deposit rate obtained from
DataStream and expressed in American
dollar.
On the other hand, empirical research has
found support for a time-varying price of
risk. The price of risk is often modelled as a
function of a certain number of instruments,
which are designed to capture expectations
about business cycle fluctuations. The logic
which justifies the use of these instruments
is that investors become more risk averse
during economic troughs while the market
price of risk decrease during expansionary
phases of the business cycle. In order to
preserve the comparability between this
study and others studies, the choice of global
and local information variables is mainly
drawn from previous empirical literature in
international asset pricing, see Harvey
(1991), Ferson and Harvey (1993) and
Bekaert and Harvey (1995). The set of
global information includes a constant, the
MSCI world dividend price ratio in excess
of the 30-day Eurodollar deposit rate
(WDY), the change in the US term premium
spread measured by the yield on the ten-year
US Treasury note in excess of the onemonth T-Bill rate (DUSTP), the US default
premium measured by the difference
between Moody’s Baa-rated and Aaa-rated
corporate bonds (USDP) and the change on
the one month Euro$ deposit rate (DWIR).
The set of local information includes a
constant, the local dividend price ratio in
excess of the local short-term interest rate
(LDY), the change in the local short-term
interest rate (DLIR) and the change in
industrial production (DIP). Information
variables are from MSCI, the International
Financial Statistics (IFS) and DataStream
and are used with one-month lag relative to
the excess returns.
Descriptive statistics for the excess returns
and conditioning information variables, not
reported here in order to preserve space but
available on request, support the GARCH
parameterisation we use, and show in
particular that our proxy of the information
set contains no redundant variables.
We estimate the model (5) for each of the
local stock markets and the world market in
two steps. In fact, under the full integration
hypothesis the price of world market risk is
the same of all countries. So, we first
10
estimate the world market equation and
then impose these world estimates on the
local countries in a set 4 bivariate
regressions.
Table 1 contains parameter estimates and
a number of diagnostic tests for the
partially segmented conditional ICAPM
with asymmetric GARCH process. The
ARCH coefficients and GARCH
coefficients reported in panel C are
significant for all assets. This is in line
with previous results in the literature. The
coefficients a are relatively small in size,
which indicates that conditional volatility
does not change very rapidly. However,
the coefficients b are large, indicating
gradual fluctuations over time. One of the
advantages of our approach is to
authorize for asymmetric variance and
covariance effects. The significant
coefficients in the vector s imply that the
conditional variance is higher after
negative shocks for all markets except
Hong Kong. In the same way, the
significant coefficients in vector z
indicate that the conditional variance is
higher after shocks large in absolute
value for all markets.
Panel A of Table 1 shows the mean
equation parameter estimates, Panel D
reports some specification tests and Panel
E reports residual diagnostics. For the
world price of risk, the constant and the
coefficients of WDY, USDP and DWIR
are significant. The average price of
market risk is equal to 3.47 and is highly
significant, which is consistent with the
findings by earlier studies. On the other
hand, the conditional version of the
model implies that investors update their
strategy using the new available
information. Thus, there is no reason to
believe that the equilibrium price of risk
will stay constant. The robust Wald test
for the significance of the time-varying
parameters in the price of world market
risk rejects the null hypothesis at any
standard level.
Concerning the prices of domestic residual
risk, the results show that, except LDY and
DLIR in the case of Hong Kong, none of the
estimated coefficients of local information
variables are significant. The sample means
of the prices of domestic risk are 0.963 for
the US, 2.369 for Singapore, 1.986 for the
UK and 2.096 for Hong Kong. Except for
Hong Kong, the prices of domestic risk are
insignificant. The robust Wald tests confirm
these results and suggest that domestic risk
is not a priced factor for U.S., U.K. and
Singapore. For Hong Kong, the domestic
price of risk is significant and time-varying,
i.e. the Hong Kong stock market is partially
segmented and then investors in Hong Kong
face both common and country-specific
risks and price them both.
The integration estimated weights reported
in Panel B of Table 1 confirm these
findings. The estimated integration degrees
are 0.919 for Singapore, 0.912 for UK,
0.965 for US and only 0.613 for Hong
Kong. Thus, except for Hong Kong, the
markets appear to be extensively integrated
into world stock markets.
Next, we consider a number of robustness
tests. To address this issue, we estimate an
augmented version of the model that
includes, in addition to market and domestic
risks, a country specific constant and the
local instrumental variables Z i :
E (Rit / Wt - 1 ) = a i + j i,t - 1 dm ,t - 1Cov (Rit , RWt / Wt - 1 )
+ (1 - j i,t - 1 ) di,t - 1 Var (Rit / Wt - 1 ) + f i Z ti- 1 " i
(8)
The inclusion of the country-specific
constants can be interpreted as a measure of
mild segmentation or as an average measure
of other factors that cannot be captured by
the model like differential tax treatment. The
inclusion of local instrumental variables can
be interpreted as a way to test whether any
predictability is left in the local information
variables after they have been used to model
the dynamics of the domestic risk prices.
11
The results are reported in Table 2.
Except for Hong Kong, the country
intercepts are not different from zero. On
the other hand, the null hypothesis that
for each country the local information
variable coefficients are jointly equal to
zero cannot be rejected for all markets.
Taken together, the findings of these tests
support the estimated models.
change est-il apprécié?, Revue Finance,Vol. 27,
n°1, pp. 131-170.
Finally, taking into account the fact that
financial integration is an ongoing
process, we re-estimate the model over
two sub-periods 1970-1987 and 19872003. The results of the sub-period
analysis, not reported here in order to
preserve space but available on request,
are similar to those obtained from the
whole period analysis and show that there
is no strong evidence of stock market
segmentation for Singapore, UK and US,
and that the Hong Kong stock market is
partially segmented.
BOLLERSLEV T. and J. M. WOODRIDGE
(1992),Quasi-maximum likelihood estimation
and inference in dynamic models with timevarying covariances, Econometric Review, 11, p.
143-172.
Conclusion
This paper develops and tests a partially
segmented ICAPM using an asymmetric
multivariate GARCH specification for
two developed markets (the U.S. and the
U.K.), two emerging markets (Hong
Kong and Singapore) and World market
over the period 1970-2003. This fully
parametric empirical methodology, with
sign and size asymmetric effects, allows
to the prices and quantities of risks to
vary asymmetrically through time. The
evidence supports the estimated models
and shows that the markets of Singapore,
UK and US are reasonably well
integrated into world stock markets
whereas the Hong Kong market is
partially segmented.
References
AROURI M. H. (2006),La prime de risque
dans un cadre international: le risque de
AROURI M.H. (2005), Intégration financière et
diversification internationale des portefeuilles,
Economie et prévision, n° 168/2 pp. 115-132.
BEKAERT G. and C. HARVEY (1995),Time
varying world market integration, Journal of
Finance, 50 (2), p. 403-444.
CARRIERI F., V. ERRUNZA and K. HOGAN
(2003),Characterizing world market integration
through time, Working Paper, McGill
University.
DE SANTIS G. and B. GERARD
(1997),International asset pricing and portfolio
diversification with time varying risk, Journal of
Finance, 52, p. 1881-1912.
DE SANTIS G., B. GERARD and P. HILLION
(2003),The relevance of currency risk in the
EMU, Journal of Economics and Business, 55,
p. 427-462.
FERSON W. and C. HARVEY (1993),The risk
and predictability of international equity returns,
Review of Financial Studies, 6, p. 527-566.
GERARD B., K. THANYALAKPARK and J.
BATTEN (2003),Are the East Asian markets
integrated? Evidence from the ICAPM, Journal
of Economics and Business, 55, p. 585-607.
GLOSTEN L., R. JAGANNATHAN and D.
RUNKLE (1993),Relationship between the
expected value and the volatility of national
excess return on stocks, Journal of Finance, 48,
p. 1779-1801.
HARVEY C. (1991),The world price of
covariance risk, Journal of Finance, 46(1), p.
111-157.
KRONER K. and V. NG (1998),Modelling
asymmetric comovements of asset returns,
Review of Financial Studies, 11, p. 817-844.
12
LIM, K., H. LEE and K. LIEW
(2003),International diversification benefits
in Asian stock markets: a revisit, Mimeo,
Lebuan School of International Business and
Finance, Universiti Malasya Sabbah y
Faculty of Economics and Management,
University Putera Malaysia.
MASIH A. and R. MASIH (1997),A
Comparative analysis of the propagation of
stock market fluctuations in alternative
models of dynamic causal linkages, Applied
Financial Economics, 7, p. 59-74.
MASIH A. and R. MASIH (2001),Long and
short term dynamic causal transmission
amongst international stock markets, Journal
of International Money and Finance, 20, p.
563-587.
MERTON R. (1980),On estimating the
expected return on the market: an explonary
investigation,
Journal
of
Financial
Economics, 8(4), p. 323-361.
PHYLAKTIS K. and F. RAVAZZOLO
(2000),Stock prices and exchange rate
dynamics, Mimeo, City University Business
School.
PHYLAKTIS K. and F. RAVAZZOLO
(2004),Stock market linkages in emerging
markets: implication for international
portfolio
diversification,
Forthcoming,
Journal of International Markets and
Institutions.
ROCA E. and E. SELVANATHAN
(2001),Australian and the three little dragons:
are their equity markets interdependent?,
Applied Economic Letters, 8, p. 203-207.
13
Table 1: Quasi-maximum likelihood estimates of the partially integrated conditional
ICAPM
Panel A: parameter estimates-mean equations
(a) Price of world market risk
Const.
WDY
DUSTP
USDP
DWIR
0.573*
(0.006)
1.312*
(0.227)
-0.944
(2.732)
0.599**
( 0.237)
-0.949***
(0.571)
Price of market
risk
(b) Price of domestic risk
Const
LDY
DLIR
DIP
Singapore
U.K.
Hong Kong
U.S.
-0.004
(0.003)
1.956
(1.252)
-0.869
(0.592)
0.329
(1.440)
-0.334
(0.237)
0.008
(0.009)
0.408
(1.337)
0.460
(0.932)
0.405
(0.277)
-1.056**
(0.481)
-0.005***
(0.003)
-1.066
(0.735)
0.560
(1.1555)
0.408
(1.337)
-0.061
(1.092)
0.037
(0.170)
U.K.
0.912*
(0.179)
Hong Kong
0.613*
(0.030)
U.S.
0.965*
(0.032)
Panel B : Integration Parameters
ϕ
Singapore
0.919*
(0.241)
Panel C: parameter estimates-GARCH process
a
Singapore
0.223*
(0.027)
U.K.
0.280*
(0.020)
Hong Kong
0.180*
(0.107)
U.S.
0.381*
(0.052)
World
0.168*
(0.043)
b
0.665*
(0.332)
0.652*
(0.073)
0.489*
(0.033)
0.489*
(0.125)
0.732*
(0.041)
s
0.096**
(0.046)
0.015*
(0.005)
0.033
(0.032)
0.014*
(0.001)
0.011 *
(0.002)
z
-0.036***
(0.020)
-0.025*
(0.009)
0.117*
(0.044)
-0.009*
(0.020)
0.074**
(0.033)
Panel D: Specification tests
χ2
df
p-value
Is the price of world market risk constant?
H 0 : δ m, j = 0 ∀ j > 1
48.40
4
0.000
Is the price of American domestic risk equal
to zero?
H 0 : δ dUs, j = 0
0.36
4
0.985
Is the price of Singa domestic risk equal to
zero?
H 0 : δ dS , j = 0
7.148
4
0.128
Is the price of Hong K. domestic risk equal to
zero?
H 0 : δ dHK , j = 0
22.613
4
0.000
Is the price of Hong K. domestic risk
constant?
H 0 : δ dHK , j = 0 ∀ j > 1
7.845
3
0.049
Is the price of British domestic risk equal to
zero?
H 0 : δ dUK , j = 0
2.892
4
0.575
Null hypothesis
14
Panel E: Residual diagnostics
Mean( × 100)
Skewness
Kurtosis(1)
J.B.
Q(12)
Singapore
-0.000
0.10
5.05*
425.18*
13.885
U.K.
-0.002
1.102*
10.293*
1842.4*
18.417
Hong Kong
0.001
0.811*
9.934*
1684.5*
13.709
U.S.
-0.001
-0.331*
1.592*
49.458*
8.946
World
-0.001
-0.417*
1.164*
34.122*
12.628
*, ** and *** Denote statistical significance at the 1%, 5% and 10% levels. (1) centred on 3. QML robust standard errors are reported in parentheses. In order
to
preserve space, estimates of the intercepts matrix C is not reported.
Table 2 : Robustness tests
Panel A: Is the constant α i equal to zero?
Singapore
U.K.
Hong Kong
U.S.
0.001
(0.003)
-0.005
(0.020)
0.019**
(0.010)
-0.001
(0.003)
Panel B: Are the local information variable coefficients jointly equal to zero?
Singapore
χ
2
3.401
U.K.
df
pvalue
3
0.334
χ
2
2.003
Hong Kong
df
pvalue
3
0.572
χ
2
5.907
*, ** and *** Denote statistical significance at the 1%, 5% and 10% levels.
U.S.
df
pvalue
3
0.116
χ
2
1.922
df
pvalue
3
0.588
Business angels: the smartest money for starters?
plead for a renewed policy focus on business angels
Rudy AERNOUDT2
Abstract
Government policy to stimulate growth, innovation and especially the creation of new
enterprises is rather focused on access to finance mainly through increasing the supply of
capital. As formal venture capitalists are moving towards larger deals and shifting their
investments to a later stage of development, creating a “second” equity gap, business angels
become more important in the financing of seed, early stage and second round phases.
Government policy to stimulate financing should hence be considered as a priority. However,
policies have to be focused both on the supply side and the demand side and combined with a
cultural change. Government should look at innovative ways to stimulate business angel
financing rather than coping with market failures by bureaucratic subsidy schemes. Inspired
by the Fifty Ways To Leave Your Lover (Simon and Garfunkel), I developed seven ways to
stimulate business angel investment. Coping with the second equity gap can mainly happen
by stimulating syndication and by setting up co-investment schemes. Investor readiness,
corporate orientation, business angel networks, business angel academies and the integrated
finance concept can be considered as key concepts in coping with the information asymmetry
problem.
keywords
agency theory, business angel, entrepreneurial orientation, hangover angels, investmentreadiness, perverse risk-return relationship, reverse pecking order, second equity gap, small
equity gap.
2
The author is Head of Cabinet to the Flemish Minister of Economy, Enterprise, Research, Innovation and
External TradeHe was previously responsible for venture capital and business angels’ actions at the European
Commission. Address: Place des martyrs 7, 1000 Brussels, Belgium ([email protected]).
Reverse pecking order
The traditional pecking order theory
suggests that the financing source of
choice is earnings retention, followed by
external debt. External equity is the last
resort. This traditional approach can
however be confronted by the excessive
demand for external equity, especially for
start-ups. This demand can be explained by
the absence of interest costs on the one
hand, and fixed payback obligations on the
other. Indeed, even if, as is shown by a
number of surveys, desired return on seed
and early stage investments are excessive,
varying from 25 to around 80 %, one
should bear in mind that these rates depend
on expected revenues and do not constitute
actual interest payments.
The business angel’s stake in the company
will depend on the perceived worth of the
company and the amount of capital he
wants to disburse. The owners’ preference
for business angel financing is hence
comprehensible: no fixed financial
expenses have to be foreseen in the
business plan a smart partnership between
the business angel and the entrepreneur
might lead to higher future net value of the
company as both parties are involved and
committed the business angel financing
might open doors to second round venture
capital or to classical debt financing
Therefore, and despite the non-existence of
empirical evidence linked to business angel
financing in the matter, we might assume
that the traditional finance pecking order
seems to be reversed for start-ups,
especially for high-tech start-ups. Business
angel financing can in this sense no longer
be considered as last resort as literature
tends to suggest.
Real entrepreneurs consider indeed that not
all money is the same. They take into
account several criteria when they are
considering different sources of finance for
their ventures. To achieve a successful and
profitable business development it is
necessary to ensure that the right type of
money is matched to the real risk involved.
For a start-up, with no income until the
product is fully developed and the first
sales are made, debt finance is rarely the
best source of external finance. Debt
finance is usually secured on assets. The
longer or the more uncertain the exit
period, the higher the collateral required.
Moreover, the riskier the project, the
higher the anticipated reward that is
needed to attract investors. We should
respect lifestyle companies but, as venture
capital-backed companies have faster
growth rates, policy matters should be
focused on fast growing companies or
“gazelles”
and
on
convincing
potential“gazelles” to grow based on a
partnership relation with their main
investors. Besides the high level of
expected return required, the real cost of
venture capital is the control and induced
information requirements a venture
capitalist wants to have about the
company. As business angels focuse more
on the jockey than on the horse, we can
assume that business angels can be the real
entrepreneurs’ best choice.
Perverse risk-return relationship
While the pecking order focuses on the
demand side the risk-return relationship
rather concerns the supply side. On the
formal risk capital scene, we see a
persistent decline of the share of early
investment. MBO financing still plays the
most important role on the risk capital
scene in Europe. This lower risk business
is even not considered as risk capital in the
USA and one might ask whether banks
could not finance those MBOs through
more creative credit schemes. MBOs are
not particularly risky, but often the buyers
are not able to offer sufficient collateral.
The default rate on MBO operations is
estimated at 3% against 50 % for seed and
early stage (Ploix 2004). At first sight
17
venture capitalists, in their mainstream
activity, differ from banks only in that they
take (limited) risk without sufficient
coverage in case of failure, rather than in
the overall level of risk they assume. This
means that banks and venture capitalists do
not complement each other as they should,
implying that few finance suppliers are
interested in projects combining lack of
collateral with high risk, such as start-ups.
Even in the way venture capitalists
evaluate projects, they do not differ from
banks. The classical discounted cash-flow
method, together with the use of
comparables is by far the most used
evaluation method (Babson college, 1999).
More academic methods such as the
option-based approach or the residual
approach are hardly ever used. These
conventional appraising methods do imply
a bias towards projects characterised by a
stable cash-flow projection in the short run.
Start-up companies and projects with a
long incubation period and a huge burn
rate are therefore less attractive to the
venture capitalist.
The fact that most risk capitalists perceive
and appraise projects through the bankers’
eyes is not surprising. Most of the fund
managers are ex-bankers making a career
move towards risk capital funds, often
being part of the banking group. Moreover,
bankers are in Europe, as opposed to the
US, the most important source of finance
of the risk capital sector. In North
America, venture capital is raised from
funds with longer investment terms,
mainly from institutional investors such as
public and private pension funds and
insurance companies rather than banks,
which tend to be the largest investors in
Europe (OECD 2000).
These factors explain of course why the
risk capitalists’ view differs only slightly
from a banking approach. This bankers’
view is confirmed when we have a closer
look at the number of SMEs at start-up and
seed stage that receive venture capital
finance and the amounts involved. We
obtain an unsettling reality. In Europe only
one fifth of all risk capital within the EU
goes to start-up and early stages.
We can wonder why venture capitalists
have such a noticeable preference for
MBOs and mature companies. Investors
should, conform with the portfolio theory,
spread their assets over the different stages
of the companies instead of concentrating
on the big deals. The problem can be
tackled by applying the agency theory to
the venture capital sector. Investors, and
especially institutional investors, are rarely
involved in the daily management of the
fund. The fund manager is rewarded on
basis of the carried interest principle and
therefore prefers big, not labour intensive,
deals with short term exit opportunities.
Consequently, the injection of - public or
private - money into the market is not
likely to solve the problem of shortage of
risk capital for start-up and small amounts
investments, on the contrary.
The Netherlands is probably one of the
countries with the most developed equity
culture in Europe. If, in relative terms,
each of the Member States had the same
investments in private pension funds as the
Netherlands, an extra five thousand billion
EUR could be available in EU capital
markets. Moreover for decades they have
been the country in Europe with the
biggest share of seed and start-up. Many
years ago (in 1988), the Netherlands even
exceeded, proportionally, the USA.
Therefore it is worthwhile to have a closer
look at this country. The main reason why
the share of seed capital in the Netherlands
decreased in the nineties was the
concentration phenomenon in the venture
capital market. While in the eighties,
around a hundred funds were active,
nowadays only one third remain. Moreover
5 funds account for 80 % of all deals
(Brouwer and Hendrix, 1998). As
management does not vary with the size of
the fund, less productive activities receive
lower priority. Therefore less attention is
given to seed and start-up proposals.
A similar phenomenon, although to a lesser
extent, was seen in the US. Using the
Venture Capital fund model, simulation
showed the positive impact of the fund’s
scale on the investment return for the
managing partners. As the fund size
increased, the attraction of investing small
amounts
of
money
in
start-ups
correspondingly
diminished
(Murray
2000). Indeed, the cost of due diligence,
audit and monitoring is not related to the
size of the investment. Therefore, small
projects are less interesting for venture
capital. Hence, it is not surprising that seed
investments are not the privileged
customers of venture capital funds. Thus
the success of the overall risk capital
market implies that seed capital becomes a
less and less attractive option.
This theoretical approach is confirmed
when we look at the markets. Although the
UK for instance still represents almost half
of the EU market, studies concluded that
British SMEs are faced with huge
problems in their seed, start-up and fast
growth phases. In the slow growth and
MBO phase, there is no longer an equity
gap
problem
(KPMG
1999).
Correspondingly, the Bank of England
states in its report that it becomes more and
more difficult for SMEs to gain access to
smaller amounts of financing (Bank of
England 2000).
Although we can agree that provision of
equity finance should be sufficient to meet
the needs of enterprises, there is a problem
of financing for (small) starters and fast
(technology) growers as the supply of risk
capital is mainly oriented towards the lessrisky segment of the market. Perhaps
business angels can partly fill the “small
equity gap”, as they are more focused on
small amounts. However, preliminary
research seems to show a positive
correlation between high performance and
the size of the investment for both informal
and formal capital (Mason 1999). This
leads us to the ironic conclusion that the
more the venture capital market is
booming, the more difficult it is to obtain
start-up risk capital.
Early stage venture capital can only
increase its share in total investments, if its
revenues exceed those of other types of
investment. As long as the higher risk
involved in start-up financing is not
rewarded by a higher return, as the EVCA
figures yearly illustrates, any policy
intended to promote start-up financing is
doomed to fail. The last twenty years
(average EVCA figures 1986 - 2003) for
instance, the return on MBO operations
was 9,6% against 2,3% for seed and early
stage.
The market does not function at the
lower end : the small and second equity
gap
This demand and supply analysis allows
us to explain why the market does not
function, especially at the lower end, i.e.
start-up and early financing. Ironically, in
the market segment where suppliers are not
interested because of high costs and low
returns, entrepreneurs are more receptive
to external finance. In the growth phase,
where venture capitalists become more
interested in investing in the company,
companies’ enthusiasm for external
finance diminishes. This real cost approach
can help us in trying to understand the
paradox. The different elements put
together can graphically be illustrated as
follows:
Graph 1
Supply and demand for risk capital according to enterprise’s development stage
a •
SRC=f(risk)
•c
•d
•b
DRC=f(control)
Enterprise’s development stage
Seed
Start-up
Early Stage Expansion Mature
The interest for risk capital is larger in the
seed and start-up phase than for the later
stage. Control is felt as less of an
impediment to venture capital investment
in the start-up than in a more advanced
development stage and the benefits from
management assistance are considered
important. For the same reasons, demand
for risk capital decreases with the
evolution of the company. On the supply
side of the market we see the opposite.
Venture capitalists try to avoid the risks
and prefer big, less labour intensive, deals
rather than the riskier phases.
Therefore, seed and start-up investments
still encounter huge problems in finding
venture capital. They are in a sellers’
market (a>b). The few venture capitalists
operating in this segment of the market use
their position as an oligopoly to request
higher return premium and apply stringent
rules. A survey indicates that the desired
return on seed investments is estimated at
100% (Leleux 2000) and that they are very
severe in the selection and due diligence
(only one out of hundred proposals is
retained).
expansion phase. In the expansion phase
(fourth round financing), only a few
companies are interested in opening their
capital to venture capital funds. Given that
most of these companies do generate cash
flow, and conform with the empirically
confirmed
pecking
order
theory,
companies in their expanding phase prefer
self-financing and credit financing to risk
capital. Risk capitalists and fund managers,
sellers of money, prefer these expansion
investments and given the buyers’ market
(c>d) they have to reduce their conditions.
If venture capitalists want to find projects,
they will have to accept a lower desired
return and adopt an investment strategy
that implies less control on the daily
management. Therefore, not only the lower
risks position, but also the bargaining
position makes it easier for a company to
obtain risk capital at appropriate conditions
for expansion financing. In this sense, the
internet bubble could lead to more realistic
expectations both for venture capitalists
(for their desired return) and for
entrepreneurs
(for
their
valuation
expectations) and have a positive impact
on the venture capital market for the years
to come.
On the other hand, as venture capital
markets are booming and fundraising is
easy, venture capitalists are “desperately”
looking for projects to invest in in the
20
Nevertheless, it is still only in the (late)
early stage that entrepreneurs and venture
capitalists can conclude a deal at
competitive market conditions. Risk
capitalists should in this not try to exploit
the information asymmetry problem and
real entrepreneurs should seek to benefit
from the opportunities offered by the
venture capital market rather than citing
loss of control as the reason for their
unwillingness to open their capital to
external investors. One could of course
argue that the lower expected return only
reflects the lower risk linked to the
development stage of the company.
However, the very high differences can not
only be explained by the classical risk
premium theory. The market structure and
the accuracy of the information asymmetry
are other elements to be taken into account.
Desired return might correlate more with
the bargaining position than with the risk
position of the investor. Although as far as
I know, empirical research on this field is
lacking, the following table might clarify
this position.
Table 1
Enterprise’s development stage and investors’desired return
Development
Stage
Desired return
Market
structure
Risk level
Seed
Start-up
Early stage
Expansion
Mature
80 – 100%
mono/
oligopoly
very high
40-70%
oligopoly
30-40%
competition
25-30%
oligopsony
rather high
normal
limited
20%
mono/
oligopsony
very limited
Therefore, although entrepreneurs are
equity minded in their start-up phase, they
are faced with big difficulties in obtaining
risk financing under acceptable conditions.
Consequently, only one out of three
thousand starters in Europe conclude a
start-up deal with a venture capitalist,
whilst one out of ten could be considered
as a potential venture capital backed
company (Bannock 2001). This confirms
our ironic conclusion that a booming
market can coïncide with huge difficulty of
access to finance for starters.
This approach allows us to understand why
a big share of the risk capital is oriented
towards MBO financing. Entrepreneurs
have no choice as both collateral and selffinancing are missing. Suppliers have
(almost) no risk as the track record is
proven and try to realise a high return
based on a good deal structure. And
national and European venture capital
associations can continue publishing
healthy growth rates for the venture capital
sector as a whole. And a lot of starters
remain frustrated by not being able to
attract funding. .
The shift of the formal venture capitalist
towards the third round and MBO
financing implies that business angels,
mainly focused on the seed phase, have to
extend their financing to the second round,
in order to bridge the gap. This so-called
second equity gap involves a need for
bigger amounts of money for the business
angel and makes it more difficult to spread
his risks over a significant number of
projects.
Plea for a coherent policy approach:
seven measures to stimulate business
angels
It is clear that despite the capital
abundance the market does not function at
the lower end and that business angels
might be best placed to fill the small and
second equity gap. However, as business
angels are very different in their perception
21
and functioning from formal investors, it
doesn’t make sense to try to extrapolate
policy measures used to stimulates formal
venture capital, such as injecting money
into the markets through fund of funds or
through guarantee schemes to business
angels (Aernoudt 1999). Stimulation of the
use of informal capital in order to facilitate
access to funds or money for enterprises
needs a different approach.
Indeed, from what precedes, it must be
clear that business angels don’t need
money. The fact that they have money
makes them business angels. Their own
capital, often the result of a successful sale,
covers the availability of money. In order
to limit their risk, the part of their capital
that they make available for informal
investments often amounts only a limited
part of their assets. The amounts available
to invest are sufficient to cover the seed
phase of the company but may be
insufficient if they are confronted with the
withdrawal of the formal venture
capitalists, who are obliged to deal with the
second round financing.
Government should focus on the tax and
regulative aspects. All administrative, tax
and other regulations impeding the
development of informal risk capital
should be removed. However, in order to
secure both, sufficient availability of funds
and maximum spread of risk for the
investor, new ways should be examined
such as stimulating syndication and, why
not, public co-investment schemes.
The main problem however remains lack
of information and awareness, both from
the side of the entrepreneur and the side of
the business angel. Indeed, different
economic studies show that markets,
including financial markets, can never
work efficiently as there is always an
information gap. One might assume that
this information gap is particularly
noticeable in the field of business angel
financing. Although the problem of
information asymmetry as such can never
be completely solved, different techniques
can enhance a better mutual understanding
between the different partners. Different
ways of increasing knowledge and
awareness amongst entrepreneurs, business
angels and public authorities must be
explored.
In this context a number of measures can
be taken such as increasing the investor
readiness, stimulating potential through big
companies, revealing the business angel
vocation, setting up and increasing the
efficiency of networks and encouraging
financiers to work more closely together.
Let us have a look at each of these
approaches which of course should be set
up simultaneously.
I.
Syndication
Co-investment amongst business angels
has not been extensively studied by
academic research. Kelly and Hay (1996)
look at risk reducing strategies of solo
versus syndicated investors and establish a
link between the characteristics of the
investor, the referrals and performance of
the investment. The same authors in a later
paper (2000) found that syndication is
higher between the most experienced
angels. Osnabrugge presents similar results
from a study on serial and non-serial
business angels (1998). Syndication is
considered as a vehicle to acquire riskreducing information, which is possible
through consolidating the information
possessed by informants, often coinvestors. Therefore angels look for other
individuals who could be co-investors and
hence share the risk among (Aram 1989).
The pattern of co-investment is thus
determined by the risk aversion character
of the business angel.
Syndication is an increasingly relevant
phenomenon within business angel
investment for several reasons. First of all,
the financial capabilities of solo business
angels are limited, - median investment
size is estimated between 60000 and 100
000 euro - and the shift of venture capital
22
funds towards larger deals is creating a
“second” equity gap. Secondly, it seems
that syndicated groups invest more in early
stage companies than solo investors (Kelly
and Hay, 1996). Thirdly, syndicated
investment with experienced investors is
one of best instruments to learn the
essentials of informal investing and hence
to activate latent business angel’s capital
(Aernoudt and San José, 2005). In this
sense, the promotion and facilitation of
business angels’ syndication should be
high on the agenda of researchers and
policy makers.
angel’s decision to invest. Such a scheme
was successfully implemented in Belgium
at the end of 2002 and since then, most of
the business angels deals appeal for the
scheme. The scheme, called “business
angel +”, consists of a subordinated loan of
maximum 125 000 euro granted to
businesses totally or partially financed by
business angels. The capital provided by
the business angel added to the capital
provided by the entrepreneur should at
least equal the amount provided by the
public fund. Pre-selection of the project is
undertaken by the business angel networks.
II.
III. Investor readiness
Co-investment schemes
One of the main reasons to stimulate
syndication is to increase the financial
capacities of the solo business angel in
order to allow him or her to cope with the
second equity gap. In addition to
syndication one might examine whether
the government could intervene by adding
dumb public money to the smart business
angels’ money. Both liberals and socialists
might be shocked for different reasons by
the idea of giving money to (rich) business
angels. However one should not forget that
not all business angels have deep pockets
and that the best way to avoid business
angels quitting the investment scene is to
push them to spread risks. Indeed, a lot of
business angels were obliged to continue to
invest in projects where they had financed
the first round as no other investor was
ready to take over. This led to the
concentration of many in only a few
projects and reduced the spread of the risk.
In case some of these projects went
bankrupt, risk inherent in the business,
business angels lost a lot of money and
some ceased their investor activity. These
investors, we could call them hangover
angels, should however be kept active.
One way of allowing business angels to
spread the risk is by developing coinvestment schemes where public money is
invested together with the business angel
investment and conditioned by the business
Entrepreneurs, especially those running
enterprises with growth potential and who
are willing to grow, need greater
understanding of venture capital and
specialist advice on how to structure
business plans to secure external equity
finance. There is evidence that some firms
hold back from seeking external finance
because they are unsure about the
practicalities and worried about the
complications (DTI 2001). An empirical
study carried out in Australia confirmed
that by making new ventures investorready the business-investor community
avoids a substantial waste of money
(Douglas 2002).
We could speak of a gap in the market akin
to the classic equity gap: there is an
information gap between the demand for
and supply of funding, due to the fact that
entrepreneurs do not fully understand the
range of financial options. There seems to
be a certain amount of luck involved in the
search for funding. Financial institutions
should help in filling this information gap
of what is available and under what terms
and conditions. This investor-readiness gap
does not only apply to equity capital but is
relevant to all forms of finances. Going to
a business angel with a story written as a
pitch to a public sector development
agency is the quickest way to be shown the
exit door. Therefore part of what needs to
23
be done is to bring entrepreneurs to a point
where they recognise how to tell the right
story to the right investor at the right time.
IV.
characteristics of a business angel but only
a few systematically invest in starting
companies. Perhaps we should find better
ways of converting these virgin angels into
active informal investors.
Corporate orientation
Management skills and financing are
abundant in most big companies. This is
exactly what start-ups and SMEs are most
missing. A precondition for considering
big companies as the ideal partner for
SMEs and as the stimulus for regional
economies is entrepreneurial orientation
(Lumpkin 2002). This embraces five
dimensions, namely innovativeness, proactiveness, competitive aggressiveness,
autonomy and a willingness to take risk.
The “road to corporate entrepreneurship” is
not, however, the same for all companies
and more research is needed on the
influence of contextual factors on the link
between management instruments and
entrepreneurial
orientation.
Fostering
entrepreneurial orientation in large
corporations might have a significant
impact on the regional economy; directly
by its impact on their own performance,
and indirectly by its enhanced support for
SMEs.
While most of the research is based on the
impact of the entrepreneurial orientation of
big companies on their own performances,
little research is being done on the link
between entrepreneurial orientation and the
role big companies could play in helping
start-ups and SMEs. As hands-on
management and financing are the biggest
obstacles for the development of SMEs, let
me give some examples of possible
involvement of big companies in this area.
Big companies should help to fill the small
equity gap. We should look for innovative
ways to involve big companies in this stage
of financing by encouraging them to
participate actively in seed funds and by
involving their executives in business
angel activity. Most of the executives
could indeed be seen as fulfilling all the
Beyond the direct impact of smart money,
we should explore ways of bridging the
gap between formal or informal seed
financing and venture capital financing. As
venture capital becomes more and more an
expansion phase financing and MBO
business in Europe, with only a few seed
funds left we are faced with an exit
problem for the first-round financiers. Seed
funds are not capable of following the
second round, and traditional venture
capitalists consider the risk still too high at
this stage.
Corporate ventures could perhaps bridge
this gap by setting up co-investment
schemes with seed funds, especially in
sectors which have a link with the
corporate
investor.
Today
already
corporate investors represent around 6 %
of the annual equity raised in the venture
capital market, but there may be innovative
ways of trying to stimulate big companies
to invest in second-round financing, rather
than investing in an MBO-dominated
market. This can only be achieved by
converting corporate investors into smart
money investors, including hands-on
management, rather than leaving them in
their role as “followers” to the leading
venture
capitalist.
Recent
market
evolutions might help this conversion.
Making
big
companies
more
entrepreneurial and translating this into
accurate financing for SMEs should be the
real objective of corporate venturing.
Making
big
companies
more
entrepreneurially oriented should at the
same time be one of the best ways of
involving them in the supply of premises,
not as sponsors but as partners. The private
sector tends to undersupply premises for
SMEs given that rents are higher for retail
and residential uses. Thus the public sector
often gets involved in part-financing
24
business incubators, science parks, office
parks or industrial estates. Incubators have
indeed developed very quickly in Europe
but have been largely integrated into a nonprofit culture. Their aim is to contribute to
regional or local development (Aernoudt
2004). These first-generation incubators
have still a role to play, but, in addition,
real incubators should hatch primarily fastgrowing companies which ensure the most
added value and jobs. Incubators focused
on spin-offs are in this sense crucial. Big
companies could easily be involved in the
financing of both structures as the
traditional incubators might offer a lowrisk low-return approach whilst spin-off
incubators might fit into their new
entrepreneurial orientation. In this context
incubators should develop links with
business angels and business angel
networks.
V.
Business angel academy
It is often noted that even with funds, time
and experience, the three main ingredients
to become a business angel, the majority of
them are reluctant to make an initial
investment. When you question new
potential business angels, so-called “virgin
angels”, they mention the lack of a
structured framework. Giving them an
adequate understanding of the investment
process is therefore the perfect way to
increase the number of active business
angels. In this context the idea of a
business angel academy aiming at realising
this objective emerged.
The basic idea is that the investment
process is not straightforward. Business
angels need skills providing them with the
capabilities to assess the risk of investment
opportunities and manage the process.
Individuals who can not weigh the risk of
an opportunity at an initial stage will not
invest. In order to increase the investment
activity of potential business angels,
specific training mainly oriented towards
virgin angels, can have a significant
impact. This concept, marketed under the
name business angel academy has been
successfully tested in IASE Business
School Barcelona (Aernoudt, Roure and
San José 2005).
VI.
Business angel networks
One of the best ways to bridge the
information gap between business angels
and entrepreneurs is by setting up business
angel networks. The business angel
networks form a platform where SMEs and
business angels can make contact. This
platform can function through the internet,
magazines or organising fora. The
networks give SMEs access to a new
source of finance alongside bank financing
and risk capital.
The obstacle for the development of
informal investment, apart from the crucial
fiscal and regulative environment, is
indeed the lack of good and well presented
projects. If there is any market failure,
beside the specific issue of the business
angel academy, it is on the investees’ side
and hence, on how to find (not to select)
the potential projects. Investees have to be
guided in the presentation, both written and
oral, of their projects, and have to be
brought into contact with business angels
who might be interested in their projects.
Experiences in the United Kingdom and in
the Netherlands showed that this market
failure could easily be remedied with very
simple means and led to the establishments
of networks all over Europe. Evaluation
showed that the scale of the network, the
regional scale of the operation, the quality
of staff, the level of financial support, the
location, the complementary activities and
the long term support from the
stakeholders are considered as the success
factors for a sustainable business angel
network (Mason 2004).
VII. Integrated finance approach
Integrated finance is a concept that aims to
reduce the cost of finance for SMEs by
25
pro-actively analysing the likely finance
needs in the performance of a business
plan or project. It seeks to achieve
conditional offers from different finance
providers against performance milestones.
A venture capitalist can therefore commit
himself in principle to an investment at a
given point in a company’s development.
This, in turn, may offer comfort to a
business angel who is asked to provide
early stage capital. Further analysis of
expenditure
needs
may
identify
requirements in principle for invoice
discounting or asset finance at other points
of development.
This pro-active financial modelling
concept has a number of advantages: it
demonstrates a command of financial
requirements; it secures all the elements of
appropriate finance in one exercise; it
should reduce cost by removing elements
of uncertainty and it presents a strong
image of the company, thus enhancing its
prestige.
Implementing such an intelligent and
analytical approach to funding SMEs is
extremely difficult to achieve. It has not
happened so far. Banks and other finance
providers want to protect their margins and
their so-called “one-stop finance” is often a
misuse of the term. A proper diagnosis of
financial needs by product is beneficial but
a key element of integrated finance
thinking is competition between providers.
Many banks and finance providers already
offer a complete range of products but
offer them as a basket of services to
customers in which some components may
not be competitively priced. Hidden tariffs
such as these increase costs, undermine
sustainability and adversely affect cash
flow.
Companies and entrepreneurs can only
successfully exploit the potential of
integrated finance if they are robustly
prepared. A number of interventions have
already been tried. One of the most
successful has been the fit4finance
assessment panels designed and delivered
by
Business
Link
Hertfordshire.
Companies
present
their
funding
opportunity to a number of active finance
providers including bankers, venture
capitalists, grant providers and business
angels.
This panel-based “trial by expert” is
extremely effective in helping businesses
and entrepreneurs to assess internal
barriers to their access to finance, but also
very powerful in releasing competition
between the financiers. This movement
towards a more intelligent approach to
SME financing is only just beginning to
gather momentum but promises to unblock
many barriers preventing SMEs from fully
achieving their growth potential.
Some concluding remarks
It is clear that the market does not function
at the lower end and that business angels
become more and more the first investor
for starting companies now that venture
capitalists are moving towards the later
stage, with an noticeable MBO preference,
and towards bigger deals. Therefore
renewed public attention is needed for the
business angel phenomen. This should not
sanction public initiatives to take over
from the failing market by launching
expensive subsidy schemes, but should
encourage governments to look into
innovative ways to make the market work.
In this context coping with the information
asymmetry problem has been considered
crucial. Initiatives aiming at stimulating
the syndication process, the investors’
readiness, the location (and revelation) of
the potential business angel, the
involvement of big companies, the setting
up and making more efficient of the
business angel networks and the
integration of financing resources can be
considered as the best value for public
money approach. If co-investment schemes
are needed, the due diligence should be
done at business angel level without
involvement of the public financiers.
26
References
Aernoudt R., Roure J. and San José A.,
2005, Business Angels Schools, Unleasing
the potential for Business Angel
investment,
Venture
Capital,
An
International Journal of Entrepreneurial
Finance, Volume 7, number 2.
Aernoudt R., 2004, Incubators: tool for
entrepreneurship? in Small Business
economics, issue 23.
Aernoudt R.,1999a, European policy
towards venture capital, Venture Capital,
An
International
Journal
of
Entrepreneurial Finance, issue 1
Aernoudt R.,1999b, Business Angels,
should they fly on their own wings?,
Venture Capital, An International Journal
of Entrepreneurial Finance, issue 2
Aram J, 1989, Attitudes and behaviours of
informal investors towards early-stage
investments, Journal of business venturing,
4.
Bank of England, 2000, Finance for small
firms, seventh report.
Bannock, Innovative instruments for
raising equity, European Commission,
2001.
Brouwer M. and Hendrix B., 1998,Two
worlds of Venture Capital: What happened
to U.S. and Dutch Early Stage Investment?
in Small Business Economics 10.
Douglas E.J. and Shepherd D., 2002,
Exploring investor readiness: assessments
by entrepreneurs and investors in
Australia,
Venture
Capital,
An
International Journal of Entrepreneurial
Finance volume4
Entrepreneurial
Finance, 5.
and
Small
Business
Kelly P. and Hay M., 2000, Deal makers:
reputation attracts quality, Venture capital,
2.
Leleux, 2000, Valuation
concerns, IMD Lausanne
of
private
Lumpkin GT, Dess GG, 2002, Linking two
dimensions of entrepreneurial orientation
to firm performance, Journal of business
Venturing.
Mason C., 2004, Efficiency of Business
Angel Networks, Conference Halifax.
Mason C., 1999 The rates of return from
informal venture capital investments: some
evidence for the UK, conference paper, the
ESRC conference of Small firms Seminar
group, University of Middlesex, Hendon
Murray G, 2000, Seed capital Funds and
the Tyranny of (small) scale; Venture
Capital an international journal of
entrepreneurial finance, vol. 2
OCDE, 2000, “Venture Capital: Supply
vs. Demand issues” , Paris
Ploix H., Bâle II et la Capitalinvestissement, in Bâle II : Genève et
enjeux, Revue d’économie financière,
Documentation française, 2004
Van Osnabrugge M.S., 1998, The
financing of entrepreneurial firms in the
UK: a comparison of business angel and
venture capital investment procedures,
Herford College, Oxford.
DTI 2001, White paper on Enterprise,
Skills and Innovation.
Kelly. P. and Hay. M, 1996, Serial
investors and early stage finance.
27
Board structure, Ownership structure, and Firm
performance: evidence from banking*
Mohamed BELKHIR+
Laboratoire d’Economie d’Orléans,
University of Orléans - France
This version April 15th, 2005
Abstract
This paper examines the interrelations among five ownership and board characteristics in a
sample of 260 bank and savings-and-loan holding companies. These governance
characteristics, designed to reduce agency problems between shareholders and managers, are
insider ownership, blockholder ownership, the proportion of outside directors, board
leadership structure, and board size. Using two-stage least squares regressions, we present
evidence of interdependencies between board and ownership structures. The results suggest
that banks substitute between governance mechanisms that align the interests of managers and
shareholders. Banks with higher insider ownership rely less on outside directors’
representation on their boards, are less likely to have a CEO who is also the chairman of the
board, and have larger boards. In addition, banks with larger boards rely more on outside
directors’ representation on their boards. These findings suggest that cross-sectional OLS
regressions of bank performance on single governance mechanisms may be misleading.
Indeed, we find statistically significant relationships between performance and insider
ownership and blockholder ownership when using OLS regressions. However, these
statistically significant relationships disappear when the simultaneous equations framework is
used. Together, these findings are consistent with optimal use of each governance mechanism
by banks.
Key words: Corporate governance, board structure, ownership structure, performance,
banking, simultaneous equations
JEL classification: G21, G32, G34
*
This paper was written while I was a Fulbright visiting scholar at the FIREL department of the University of
North Texas. I am grateful to Christophe Hurlin and Mazhar Siddiqi for helpful comments and to Jean-Paul
Pollin for his guidance and support. I would like also to thank Mickael Braswell, James Conover and other
faculty and staff for their hospitality and helpfulness. Naturally, any remaining errors are my own.
+
Attaché Temporaire d’Enseignement et de Recherche. Laboratoire d'Économie d'Orléans. Faculté de Droit,
d'Économie et de Gestion. Rue de Blois - B.P. 6739 45067 - Orléans Cedex 2 – France.
Tél : +(33) (0) 2 38 41 70 37. Fax : +(33) (0) 2 38 41 73 80.
28
Introduction
The separation of ownership and control in
publicly held corporations induces
conflicts of interest between managers and
shareholders (Berle and Means, 1932).
Shareholders are interested in maximizing
the value of the firm, but managers’
objectives may also include the increase of
perquisite consumption and job security. A
number of governance mechanisms may
help aligning the interests of managers
with those of shareholders. This includes
equity ownership by managers (Jensen and
Meckling, 1976), by outside blockholders
(Kaplan and Minton, 1994) and executive
compensation (Mehran, 1995). In addition
the board of directors may play a central
role in monitoring managers (Fama, 1980).
Board size, board composition and the
leadership structure of the board are
important characteristics that affect the
effectiveness of the board in monitoring
management (Jensen, 1993).
The role of ownership structure (Morck et
al., 1988, and McConnell and Servaes,
1990) and board structure (Baysinger and
Butler, 1985; Rechner and Dalton, 1991;
Yermack, 1996, and Eisenberg et al., 1998,
and Bhagat and Black, 2002) in monitoring
management and so improving firm
performance has been largely investigated
in empirical corporate governance
literature. While the results are mixed the
approach used in studying the relation
between governance mechanisms and firm
performance is mostly the same.
Underlying these studies on the effect of
ownership and board structure on
performance is the assumption that there is
an optimal ownership and board structure
which is common to all firms, and that
firms which diverge from the optimal level
of these characteristics will experience
lower performance.
The alternative view is that several
governance mechanisms, among which
ownership structure and board structure,
are available at the same time, and that
they are endogenously determined
according to the costs and benefits of each.
The costs and benefits of each governance
mechanism may vary across firms, making
the use of one more attractive to one firm
than to another. Each mechanism will be
thus used by each firm up to a level where
the marginal benefit equals the marginal
cost. Consequently, optimal corporate
governance structures vary across firms,
and result in equally good performance.
Under this view there will possibly be no
empirical relationship between ownership
and board structure and performance.
Studies that have adopted this approach
include Demsetz and Lehn’s (1985)
investigation of the determinants of
ownership concentration, Himmelberg et
al.’s (1999) investigation of the
determinants of managerial ownership,
Hermalin
and
Weisbach’s
(1991)
investigation of the interaction between
board composition and insider ownership
and their effect on performance, and Cho’s
(1998) study of the interactions between
managerial ownership, investment and
corporate value. Agrawal and Knoeber
(1996) and Mak and Li (2001) adopt the
same approach but work with a more
complete set of governance mechanisms.
In banking, this approach has been adopted
by a number of authors, among whom
Schranz (1993) and Booth et al. (2002)
who look at the effect of the presence of
regulation in the banking industry on the
use of other corporate control mechanisms,
designed to provide managers with
incentives to maximize firm value. Schranz
(1993) looks at the effect of the restriction
of takeover activity in some states on the
use of other corporate control mechanisms,
such as the concentration of equity
ownership and management ownership of
stock , and on firm performance. Using a
simultaneous equations framework she
finds that when takeover activity is
restricted, banks have higher levels of
managerial
ownership
and
equity
concentration. However, higher levels of
managerial
ownership
and
equity
concentration have a smaller effect on
29
profitability and do not completely
compensate for the absence of an active
takeover market. Booth et al. (2002) study
the effect of regulation on the role of
internal monitoring mechanisms such as
the presence of independent outside
directors, managerial stock ownership and
the separation of the chairman and CEO
titles. They find that in regulated industries
such as banking the interrelations among
internal governance mechanisms are not as
strong as in industrial firms. They interpret
this as evidence that regulation serves as a
substitute
for
internal
monitoring
mechanisms. However, their analysis
suffers from a simultaneity bias since they
recognize the simultaneous determination
of the different internal corporate control
mechanisms but do not control for it in
their empirical analysis.
The present study continues the above line
of research by investigating the
interrelations among a number of corporate
control mechanisms and with firm
performance in a sample of U.S bank
(BHC) and savings-and-loan holding
companies (SLHC). It adds to studies such
as Schranz and Booth et al. in two ways.
First, contrary to both studies we work
with a more complete set of governance
variables, which relate to board and
ownership structure. In this respect, our
study compares more to Agrawal and
Knoeber (1996) and Mak and Li (2001).
Second, we use a data set from a recent
period; the year 2002. This allows us to
examine the trade offs between corporate
control mechanisms and their effect on
performance when banks face the same
external disciplinary mechanisms nation
wide. Recently the banking industry has
undergone important changes that shifted
the business environment of banking firms
to a more competitive one. Deregulation
that started in the 1980s, and continued in
the middle of the 1990s with the RiegleNeal Interstate Banking and Branching,
made banks less protected by expanding
the market for corporate control. The
Gramm-Leach-Bliley Act, which became
effective in 2000, increased competition on
the product market and expanded the
banking opportunity set by broadening the
range of activities banks can engage in. All
these changes unified the market for
corporate control and the market for
financial services, and led banks to operate
under the same “threats” nation wide.
Consequently, governance mechanisms
such as the board of directors and
ownership structure are expected to play a
more active role in aligning managers’
interests with those of shareholders.
Working with data from a recent period
allows to neutralize the effect of
regulation, regarding the takeover market
and the product market, on the choice of
the other corporate control mechanisms by
banks. Since the intensity of these external
mechanisms became the same for all
banks, we can get a better insight on how
the latter design their ownership and board
structures in order to reduce the
manager/shareholder agency problem.
In order to examine the interrelations of
board and ownership variables and their
possible effect on firm performance we
work on a sample of 260 bank and savingsand-loan holding companies. We use a
simultaneous equations framework and test
for two hypotheses. The first hypothesis
states that banks substitute between the
different corporate control mechanisms
designed to reduce the agency conflict
between managers and shareholders (the
substitution hypothesis). The second
hypothesis states that banks use the
different corporate control mechanisms in
an optimal way, depending on the costs
and benefits of each. If this is the case an
empirical analysis that takes into account
the endogeneity of corporate control
mechanisms should reveal no relation
between them and firm performance (the
optimal use of governance mechanims
hypothesis).
The findings of this paper indicate that
there are interrelations among board and
ownership structures of banking firms.
30
Banks with higher equity ownership by
managers and directors (insiders) have a
lower proportion of outside directors
sitting on their board. Since both outside
directors and insider ownership are both
considered as mechanisms designed to
mitigate the manager/shareholder agency
problem, we interpret this as evidence that
banks substitute between corporate control
mechanisms intended to accomplish the
same role. The results indicate also that
banks with higher insider ownership have a
lower probability to have a CEO who is
also the chairman of the board. Consistent
with the “passing the baton” hypothesis
suggested in earlier studies we find that
CEOs with a longer tenure are more likely
to hold the chairman title. The findings are
also in favor of the optimal use of
governance mechanisms hypothesis. An
OLS regression of the set of governance
mechanisms on firm performance, as
measured by the Tobin’s Q, reveals a
negative and statistically significant effect
of insider and blockholder ownership on
bank performance. However, when the
Two stage Least Squares (2SLS) procedure
is used these statistically significant effects
disappear. Overall the results of this study
show that corporate ownership and board
structures of banking firms are inextricably
linked and that banks use optimal levels of
each governance mechanism.
The remainder of this paper proceeds as
follows. Section 2 discusses some possible
directions for the interrelations among
governance mechanisms and with firm
performance. Section 3 introduces the
empirical approach used to study the
relationships among the governance
mechanisms. Section 4 introduces the
sample and provides descriptive statistics.
Section 5 discusses the results, and section
6 summarizes and concludes the paper.
I.
Relationships among governance
mechanisms and with firm performance
Several governance mechanisms work
together to provide incentives to managers
and so alleviate the agency problems
between shareholders and managers
resulting from the separation between
ownership and control. This includes what
is called the internal control system,
composed mainly by the board of directors,
who has the task to hire, reward,
potentially fire managers, and to design the
system of incentives for them. It includes
also the external governance mechanisms,
such as the product market, the market for
corporate control, the presence of
concentrated shareholdings by persons or
institutions, the labor market for managers,
and the capital market, whenever the
company relies partly on debt. An
empirical analysis focused on companies
belonging to the same industry, such as
banking, has the advantage that most of the
external control mechanisms have the same
effect on all companies, at least of a certain
size, in the industry. For instance the
intensity of the market for corporate
control and the competitiveness of the
labor market for managers and of the
product market are common to all banks.
Thus focusing mainly on internal
governance mechanisms, in a single
industry, may give a better idea of the
interrelations among internal governance
mechanisms and their potential effect on
performance. This study is mainly focused
on the interrelations among internal
governance mechanisms in banking firms.
Nevertheless, blockholder ownership is
included as a governance mechanism,
since its extent varies from one bank to
another even when the other external
mechanisms are common to all banks. The
internal governance mechanisms are the
equity ownership by officers and directors
(insider ownership), the proportion of
outside directors, the duality of leadership
structure3, and the number of directors
sitting on the board (board size).
3
Throughout this paper “duality of leadership
structure” refers to the situation where the CEO
holds the title of the chairman of the board.
31
A. Manager and director ownership
Managers and directors whose personal
wealth is significantly linked to the value
of the firm will have the incentive to act in
the interests of outside shareholders.
According to Jensen and Meckling (1976)
if outside shareholders can costlessly
assess the extent to which an ownermanager imposes agency costs on other
shareholders, the market value of the
firm’s stock will be reduced, decreasing
therefore the owner’s wealth. The
corporate governance literature argues that
increasing stock ownership by managers
and directors can be an effective control
mechanism designed to reduce the moral
hazard behavior of firm managers. If this is
an effective control mechanism then an
increase in the extent of its use would
induce a reduction in the level of other
monotoring mechanisms such as the
presence of blockholders and outside
directors.
B. Blockholder ownership
The presence of shareholders holding a
high proportion of the firm’s capital
constitutes another way to mitigate the
effects of the separation of ownership and
control on firm value. The manager of a
firm in which each shareholder holds only
a small fraction of the firm’s capital can
engage in value reducing activities (Berle
and Means, 1932). Indeed a shareholder
with a little stake in the firm has weak
incentives to engage in monitorong of
managers since he or she supports all the
costs of minitoring while getting only a
small fraction of the benefits (the typical
free rider problem).
In contrast, an
ownership structure in which one or more
shareholders own a large block of stock
has the potential for refuting the managers
from engaging in moral hazard behavior.
The presence of blockholders may
represent a threat to the company’s
management because of the power to
launch a proxy fight, or in the extreme, a
takeover bid. A blockholder may also
nominate a person to represent him or her
on the board of directors, in order to ensure
that management is acting in the interests
of shareholders. Consequently, firms with
blockholder ownership are expected to
have less agency problems, and the need
for alternative control mechanisms is
reduced.
C. The proportion
directors
of
outside
Another mechanism designed to mitigate
the moral hazard behavior of managers is
monitoring by the board of directors. Most
corporate charters require that shareholders
elect a board of directors, whose mission is
to monitor management and assist in
strategic planning within the firm. Most
importantly, for the board to be effective in
carrying out its task of management
monitoring it has to be independent of the
management team. Therefore, it is argued
by a number of academicians and
professionals that the presence of directors
who are not employees of the firm may
enhance the effetiveness of the board of
directors in monitoring managers, and
improving firm value. The rationale behind
this is that outside directors are more likely
to defend the interests of outside
sharehodlers. Fama and Jensen (1983)
argue that outside directors have the
incentive to act as monitors of
management because they want to protect
their reputations as effective, independent
decision makers. Weisbach (1988) finds
that outside-dominated baords are more
likely than inside-dominated boards to
replace the CEO in response to poor
performance. In banking the results
regarding the effectiveness of outside
directors are mixed. Brewer III et al.
(2000) find that bid premiums offered for
target banks increase with the proportion
of independent outside directors. However,
Pi and Timme (1993) and Adams and
Mehran (2002) find that the proportion of
outside directors is not related to
performance measures. Since the presence
of outside directors entails costs to the
32
firm, that take the form of fees, travel
expenses, stocks and stock-options, we
would expect that banks will use higher
numbers of outside directors only when the
other corporate control mechanisms are
weak.
D. CEO-Chairman duality
Many shareholder activits and corporate
governence
scholars
consider
that
separating the titles of chairman and CEO
will reduce agency costs and improve firm
performance. The reason is that when the
CEO is also the chairman of the board, the
power within the firm is concentrated in
one person’s hands. This allows the CEO
to control information available to other
board members. The board becomes under
the control of managers, which prevents it
from effectively accomplishing its tasks of
hiring, eventually firing, and rewarding top
executive officers, and to ratify and
monitor important decisions. Given the
decrease in the effectivenes of the board
the potential agency costs resulting from
the separation of ownership and decision
making are exacerbated. Jensen (1993)
recommends that companies separate the
titles of CEO and board chairman. Pi and
Timme (1993) study a sample of banks
over the 1987 – 1990 period. Their results
suggest that after controlling for bank size
and other control variables, costs are lower
and return on assets are higher in banks
with two different persons holding the
CEO and chairman titles. Control
mechanisms designed to mitigate the
agency problem are therefore expected to
be used to a larger extent in companies
operating with a dual leadership structure.
E. Board of directors’ size
The largely shared wisdom regarding the
optimal board size is that the higher the
number of directors sitting on the board the
less is performance. This leans on the idea
that communication, coordination of tasks,
and decision making effectiveness among a
large group of people is harder and costlier
than it is in smaller groups. The costs
overwhelm the advantages gained from
having more people to draw on. Jensen
(1993) states that “Keeping boards small
can help improve their performance. When
boards get beyond seven or eight people
they are less likely to function effectively
and are easier for the CEO to control.” (p.
865) Lipton and Lorsch (1992) also call for
adoption of small boards, and recommend
that board size be limited to seven or eight
members. A number of empirical studies
have documented a negative effect of
board size on firm performance (Yeramck,
1996 and Eisenberg et al., 1998). Therefore
corporate mechanisms such as insider and
blockholder ownership, and the presence
of high proportions of outside directors
become more important in firms with large
boards.
F. The effect on firm performance
The classical argument about the
relationship between corporate governance
variables and firm performance is that, for
some variables the greater the level of the
variable and the better is firm performance;
the opposite holds for other variables.
Consider for instance, stock ownership by
insiders and blockholders. The largely
shared wisdom, about these two control
mechanisms, is that firms with more
insider
ownership
and
blokholder
ownership achieve a better performance.
The same argument holds for the presence
of outside directors on the board, i.e., the
more outside directors the firm has on its
board the better is its performance.
Regarding the size of the board, a number
of academicians and professionals call for
smaller boards of directors, based either on
intuition or empirical findings. The
rationale behind this is that the
effectiveness of larger boards is lower, and
firms will gain, in terms of performance, if
they choose to operate with boards
composed of a limited number of directors.
However, another argument consists to say
that each corporate control mechanism
33
generates benefits to the firm but also
entails costs. Therefore, a corporate control
mechanism will be used up to a level
where the marginal benefits equal the
marginal costs. Most importantly, the
optimal levels of the different control
mechanisms may vary across frims,
yielding different levels of use of each
mechanism but with equally good
performance. In addition to the optimal use
of each corporate control mechanism, a
number of these mechanisms are designed
to achieve the same objective, which is to
reduce the extent of the moral hazard
behavior by managers. Consequently,
higher levels of the use of one mechanism
may induce lower levels of the use of other
mechanisms, without having a negative
effect on firm performance. According to
this argument a cross sectional analysis
would not yield any significant relationship
between corporate governance mechanisms
and firm performance, all other things
being equal.
G. Hypotheses
Since all of the governance mechanisms
we described above are alternative ways to
provide incentives to managers, each might
plausibly be used instead of another. If so,
we would expect the use of the different
mechanisms to be related to each other.
Depending on the mechanisms of interest,
positive, as well as negative, relations
might exist. For instance banks with higher
levels of insider ownership would have
less blockholders and less outsider
directors. Likewise, banks with higher
insider ownership, blockholders or higher
proportions of outside directors would
have less of a need for smaller boards or
the separation of the CEO and chair titles.
Accordingly, the first hypothesis to be
tested in this paper is the substitution
hypothesis:
H0: Banks do not substitute between the
alternative governance mechanisms.
H1: Banks substitute between the
alternative governance mechanisms. That
is banks with heavy use of one mechanism
will use lower levels of the other
mechanisms.
We also argued that firms choose the level
of their corporate governance mechanisms
in a way that maximizes performance. That
is the different corporate governance
mechanisms are used in an optimal way.
Therefore, the second hypothesis to be
tested in this paper is the optimal use of
governance mechanisms hypothesis:
H0: Banks do not use the governance
mechanisms in an optimal way.
H1: Banks use the governance mechanisms
in an optimal way. That is any cross
sectional variation in their use reflect
differences in the costs and benefits of
each mechanism between banks. These
differences in costs and benefits are
themselves due to external factors, such as
the business environment of the bank.
Consequently, if these differences are
controlled for, or if mechanism use is
unrelated to the environment, there should
be no cross-sectional relation between the
level of the use of corporate governance
mechanisms and measures of firm
performance.
II.
Empirical Analysis
The choice of any of the five ownership
and board variables may depend upon
choices of other ownership and board
variables, and other factors related to the
bank’s underlying environment. These
factors are related to bank size, bank age,
and CEO characteristics and are treated as
exogenous variables.
To develop the
system of equations, we draw on previous
studies
that
have
examined
the
determinants of ownership and board
structure of firms (e.g., Demsetz and Lehn,
1985; Agrawal and Knoeber, 1996; Cho,
1998, Himmelberg et al., 1999, and Mak
and Li, 2001).
34
There are five equations in the system of
equations for ownership and board
structure. The endogenous variables in the
system of equations are insider ownership
(INSOWN),
blockholder
ownership
(BLOCK), the proportion of outside
directors (OUTDIR), board leadership
(LEADER), and board size (BSIZE)4. In
estimating the system of equations, the
following
variables
are
used
as
instruments: RISK, TENURE, LNCSIZE5,
RETURN, AGE, NINS, NYSE, and
SLHC6, where RISK is the standard
deviation of monthly stock returns over the
last 60 months, TENURE is the tenure of
the chief executive officer, LNCSIZE is
the natural logarithm of the company’s
size, RETURN is the average monthly
stock retrun over the last twenty-four
months, AGE is the number of years since
the bank has been organized as a holding
company, NINS is the number of top
executive officers and directors in the
bank, NYSE is a dummy variable that
takes on 1 if the bank is listed on the New
York Stock Exchange and 0 otherwise, and
SHLC is a dummy variable that takes on 1
if the bank is a savings-and-loan holding
company and 0 otherwise.
Consider the first equation in the system
which relates to insider ownership
(INSOWN). We expect INSOWN to
depend not only on the levels of the other
corporate governance mechanisms but also
on other factors, such as the riskiness of
the bank, its size and the number of
persons holding these stock shares. Bank
risk may impact insider ownership in two
4
The definition of the variables used in the study is
given in table 1 in the appendix.
5
In all the estimations the distribution of bank size
(CSIZE) is normalized by using its natural
logarithm, LNCSIZE.
6
To satisfy the order condition, ensuring that the
equations in the system are identified, each
equation must exclude at least four of the
exogenous variables since each equation includes
four endogenous variables as regressors (Kennedy,
1998). The specification of equations (1) – (5) is
partly driven by the need to satisfy this order
condition.
different ways. On the one hand, higher
insider ownership levels, all else being
equal, imply less diversification for
insiders. Consequently, for risk averse
managers and directors, the greater is the
riskiness of the bank’s stock return the
lower is the optimal level of stock
ownership. On the other hand, Demsetz
and Lehn (1985) offer another explanation
for the relation between firm risk and
managerial ownership. They argue that a
higher volatility of the stock returns may
be considered as a signal for the higher
noisiness of a firm’s activity and
environment. For such firms managerial
behavior is more difficult to monitor.
Therefore, firms operating in noisier
environments should have higher insider
ownership in order to limit the moral
hazard behavior by managers. Similar to
risk, bank size has an ambiguous effect on
the scope for moral hazard and therefore
on insider ownership. One argument leads
to expect a positive association between
bank size and insider ownership.
According to this argument larger banks
hold more opaque assets, increasing the
scope for managers to engage in value
reducing activities. The cost of monitoring
in larger banks is higher, which increases
the optimal level of insider ownership. The
other argument is that larger banks are the
subject of more monitoring and control by
regulators, reducing therefore the scope for
moral hazard behavior by managers. This
will, in turn, lead to a lower optimal level
of insider ownership in larger banks.
Besides, for a given fraction of ownership,
investing in one firm’s capital requires
more wealth the larger is the firm. Risk
aversion implies that the larger the firm
and the lower is the proportion of the
firm’s capital held by insiders. INSOWN
should be positively related to the number
of officers and directors, denoted NINS.
Indeed the cost of insider shareholdings,
resulting from under-diversified portfolios,
will be less when these shares are divided
among a larger number of insiders
(Agrawal and Knoeber, 1996). SLHC is
included as an exogenous variable in all
35
the equations since the governance
structure may be determined differently in
Savings and Loan Holding Companies7.
We therefore have the following model:
(1)
INSOWN = α 0 + α1 BLOCK + α 2 OUTDIR +
α 3 LEADER + α 4 BSIZE + α 5 LNCSIZE
+ α 6 RISK + α 7 NINS + α 8SLHC + ε1
The second equation in the system relates
to blockholder ownership (BLOCK).
Similar to eq (1) we include the four other
board and ownership variables as
explanatory variables, and we add other
exogenous variables which we think
determine the extent of stock ownership by
blockholders. We define BLOCK as the
percentage of equity owned by persons and
institutions holding 5% or more of the
company’s equity. BLOCK may be
affected by RISK and LNCSIZE in the
same way as INSOWN. Indeed the same
arguments discussed above are valid for
the extent of ownership concentration
within outside shareholders’ hands.
Following Agrawal and Knoeber (1996)
we also include NYSE to control for the
possibility that BLOCK depends on
whether the bank is listed on the New York
Stock Exchange or not. In particular,
institutional investors may be attracted by
banks listed on the NYSE (see also
Himmelberg et al., 1999 for a similar
argument). So, NYSE should be positively
related to BLOCK. Summarizing, we have:
(2)
BLOCK = β 0 + β1 INSOWN+ β 2 OUTDIR
+ β 3 LEADER+ β 4 BSIZE+
β 5 LNCSIZE+ β 6 RISK +
β 7 NYSE + β8SLHC+ ε 2 .
The proportion of outside directors is
expected to be positively related to
7
Our results are qualitatively the same when we
consider only the sample of bank holding
companies (BHC).
LNCSIZE. Larger banks have more
opaque assets and operations which require
higher monitoring of managers. One way
to improve the monitoring of management
is to have more outside directors sitting on
the board. Furthermore, Agrawal and
Knoeber (1996) argue that the greater
visibility of large firms may induce more
board seats devoted to representatives of
the public, for example consumer or
environmental interests. Based on results
by Baghat and Black (2002), who find that
in the aftermath of poor performance,
companies tend to add more outside
directors to their boards, OUTDIR is
expected to be negatively related to past
performance (RETURN). Therefore, we
have:
(3)
OUTDIR
= δ 0 + δ 1 INSOWN
δ 3 LEADER
+ δ 2 BLOCK
+
+ δ 4 BSIZE
+ δ 5 LNCSIZE
+ δ 6 RETURN
+ δ 7 SLHC + ε 3 .
LEADER is a dummy variable that takes
on 1 if the CEO is also the chairman of the
board and 0 otherwise. Based on empirical
work by Brickley et al. (1997), LEADER
is expected to be positively related to both
TENURE and RETURN. Brickley et al.
report that a CEO who performs well, and
who has served for a long time within the
company is likely to be granted the title of
chairman of the board. Therefore, we
have:
(4)
LEADER
= φ 0 + φ 1 INSOWN
+ φ 2 BLOCK
φ 3 OUTDIR
+ φ 4 BSIZE +
φ 5 RETURN
+ φ 6 TENURE
+
+
φ 7 SLHC + ε 4 .
The last endogenous variable related to
corporate control is board size. Yermack
(1996) and Eisenberg et al. (1998) report a
positive correlation between board size and
the total assets of the firm, implying that
larger companies have larger boards.
Indeed as the bank gets larger the number
36
and complexity of its operations increases,
requiring therefore more directors to rely
on. We also expect board size to be
positively related to the number of years
since the bank has been organized as a
holding company (AGE). The reason is
that as time goes on more managers are
promoted to directors, and as a result
boards become larger (Mak and Li, 2001).
In addition, as the bank gets well
established as a holding company the
number of its subsidiaries may increase.
This implies that more executive officers
working within the subsidiaries join the
board of directors of the holding company.
BSIZE is therefore expected to be
positively related to both LNCSIZE and
AGE.
(5)
and Exchange Commission website.
In Research Insight there were a total of
287 BHCs and S&LHCs with total assets
of more than $1,000 millions. Complete
data were available for 260 companies.
Data for the final sample (260 companies)
are obtained from four sources:
1) Accounting data for the fiscal year
2002 are from Research Insight.
2) Stock market data are from the
CRSP database.
3) Ownership and board data are
collected from the annual proxy
statements filed with the SEC at the
beginning of the 2002 fiscal year.
4) Data on capital structure are
collected from annual reports 10-K,
available on the SEC website.
BSIZE = ϕ 0 + ϕ 1 INSOWN + ϕ 2 BLOCK +
ϕ 3 OUTDIR + ϕ 4 LEADER + ϕ 5 LNCSIZE
+ ϕ 6 AGE + ϕ 7 SLHC + ε 5 .
Fig. 1 summarizes the selection of the
final sample
B. Descriptive statistic
III. Data
A. Sample selection
The sample consists of Bank Holding
Companies (BHCs) and Savings-and-Loan
Holding Companies (SLHCs) available in
the Research Insight database of Standard
& Poor’s, in 2002. The following criteria
have been applied to select the final
sample:
1) The company has total assets of at
least $1,000 millions at fiscal year
end 2002.
2) Market return on common stock of
the company must be reported in
the Center for Research in Security
Prices (CRSP) database for at least
twelve months as of year end 2001.
Annual proxy statements for the fiscal year
2002 must be available on the Securities
Table 2 reports descriptive statistics for the
variables used in the study of the relation
between ownership structure, board
structure and performance. The average
equity ownership by insiders (officers and
directors) is 14.12% (median: 9.55%).
Blockholder ownership has an average of
7.97%. The typical bank in the sample has
12 directors, among whom 83.33% are
outsiders (not employed by the company),
has 17 directors and top-executive officers,
and has a CEO who is also chairman of the
board. The typical bank has been operating
as a holding company for the last 18 years,
and its CEO has held his position for the
last 7 years. The average bank in the
sample has total assets of $21.24 billions
(median: $3.12 billions). Average Tobin’s
Q is 1.07 (median: 1.07). Average tier 1
leverage ratio is 8.33% (median: 7.92%),
and average standard deviation of monthly
stock returns in 2002 is 7.44% (median:
6.9%). The risk of the typical bank, as
measured by the standard deviation of the
37
monthly stock return over the last 60
months, is equal to 8.75%, and the median
monthly stock return over the last two
years is equal to 1.87%. Savings-and-loan
holding companies represent 25.7% of the
total sample. Finally, banks listed on the
New York Stock Exchange represent
23.4% of the total sample.
IV.
Empirical Findings
A. The relationships among the
governance mechanisms
To examine the relationships among
the governance mechanisms, we estimate
Eqs. (1)-(5) as a system of linear equations
using Two Stage Least Squares (2SLS).
Each governance mechanism appears on
the left-hand side of one equation and the
right-hand side of each of the others.
Results of the 2SLS estimation are
presented in table 3. Table 3 shows that
there is an interesting pattern of
interdependence among several of the
governance mechanisms, which is in favor
of the substitution hypothesis8. For Eq. (1)
relating to insider ownership, the signs on
the other ownership and board variables is
generally
consistent
with
these
mechanisms being substitutes. However,
none of the coefficient estimates is
statistically significant. The results for Eq.
(2) relating to blockholder ownership are
similar to those for insider ownership, with
none of the variables being significant. The
weak findings for insider and blockholder
ownership are consistent with Agrawal and
Knoeber (1996), Mak and Li (2001) but
conflict with those of Demsetz and Lehn
(1985) and Schranz (1993).
The results for Eq. (3) suggest that the
proportion of outside directors on the
board decreases with the increase in insider
8
In table 3, the coefficients on the exogenous
variables generally have the predicted sign but are
often statistically insignificant. As a result,
coefficient estimates for the endogenous
governance variables may be imprecise.
ownership (p<0.01), and the decrease in
board size (p<0.01). The relationship
between managerial ownership and outside
directors is consistent with these
governance mechanisms being substitutes.
Banks with high levels of insider
ownership have less agency problems
between managers and shareholders, and
therefore have less need for monitoring by
outside directors. However, another
interpretation is that an increase in insider
ownership increases the ability to influence
board appointments, thereby reducing the
presence of outside directors. Since smaller
boards are considered as better monitors
for managers (Jensen, 1993), the presence
of more outside directors on larger boards
may be interpreted as evidence that when
the board gets larger, there is more need
for outside directors. If banks “believe”
that outside directors are better for
monitoring
managers,
they
will
compensate for the lack of monitoring by
larger boards by increasing the proportion
of outside directors.
For the board leadership structure (Eq.
(4)), the results suggest that the presence of
a dual leadership structure is negatively
associated with higher levels of insider
ownership (p<0.01) and positively related
to longer CEO tenure (p<0.1). The
negative association between insider
ownership and dual board leadership
indicates that the probability of the CEO
being also the chairman of the board
decreases with increasing equity ownership
by officers and directors. This may be seen
as a sign of good governance in banks with
high levels of insider equity ownership. In
these banks insiders have more interest in
good governance and they require the
separation of the two positions (CEO and
board chairmanship). The finding that
CEOs with longer tenure are more likely to
hold the title of chairman is consistent with
Brickley et al. (1997) who argue that dual
leadership is a consequence of the “passing
the baton” process in managerial
succession. Finally, the results for Eq. (5)
indicate that banks with more insider
38
ownership (p<0.1) and more outside
directors (p<0.01) have larger boards.
Again, if larger boards are considered as
ineffective in monitoring managers, this
suggests that the lack of monitoring due to
higher board size is compensated by the
presence of insiders with larger equity
interests in the bank and higher proportions
of outside directors.
B. Corporate governance and bank
performance
In this section we test the hypothesis of the
optimal use of governance mechanisms by
banks. In section 2 we argued that
governance mechanisms are used by firms
in a way that maximizes their performance.
The optimal level of use of each
mechanism varies from one firm to another
depending on a number of factors related
to the firm itself as well as to its business
environment. Agrawal and Knoeber (1996)
and Mak and Li (2001) find that once the
empirical analysis takes into account the
endogeneity of corporate governance
mechanisms, there is no effect of
individual
corporate
governance
mechanisms on performance. In this
section, we conduct a similar analysis to
Agrawal and Knoeber (1996) and Mak and
Li (2001), by estimating OLS and 2SLS
regressions of bank performance, as
measured by Tobin’s Q, on various
corporate governance variables. This
analysis is attempted to provide further
evidence on whether corporate governance
mechanisms in banking companies are
endogenously determined, and therefore
have no effect on performance. Before
allowing for the endogeneity of
governance mechanisms, we first estimate
regressions where bank performance
depends upon only a single governance
mechanism.
Table 4 presents results from OLS
estimations where Tobin’s Q is regressed
on individual governance mechanisms
along with other control variables. These
variables include the capital structure, as
measured by the tier 1 leverage ratio
(CAPITAL), the uncertainty of cash flows,
as measured by the standard deviation of
monthly stock returns (STDEV), and a
control for company size, as measured by
the natural logarithm of total assets
(LNCSIZE). Table 5 presents OLS and
2SLS regression estimates of Tobin’s Q on
the five governance mechanisms and
control variables. The 2SLS regression is
estimated by adding Eq. (6) to the system
of Eqs. (1)-(5), including TOBINQ as an
additional endogenous variable, and adding
CAPITAL and STDEV to the set of
instrumental variables. Therefore, the
simultaneous equations system treats the
five governance variables, as well as
performance, as endogenous.
The
performance equation is the following:
(6)
TOBINQ= γ 0 + γ1 INSOWN+ γ 2 BLOCK+
γ 3OUTDIR+ γ 4 LEADER+
γ 5 BSIZE+ γ 6 CAPITAL+
γ 7STDEV + γ8 LNCSIZE+
γ 9SLHC+ ε 6 .
Contrary to theory and expectations, the
results of the OLS estimations, presented
in tables 4 and 5, together show that
greater insider and blockholder ownership
lead to poor performance in banking
companies. The results are consistent with
less insider and blockholder ownership
leading to better performance. But these
results are also consistent with causality
running the other way around. Poor firm
performance may lead insiders and
blockholders to reduce their equity
ownership in the bank. The 2SLS
estimation allows to address the issue of
which way the relation runs in each case.
The regression reported in the second
column of table 5 not only considers the
presence
of
alternative
corporate
governance mechanisms but also accounts
39
for their endogeneity. Comparing the 2SLS
estimates with the OLS estimates in the
first column, the coefficient estimates on
insider ownership and blockholder
ownership
loose
their
statistical
significance. Furthermore, the performance
model becomes statistically insignificant
(the p-value of the F test is equal to 0.73).
We interpret this as evidence in favor of
the hypothesis of optimal use of
governance mechanisms by banks. When
the regression analysis takes into account
the endogeneity of the ownership and
board structure in banks it reveals no
statistically significant effect of these
governance mechanisms on banking
performance.
Summary and conclusion
This paper investigates the interrelations of
corporate ownership and board structure
characteristics, and their effect on firm
performance in a sample of bank and loanand-savings holding companies. We
argued that since banking companies face
the same external disciplining factors, such
as the market for corporate control and the
product market, if banks internal control
mechanisms are determined in an optimal
way, a carefully specified empirical
analysis should reveal significant links
between the different corporate control
mechanisms designed to mitigate the scope
for moral hazard behavior by managers,
but no effect on firm performance. We
develop two hypotheses which are the
substitution hypothesis and the optimal use
of governance mechanisms hypothesis, and
test them on a sample of 260 bank and
loan-and-savings holding companies, in
2002. The substitution hypothesis states
that banks substitute between the different
governance mechanisms at their disposal,
such as insider ownership, bolckholder
ownership and the presence of outside
directors. The optimal use of governance
mechanisms hypothesis states that if the
governance mechanisms are used in an
optimal way, an empirical analysis should
reveal no effect on performance. We use
the Two Stage Least Squares approach and
find evidence in favor of these two
hypotheses.
The results indicate that ownership and
board structures are related to each other.
In particular, we find that banks with
higher equity ownership by managers and
directors tend to have lower proportions of
outside directors on their boards. Since
outside directors and higher equity
ownership by insiders are considered as
mechanisms designed to reduce the agency
conflict
between
managers
and
shareholders, this may be interpreted as
evidence that a bank that relies heavily on
one mechanism has lower need for the
other one. Depending on the costs and
benefits of each mechanism, a bank will
choose either to have a higher
representation of outside directors or to
have an ownership structure in which
managers and directors have high stakes.
The results indicate also that banks with
higher insider ownership have a lower
probability to have a CEO who is also the
chairman of the board. Consistent with the
“passing the baton” hypothesis suggested
in earlier studies we find that CEOs with a
longer tenure are more likely to hold the
chairman title. The findings are also in
favor of the optimal use of governance
mechanisms hypothesis. In fact, an OLS
regression of governance mechanisms
reveals a negative and statistically
significant effect of insider and
blockholder
ownership
on
bank
performance. However, when the 2SLS
procedure is used these statistically
significant effects disappear. Overall the
results of this study show that corporate
ownership and board structures of banking
firms are inextricably linked and that banks
use optimal levels of each governance
mechanism. Models that consider single
ownership or board characteristics, such as
managerial ownership or the proportion of
outside directors may therefore be
misspecified.
40
One of the limitations of this study is the
possible omission of governance variables
that may be relevant in the performance
equation or with strong relations to other
governance mechanisms. For instance, the
extent to which some banking firms rely on
subordinated debt may help them reduce
agency problems between managers and
shareholders, and possibly rely less on
other governance mechanisms. Therefore,
the system of equations may be
misspecified. Corporate governance theory
is, unfortunately, incomplete to help taking
into account all relevant mechanisms,
when estimating a system of equations of
governance mechanisms. The findings of
this study suggest possible trails for future
research. For instance, replicating this
study on firms from other regulated
industries, such as airline companies,
media companies, or insurance companies,
may enhance the understanding of the
interrelations
between
governance
mechanisms when companies are operating
in the same business environment.
References
Adams, R., Mehran, H., 2002. Board
structure and Banking Firm Performance.
Working paper, Federal Reserve Bank of
New York.
Agrawal, A, and Knoeber, C.R., 1996.
Firm Performance and Mechanisms to
Control Agency Problems Between
managers and shareholders. Journal of
Financial and Quantitative Analysis 31,
377-90.
Baysinger, B.D., Butler, H.D., 1985.
Corporate governance and the board of
directors: performance effects of changes
in board composition. Journal of Law,
Economics, and Organization 1, 101-124.
Berle, A.A., Means, G.C., 1932. The
Modern
Corporation
and
Private
Propoperty. Commerce Clearing House,
New York.
Bhagat, S., Black, B., 2002. The noncorrelation between board independence
and long-term performance. Journal of
Corporation Law, vol 27, Issue 2, 231-43.
Booth, J.R., Cornett, M., M., Tehranian,
H., 2002. Boards of directors, ownership,
and regulation, Journal of Banking and
Finance 26, 1973-96.
Brewer III, E., Jackson III, W., Jagtiani, J.,
2000. Impact of Independent directors and
the regulatory environment on bank merger
prices: evidence from takeover activity in
the 1990s. working paper 2000-31, Federal
Reserve Bank of Chicago.
Brickley, J.A., James, C., 1987. The
takeover
market,
corporate
board
composition and ownership structure.
Journal of Law and Economics, 30, 161181.
Cho, M. H., 1998. Ownership structure,
investment, and the corporate value: an
empirical analysis. Journal of Financial
Economics 47, 103-121.
Demsetz, H., Lehn, K., 1985. The structure
of corporate ownership: causes and
consequences.
Journal
of
Political
Economy 93, 1155-1177.
Eisenberg, T., Sundgren, S., Wells, M.T.,
1998. Larger board size and decreasing
firm value in small firms. Journal of
Financial Economics 48, 35-54.
Fama, E.F., 1980. Agency problems and
the theory of the firm. Journal of Political
Economy 88, 288-307.
Fama, E.F., Jensen, M., 1983, Separation
of ownership and control. Journal of Law
and Economics 26, 301-325.
Hermalin, B., Weisbach, M., 1991. The
effects of board composition and direct
41
Himmelberg, C., Hubbard, R., Palia, D.,
1999. Understanding the determinants of
managerial ownership and the link between
ownership and performance, Journal of
Financial Economics 53, 353-384.
Pi, L., Timme, S., 1993. Corporate Control
and bank efficiency. Journal of Banking
and Finance 17, 515-30.
Rechner, P.L., Dalton, D.R., 1991.
CEO duality and organizational
performance: a longitudinal study.
Strategic Management Journal 12,
155-160.
Jensen, M.C., 1993. The modern industrial
revolution, Exit, and the failure of internal
control systems. The Journal of Finance
Vol. 48, No3, 831-880.
Rosenstein, S., Wyatt, J.G., 1990. Outside
directors, board independence, and
shareholder wealth. Journal of Financial
Economics 26, 175-191.
Jensen,
Theory
agency
Journal
360.
Yermack, D., 1996. Higher market
valuation of companies with small board of
directors. Journal of Financial Economics
40, 185-211.
incentives in firm performance. Financial
Management 20, 101-112.
M.C., Meckling., W.H., 1976.
of the firm: managerial behavior,
costs and ownership structure.
of Financial Economics 3, 305-
Kaplan, S.N., Minton, B., 1994.
Appointments of outsiders to Japanese
boards: determinants and implications for
managers. Journal of Financial Economics
36, 225-257.
Kennedy, P., 1998. A Guide to
Econometrics. 4th Edition. MIT Press,
Massachusetts.
Mak, Y.T., Li, Y., 2001. Determinants of
corporate ownership and board structure:
evidence from Singapore. Journal of
Corporate Finance 7, 235-256.
McConnell, J., Servaes, H., 1990.
Additional evidence on equity ownership
and corporate value. Journal of Financial
Economics 27, 595-612.
Mehran, H., 1995. Executive compensation
structure,
ownership,
and
firm
performance.
Journal of Financial Economics 38, 163184.
Morck, R., Shleifer, A., Vishny, R., 1988.
Management ownership and Market
Valuation: An Empirical Analysis. Journal
of Financial Economics 20, 293-315.
42
Fig. 1. Sample selection.
Companies in Research Insight with at
least $1,000 millions of total assets in
2002.
less
Companies with less than one year of stock
returns in CRSP.
less
Companies with no annual proxy
statements on the SEC website.
287 companies
Final sample
260 companies
12 companies
15 companies
Table 1: variable description
INSOWN
Percentage of equity owned by the company directors and top executive
officers, including the CEO.
BLOCK
Percentage of equity owned by persons and institutions that hold 5% or
more of the company’s equity.
OUTDIR
The proportion of directors not currently employed by the company. It
is calculated as the number of outside directors divided by the total
number of directors.
LEADER
A dummy variable that takes on 1 if the CEO is also the chairman of the
board and 0 otherwise.
BSIZE (board size)
The number of directors sitting on the board at the shareholders’ annual
meeting.
TOBINQ
Tobin’s Q = (total assets book value – book value of common equity +
market value of common equity)/ total assets book value.
RISK
The standard deviation of monthly stock returns over a maximum of 60
months and a minimum of 12 months, depending on data availability on
CRSP.
TENURE
The number of years the CEO has held his position within the company.
CSIZE
Book value of total assets.
LNCSIZE
Log (Book value of total assets).
RETURN
The average monthly market return over the last 24 months.
AGE
The age of the company measured as the number of years since the
company’s organization as a holding company.
43
NINS
Number of insiders reported in the annual proxy statements as owning
equity of the company.
CAPITAL
A measure of capital structure: the tier 1 leverage ratio collected from
annual reports 10-K.
STDEV
Standard deviation of monthly stock returns in 2002.
SLHC
A dummy variable that takes on 1 for Savings and Loan Holding
Companies and 0 for Bank Holding Companies.
NYSE
A dummy variable that takes on 1 for banks listed on the New York
Stock Exchange and 0 otherwise.
Table 2: Descriptive statistics (sample size = 260).
Variables
Min
Median
Mean
Max
Std. Dev
Insider Ownership (INSOWN %)
0
9.55
14.127
79.38
13.712
Blockholder ownership (BLOCK %)
0
0
7.973
80.44
13.623
Proportion of outside
directors (OUTDIR %)
Leadership structure (LEADER)a
50.000
83.333
80.825
95.833
10.057
0.55
1
Board size (BSIZE)
4
12
12.32
31
4.428
Company risk (RISK %)
4.908
8.754
9.314
35.622
2.783
Average past return (RETURN %)
-5.003
1.869
1.818
6.609
1.295
Company size (CSIZE)
in millions of U.S $
Log of Company size (LNCSIZE)
1,005.32
3,125.21
21,243.92 758,800
75,036
6.913
8.047
8.475
13.539
1.384
Tobin’s Q (TOBINQ)
0.9
1.069
1.073
1.313
0.053
CEO tenure (TENURE)
1
7
9.15
42
7.164
Company Age (AGE)
2
18
18.511
53
10.562
Capital structure (CAPITAL %)
5.1
7.92
8.33
34.4
2.403
Volatility of monthly stock returns
in 2002 (STDEV %)
2.660
6.961
7.446
31.743
3.202
Number of insiders (NINS)
5
17
18.234
41
6.34
NYSE a
0
-
0.234
1
-
SHLC a
0
-
0.257
1
-
a
0
-
-
For the binary variables, the mean indicates the proportion of banks for which the variable equals 1.
44
Table 3: Results of 2SLS regression of ownership and board structure (sample size = 260).
t-statistics are in parentheses. Asterisks indicate significance at the (1%)***, (5%)**, and
(10%)* levels.
Dependent variable
Independent
variables
Intercept
INSOWN
BLOCK
OUTDIR
LEADER
BSIZE
207.618
(1.07)
457.361
(0.62)
-2.170
(-0.65)
87.373***
(9.48)
-0.449***
(-2.62)
-0.180
(-0.50)
5.691
(1.53)
-0.038***
(-3.19)
0.0007
(0.77)
-0.068
(-1.40)
-91.080***
(-3.15)
0.449*
(1.91)
0.055
(0.09)
1.063***
(3.75)
INSOWN
BLOCK
OUTDIR
LEADER
BSIZE
LNCSIZE
RISK
-0.351
(-0.56)
-2.307
(-0.90)
-5.244
(-0.58)
-8.319
(-0.29)
0.348
(0.06)
-2.093
(-0.45)
-0.210
(-0.11)
-21.635
(-0.33)
4.628
(0.59)
-4.719
(-0.33)
-0.333
(-0.08)
-3.107
(-0.79)
0.914***
(3.79)
-1.037
(-1.11)
TENURE
NINS
2.560
(0.50)
0.054
(1.28)
1.198
(1.32)
0.028*
(1.85)
0.852
(0.30)
RETURN
0.027
(0.05)
-0.002
(-0.05)
AGE
-0.034
(-0.25)
NYSE
SLHC
Adjusted R2
F-statistic
(p-value)
0.879
(0.08)
0.065
3.26
(0.001)
3.400
(0.31)
8.915
(0.95)
-0.021
0.32
(0.959)
1.675
(0.51)
0.125
6.29
(0.000)
-0.047
(-0.17)
0.073
3.95
(0.000)
-0.958
(-0.22)
0.080
4.24
(0.000)
45
Table 4: Coefficient estimates from OLS regressions of Tobin’s Q on individual governance
mechanisms (sample size = 260).
t-statistics are in parentheses. Asterisks indicate significance at the (1%)***, (5%)**, and (10%)*
levels.
Independent
(1)
(2)
(3)
(4)
(5)
variables
Intercept
1.048***
1.0225***
1.0201***
1.0254***
1.027***
(39.51)
(40.76)
(28.85)
(40.87)
(40.18)
INSOWN
-0.0006**
(-2.54)
BLOCK
-0.0002
(-1.19)
OUTDIR
0.00005
(0.18)
LEADER
0.0042
(0.66)
BSIZE
-0.0003
(-0.47)
CAPITAL
0.0028**
0.0034***
0.0031**
0.0031**
0.0031**
(2.19)
(2.60)
(2.41)
(2.41)
(2.41)
STDEV
-0.003***
-0.0034**
-0.0034***
-0.0034***
-0.0035***
(-3.03)
(-3.48)
(-3.53)
(-3.50)
(-3.61)
LNCSIZE
0.0046*
0.0066***
0.0065***
0.0061***
0.0069***
(1.93)
(2.93)
(2.86)
(2.60)
(2.91)
SLHC
-0.0283***
-0.0259***
-0.0282***
-0.0285***
-0.0294***
(-4.01)
(-3.49)
(-3.92)
(-3.99)
(-3.94)
Adjusted R2
0.169
0.152
0.148
0.149
0.148
F-statistic
11.53
10.33
10.00
10.09
10.04
(p-value)
(0.000)
(0.000)
(0.000)
(0.000)
(0.000)
46
Table 5: Coefficient Estimates from OLS and 2SLS Regressions of Tobin’s Q on governance
mechanisms (sample size = 260).
t-statistics are in parentheses. Asterisks indicate significance at the (1%)***, (5%)**, and (10%)*
levels.
Dependent variable: Tobin’s Q
Independent variables
Intercept
INSOWN
BLOCK
OUTDIR
LEADER
BSIZE
CAPITAL
STDEV
LNCSIZE
SLHC
Adjusted R2
F-statistic
(p-value)
OLS Estimates
2SLS Estimates
1.0681***
(26.88)
-0.0007***
(-2.77)
-0.0004*
(-1.64)
-0.0002
(-0.60)
0.0036
(0.55)
-0.0001
(-0.16)
0.0031**
(2.41)
-0.0028***
(-2.79)
0.0042*
(1.63)
-0.0258***
(-3.37)
0.167
6.78
(0.000)
-0.1398
(-0.06)
0.0079
(0.60)
0.007
(1.04)
0.0125
(0.50)
0.0432
(0.50)
-0.0128
(-0.52)
0.0025
(0.26)
-0.0092
(-1.04)
0.0275
(0.65)
-0.0926
(-1.39)
-0.011
0.67
(0.738)
47
IPO’s Initial Returns: Underpricing Versus Noisy
Trading
Mounira BEN ARAB♦
Adel KARAA
This version : January 2005
Institut Supérieur de Gestion de Tunis
41, Rue de la Liberté, cité Bouchoucha, 2000 Bardo (Tunisie)
Tel : (216) 71561854- 71560 313 ; Fax : (216) 71756-874
E-mail: [email protected], [email protected]
Abstract
Numerous studies gave evidence to the presence of positive abnormal return generated by the
initial public equity offerings (IPO’s). Some explain the gap between the offer and the
aftermarket price by the underpricing phenomenon, some explain it by noisy trading, and
other studies justify it by both phenomena. Our paper, which takes into accounts the latter
category, tends to analyze the abnormal performance of the newly issued stocks in the new
market of Paris, over the period 2000-2002, within an appropriate approach. To detect the
presence of underpricing and to assess its magnitude, a stochastic frontier model is proposed.
For the noisy trading effect, the evidence was driven from a second approach based on
Markov switching model. Two distinct regimes have been found respectively: “underprice
state” and “market benchmark state”. Results from the control chart representing the average
probabilities of being in the first regime, point out the underprice effect on the first trading
day. Results from the control chart representing the average underpricing adjusted abnormal
return, show evidence of noisy trading effect over the two first trading days. However,
contrary to the underpricing, the effect here is more pronounced on the second trading day.
Keywords: IPO, event study, underpricing, noisy trading, Markov switching model, stochastic
frontier.
♦
We would like to thank Habiba Mrissa for her generous help in providing the data base.
48
49
Introduction
Abnormal performance generated by the
initial public equity offerings (IPO’s) has
puzzled financial researchers. Various
studies [Ibbotson (1975), Ibbotson &
Jaffree (1975) and Ritter (1984)] have
found an international phenomenon of
significant positive initial return of new
issues, attributed to the underpricing of the
offer price.
Numerous studies such as those conducted
by Baron (1982), Rock (1986), Allen &
Faulhaber (1989) and Welch (1989)
supported the underpricing hypothesis
accordingly explained by the asymmetric
information hypothesis. Others presented
by Tinic (1988), Aggarwal & Rivoli (1990)
and Ritter (1991) stressed the market
misevaluation due to speculative bubbles,
and others namely that of Ruud (1993)
considered that the IPOs are fairly priced,
but the underwriter stabilization activity on
the offering (truncating significantly the
distribution of IPO’s initial returns) which
explains the positive mean initial return.
As a consequence, the positive initial
returns noted during the early aftermarket
stage present an abnormality that could
result from three joint phenomena:
underpricing, market misevaluation and
underwriter
stabilization
activity.
Generally, previous researches attributed
the abnormality to a unique rather than to
an association of various possible causes.
This approach is the way we intend to
analyze the IPO’s abnormal return on the
new Paris market between 2000 and 2002.
To assess the short run abnormal
performance, we notice that the previous
studies applied the event study [Ball and
Brown (1968) and Fama, Fisher, Jensen
and Roll (1969)] or the stochastic frontier
approach [Chen, C.T.Hong and Wu
(1999)]. The event study approach consists
of estimating the impact of a particular
event on the patterns of the financial
returns during a specific period called
"event window ". This impact is
appreciated through the abnormal return
measured by the difference between the
observed return of the asset and its
expected return. The stochastic frontier
represents the efficient performance, while
the stochastic error terms capture the
deviation of the observed initial return
from the stochastic frontier. In the IPO
context, this inefficiency is supposed to be
the magnitude of deliberate underpricing.
In this paper, we use both approaches.
Through a stochastic frontier approach, we
try to detect the presence of deliberate
underpricing of new issues and measure its
magnitude. Then, to assess the abnormal
return we apply a modified event study
based on Markov switching model.
Compared to the traditional event study, it
allows for time varying parameters, cross
sectional heterogeneity and distinguishes
between two regimes. Finally, multivariate
regression model is used to focus on the
noisy trading effects on IPO returns.
This paper is organized as follows: Section
2 reviews the theoretical explanation of the
short term abnormal performance, the
proposed methodology is described in
section 3, data and sample are reported in
section 4, and section 5 and 6 respectively
display the empirical results of the extent
of deliberate underpricing and the extent of
noisy trading. Finally section 7 concludes.
I.
Theoretical Explanation of the
Short Term Abnormal Performance
A real disagreement has been noted within
the IPO’s abnormal returns. The first
studies, on the French market [Mc Donald
and Jacquillat (1974), Jacquillat and al.
(1978)] or on the American market
[Ibbotson
(1975),
Muscarella
and
Vetsuypens
(1989)]
support
the
underpricing hypothesis. The sizable early
returns generated by a market overreaction
in the early aftermarket is explained by
some authors through the lower IPO's offer
prices relative to the aftermarket prices.
50
Other researches [Aggarwal and Rivoli
(1991), Welch (1992)], however, suggest
that these newly issued stocks are fairly
priced but this market overreaction reflect
only an irrational behavior of some noisy
traders. So, the IPO abnormal performance
can be attributed to the underpricing or the
noisy trading phenomenon.
IPO underpricing has been identified by a
number of studies as an international
phenomenon with varying degrees on each
country. Most of these studies attribute this
phenomenon to asymmetric information
between the different partners in the IPO
process (investors, underwriters and
issuing firm).
For Rock (1986), IPO underpricing is
attributed to asymmetric information
between informed and uninformed
investors. His model supposes that the
latters would receive a full allocation of
overpriced IPOs but only a partial
allocation of underpriced IPOs, whereas,
the former would withdraw from the
market if the IPO is overpriced and are
more likely to receive an allocation where
an IPO is underpriced. Therefore,
according to this framework, IPO
underpricing would compensate the
disadvantages of uninformed investors.
For Benveniste and Spindt (1989), the
underpricing is a way to incite the
informed investors to reveal their private
information as regards to the demand of
stocks during the preselling period. This
information is used by an underwriter to
establish the IPO offer price.
For Baron (1982) and Tinic (1988),
however, underpricing is explained by the
asymmetric information between the
underwriter and the issuing firms.
According to the first study, the offer price
is a function of the uncertainty; the more
this is the case, the more the issue is
underpriced. Yet, Tinic (1988) argued that
issuers underprice the IPO to reduce their
legal liability. Then for both, the
underwriter’s behavior can be explained by
the insurance hypothesis.
Besides, other authors, such as, Allen and
Faulhaber (1989) and Welch (1989)
analyze the IPO underpricing through
signaling
hypothesis9.
Others,
like
Loughran and Ritter (2001), assimilate the
underpricing to an agency cost which
reflected a conflict interest between
underwriters and issuers.
Allen and Faulhaber (1989) and Welch
(1989) considered that underpricing is a
signal of the good quality of the firm. So,
these issuers can recoup their upfront
sacrifice post-IPO, either from favorable
market responses to future dividend
announcements according to the first study
or from future issuing activity according to
Welch.
For Loughran and Ritter (2001),
underwriters might intentionally leave
more money on the table then necessary,
and then allocate these shares to favored
buy-side customers. This situation may
increase the underwriters’ discretion in
share allocations which runs against the
interests of the issuing firms which do not
often know their real value.
A long with theoretical investigation, a
number of empirical researches10 have been
carried out and are worth noting. Using
respectively U.S and U.K. data, Aggarwal,
Prabhala and Puri (2002) and Cornelli &
Goldreich (2001) found contrary to Lee,
Taylor and Walter (1999), using data from
Singapore that underpricing facilitates
preferential allocation to the institutional
investors against the individual investors.
Ljungqvist and Wilhelm (2002) showed
9
Using a simultaneous equations model, Michaely
and Shaw (1994) rejected the signaling hypothesis.
They did not find a significant relation between
underpricing and the increases of seasoned offering
nor a relation with the payment of dividend.
10
Ritter Jay and Welch Ivo (2002), " A review of
IPO activity, pricing and allocation ", Yale ICF
working paper No.02-01 February 2002
51
that underpricing is less important when
institutions are favored.
market does not dispose of historic returns
before the issue.
Moreover, according to Welch and Ritter
(2002), underwriters do not only have a
price discretion. They also have quantity
discretion. The IPO's contain an overallocation option for almost up to 15 % of
the shares offered. Zhang (2001) argued
that the allocation of these extra shares
boosts the aftermarket demand for the
stock.
Because the investors can be classified as
rational investors and speculators, the
aftermarket transaction price could be a
combination of rational and speculative
operations. So, the transaction price may
deviate from the fair price due to the
market misevaluation.
Obviously, most of previous studies tend to
attribute IPO’s initial returns patterns to
underpricing. Nevertheless, underpricing is
not the only reason for positive initial
returns. Ritter and Welch (2002)
established that the field of the current
research now stresses rather behavioral
explanations.
In fact, only under the market efficiency
hypothesis, the gap between the IPO offer
price and the aftermarket price is
considered as deliberate underpricing. In
most cases, the market price does not
incorporate all the available information.
In other words, the market efficiency
hypothesis is not often validated. As a
consequence, the initial return observed
during the early aftermarket can not be
attributed exclusively to underpricing.
Under inefficient market context and with
noisy trading, a fraction of this IPO’s
excess return can be explained by the
market misevaluation on the offering.
IPO can not be underpriced, but the market
overestimates the new issues and some
overoptimistic investors are willing to
purchase the offerings at prices higher than
the offer prices. Aggarwal and Rivoli
(1991) showed that IPOs are fairly priced
but the irrational behavior of some
investors, motivated by speculative
bubbles, can explain the excess of returns
in the early aftermarket stage.
Speculative activities affect the IPO's
prices during the first trading days more
than the ordinary equities because the
Indeed, Welch (1992) pointed out that a
potential investor, even possessing
favorable information concerning a new
issue, since he makes his decision on
behalf of the other investors' decision, he
can give up the purchase of the newly
issued stocks. To avoid this kind of
irrational behavior, the issuers tempt to
underprice their new offerings to incite
every first potential investor to buy the
newly issued stocks. In so doing, these
companies create informational cascades;
all the other investors (followers) would
buy newly issued stocks by aligning their
decisions according to the purchase of the
initiated investors without taking into
account their private information.
Chin, Hong and Wu (1999) applied the
stochastic frontier model to decompose
initial return into deliberate underpricing
and noise effect. They concluded that the
IPO’s initial returns mostly result from the
noisy trading activities instead of the
deliberated underpricing.
Moreover,
the
IPO
long
term
underperformance noted by some authors
such as Ritter (1991), may constitute a
solid argument to support the noisy trading
hypothesis. Various studies show the
existence of a negative correlation between
short-term and long term IPO’s returns
such as Leleux (1993) who supported the
fads hypothesis; the overoptimistic
investors overestimate the newly issued
stocks during the early aftermarket stage.
Meanwhile, the market can correct the
error of appreciation and the stocks
overestimated during the offering period
52
converge to their intrinsic value in the long
run.
At this point, one can notice that most of
the previous researchers analyzed the IPO
abnormal performance according to one
aspect, rather than a combination of
attributes. This is precisely the way we
intend to examine the problem.
In fact, the gap between the offer price and
the aftermarket price may be attributed to
the underpricing deliberated by new issues,
to the noisy trading activities in the early
aftermarket or a combination of both
underpricing and noisy trading activities.
II.
Methodology
The proposed methodology is based on
two steps. The first step is designed to
detect the existence of underpricing
deliberated by new issues and assess its
magnitude through a stochastic frontier
approach. The second step is designed to
appreciate the process generating the
aftermarket prices during the offering
period of newly issued stocks. To extract
the Underpricing Adjusted Abnormal
Returns (UAAR), we use a modified event
study based on Markov switching model
which consider the underpricing process.
A. The Underpricing Test
If the IPO excess returns are attributed
only to the underpricing phenomenon, the
IPO aftermarket price reflects the real
value of the issuing firm. So the fact that
the issuers deliberately priced their
offerings below the intrinsic value of the
firm, confirms the asymmetric information
hypothesis. However, if we observe IPO
excess returns in spite of the fact that IPOs
are fairly priced, we assume that this
abnormal performance is attributed to the
noisy trading activities. So, the market
overestimates the value of the issuing firm.
Some noisy traders buy the IPO shares at a
price higher than the proposed offer price.
This irrational behavior of the market
operators invalidates the market efficiency
hypothesis. As a consequence, if we note
the presence of deliberate underpricing as
well as the market misevaluation of the
newly issued stocks, we assume that the
IPO short run abnormal performance is
attributed to a combination of both
underpricing and noisy trading effects. In
this case, we confirm the asymmetric
information as well as the inefficient
market hypotheses.
In order to estimate the noisy trading and
the underpricing effects, we apply a
stochastic frontier approach for the latter
and a modified event study for the former.
As we have noticed before, the
misvaluation of the firm’s equity, during
issuance period, may be attributed to the
deliberate underpricing and the noise
effect. In order to detect the existence of
deliberate underpricing, we use a
stochastic frontier model developed
initially by Aigner, Lovell and Schindt
(1977).
Based on the efficient market hypothesis, if
the issuers do not deliberately underprice
the new offerings, the offer prices should
be equal to the stock market value.
Investors establish the latter by looking at
various factors relating to the future
profitability of the firme which can be
interpreted as elements used for producing
the stock market value. Hunt-McCool, Koh
and Francis (1996) argue that the intrinsic
price of an IPO should be a function of the
firm’s profitability, level of operations,
IPO risk characteristics, underwriter
spread, proceed size, percentage of the
offering held by insiders, market
Price/Earning ratio, and the industry.
Basically, these factors are related to the
firm characteristics and market factors.
If the issuers underprice the new offerings,
the offer prices should be systematically
lower than the aftermarket prices. Under
the stochastic frontier model, the
difference between the offer prices and the
53
stock market value is detected by a
composite error term which itself is a
component of two parts: asymmetric error
and symmetric error. The significance of
positive asymmetric component indicates
the presence of deliberated underpricing by
new issues.
Within the IPO’s contex, the stochastic
frontier model starts with establishing a
stock market pricing function.
y* = f(x, β)
Where x is a pricing factors’ vector
(relating to the future profitability of the
firm). For any firm, the anticipated stock
market value (i.e. the frontier) is stochastic.
Thus, for any IPO i; i = 1, 2, … , n,
yai = f(xi, β) + ei;
ei, is the systematic error component,
which is assumed to be distributed as N(0,
σe).
Deliberate
underpricing
enters
the
valuation model through a positive
disturbance (u), which is independent of
(e). For the ith IPO,
( )
a
Ln Pio = yi
-
-
( )
- ui = f xi, β + ei - ui = β' xi + εi
Pio, is the offer price of IPO i,
ui, is the asymmetric error
component which is the absolute
value of a variable disutributed as
N(0, σu).
εi, is the composite error.
It is common to refer to ui as misevaluation
of the firm’s equity since higher values of
this variable are associated with higher
degree of underpricing. The stochastic
frontier, called the “valuation frontier”,
captures the maximum stock price that
investors are willing to pay for a firm with
given characteristics.
The log-likelihood for a sample of n IPOs
is :
( )[
]
2
n ⎡ ⎛ ⎡ −λε ⎤ ⎞
⎛ε ⎞ ⎤
2
i ⎟ − 1⎜ i ⎟ ⎥
Ln(L) = - n Ln(2π) + ln(σ ) + ∑⎢Ln⎜ Φ⎢
⎥
⎟ 2⎜ σ ⎟ ⎥
⎜
2
i =1⎢ ⎝ ⎣ σ ⎦ ⎠
⎝ ⎠ ⎦
⎣
Where Φ[.] and φ[.] (used below) are the
CDF and PDF of the standard normal
distribution, respectively, σ 2 = σ 2u + σe2 and
λ=
σe
σv
.
If the asymmetric error component (ui) is
not significant in the model, λ is close to
zero, and the IPO is not deliberately
underpriced. However, if λ is larger than
zero, then the IPO is deliberately
underpriced.
Based on Jondrow, Lovell, Materov, and
Schmidt (1982), the extent of deliberate
underpricing of an IPO can be measured as
follows :
⎡ ⎡ε i λ ⎤
⎤
φ
σλ ⎢ ⎢⎣ σ ⎥⎦ − εi λ ⎥
⎢
σ ⎥
1+ λ 2 ⎢1−Φ⎡ε i λ ⎤
⎥
σ
E u i / εi
⎢⎣
⎥⎦
⎣
⎦
=
UNDER i =
Ln Pi0
Ln Pi0
[
] ( )
( )
( )
(4)
B. The Assessment of the IPO’s
Adjusted Abnormal Return
In this section, we develop an appropriate
methodology to analyze the effect of noisy
trading on the aftermarket stock prices of
the new issues. Such effect is evaluated
through the Underpricing Adjusted
Abnormal Return (UAAR).
The proposed model is an extension of the
classic market model in the sense we
introduce the extent of underpricing
(UNDER) as the market return, to explain
the after market stock return of the new
issues. Unlike Chen and al. (1999), this
approach avoids the bias when they
compute the Adjusted Abnormal initial
Return (AAR) as the difference between
the abnormal return and the deliberate
underpricing. Indeed, their definition of the
AAR assumes that the underpricing
evaluated by the equation (4) is the
effective measure of the deliberate
54
underpricing. However, this measure may
be different according to the estimation
method (DEA, SFA,…), the specification
of the density function (Gamma, Truncated
Normal,…) and the selected pricing
factors.
In our methodology, the abnormal return is
assessed conditionally to the underpricing
measured previously. Thus, at the opposite
to Chen and al. (1999) who considered the
underpricing as an intrinsic component of
aftermarket return of IPO, we adjust the
abnormal returns from the underpricing
effect unless the coefficient associated to
the variable UNDER is significant.
Besides, most of the previous studies
define the market-adjusted return as the
IPO abnormal return [Ritter (1984), Tinic
(1988), Chalk and Peavy (1989), Aggarwal
and Rivoli (1990), Welch (1996)]. This
specification supposes that the event
involves changes only in means and the
Beta is equal to one for all the firms. To
overcome this misspecification, we allow
in our model a Beta varying across firms.
On another hand, numerous event studies
[Collins, Ledolter and Rayburn (1987),
Broocks, Faff and Lee (1995), B Arab &
al.(2004)] show that the pricing valuation
process characteristics
(i.e.
return,
systematic risk, variance, error pricing) are
affected by the event.
Using a switching regime model seems to
be more suitable to capture any
perturbations caused by these firm-specific
events. According to Nihat Aktas, Eric de
Bodt and Jean-Gabriel Cousin (2003), who
are concerned with mergers and acquisition
events, the application of a Markov
Switching Model due to Hamilton (1988,
1989), is based on the idea of the
existence, throughout the period of the
study, of two distinct regimes: a "normal"
regime which describes the price valuation
process during normal periods (without
events) and an "event" regime which
describes the price valuation process
during event periods.
Recently, Ang and al (2004) applied the
two States Markov Switching Model
within the IPO context, to distinguish
between “outperformance’stocks state” and
“underperformance’stocks state”.
As far as we are concerned, we specify for
each IPO’S return, Rit11, two pricing
evaluation processes that depend on state
Sit prevailing at time t.
(
)
(1)
R i, t = α (1) + η (1)
+ η µ(1) v UNDER
α v + µ
(β
)
+ η v R m, t + ε
(1)
(1)
β
(1)
i, t
i
+
S it = 1
if
(5a)
(
)
(2)
R i, t = α (2) + η (2)
+ η µ(2) v UNDER
α v + µ
(β
(2)
)
+ η β(2) v R m, t + ε i,(2)t
i
+
S it = 2
if
(5b)
( )
v~ N 0,σ v
h i,(1)t/ψ
h i,(2)t/ψ
-
-
11
/ψ(t −1)
(
~ N 0, h i,(1)t
)
(
; εi,(2)t/ψ (t -1) ~ N 0, h i,(2)t
(
)
(
)
2
2
⎡
= ⎢ γ (1)
+ γ1(1)ε i,(1)t −1
0
⎣
2
2⎤
⎡
= ⎢ γ (2)
+ γ1(2)ε i,(2)t −1 ⎥ exp ηv(2) v
⎣ 0
⎦
t -1
t -1
; εi,(1)t
⎤
(1)
⎥ exp η v v
⎦
)
Rm,t: the daily market return in t,
⎛ I ⎞
such that Rm,t = Ln⎜⎜ it ⎟⎟ , It and It⎝ Iit −1 ⎠
1are the value of the "New market"
index during trading day t and t-1 ;
v : unobservable cross sectional
heterogeneity factors ;
εji,,t (j = 1, 2) : error terms supposed
to
be
normally
distributed
conditional on all informations
⎛ Pit ⎞
⎟ ; Pit and Pit-1 are the closing prices
⎟
⎝ Pit −1 ⎠
Rit = Ln⎜⎜
of the IPO i during trading day t and t-1;
55
available in t-1(Ψt-1), with null mean
and variance h ji,t.
For the variance equations, we use as
Hamilton and Susmel12 (1994) switching
ARCH specification with two states and
one autoregressive coefficient (i.e.
SWARCH(2,1)).
The transition dynamic between the
regimes is described by an endogenous
unobservable first order process. At any
time t, the conditional probability
(unobservable) of being in regime j,
knowing that we are in the same regime in
t-1, appears as follows :
(
)
p jj(v ) = P St = j / St −1 = j ; v =
(
exp a (j) + η(j)
v
a
(
1+exp a
(j)
)
(j)
+ ηa v
)
ratio test which consists of testing the null
hypothesis H0: single regime model,
against the alternative hypothesis H1: twostate model. But, given the problem of not
identification of the transition probabilities
(under the null hypothesis) Garcia (1992)
shows that they can be treated as nuisance
parameters15. He finds that the 5% and 1%
critical value for the likelihood ratio
statistic are respectively 13.52 and 17.67
(for the case of switching in both means
and variances).
Finally, the Underpricing Adjusted
Abnormal Return (UAAR) is generated
from the following expression :
(7)
We have retained the variable v in all the
previous equations in order to be able to
estimate the model simultaneously for all
the stocks according to the logic of panel
data model13. This variable which
corresponds to the unobservable cross
sectional heterogeneity factors, allows us
to control the heterogeneity of observations
in there individual dimensions and so, it is
likely to affect the price valuation process.
These factors correspond to the intrinsic
characteristics of each firm such as the
size, the growth perspectives, the property
structure...
The model described above is estimate
through the maximum likelihood method
following Hamilton (1983) and Schaller
and Van Norden (1997)14.
The application of a two-state model to
appreciate the dynamic of price valuation
process is justified by using the likelihood
UAAR
(
+∞
it
−∞
(10)
III. Data
statistics
source
and
descriptive
This study covers 60 book-built offerings
on the "New Market" of Paris16 between
2000 and 2002. Since 2000, most of the
offerings in the "New Market" were
introduced according to the book-building
procedure. Only a fraction of almost 10%
of shares was offered to the public
according to one of the procedures called
"offre à prix ouvert (OPO)" and " offre à
prix ferme (OPF)".
Originally used in the USA, the specificity
of the book-building mechanism consists
of the flexibility offered to the underwriter
who collects information from institutional
investors, establishes the IPO price and
allocates shares in a discretionary manner.
12
Hamilton and Susmel modified the ARCH
specification (Autoregressive Conditional
Heteroskedasticity) in order to consider some
structural changes in data. These authors assume
that volatility does not depend only on past news
but also on state (St).
13
The return series of different stocks were piled
according to the logic of Panel data in order to
constitute one series composed of 3600
14
See Appendix I.
2
= R i, t − ∫ E[R it / Rm t , UNDER i, Sit , v] dF v ; 0, σ v
15
Hansen (1992, 1993) suggested a method for
calculating the non standard asymptotic
distribution. But, Garcia extended his work to
Markov Switching test.
16
Created in 1996, this market was designed to
attract young and high-technology companies and
to offer more flexibility to entering, compared to
the other components of the French market
56
)
We collected the list of IPO firms from the
list of newly issued securities in the "New
Market" of Paris from the Euronext.com
web site. This site supplies any information
related to the new issues such as the name
of the firm, subscription date, offering
date, the offer price as well as the IPO
aftermarket trading prices and the values of
"New Market" index.
As shown in the following table I, 87 % of
the firms went public in 2000, 55 % among
the hole offering belonged to the computer
sector characterized by raised growth
opportunities, and 95 % of the offerings
used the book-building procedure.
The IPO characteristics can be classified
according to the period of the offering
operation which begins from the
subscription day to the first trading days of
the IPO.
The Table A2 in appendix II reports for
each IPO in the sample, the subscription
date, the first trading day date, the offer
price and the first after market price.
Columns IV and V of this table show that
the first aftermarket price tends to be
greater than the IPO offer price. This
tendency is confirmed with the Wilcoxon
signed ranks test17. Indeed, the significance
level of the test statistic which is equal to
0.002 (less than 0.5) shows a significance
difference between the IPO offer price and
first aftermarket price in distribution (cf.
table II below).
The result is consistent with the classic
IPO abnormal performance hypothesis,
17
The Wilcoxon signed ranks test is a
nonparametric procedure used with two related
variables to test the hypothesis that two variables
have the same distribution. It makes no assumptions
about the shapes of the distributions of the two
variables. This test takes into account information
about the magnitude of differences within pairs and
gives more weight to pairs that show large
differences than to pairs that show small
differences. The test statistic is based on the ranks
of the absolute values of the differences between
the two variables.
but, at this stage we can not distinguish
between the extent of underpricing and
noisy trading effects.
IV. The determination of the extent of
deliberate underpricing
In the stochastic frontier model, some
information prior to issuance is required to
determine the fair offer price. HuntMcCool, Koh and Francis argue (1996)
that firm value, risk characteristics and
market condition are the major factors for
the IPO offer price.
Based on Myers and Majluf, (1984) work,
we know that investors use information
about issuing firms to condition their
assessment of firm value. Many proxy
variables of accounting information are
shown to be related to firm value. Cash
flow, net income and sales revenue are
used as proxies for the profitability of the
firm [Teoh and al. (1998), Koop and Li
(2000)], the earning per share (EPS) as the
ability to generate income to shareholder
[kim, krinsky and Lee (1995)] and total
asset is used as a proxy of the firm size
[Barclay and Smith (1995)].
For the risk characteristics, the age of IPO
firm at issuance used as a proxy is shown
to be negatively related to the offer price
[Beatty and Ritter (1986)]. Same result is
expected with the debt since it captures the
default risk of the firm.
Other factors have been proposed by
different studies which have determinant
effect in the firm valuation: the proportion
of stock owned by the insiders [Chen,
Hong and Wu (1999)]; the underwriters’
compensation [Hughes (1986)]; and the
industry effect [Chen (1996) and Ritter
(1991)].
A. The pricing factors selected
In this paper we also argue that firm value,
risk characteristics and market condition
are sufficient for the determination of IPO
offer price using related proxy variables.
57
Following previous studies, we use the
EPS as the measure of the firm’s
profitability; the floating as the measure to
control the insiders’ ownership; the
percentage of the public right to vote as the
measure to control the asymmetry
information, the debt ratio and the standard
deviation of stock return as risk
characterizing variables; and the number of
new issues as the measure to control the
market condition effect.
Table III here after reports the descriptive
statistics for the sample.
We can note that the weak average debt
ratio of 17 % characterizes the companies
belonging to the high-technology sectors.
For the floating, we can note an average of
almost 80% of the shares owned by
officers and directors. As for the possibility
of the public to get the right to vote, the
table shows that some firms have deployed
high entrance barrier. The average number
of new issues (6.433) recorded three
months before the offering date required is
relatively important; it seems to indicate
that the chosen period of study corresponds
to a "Hot Issue Market”.
B. The Stochastic Frontier Model
Estimates
The empirical results of the parameter
estimates of the stochastic frontier model
by the maximum likelihood approach are
presented in table IV.
As explained in section 3.1, since λ, the
measure pointing out the existence of
asymmetric error is significantly larger
than zero, this emphasizes the presence of
the deliberated underpricing by new issues
on the new market, which would partially
explain the gap between the offer and the
aftermarket prices.
To compute the underpricing magnitude,
we are therefore able to use the conditional
expectation of the asymmetric error
defined by equation (4). For each IPO, the
extent of underpricing is reported in table
AII in appendix (colon 6). Various
summary statistics related to the
underpricing extent distribution are
reported as well in table AIII. For the 60
IPOs, this effect computed an average and
a standard deviation of 23.33% and
18.65% respectively, which implies that
the underpricing extent vary widely within
the retained initial public equity offerings.
The results show indeed, extreme values of
2,5 and 86%.
V. The determination of the extent of
noisy trading
The results of the maximum likelihood
estimates of the two-state model are
reported in table V. As we can see from
this table, the likelihood ratio statistic has a
sufficiently important value that justifies
the deployment of the two states model to
describe the pricing evaluation process.
Reading of the registered values of the
parameters, found at the level of each
regime, drives us to think that according to
the proposed model, the pricing valuation
process is based on two components
reflecting respectively the underprice and
the market effect on the observed return.
Indeed, whereas the variable UNDER
appears with significant positive values
(µ(1) and ηµ(1)) in the first regime, the
coefficients (µ(2) and ηµ(2)) associated with
this variable in the second regime, are not
significant. This result may only exclude
the underprice effect on the return process
in the second regime where the market
component seems to have the dominant
effect since the coefficients associated
(β(2)and ηβ(2)) is significant. However, this
latter effect is not totally excluded from the
first regime even if the registered values
are very low (0.0218 and -0.0405) for the
coefficients (β(1) and ηβ(1) respectively)
since they are significantly different from
zero at a significance level of 1%.
58
This tendency is reinforced by the
important level of volatility recorded in the
second regime compared to the first one.
Indeed, we associate this result with a
systematic overestimate of the observed
return in the second regime.
The
overestimate attributed to the component
underprice affects positively the returns
and consequently reduces the extent of
their variation and then their volatility.
Even if we look to the parameters retained
to specify the conditional transition
probabilities, these latter tend to show a
different level of persistence according to
the regimes. The positive and significant
value registered for parameter a(1) as well
as the positive value of ηa(1), show indeed
that P11 is lower than P22 and indicate that
the first regime is less persistent.
Our comments are completed with the
instantaneous unconditional probabilities
of being in the first regime (πi1t) 18 . Even if
they tend to take values between 0 and 1,
they show high frequency of being in the
second regime.
The event periods are assumed to be those
during which unconditional probabilities of
being in the first regime (π1it) are
significantly higher than 0.5. The
determination of the event window related
to the common event (IPO) is based on a
control chart graph in which every point
corresponds to the average unconditional
probability registered for the set of firms at
a given moment t {t =1,...60}. Every date
relative to the correspondent point which is
situated above the critical threshold of
being in the market benchmark state is
considered as a date belonging to the first
regime. The critical threshold is indicated
by the lower dashed line in figure 1 here
after (LCL: Lower Control Limit).
This graph shows that, in general, the first
regime takes place only on the first trading
day since it is the only day where the
18
see equation 6 in appendix III.
average probability of being in this regime
is greater than 0.5 (and even close to one).
However, for all the other periods this
probability have never gone beyond 0.311
(the upper control limit), indicating a
tendency to be located in the second
regime.
Therefore, it is obvious that all these
results contribute to retain two different
regimes describing the price valuation
process of the stocks retained in the
sample.
These results allow us to retain
respectively regime 1 as underpricing
regime and regime 2 as market benchmark
regime.
Besides, the significant values of the
coefficients associated to the unobservable
cross-sectional heterogeneity factors (υ)
justify the control of the heterogeneity of
observations
in
their
individual
dimensions.
In light of all the previous results, the
UAAR for the IPO i, at time t can be
expressed as follow :
+∞
UAAR it = R i, t − ∫[π1it(v ) E[R it / Rm t,UNDER i, Sit = 1, v]
−∞
+ (1-π1it(v)) E[R it / Rm t, Sit = 2, v] ] dF(v ; 0, σ2v )
Our two states model allows us to define
the expected return of IPO i at time t, as a
mixture of two expected returns, related to
both regimes, weighed by their respective
probabilities of occurrence.
The control chart applied to the Average
Underpriced Adjusted Abnormal Return
registered for all stocks at a given moment
t {t =1,...60} (figure 2) supports the
assumption of the existence of a significant
and positive abnormal noisy trading return
during the two first trading days with a
pronounced effect the second day.
This drives us to appreciate the extent of
the noisy trading effect through the two
days’ CUAAR where we reported its
standardized values in the table AII (colon
59
7). From the descriptive statistics of the
CUAAR in table AIII, we can see that for
the 60 IPOs, the noisy trading effect
computed an average and a standard
deviation over the two first trading days of
8.08% and 15.25% respectively, which
implies that the extent of this effect varies
widely across the firms in the sample. The
results show, indeed, extreme values of 24.30% and 51.88%.
This disparity of the noisy trading extent
recorded between the different IPO makes
us focus, in the next step, on the role of
some variables that do explain this state of
fact.
Based on a multivariate regression model,
we regressed the Standardized 2-day
CUAAR on some market and some firms
attributes. For the latter, we retained the
debt ratio, the right to vote, the earning per
share EPS and the sector; and for the
former, we retained in the model the
exchange volume, the number of new
issues and the market return as market
attributes19.
Results of the regression are presented in
table 6.
Results of the Fisher test (F=6.277, p-value
= 0) show the global significance of the
model. The 0.574 relative to the
determination coefficient R2, confers for
the whole variables in the model, enough
satisfactory and explanatory power, and
testifies its relevance.
Except the EPS and the sector, all the other
attributes (debt ratio, the right to vote, the
exchange volume, the number of new
issues and the market return) seem to
associate a significant effect on the extent
of the noisy trading return.
19
The debt ratio (total of debts divided by total of
assets) is a risk proxy variable, The right vote
offered to the public by the issuers is a control
proxy variable, and the transaction volume is a
liquidity proxy variable
The two first attributes are subscription
attributes and the three remaining attributes
are however initial offering period
attributes. Therefore, the abnormalities
related to the noisy trading, noted in the
early aftermarket are attributed to a
combination of an ex-ante information
known ahead of time provided by the
firm's initial public offering prospectus and
an ex-post information provided by the
market in the initial offering period20.
The negative effect does support Koop and
Li’s hypothesis which supposes a negative
relationship between debt and firm value.
For the right to vote offered to the public,
the result reported in table 6 show a
positive effect of this attribute on the
CUAAR. This result is not incompatible
with the existence of entrance barrier
where, the issuer will tend to generate
excess in demand in order to create
atomistic investors. This explanation is
thus justified through the positive effect of
the exchange volume over the noisy
trading abnormal return.
For the number of new issues, the negative
effect of this attribute can easily be
explained. The increase in the number of
new issues characterizes the "Hot Issue
Market", and as Ritter's study shows, the
availability of abundant information
reduces the asymmetric information and
thus the information cost. As a
consequence, the behaviors of the issuer
and the investor are affected: the latter will
be optimistic and ready to overestimate the
newly issued stocks and the former will be
willing to propose an offering price close
to the fair value21.
20
Weng , Liu and Chen (1994) show that noisy
trading depends on some firm attributes: the size,
the trading volume and the concentration of the
ownership of the firm.
21
Lowry and Shwert in (2002) showed, from the
VAR model, that there are pronounced cycles in the
number of new issues and in the average initial
return per month. According to these authors, more
firms tend to go public following periods of high
initial return when the capital demand is raised, the
information cost is low and the investors are
specifically optimistic.
60
Finally, concerning the market return
attribute effect on the CUAAR which is
positive, it is due to the market state during
the registration period. We notice that
noisy trading return is more raised in case
of bull market (positive market return) than
in bear market.
In the light of these results, the
abnormalities noted in the early
aftermarket can be attributed to both
underpricing and the market misevaluation.
The findings seem to confirm the
inefficiency market hypothesis through the
second effect which is mainly due to
irrational behavior of some noisy traders.
Conclusion
Previous studies attribute initial returns to
IPO underpricing. Recently, we started to
look for further effects such as the market
misevaluation.
In this paper we develop an appropriate
methodology to analyze the effect of noisy
trading on the aftermarket stock prices of
the new issues. Such effect is evaluated
through the Underpricing Adjusted
Abnormal Return (UAAR).
In our methodology, the abnormal return is
assessed conditionally to the underpricing
measured using a stochastic frontier model.
We argue that the deliberate underpricing
so derived is not an intrinsic component.
A modified event study based on Markov
switching modeling is proposed in order to
compute the UAAR. This approach allows
for time varying parameters, variance
heteroskedasticity and also cross sectional
heterogeneity.
Moreover,
Markov
switching modeling allows for neutralizing
any disturbances caused by the event from
the estimation interval. This specification
allows us to find two different regimes
describing the price valuation process of
the stocks retained in the sample:
underpricing
regime
and
market
benchmark regime.
Our empirical results seem to confirm the
noisy trading and the inefficient market
hypotheses. The abnormalities noted in the
early aftermarket are attributed to a
combination of underpricing and noisy
trading effects. The first is reflected by the
high average probabilities of being in the
first regime, the first trading day. The
second effect is appreciated through the
significance of Average Underprice
Adjusted Abnormal Return the two first
trading days.
Our findings show that abnormal return
depends not only on ex-ant information
“subscription attributes” (information
known before provided from issuing firm's
prospectus) but also on expost information
(information provided by the market
during initial offering period). For
example, big firms which offer to the
public high percentage of vote right and
firms
belonging
to
the
communication/diffusion/publicity sectors
are found to be the most underpriced,
whereas, firms which have an increased
debt ratio are the less underpriced firms.
Also, in hot issue market underpricing is
reduced, while in bull market (positive
market return) underpricing is more raised.
For the noisy trading, we notice the same
effect as to the market state (bull/beat,
hot/cold) and opposite effect for the other
attributes.
As a consequence, even if the result
highlights the noisy component of the
abnormal performance due to irrational
behavior of some market operators, the
underpricing constitutes an important
effect observed the first trading day.
References
Anlin Chen, C. T. Hong and Chin-shun
Wu (1999), '' The Underpricing and Excess
Returns of Initial Public Offerings Based
one the Noisy Trading: To Stochastic
Frontier Model ''. Working paper.
61
Andre Gygax and Sawyer. Kim. R (2001),
"Learning and Predictability Across Events
" Working paper, University of Melbourne.
Ball C.A, Torous N.W, “Investigating
Security Price Pperformance in the
Presence of Event Date Uncertainty ",
Journal of financial economics 22, 1988,
p123-154.
Binder J, «The Event Study Methodology
since 1969 ", Review of quantitative
finance and accounting 11 (1998), 111137.
Boehmer, E, J, Musumeci and A.Poulsen
(1991), "Event Study Methodology under
Conditions of Event-induced Variance ",
Journal of financial economics,30,253,
272.
Cai, j., (1994), «A Markov model of
unconditionnal variance in ARCH ". J.
Bus. Econ. Stat. 12, 309-316.
Chris
J.Muscarelle
&
Michael
R.Vetsuypens, "A simple test of Baron's
model of IPO underpricing ", Journal of
finance economics 24 (1989) 125—135.
Christie A, " On Information Arrival and
Hypothesis Testing in Event Studies ",
Working paper, University of rochester
NY 1983.
Diebold, F.X.(1986), " Modelling the
Persistence of Conditional Variances: a
Comment ". Economet. Rev. 5, 51-56.
Fama E.F, Ficher.L, Jensen M.C and
Roll.R, "The Adjustment of Stock Prices to
New
Information
",
International
Economic Review, vol 10 (February,
1969).
Frinklin Allen & Gerard R. Faulhaber, "
Signaling by Underpricing in the IPO
Market ", Journal of finance economics 23
(1989) 303-323.
François Degeorge & François Derrien, ''
Les déterminants de la performance à long
terme des introductions en bourse: le cas
français '', Banque & Marchés n° 55novembre-decembre 2001.
Garcia, R.(1992), '' Asymptotic Null
Distribution of the Likelihood Ratio Test
in Markov Switching Models '',
Manuscript, University of Montreal.
George Woodward & Vijaya B. Marisetty
(2003), '' Introducing Non Linear
Dynamics to the Two Regime Market
Model: Theory and Evidence '', Working
paper.
James S. Ang and Shaojun Zhang (2002),
"Choosing Benchmarks and Test Statistics
for Long horizon even study ", Working
paper.
Hamilton. J.D (1989), "A New Approach
to the Economic Analysis of Nonstationary
Time Series and the Business Cycle ",
Econometrica, 57, 357-384.
Hamilton. J.D & Susmel. R (1994),
"Autoregressive
conditional
heteroskedasticity and changes in regime ",
Journal of econometrics, 64 (1-2), 307333.
Huntley Schaller & Simon Van Norden
(1997), "Regime switching in stock market
returns ", Applied Financial Economics, 7,
177-191.
Latha Ramchand and Raul Susmel (1998),
"Volatility and cross correlation across
major stock markets ", Journal of empirical
finance 5, 397-416.
Lawrence M.Benvenist & Paul A.Spindt
(1989),
"How
investment
bankers
determine the offer price and allocation of
new issues.", Journal of finance economics
24, 343-361.
Lisa A. Kramer (2000), '' Alternative
methods for robust analysis in event study
applications '', Department of Economics,
Simon Fraser University, Burnaby BC,
Canada V5A 1S6.
62
Michelle Lowry & G. William Schwert
(2002), " IPO Market cycles: Bubbles or
sequential learning? ", the journal of
finance, June.
Nihat Aktas, Eric Bodt, Jean Gabriel
Cousin (2003), " Event study under noisy
estimation period ", Working paper.
Sushil Bikhchandani, David Hirshleifer,
Ivo welch (1998), '' Learning from the
behavior of others, conformity, fads and
informational cascades '', Journal of
economic perspectives 12.3, 151-170.
Welch, Ivo (1992), '' Sequential Sales,
learning and cascades '', Journal of finance
47, 695-732.
Nicolas Wagner (2003), " A market model
with time varying moments and results on
Neuer market stock returns ", Center for
entrepreneurial and financial studies
(CEFS).
Peterson P.P, 1989, '' Event studies: a
review of issues and methodologies '',
Quarterly journal of business and
economies, 28, pp 36-66.
Philip Hans Franses & Dick Van Dijk
(1999), "Nonlinear time series models in
empirical finance ", Cambridge University
Press.
Raul Susmel (2000), " Switching volatility
in private international equity markets ",
International journal of finance &
economics 5: 265-283.
Ritter (1991), '' The long run performance
of initial public offerings '', the journal of
finance. March 1991.
Ritter Jay & Welch Ivo (2002), ''A review
of IPO activity, pricing and allocation '',
Yale ICF working paper No.02-01.
Sawyer. Kim. R and Gygax (2001), "How
eventful are event studies?" Working
paper, University of Melbourne.
Simon Van Norden & Robert Vigfusson, ''
Regime switching models, a guide to the
bank of Canada: Gauss procedures '',
Working paper 96-3.
Stephane Morris (1996), "Speculative
investor behaviour and learning ",
Quarterly journal of economics 111, 11111133.
63
APPENDIX I
Estimation method of the Assessment of the IPO’s Adjusted Abnormal Return Model
All the parameters of the model described in the section 3.2 are jointly estimated through the
maximum likelihood method. The likelihood fonction itself is evaluated recursively using
formula analogous to that in Hamilton (1993) and Schaller et Van Norden (1997).
Specifically, we define, for j = 1, 2,
φit(j)(v )=
and
(
(
φ εit(j) ; v
(j)
h it
(v)
)
(4)
πit(j) ( θ ; v )=P Si,t = j / R it, R it −1,..., R i1 ; R Mt, R Mt −1,..., R M1 ; θ ; v
)
;
j = 1, 2
(5)
)
and φ(.) is the
πit(1)(θ, v ) ,
may be calculated
(
θ = α (1), α (2), β(1), β(2), γ (1)
, γ1(1), γ (2)
, γ1(2), a (1), a (2), η(1)
, η(2)
, ηβ(1), ηβ(2),η(1)
, η(2)
,η(1)
, η(2)
'' ,
0
0
α
α
γ
γ
a
a
where
standard Gaussian probability density function.
The unconditionnal probability of state 1 at each point in time,
using the recursive formula
πit(1)(θ, v )=
where
λit (θ, v ) φit(1)(v )
[
(6)
] (2)
λit (θ, v )φit (v )+ 1−λit (θ, v ) φit (v )
(1)
[
](
)
(1)
(θ, v) p11(v)+ 1−πi(t(1)−1)(θ, v) 1−p22(v)
λit (θ, v ) = πi(t
−1)
(7)
Conditional on θ and v, the contribution of any firm i at each period t is therefore
[
]
w it (θ, v )= πit (θ, v )φit (v )+ 1− πit (θ, v )φit (v )
(j)
(1)
(j)
(2)
(8)
and the likelihood function of the hole sample is
n Ti +∞
(
L(θ )=∏∏ ∫ w it (θ, v ) dF v ; 0, σ v
where
(
F v ; 0, σ v
i =1 t =1− ∞
)
(9)
) is the Cumulative Distribution Function (CDF) of N[0,
σ v ],
n is the number
of firms in the sample and Ti, is the number of sequences associated to the firme i.
Based on Hamilton (1993), the model is estimated by setting πi1(1)(θ, v) to equal the
1− p 22 (ϑ )
unconditional probability of being in state 1 (i.e. π ( 1 ) (φ ,ϑ )=
).
i1
2 − p (ϑ )− p (ϑ )
11
22
The maximization is performed using gradients and the maxlik procedure in GAUSS, which is
a variety of algorithms. The integrals in (9) are evaluated at a grid of 100 points equally
spaced on truncated portion of the domain. The left and the right truncations are chosen to lie
ten standard deviations of v (i.e. σv) below and above zero, respectively.
64
APPENDIX II
Table AII : IPO’s characteristics
Firm
Subscription
date
First trading
day date
IPO offer
price
First after
market
price
Extend of
under pricing
Standardized two
day CUAAR
1
MILLIMAGES
28-MAY-2001
07-JUN-2001
10,50
10,91
,178237
1,224760
2
CARRERE GROUP
29-MAY-2001
13-JUN-2001
18,60
17,95
,111730
,284273
3
UNIVERSAL
MULTIMEDIA
18-FEB-2002 20-MAR-2002
14,45
14,84
,167137
,878251
4
ESI GROUP
26-JUN-2000
06-JUL-2000
26,72
30,00
,253184
2,870085
5
CONSORS FRANCE
31-MAR-2000 05-APR-2000
23,50
23,85
,325906
6,410423
6
UBIQUS
20-SEP-2000
28-SEP-2000
14,00
14,10
,112316
-1,057161
7
TRACING SERVER
07-DEC-2000 14-DEC-2000
58,20
51,00
,071864
-1,387849
8
SAGE COALA
08-MAY-2000 19-MAY-2000
52,90
52,90
,142403
,882382
9
ARTPRICE,COM
17-JAN-2000
21-JAN-2000
19,06
55,00
0,770531
20,668672
10 NETVALUE
19-JAN-2000
26-JAN-2000
22,00
75,00
0,832537
31,803443
11 SOLUCOM
20-FEB-2001 14-MAR-2001
42,00
42,00
,142403
,779182
12 SELF TRADE
06-MAR-2000 16-MAR-2000
12,50
14,51
,285565
2,067551
13 LYCOS FRANCE
02-MAR-2000 08-MAR-2000
36,00
103,00
0,862240
19,989692
14 BOURSORAMA
09-MAR-2000 21-MAR-2000
15,70
17,30
,234984
2,963977
15 EMME
20-MAR-2000 07-APR-2000
17,80
16,02
,065564
-2,284932
16 HIMALAYA
17-MAR-2000 27-MAR-2000
28,00
32,00
,270427
2,542990
17 ABEL
30-MAR-2000 06-APR-2000
34,00
35,20
,174784
-,487574
18 TELECOM CITY
21-MAR-2000 07-APR-2000
19,73
18,00
,072853
-1,915463
19 NETGEM
29-MAR-2000 06-APR-2000
17,50
17,50
,142403
1,251264
20 SQLI
13-JUL-2000
21-JUL-2000
6,75
9,00
,420232
6,007408
21 SOFT COMPUTING
06-APR-2000 26-APR-2000
22,50
27,75
,344468
5,135294
22 GAUDRIOT SA
27-APR-2000 12-MAY-2000
19,95
21,00
,190695
1,384116
23 LINEDATA SERVICES
09-MAY-2000 17-MAY-2000
17,00
17,20
,153138
,877812
24 NET2S SA
11-MAY-2000 18-MAY-2000
14,00
14,30
,162017
2,335142
25 RIBER
12-MAY-2000 24-MAY-2000
10,00
12,00
,317841
4,469961
26 NEURONES
12-MAY-2000 23-MAY-2000
9,00
8,65
,108453
,455345
27 HI MEDIA
19-MAY-2000
07-JUN-2000
10,75
10,45
,099495
-,589710
28 BUSINESS INTERACTIF
21-JUN-2000
27-JUN-2000
9,00
9,00
,142403
,741064
29 KEYRUS
10-JUL-2000
19-JUL-2000
7,50
7,50
,142403
,669818
30 MEDCOST
06-JUN-2000
09-JUN-2000
8,00
7,84
,135548
,461128
31 DALET
13-JUN-2000
23-JUN-2000
16,70
15,75
,123024
,444636
32 BCI NAVIGATION
24-MAY-2000
06-JUN-2000
14,75
16,20
,325066
5,242822
33 CYBERSEARCH
05-JUL-2000
21-JUL-2000
6,20
6,40
,149576
,509019
05-JUN-2000
21-JUN-2000
33,00
76,00
,065531
-,473301
35 ORCHESTRA-KAZIBAO
07-JUN-2000
28-JUN-2000
6,10
6,30
,172476
1,030845
36 OPTIMS
05-JUN-2000
20-JUN-2000
8,00
10,18
,142403
,303891
37 CYBERDECK
20-JUN-2000
27-JUN-2000
9,00
7,00
,025129
-4,439494
38 SITICOM GROUP
20-JUN-2000
28-JUN-2000
14,30
21,19
,522844
8,835827
39 DATASQUARE
22-JUN-2000
05-JUL-2000
13,00
12,70
,121860
-,158906
40 INFOVISTA
22-JUN-2000
06-JUL-2000
12,80
18,01
,472515
7,244283
41 IB GROUP
16-JUN-2000
27-JUN-2000
22,00
21,95
,140345
,673193
42 AUFEMININ,COM
30-JUN-2000
19-JUL-2000
7,60
8,70
,272024
2,837920
34
HIGHWAVE OPTICAL
TECHNOLOGIES
65
43 ACTEOS
29-JUN-2000
05-JUL-2000
14,60
21,01
,494376
7,740983
44 BAC MAJESTIC
28-JUN-2000
07-JUL-2000
11,50
11,50
,142403
1,206546
45 SYSTRAN
01-SEP-2000
15-SEP-2000
6,90
8,50
,133998
,128469
46 COM 6
07-SEP-2000
21-SEP-2000
13,50
13,00
,109986
-1,351289
47 MICROPOLE-UNIVERS
12-SEP-2000
20-SEP-2000
9,10
13,06
,491755
7,811474
48 CRYONETWORKS
11-SEP-2000
21-SEP-2000
19,50
19,90
,161174
-,187930
49 HUBWOO,COM
18-SEP-2000
28-SEP-2000
10,25
18,30
,241290
1,569766
PHARMAGEST
50
INTERACTIVE
09-OCT-2000 20-OCT-2000
21,50
21,30
,134018
-,176740
51 QUALIFLOW
28-SEP-2000 10-OCT-2000
19,50
20,00
,165895
2,214112
RISC TECHNOLOGY
EUROPE
26-OCT-2000 09-NOV-2000
9,49
15,25
,601630
9,849072
53 SODITECH INGENIERIE
13-NOV-2000 29-NOV-2000
13,65
11,50
,040466
-2,505310
07-NOV-2000 15-NOV-2000
14,53
16,86
,285195
3,941133
52
54
CALL CENTER
ALLIANCE
55 ITESOFT
29-JAN-2001
09-FEB-2001
8,90
7,45
,064222
-1,577362
56 IXO
15-DEC-2000 19-DEC-2000
5,48
5,61
,112165
-,879834
57 BUSINESS & DECISION
24-JAN-2001
06-FEB-2001
13,50
16,44
,332132
4,414258
58 MEMSCAP
08-FEB-2001 01-MAR-2001
8,00
7,14
,061477
-1,640887
59 GAMELOFT
31-MAY-2000
08-JUN-2000
7,90
8,30
,201148
1,599038
60 SWORD GROUP
04-MAR-2002 13-MAR-2002
42,00
47,90
,197176
1,388340
66
APPENDIX III
Table AIII: underpricing and two day CUAAR in the sample
Statistic
Mean
95% Confidence Interval for Mean
UNDERPRICING
,233280
Lower Bound
,184111
Upper Bound
,280456
Median
,161590
Std. Deviation
,186477
Minimum
,025128
Maximum
,862240
Mean
,080798
95% Confidence Interval for Mean
Lower Bound
,041385
Upper Bound
,120210
TW0-DAY CUAAR Median
,035506
Std. Deviation
,152567
Minimum
-,243045
Maximum
,518804
Table I: Sample description
Number of firms % of firms
Year of introduction
2000
52
86,7%
2001
6
10,0%
2002
2
3,3%
B+OPO
43
71,7%
Introduction procedure B+OPF
14
23,3%
Other Procedures
3
5,0%
Computer Sector
33
55,0%
Communication/Diffusion/Advertising
14
23,3%
Electricity/Electric/Communication
6
10,0%
Other Financial Institutes
3
5,0%
Other sectors
1
1,7%
Others Equipments
1
1,7%
Domestique / Professionnel Equipements
1
1,7%
Environment
1
1,7%
60
100,0%
Sector
Total
67
Table II: Wilcoxon Signed Ranks Test
Descriptive statistics
Mean
Standard deviation
Minimum
Maximum
Median
Wilcoxon Signed Ranks
IPO OFFER PRICE
FIRST AFTERMARKET CLOSING PRICE
17.20
21.108
11.132
19.064
5
0.8
58
103
14
15.885
Test : Difference between the first aftermarket price and the IPO offer price
Number of
Negative ranks
Positive Ranks
Ties
17
36
7
Mean of
21.32
29.68
Negative ranks
Positive Ranks
Sum of
362.5
1068.50
Negative ranks :
Positive Ranks:
Z (a)
Asymptotic significance
-3.125
0.002
(a) Based on negative ranks: the sum of the ranks for the less frequent sign is standardized
Table III: Characteristics relative to the pricing factors
Variables
Debt Ratio (%)
Floating (%)
% of the public right to vote
Number of new issues
Minimum
Maximum
Moyenne
Ecart type
5,48
5,3
5.3
2
58,20
49,7
49.7
12
17,1810
21,527
21.527
6.433
11,15163
8,6572
8.6572
3.609
Table IV: Results of the parameter estimates of the stochastic frontier model
Dependent variable:
Log of the offer price of IPO
•
•
•
•
•
•
•
•
•
•
Independent variables
Debts Ratio (%)
Floating (%) ²
% right to vote (public)
Number of new issues
σR over the 20 first listing days
EPS
Procedure (B + OPO)
Computer sector
Com/diff/advert sectors
Intercept
Variance Components
• Asymmetric component
• Symmetric component
Log likelihood
Number of observations
Wald test of β1 = β2 = … = β9 = 0
Wald chi2 (9)
Significance
Likelihood-ratio test of sigma_u = 0
LR = -2[L(H0) -L (H1)]
Significance
Parameters
estimations
•
•
•
•
•
•
•
•
•
•
β1
β2
β3
β4
β5
β6
β7
β8
β9
β0
•
•
•
•
•
•
•
•
•
•
•
•
sigma_u
sigma_e
•
•
0.0212***
-0.0562***
0.0476*
-0.1162***
0.0006***
0.1259***
0.9652***
0.2429***
0.4553**
2.1610***
0.1164***
0.0321*
-111.353
60
Standard Errors
•
•
•
•
•
•
•
•
•
0.00245
0.00847
0.02832
0.02366
0.00003
0.00347
0.02591
0.03353
0.01151
0.02975
•
•
0.03881
0.01850
189.34
0.000
25.53
0.000
68
Figure 1: The control chart of average probability of being in state 1
Table V: Results of the maximum estimates of the two-state model
Two-states model
Return
Systematic risk
Under pricing
Volatility
Conditional transition
probabilities
Variance of the
unobservable
heterogeneity factors
Log likelihood
Nber of observat°
Parameters
α(1)
α(2)
ηα(1)
ηα(2)
β(1)
β(2)
ηβ (1)
ηβ (2)
µ(1)
µ(2)
ηµ (1)
ηµ (2)
γ0(1)
γ0(2)
γ1(1)
γ1(2)
ηγ(1)
ηγ(2)
a(1)
a(2)
ηa(1)
ηa(2)
σv
Estimations
-0.0056***
0.0031***
0.0088***
-0.0111***
0.0218***
0.7814***
-0.0405***
0.1963***
0.0052***
-0.0004
-0.0084**
0.0165
-12.7779***
-6.3683***
-5.9782***
-1.1863***
-0.8485***
0.8715***
Standard Errors (SE)
0.0002
0.0004
0.0031
0.0041
0.0049
0.0515
0.0143
0.0764
0.0014
0.0172
0.0033
0.0130
0.1485
0.0746
0.1929
0.1823
0.2969
0.3048
2.8764***
-1.5877***
0.4880
-0.2451
0.5744
0.2833
0.4228
0.2554
1.2576***
0.4411
-7979.724
3600
69
Figure 2: The control chart of Standardized Average Underpriced Adjusted Abnormal
Return
Table VI: The determinants of Noisy trading
Dependent variable:
Standardized two day CUAAR
•
•
•
•
•
•
•
•
•
Independent variables
Debts Ratio (%)
% right to vote (public)
EPS
Number of new issues
Market return
Exchange volume at the first trading
day
Computer sector
Com/diff/advert sectors
Intercept
Parameters
•
•
•
•
•
•
β1
β2
β3
β4
β5
β6
•
•
•
β7
β8
β0
estimations
•
•
•
•
•
•
-0.054**
Standard
Errors (SE)
•
•
•
•
•
•
0.202**
*
0.044
0.522**
*
•
0.403*** •
1.803*** •
R square
•
-0.012
•
0.026
•
2.1610***
0.574
Adjusted R square
0.482
Std. Error of estimate
4.423
Fisher
6.277
significance
0.000
0.00245
0.00847
0.12832
0.19101
0.00003
0.49701
0.01147
0.01591
0.02975
70
Effects and compatibilities of the economic integrations
concluded by developing countries. Case of the free trade
area established between Tunisia and Morocco
Karim CHAABOUNI
Assistant-Professor in Economics
Sfax High Business School
ESC – Route de l’Aérodrome Km 4 – BP 1081 – Sfax 3018 – Tunisia
Tel : (+216) 98 636 252 – E-mail : [email protected]
Abstract
In this paper, the interest is concentrated on the actual trend showing a considerable increase
in the economic integrations’ agreements. The fundamental theories are presented, as well as
some actual experiences. The purpose is to perceive the effects of such agreements on the
member countries’ welfares and economic structures.
The experiences of some developing counties in this field are presented in this paper. The
case of the Free Trade Agreement concluded between Tunisia and Morocco is particularly
treated and studied.
Keywords: economic integration, free trade area, custom union theory, trade creation, trade
diversion.
71
Introduction
I.
Economic
or
regional
integration
agreements don't stop appearing in the
present economic context marked by more
and more opening to the international
environment.
The trade preferential agreements are
numerous and generally vary according to
their degrees of integration. The objective
always retained by this kind of agreements
is doing trade liberalization between
selected countries, and this through the
elimination of custom barriers ; we
generally associate a liberal trade
conception
to
such
agreements.
Nevertheless, in these areas, trade barriers
are
maintained
towards
unrelated
countries; that means that protectionist
aspects could also be invoked in this
setting.
Various nations try to become closer to
their neighbours, to their commercial
partners… in order to conclude set of
integration agreements also titled trade
preferential agreements. Objectives are
always ambitious and each nation hopes to
generate profits discounted of such
agreements in terms of economic growth,
of employment, of investments… Virtues
of the international trade’s theories are in
minds of many economists, leaders and
decision-makers.
A short preview on a vast sample of
agreements concluded, indicates that such
movements don't limit themselves to the
developed countries. Indeed, many
developing countries in processes of
liberalization and moving towards the
market economy, show their wills to create
or to integrate the trade preferential
agreements with their partners.
So facing this report and to these facts
various questionings are apparent, to which
this work tries to give elements of answers.
How do economic integration agreements
appear and what are their objectives ?
What are their effects ? Do such
agreements concluded by developing
countries succeed to generate sufficient
outputs ? i. e. do developing countries
integrating these kinds of agreements see
their welfares improving in consequence ?
In answers, theoretical concepts are firstly
presented in this work. Then, and in order
to answer questions targeted on developing
countries, some examples of agreements
are landed briefly, while the accent is
carried more on the Free Trade Area
concluded between Tunisia and Morocco.
Economic integration agreements
Commonly, we distinguish the following
categories of economic integrations or
regional agreements :
•
The Free Trade Area : it is an area
characterized by the elimination of
trade barriers originally opposing to the
free circulation of products between
member countries, but these members
maintain their own commercial policies
to the consideration of external
countries.
•
The Custom Union : this integration is
characterized by a circulation liberty of
goods and services between member
countries, but a common commercial
policy is instituted by the union
towards unrelated countries.
•
The Common Market : it is an
integration that goes beyond the
customs union by the extension of
circulation liberties between member
countries, to the production factors,
that means to work and capital.
•
The Economic Union : according to
this shape of integration, member
countries institute between themselves
a Common Market in which the
adopted economic policies are very
well common or harmonized.
72
•
The Monetary and Economic Union :
it is about a much widened and very
advanced integration that exceeds the
economic union by the adoption of a
common currency and a common
monetary policy between member
countries.
Added to their economic dimension, the
regional integrations through their different
shapes, obey to cultural and political
considerations. Indeed, they constitute the
symbol of understanding, convergences
and bringing together between people and
nations.
II.
The custom union theory
It is common to associate free trade visions
to economic integration agreements.
Member
countries,
through
their
adherences to such areas, aim many
objectives, of which most fundamentals are
the considered benefits of the international
exchange.
Indeed, besides the cultural, politic,
nationalist… considerations mentioned,
that could motivate the nation’s integration
to a preferential area of trade, the main
objective remains the research of the
economic efficiency defended in both
classical and new theories of international
trade.
In this setting, we recall the various gains
of specialization and international division
signalled in theories of the comparative or
absolute advantage, the Heckscher-Ohlin
model, the theory of the representative
demand…
Although divergent in numerous terms,
these various theories keep and develop the
following common principle : every nation
arranging a comparative or absolute
advantage has interest to specialize its
production in terms of the good in which it
has this advantage, and to exchange with
its partners which specialize by the same
way. Each of these nations records various
gains like better affectation of resources,
extension of consumption possibilities,
inputs economies, scale savings, the
initiation to the new technologies, the
widening of the product range available to
consumers…
To the contrary of these liberal
considerations, some economists see in
regional integration agreements the
demonstration of a kind of protectionism :
the constituted entities stay protected from
the foreign competition emanating from
unrelated countries, what could generate
possible losses.
In a more global way, trade preferential
agreements’ effects can be analysed in the
custom union theory. It could solve ideas
and orientations more in terms of the fixed
objectives. However, it is imperative to
signal that only effects of the first two
shapes of integration (i.e. the free trade
area and the custom union) are linked to
commercial considerations essentially. The
effects’ analysis of the last three shapes
calls to an overtaking of the setting of the
international trade since such arrangements
spread beyond the commercial fluxes.
A. The immediate effects of the
Custom Union : trade creation and
diversion
Actually, many economists converge
toward the thesis according to which an
instituted custom union not always
succeeds to the well-being improvement of
each of member countries. In this field,
Krugman (1995) expresses that it is
possible that a country damages its
situation while joining a custom union.
The liberal, as well as the protectionist
conception of this integration, makes that
its balance is not necessarily positive for
73
related nations. It could be illustrated from
the following example.
Let's consider the case of three countries
A, B and C that proceed to manufacturing
different goods. In terms of production of a
good x1, production costs (and sales cost)
of this good are 30$us in the country A,
22$us in the B country, and 25$us in the
county C. Let’s try to see the impact of a
custom union instituted between countries
A and B on the well-being of A (the
analysis is done in partial equilibrium).
Initially, the country A imposed a custom
tariff (equal to 50%) on imports of the
good x1, which made consumption
concentrated on local product, more
competitive. Following the institution of
the custom union with the B country (the
50% tariff is maintained by the two
countries members to the consideration of
the country C), it would be thus more
rational for country A consumers to import
the good x1 from the country B and to
consume at a more reduced cost (22$us)
the designed good. While referring to the
absolute and comparative advantage
theories, the country A gets a gain since
while specializing in the production of
another good x'1, it is sufficient to produce
for a value of 22$us of that good x'1 to
obtain the good x1. An analogous
reasoning in a contrary sense takes place in
the country B.
This gain in terms of well-being illustrates
a “trade creation” between countries A and
B following the institution of the custom
union : some new commercial exchanges
are created between A and B in
replacement to domestic production.
Now, we suppose that in terms of
production of a good x2, production costs
(and merchandising costs) of this good is
around 40$us in the country A, 25$us in the
country B, and 20$us in the country C.
The initial tariff (before the custom union)
imposed by the country A on the
importation of the good x2 is 50%. This
ensues that the domestic demand was
satisfied by the import of the designed
good from the country C ; the price, even
raised by the tariff, remained competitive
(30 $us) in comparison with the local
production and with the import from B.
Following the institution of the custom
union between A and B (the tariff
maintained by the two countries towards C
is 50%), it becomes more rational for
country A consumers to buy the good x2
from the country B since its price becomes
henceforth more competitive for this
demand. Imports from B replace therefore
imports from C in spite the fact that the
country C is more competitive on the
international market in terms of production
of the good x2.
In this case, the custom union has a
negative effect on the resource affectation,
as well as on the country A welfare. This
negative effect is titled “trade diversion”
and it is characterized by the following
events :
-
imports from the country having the
best comparative advantage in the
production of the good x2 stop to the
profit of another country integrating the
custom union, despite being less
competitive
-
the country A pays more expensive its
imports of the good x2 ; it must
henceforth provide more resources in
exports (25$us instead of 20$us
initially).
-
the country A public authorities don't
collect anymore the customs returns
coming initially from the tax imposed
before to consumers ; these returns are
not discerned as a total loss for the
country A welfare.
74
B. The middle and long term effects
of the custom union
4. The incitement to investment
and to research
Whereas the short-term effects of a custom
union remains mixed between trade
creation among member states and trade
diversion in opposition to the outsiders,
other less immediate effects, however
important, take place and anchor while the
integration develops and reinforces. These
effects sum up notably in the following
points.
The custom union creates a great and
protected market from the exterior. Such
factors would attract more local and
foreign investors ; such new investments
would
permit
to
generate
more
employment and economic development
for member countries.
1. The
improvement
of
exchange terms with the exterior
When two or several countries constitute
"themselves a big entity" following their
integration, it is allowed for them to affect
in their favour the exchange terms with
their external partners. Their negotiation
power, becoming more important, would
allow them to defend the tariff that
maximizes their national welfares. Indeed,
this argument is largely defended when
countries integrating the custom union are
individually reduced size.
2. The
stimulation
competition
of
The custom union permits a competition
stimulus between enterprises producing
similar goods and services, especially
when such production evolved initially in a
monopolistic structure. Much efficiency
occurs in consequence : management
method rationalization, costs and prices
decrease, improvements of the service to
the clientele…
3. The
savings
realization
of
scale
The great market offered by a custom
union permits to enterprises of this space to
be able to enjoy scale savings. Gains and
profits issued from such scales permit a
better competitiveness of these enterprises
on both local and international markets.
When the available labour within the union
is qualified, and when the education is at a
high-level, it is possible that the mentioned
investments would be accompanied by an
R&D effort intensifications, as well as by
more technology and innovation transfers.
That would permit both better investment
productivity and better investment output.
III. Examples of economic integrations
concluded by developing countries
Economic integration agreements don't
stop appearing everywhere, particularly
since the victory of the market economy
and since the big trends of liberalization.
This tendency concerns both developed
and developing countries, and it is
perfectly illustrated within the World
Trade Organization (WTO) : among 148
WTO members, only three countries don't
adhere to any preferential trade agreement.
More concretely, about 265 integration
agreements have been notified to the
WTO22 (or to the old GATT) until July
2003, of which 190 are currently in
practise. Of all these agreements, 138 have
been notified after the WTO creation, i.e.
since January 1995, and it is foreseeable
that this number would increase in the
future.
22
WTO members must firstly notify their trade
agreements to this organization, so that it examines
their compatibilities with its principals. The
objectives are to ensure that such agreements
generate trade creation between member states
without causing trade diversion towards other WTO
members.
75
Among the most known agreements at an
international scale, we can mention the
European Union (EU), the North American
Free Trade Agreement (NAFTA), the Free
Trade European Association (FTEA), the
Southern Common Market (MERCOSUR),
the Association of the Southeast Asian
nations (ASEAN)…
In this field, we notice that the first three
quoted agreements have been signed
between developed countries (with the
exception of Mexico member of the
NAFTA), and that these agreements
reached or approached aimed objectives in
terms of mutual trade improvement,
investment appeal, research and innovation
development… The two other signalled
agreements, as well as many others, are
concluded by developing countries and are
the object of a particular attention in this
work in terms of their contents and their
results.
A. The MERCOSUR
Created in 1991, the " Southern Common
Market" signed by four countries of South
America : Argentina, Brazil, Paraguay and
Uruguay, instituted a custom union
between these member states, in difference
to its title. In 1996, Chile and Bolivia
associated to this integration in the
objective to become members lately.
At the date of creation of this agreement,
observers gave little odds to its success
considering both economic situations of
the signatory countries, and past
integration failures having had place in the
region. However, contrary to these
prospecting, the MERCOSUR has
succeeded to stimulate and to intensify the
mutual trade between member states, as
well as to master country risks and to
assure a better investment appeal. It
constitutes thus one of the main
integrations in the world, behind the
European Union and the NAFTA.
Success doesn't make any doubt, but some
reserves could be maintained to its
consideration. Indeed, the MERCOSUR
stays an area economically disparate :
Brazil and the Argentina achieve together
close to 90% of the commercial exchanges
within the area. In the same way, the
economic structures always testify a sort of
fragility : the economic and financial crisis
having taken place in Argentina during
years 2001-2002 make thinking that the
region is still far from developed countries’
structures.
B. The ASEAN
The Association Southeast Asian Nations
has been instituted in 1967 by five main
members
:
Indonesia,
Malaysia,
Philippines, Singapore and Thailand. New
member states joined next this association :
Brunei in 1984, Vietnam in 1995, Laos and
Myanmar in 1997, and Cambodia in 2000.
The area covers a population of about 500
millions inhabitants globally.
Whereas various themes cover the
integration’s extent, trade and economy
were governed initially by a preferential
trade grouping adopted in 1977 and
stipulating
the
preferential
tariff
establishment applicable to the mutual
product exchanges between member states.
This economic integration was reinforced
since the adoption in 1992 of a free trade
area titled AFTA (ASEAN Free Trade
Area) progressively during 10 years.
In the same way, it is foreseen to reinforce
the dynamics of the economic integration
in the region since the adoption of the
Vision 2020 that calls for a free trade of
goods, services, investments and capitals
between the ASEAN member countries at
the indicated date.
Concretely, the creation of ASEAN and
AFTA generated trade intensification
between member states, as well as a
76
positive development. Thus, whereas
exchanges intra-ASEAN were limited to a
weak part around 12% in 1967, this part
rose to 25% in 1996, i.e. following the free
trade area process launching. During the
year 2004, the mutual trade rose to 720
billions $us, while the global GDP of the
area reached around 737 billions $us.
C. The adherence of the South
Mediterranean countries to the
Barcelona Process
In difference with the integrations above
quoted, the Barcelona process doesn't
invoke solely developing countries.
Indeed,
the
Euro–Mediterranean
conference taken place in Barcelona in
November 1995 launched the partnership
between the European union countries and
12 countries from the South Mediterranean
and the Middle East (Tunisia, Morocco,
Algeria, Egypt, Jordan, Lebanon, Syria, the
Palestinian authority and Israel). Turkey,
Cyprus and Malta adhere or are candidates
to the adherence to the European union.
Three main pillars characterize the
partnership : an economic pillar, a social
and human pillar and a political pillar.
Whereas the last two pillars invoke the
reinforcement of cooperation in the quoted
domains, the economic pillar constitutes
the pivot of the process and stipulates the
establishment of a Euro–Mediterranean
free trade area progressively in 12 years,
i.e. in 2010. Objectives are ambitious and
numerous like contributing to a better
development of South–Mediterranean
countries, assuring more sells to the two
regions’ products, guarantying a more
efficient control of the migration towards
Europe…
Ties between the EU and various South–
Mediterranean countries were already
strong ; countries like Tunisia and
Morocco achieve around three quarters of
their commercial exchanges with their
northern neighbour. The free trade area
instituted strengthens therefore these ties
and tries to bring news perspectives for
other countries not merchandising as much
with the EU.
The free trade area concerns only industrial
products. Agriculture and services don't
make part of the liberalization field in its
original version ; however nothing
prevents their inclusion according to
ulterior dialogues between the two parts. It
has been foreseen in the same way that the
European union and its member countries
attend the South–Mediterranean region in
its
efforts
of
restructuring
and
liberalisation ; the MEDA program
representing a financial engagement of the
EU has been put in this context.
In the setting of the process achieving, the
recent results show globally a lot of
divergences and disparities, as well as
delays in relation to forecasting and to
ambitions. Indeed, it is first noted that the
realization of the partnership takes place
under bilateral and non-multilateral shape.
Except countries candidates to the
adherence to the EU, only five countries
(Tunisia, Morocco, Israel, the Palestinian
authority and Jordan) among nine,
proceeded to the conclusion of association
agreements during the two years following
the partnership launching ; some countries
like Tunisia and Morocco arrange a shape
of reinforced partnership.
The agreements’ other signatory countries
display a delay in terms of realization, and
it is not foreseen for them to respect the
fixed date (2010). We generally make
reference to a Mediterranean partnership
taking place at different speeds.
Globally, we can to affirm that the
Barcelona process doesn't go in the initial
wished way and speed. The following
indications prove the delay confirmed in
this field :
77
-
The custom tariffs’ diminution, as well
as the commercial trade strengthening,
don't occur at the same calendar for all
the
southern
countries
(since
agreements aren't concluded at the
same rhythm like mentioned above).
external trades. Tunisia and Morocco are
WTO members and adhere to other
integration agreements finished with other
partners : the European Union, other
Arabian countries, the United States of
America…
-
The MEDA funds paid out are limited
to approximately the third of the
engagements (although disparities
between countries exist), which
indicates the limits of the efficient help
allocated in the setting of this
partnership.
-
The global appeal of the southern zone
in terms of international investment
doesn't display better results ; this is a
major consequence of the markets’
narrowness and their weak mutual
integrations.
The main question appearing at this level,
and to which this paragraph tries to give
elements of answers, is the next : What is
the importance of the Tunisian–Moroccan
free trade area in the liberalization
movements opted by the two countries ? i.e.
would this integration succeed to reach its
initial objectives in terms of mutual trade
improvement and its consequent effects ?
Multiple factors justify this delay. We can
essentially refer here to the non-reciprocity
within the initiatives, the regional conflicts,
the divergence of the points of view within
the EU, the development gaps between the
southern zone countries …
IV. The free trade area established
between Tunisia and Morocco
Tunisia and Morocco proceeded, at the
date of March 16, 1999, to the conclusion
of a preferential agreement establishing a
free trade area between the two countries
progressively during a transient period that
should not go beyond December 31, 2007.
The essential objectives of the two partners
are to develop the bilateral exchange
volume, to sit a better cooperation in
various domains, and globally to succeed
to a more sustained economic growth in
both two countries. The aimed exchange
volume is around 500 millions dollars
annually.
In fact, this agreement comes to reinforce
orientations chosen by the two countries
concerning the liberalization of their
The preferential regime and the
dismantling diagram instituted by the free
trade Area agreement
In reference to the agreement’s
arrangements, the free trade area created
seems to be partial since its application
doesn't spread to all the products
exchanged between the two countries.
Indeed, services, agricultural and agroalimentary products are not part of the
agreement field ; in the same way a 17.5%
custom tariff has to be applied in both two
countries’ borders regarding to other
exchanged products included in a common
list.
In more details, the dismantling diagram
appearing in the agreement foresees the
institution of the free trade area as follow :
The total exoneration from all custom
tariffs and equivalent effect taxes applied
to products figuring in two separate lists
(T1 list containing the Moroccan products
imported by Tunisia ; and M1 list
containing the Tunisian products imported
by Morocco).
The application of a unique tariff (17.5%)
to products appearing in a common list
titled MT when they are imported by both
two countries.
78
The progressive dismantling of custom
tariffs and equivalent effect taxes relevant
to products represented in three distinct
lists (T2 lists and T3 containing the
Moroccan products imported by Tunisia ;
and M2 list containing the Tunisian
products imported by Morocco). This
yearly dismantling takes place differently
(according to the country and the products’
list) on a transient period expiring
December 31, 2007 ; such products would
circulate thus freely since January 2008.
The agricultural and agro-alimentary
products are not submitted to this
liberalisation process ; they will be subject
of ulterior negotiations.
Some other products appearing in a
common negative list are exempted from
the agreement’s appliance, such as
sensitive products, prohibited products for
reasons of hygiene, morality, security…
While referring to figures emanating from
the Tunisian National Institute of Statistics,
the goods’ mutual trade volume23
registered between Tunisia and Morocco
all along the period 1994-2003 and as
expressed in million Tunisian Dinars, is
presented below in the following table 1.
We indicate here that exchange rates
displaying the values of the Tunisian Dinar
(TD) in relation to the Moroccan Dirham
(MDH) are as follow : 1 TD ≈ 8.33 MDH
in years 1998-1999 ; 1 TD ≈ 7.69 MDH in
2000-2001 ; and 1 TD ≈ 7.14 MDH at the
period 2003-2004. On the other hand, the
present exchange rates linking the Tunisian
Dinar to the main international currencies
are the next: 1 TD ≈ 0.82 $us ; and 1 TD ≈
0.63€.
A. Position and dynamics of the
Tunisian–Moroccan
commercial
exchanges
A particular interest to the commercial
exchange dynamics between Tunisia and
Morocco should be manifested. The
objective is to estimate the contribution of
the free trade area instituted, as well as to
value the southern bilateral trade between
two developing countries achieving the
biggest parts of their commercial
exchanges with the European Union.
While referring to the Tunisian and
Moroccan figures, it is first important to
note that a slant governs these figures in
terms of mutual trade. This slant is logical
and it is explained by the accounting
differences :
exports
are
generally
registered in their FOB values, whereas
imports are registered in their CIF values
by the two countries’ customs. It justifies a
gap of about 5%.
23
Service trade statistics are not presented in this
work.
79
Year
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
Tunisian Exports
to Morocco
Tunisian Imports
from Morocco
Balance
28.4
25.3
36.5
36.5
45.7
43.6
34.8
58.7
72.2
69.7
47.9
56.4
57.1
53.7
58
51.1
87.1
93.1
81.7
60.2
-19.5
-31.1
-20.6
-17.2
-12.3
-7.5
-52.3
-34.4
-9.5
9.5
76.3
81.7
93.6
90.2
103.7
94.7
121.9
151.8
153.9
129.9
7.08
14.57
-3.64
14.97
-8.68
28.73
24.53
1.39
-15.6
Total bilateral
trade
Total bilateral
trade’s annual
variation (in
percentage)
Table 1 : Goods’ international trade between Tunisia and Morocco (in million TD)
The trend’s evolution of the total trade between the two countries is presented as follow:
Figure 1
180
160
140
120
100
80
60
40
20
0
1994
1995
1996
1997
1998
In reference to these figures and these
trends, it is permitted to affirm that the
trade’s movement between the two
countries illustrates a global positive
tendency, particularly since year 1999, the
agreement’s launching date ; the
integration reveals hence encouraging
results. However, a detail’s assessment of
the bilateral commercial exchange’s
evolution
inverts
the
satisfactory
hypothesis related to the agreement’s
effects.
Firstly, the figures’ evolution representing
the exchange values confirms a substantial
gap in relation to the aimed objectives (as
mentioned above, aimed yearly total trade
is around 500 millions $us).
1999
2000
2001
2002
2003
On the other hand, a preview on the
position occupied by each of the two
countries in its partner's international trade
shows very limited market parts, much
below the agreement’s objectives. During
the period 1999-2003, the Tunisian imports
from Morocco represent a market part
varying between only 0.43% and 0.75% of
the total volume of goods imported by
Tunisia ; the table 2 following below
points up these parts. The market parts of
the Tunisian exports to Morocco are lower
than 0.75% of the global Moroccan import
volume.
80
1999 2000 2001 2002 2003
Year
Tunisian Imports
from Morocco (in
million TD)
51.1
87.1
93.1
81.7 60.2
Total Tunisian
10070.
13697. 13510.
imports
11738 3
14038.9
(in Millions TD) 5
9
Parts of imports
from Morocco
0.75
0.68
0.61 0.43
(in pourcentage) 0.51
Table 2 : parts of imports from Morocco in
Tunisian imports. Source : INS
Parts of exports to the partner in relation to
the total exports of each country also
displays rates lower than 1%. The
Tunisian’s main commercial partners
remain France, Germany, Italy and Libya ;
while the main partners of Morocco are
France, Spain, Great Britain and the United
States of America.
The details of the merchandised products
between the two countries note the
exchanges concentration on some products,
in terms of both imports and exports of
every partner. Division also shows the
dominance of the total liberalised products’
flow (annexed to T1 and M1 lists) ; these
products contribute to about the two thirds
of the goods’ bilateral trade, while the
products submitted to an unique tax of
17.5%, as well as products whose tariffs
are topics to a progressive dismantling and
products not making the object of tariff
exoneration, contribute by a much lower
part to the bilateral trade.
In reference to the figures coming from the
Moroccan Direction of Statistics, the
principals products exchanged between the
two countries during the year 2003 are
ventilated in tables 3 and 4 following.
Weight in tons
Value in million
$us
22705.28
9.14
Various food products
11852.31
6.93
Sheet metal
13898.63
6.65
Paper dough
8681.22
5.95
Various semi-products
635.62
5.06
Various consumption finish products
20293.00
3.00
Fluorine
3143.08
2.17
Lead
146.39
1.26
Finish industrial equipment Products
693.75
1.06
Fruts and vegetables juices
679.88
0.91
Sanitary articles
35.82
0.91
Medicines
2477.82
0.70
Vegetables
Table 3 : Principal products exported by Morocco to Tunisia
Weight in tons
Value in million
$us
Chemical products
31045.23
14.50
Pneumatics
3389.39
9.23
Dates
3470.51
7.23
Textiles
668.59
6.58
Various consumption finish products
2610.33
4.00
Finish industrial equipment Products
2027.36
3.91
Threads, Iron…
7038.50
3.82
Wines and alcohols
6378.50
3.62
Papers and cardboard
4906.84
3.17
Various food products
1093.72
2.18
Various semi-products
390.42
2.04
Table 4 : Principal products imported by Morocco from Tunisia
81
diagram of dismantling instituted
remain not enough to impel reasonably
goods’ circulations between the two
countries. The 17.5% tariff, and the
display of the dismantling on a
relatively long transient period24, have
slowed down the free trade area’s
wished effects. In the same way, the
exoneration exclusions of the agroalimentary products make a hindrance
to the commercial exchange fluidity
related to substantial comparative
advantages coming from the two
countries.
The principal exchanged products have
considerable market parts in the imports of
the partner country (parts are between 40%
and 80% out of the same product total
imports). Therefore, the weakness is
recorded in the number and the diversity of
the products merchandised between the
two countries, what explains and causes
the mutual exchanges’ limited volume. The
questioning to ask here is the next : are
both countries’ demand structures
characterized by sensitivities and strong
springiness to foreign partners’ offered
products only ?
The answer to this question is negative,
notably in various sectors of activity.
Tunisia and Morocco proceed to import
multiple goods from other foreign
countries, although some of these goods
are manufactured and merchandised within
the Area. Incontestably, comparative
advantage effects (in terms of prices,
qualities, customer services…) could
explain such behaviours. However, it is
noted that various source difficulties act
negatively on the commercial exchanges
between Tunisia and Morocco, and pull up
the movement’s fast development.
•
Problems coming from confusions in
annexed lists, as met at applications :
the goods’ movement normal progress
is affected by the differences in some
product names, designations and
codifications between the annexed lists
while application in Tunisia and in
Morocco. Other products have been
occasionally included in two, or even
three distinct lists, which generates
their liability to different tariff regimes
at the same time. We notice here that
these difficulties have been signalled to
the Tunisian–Moroccan mixed business
Council, as well as to the Big
Tunisian–Moroccan
mixed
Commission in order to adopt
necessary measures and corrections.
•
Difficulties generated by non-tariff
barriers : The absence of norms’
mutual
recognition
and
the
coordination’s lack in this field
generate many barriers25 in the practise.
On the other hand, the recourse to the
import authorization applicable to
many products judged hindering the
local productions, could slow down
B. The
difficulties
linked
to
bilateral commercial movements
The objective of the agreement instituting
a free trade area between Tunisia and
Morocco is to propel the international trade
between the two countries, and to enjoy all
beneficial effects that could ensue.
Nevertheless, realizations remain modest
in relation to ambitions, and as mentioned
above these limits are explained by various
difficulties that accompanied the goods’
movement between the two countries, and
that governed the aimed integration’s
application.
Difficulties and problems appear at
different levels, i.e. essentially at the
following elements :
• The deficiency of the preferential
regime instituted by the agreement :
The preferential regime and the
24
The comparison with the advantages figuring in
other trade preferential agreements signed by both
countries (like the Free Trade agreements with the
EU, the Arab Free Trade area…) confirms the
custom preferences’ insufficiency within the
Tunisian-Moroccan Agreement.
25
The conformity to the international norms can
moderate such obstacle. However, the bilateral
cooperation in this theme remains necessary.
82
substantially
the
dynamics
of
exchanges.
Finally,
the
initial
application of the Custom Minimum
Value while importing various
products has been abandoned, which
permitted to surpass ensued obstacles.
•
The transportation problems : The
absence of a direct maritime line
between Tunisia and Morocco acts
appreciably on the bilateral trade,
especially seeing that the terrestrial
transportation joining the two countries
doesn’t exist. Until now, the transit
takes place with the European ports,
which causes major problems in terms
of delays, costs, storages…
C. The
Suggestions
recommendations
and
the
Analyses taking into consideration
Tunisian and Moroccan import’s and
export’s structures, as well as each
market’s supply and demand, have
permitted to identify some remarkable
opportunities in terms of commercial
exchanges between the two countries, but
that still remain insufficiently exploited.
In this way, new trade opportunities have
been specified particularly in the following
sectors : the chemical and plastic industry,
the pharmaceutical industry, the textile
industry, agriculture and the agroalimentary industry, the mechanical
industry, the electric and electronic
industry, of the automotive industry…
With the intention that the new identified
products would be merchandised at
sufficient quantities and values, and that
the bilateral commercial exchanges would
reach the hoped volumes, the following
suggestions could be brought to the extent
and to the application of the TunisianMoroccan free trade area :
-
The suppression of the 17.5% tariff in
order to avoid all discrimination
against products submitted to such
tariff, in relation to imports from other
commercial partners.
-
The alignment of the progressive
dismantling diagram to the plan applied
within the other association agreements
: with the European Union, with the
other Arabian countries…
-
The widening of the exonerated
product lists, especially to the agroalimentary products.
-
The establishment of norms’ mutual
recognition, and the reinforcement of
cooperation and bilateral dialogue in
the fields of normalization, conformity
certification, and quality control.
-
The suppressing of the product import
authorization, and the referring to the
WTO directives concerning defensive
measures (balance of payments
equilibrium, antidumping measures…).
-
The setting of a direct and regular
maritime line between the two
countries.
-
The ensuring of a commercial
coordination in order to buy in
common the similar products imported
at the same time by the two countries ;
that would permit to act favourably on
exchange terms within the international
markets.
-
The reinforcement of the industrial
cooperation in order to assure the
production of various products
currently imported by both countries.
Such production would be marketed on
both two markets, which would
generate scale savings’ profits.
-
The sensitising of the two countries’
business managers in terms of the
opportunities offered by the free trade
area.
83
Conclusion
Economic integration agreements don't
stop appearing and proliferating. Destined
to converge with the WTO principles,
these agreements (or projects of
agreements) are constantly notified to the
Organization. A big part of such
agreements is concluded by developing
countries.
While focusing in this work on some
examples
of
economic
integration
agreements concluded by developing
countries, it is permitted to affirm that the
effects of these agreements remain
mitigated. Indeed, some developing
countries gained profits from their
adherences
to
trade
preferential
agreements, whereas others didn't generate
the expected benefits ; their agreements’
results remain limited and much below the
initial objectives and ambitions.
Results depend on several internal factors
in these countries, i.e. the transition
towards market economy, the liberalization
measures realization, the adoption of the
necessary
economic
reforms
and
accompaniment measures, the historic
commercial ties, the status and the
problems
of
transportation
and
infrastructure, the cultural rivalries…
Economic integration agreements and
borders’ opening to new commercial
partners aren’t just enough to generate the
hoped profits. Such profits depend also on
many other internal and external factors, as
mentioned above.
References
ALAYA Hachemi. « Les nouvelles règles
du jeu économique en Tunisie. Une
initiation à l’économie de marché ».
Centre de Publication Universitaire
editions, Tunis. 2002
report 2003–2004 ». « Business ASEAN.
A quarterly newsletter of The ASEAN
Secretariat ». Volume 4 -Issue 3.
September 2003.
BOURET
Renaud.
« Relations
économiques internationales ». Chenelière
/ McGraw-Hill editions, Montreal–
Toronto. 2003.
CENTRAL BANK OF TUNISIA.
« Tunisian Balance of Payments. 2003 ».
Report, Tunis. September 2004.
CEPEX and CMPE. « Etat et perspectives
des échanges commerciaux tunisomarocains ». Report, Tunis. June 2002.
CHARFI
Faïka
and
GHORBEL
Abdelfattah. « Zone de libre-échange
Tunisie-Union européenne : les défis d’un
partenariat ». l’Harmattan editions, Paris.
1997.
DELAS J. P. « Economie contemporaine ».
Ellipses editions, Paris. 1992.
DIRECTION OF STATISTICS. « Le
Maroc en chiffres 2003 ». Casablanca.
2004.
EUROPEAN COMMISSION. « Un nouvel
élan pour Barcelone, Communication de la
Commission au Conseil et au Parlement
européen ». 2000.
KRUGMAN Paul R. and OBSTFELD
Maurice. « Economie internationale ». De
Boeck
University
editions,
Paris–
Bruxelles. 1995.
LARBI
Ezzeddine.
« Relations
économiques internationales ». Centre de
Recherches et d’Etudes Administratives
editions, Tunis. 1993.
LASSUDRIE,
DUCHENE
B.
and
MUCCHEILLI J. L. « Essaies d’Economie
internationale ». Economica editions, Paris.
2000.
ASSOCIATION
OF
SOUTHEAST
ASIAN NATIONS. « ASEAN annual
84
LINDERT P. « Economie internationale ».
Economica editions, Paris. 2000.
MOISSERON Jean-Yves. « La crise du
régionalisme en Méditerranée ». Revue
Tiers-Monde n°169. January-March 2002.
NATIONAL
INSTITUTE
OF
STATISTICS
(INS).
« Statistiques
économiques et Sociales de la Tunisie ».
Report, Tunis. 2004.
WORLD TRADE ORGANISATION.
« Report of the Committee on Regional
Trade Agreements to the General Council
». November 2004. « Committee on
Regional Trade Agreements - Basic
Information
on
Regional
Trade
Agreements - Agreements Notified to the
GATT/WTO and in Force as of 31 January
2002 ». February 2002.
85
Efficience, productivité et progrès technologique en
fonction de la taille de la firme bancaire : Preuves
empiriques sur les banques commerciales en Tunisie
Sameh CHARFEDDINE KARRAY*
Pr. Jamel Eddine CHICHTI**
Résumé
Dans cet article, notre objectif est d'examiner la performance des banques commerciales
tunisiennes et son évolution durant la période récente de déréglementation financière (19992002), et de dégager l'existence de relations éventuelles entre la taille des banques et leur
efficience. La méthode de frontière non paramétrique d'enveloppement des données (DEA) et
l'indice de changement de la productivité globale de Malmquist ont été utilisés.
Les résultats montrent une différence dans les sources d'inefficience des banques en fonction
de leur taille. L'inefficience coûts dans les petites banques provient essentiellement de
l'inefficience technique, celle-ci est causée essentiellement par leur inefficience d'échelle.
L'inefficience coûts des banques de grande taille a comme source principale l'inefficience
allocative. Par ailleurs, une amélioration de la productivité globale des banques examinées a
été trouvée sur la période récente 1999-2002 et semble être expliquée par le progrès
technologique plutôt que par l'amélioration de l'efficience des banques.
Mots clés : Taille, Efficience, Productivité, Progrès technique, Indice de Malmquist.
*
Assistante à l’Institut Supérieur de Gestion de Sousse. E-mail : [email protected].
Professeur à l’Ecole Supérieure de Commerce de Tunis.
**
86
Introduction
Nous envisageons au niveau de ce travail
d'apporter des preuves empiriques utiles
concernant la structure des coûts et
l'efficience de production des banques
commerciales en Tunisie.
Depuis 1986, la Tunisie s'est engagée dans
un processus de libéralisation et de
déréglementation
financières
pour
promouvoir le développement des marchés
financiers et stimuler par la même la
croissance économique. Un objectif
principal de notre étude est d'explorer
l'impact
des
changements
environnementaux sur la performance des
banques tunisiennes durant la période
récente de déréglementation financière. En
effet,
plusieurs
mesures
de
déréglementation et de libéralisation
financières entreprises ont visé augmenter
la concurrence dans le secteur bancaire.
Notamment, le désencadrement du crédit,
la libéralisation des taux créditeurs et
débiteurs et l'assouplissement des emplois
obligatoires des banques ont créé une
compétition accentuée entre les banques
pour l'obtention des ressources et l'octroi
des crédits. La nouvelle loi bancaire de mai
2001 et l'ouverture des frontières
tunisiennes aux banques étrangères ont
amplifié la concurrence sur le marché de
l'activité bancaire et ont augmenté sa
contestabilité. Dans un environnement
parfaitement compétitif et contestable, la
théorie microéconomique et financière
suggère que les firmes inefficientes sont
soit acquises soit expulsées du marché par
les firmes efficientes. Pour être viables et
réussir, les banques tunisiennes sont donc
appelées à faire preuve dans leur nouvel
environnement compétitif d'une meilleure
efficience.
Dans un contexte en pleins changements, il
est possible que certaines banques
connaissent des difficultés ou des retards
relatifs dans leurs processus d'ajustement
aux nouvelles conditions de leur
environnement. Des différences peuvent
ainsi naître entre les banques dans leur
productivité et efficience mesurées. A ce
propos, Wheelock et Wilson (1999) et Isik
et Hassan (2003) suggèrent que la
déréglementation et le changement
technique peuvent résulter en différents
impacts sur les banques de différentes
formes. On peut ainsi raisonnablement
s'attendre à des différences entre les
banques en fonction de leur taille.
Dans le présent travail, une étude de la
structure des coûts et de la performance de
production
relative
des
banques
commerciales tunisiennes en fonction de
leur taille serait menée pour la période
récente de déréglementation financière.
Dans une première étape, l'approche de
frontière
non
paramétrique
d'enveloppement des données (DEA) serait
utilisée pour un examen de l'efficience
globale de coûts des banques de notre
échantillon et une décomposition de cette
efficience en une efficience allocative et
une efficience technique globale. Cette
dernière peut résulter soit d'une efficience
technique pure soit d'une efficience
d'échelle. Nous considérons dans cette
étape qu'au cours de la période de notre
étude (1999 - 2002), la technologie des
banques de notre échantillon n'a pas subi
de changement majeur. Le choix de cette
période est basé sur l'hypothèse énoncée
par Isik et Hassan (2002) selon laquelle un
intervalle de temps de quatre années est
adéquat pour capter tout changement
structurel de la performance des banques.
Dans une seconde étape, nous éliminons
cette hypothèse et procédons au test de
l'existence de progrès technologique durant
cette période à travers la décomposition de
l'évolution de la productivité des banques
en une composante modification de
l'efficience et une composante progrès
technologique. Nous exploitons ainsi
87
l'avantage principal de travailler avec des
données de panel, à savoir la possibilité
d'observer chaque banque plus qu'une fois
sur une période de temps et d'analyser ainsi
les modifications qui peuvent toucher son
efficience et sa performance. Nous
procédons dans cette étape à l'application
de l'indice de changement de la
productivité globale de Malmquist, qui
permet d'expliquer le changement de la
productivité des banques sur la période
d'étude en une partie liée à l'évolution de
l'efficience et une partie au progrès
technologique.
La suite de cet article s'organise comme
suit. La deuxième section est consacrée à
une revue de littérature. Dans la troisième
section, une description de notre
méthodologie empirique est présentée. Les
résultats de l'application de ces méthodes
ainsi que leurs implications font l'objet de
la quatrième section. Nous concluons dans
la dernière section.
I.
Revue de la littérature
L'environnement déréglementé impose de
nouvelles règles de concurrence dans le
secteur bancaire stimulant par la même
l'innovation financière et le progrès
technologique.
Des
différences
de
performance peuvent apparaître entre les
banques de différentes tailles face à la
déréglementation, d'autant plus que l'effet
du progrès technologique se trouve
largement dépendant de la taille de la firme
bancaire. A cet effet, Elyasiani et Mehdian
(1995) ont trouvé que les petites banques
américaines ont pu réaliser un progrès
technologique pendant la période de
déréglementation, alors que les grandes
banques ont constaté une régression
technologique. Ce résultat semble être
contradictoire avec celui de Humphrey
(1993) ayant reporté des taux de
changement technologiques négatifs après
la déréglementation pour les grandes et les
petites banques américaines qui apparaît
moins important pour les premières.
Wheelock et Wilson (1999) ont reporté un
déclin de la productivité des banques
américaines entre 1984 et 1993, qui est
plus apparent chez les banques de petite
taille que celles de grande taille. Une
diminution de la productivité des coûts des
banques
américaines
après
la
déréglementation financière a été aussi
trouvée par Humphrey (1993), Grabowski
et al (1994) et Humphrey et Pulley (1997).
Kumbhakar et Sarkar (2003) expliquent ce
déclin par un changement non mesuré dans
la qualité des outputs bancaires après la
déréglementation, à travers une variété
plus large de services financiers et une
utilisation plus extensive des nouvelles
technologies. Alam (2001) a trouvé que les
banques américaines de grande taille ont
subi un déclin de productivité au début du
processus de déréglementation (19841985) suivi d'un progrès de productivité
maintenu pour la fin de la décennie. Les
mouvements de productivité sont attribués
selon cette même étude aux changements
technologiques pour la plus grande partie.
La déréglementation a eu un effet négatif
sur l'efficience et la productivité des
banques espagnoles selon Griffel-Tatje et
Lovell (1996). Dans le travail de
Kumbhakar et al (2001), malgré l'effet
négatif de la déréglementation sur
l'efficience
technique
des
banques
espagnoles, un taux élevé de progrès
technique a été trouvé et a résulté en une
tendance à la hausse dans la croissance de
la productivité de ces banques suite à la
déréglementation.
Dans une étude récente, Isik et Hassan
(2003) ont trouvé une amélioration
significative de la performance des
banques turques de tous types après la
déréglementation. La croissance de la
productivité a été entraînée principalement
par l'augmentation de l'efficience plutôt
que par le progrès technique.
88
Pour le cas du Maroc, les résultats de
Joumady (2000) montrent que la
libéralisation financière ne semble pas
avoir amélioré la productivité et
l'efficience
technique
des
banques
commerciales marocaines et que le
changement de leur niveau de productivité
est expliqué plus par l'évolution de la
technologie.
Pour la Tunisie, Chaffai (1997) a trouvé
que la productivité globale des banques
tunisiennes a augmenté suite au
programme de libéralisation initié en 1986.
Toutefois, le taux de progrès techniques est
apparu supérieur au taux de la croissance
de la productivité impliquant que les
banques tunisiennes sont devenues, en
moyenne, moins efficientes après la
libéralisation.
Berger (2003) a mis en évidence
l'existence de différences entre les banques
de petite taille et celles de grande taille
dans leur capacité d'adoption des nouvelles
technologies bancaires. En effet, ces
différences ont été repérées par l'auteur en
examinant les changements technologiques
qui concernent successivement l'Internet
Banking, les technologies de paiement
électroniques
et
les
échanges
d'informations.
II.
Méthodologie empirique
A. La méthode DEA
Pour la mesure de l'efficience des banques
commerciales tunisiennes, la méthode
DEA est adoptée au niveau de ce travail.
L'utilisation de cette méthode est motivée
par le fait qu'elle reste plus appropriée pour
les échantillons de petite taille et qu'elle
n'exige pas une connaissance a priori de la
forme fonctionnelle de la fonction de
production et de la structure des termes
d'erreurs ou d'inefficience (Evanoff et
Israilevich,
1991;
Avkiran,
1999;
Wheelock et Wilson, 1999; Sathye, 2001;
et Isik et Hassan, 2003). Elle présente
toutefois l'inconvénient majeur de ne pas
prendre en compte l'existence d'erreurs de
mesures ou de données.
La technique non paramétrique de mesure
de
l'efficience
est
une
méthode
extrêmement flexible dans la modélisation
de la technologie de production des
banques d'un échantillon dans un cadre
multi- inputs et multi- outputs. Elle
n'impose aucune forme fonctionnelle ou
structure d'erreurs sur les données et utilise
la programmation linéaire pour construire
la frontière de production ayant une forme
linéaire convexe de façon à ce qu'aucun
point observé ne se situe à gauche ou en
dessous d'elle.
A la base, la méthode DEA orientée input
nous permet de déterminer l'économie de
coûts d'inputs qu'il est possible de réaliser
pour chaque unité de production de
l'échantillon si elle était techniquement et
allocativement efficiente. L'efficience
allocative (EA) mesure la réduction
proportionnelle des coûts qu'il est possible
de réaliser si la banque choisit la
combinaison optimale d'inputs étant
donnés leurs prix. L'efficience technique
mesure la réduction proportionnelle dans
l'utilisation des inputs qui peut être atteinte
si la banque opère sur la frontière de
production efficiente. L'approche DEA
permet aussi de décomposer l'efficience
technique globale (ETG) en ses deux
composantes : l'efficience technique pure
(ETP) et l'efficience d'échelle (ESC).
L'efficience technique pure représente la
réduction proportionnelle de l'utilisation
des inputs si ceux-ci ne sont pas gaspillés,
et l'efficience d'échelle mesure la réduction
proportionnelle si la banque atteint
l'échelle d'équilibre c'est à dire si elle opère
à rendements d'échelle constants (CRS).
Ainsi, on peut écrire :
EC =ETG×EA=ETP×ESC×EA
(1)
89
(xt,yt) réalisable relativement à la
technologie en t+1, que nous notons
Dt +1(xt, yt ) .
Pour la détermination des scores
d'efficience technique, il s'agit de résoudre
pour chacune des firmes (ou observation)
une séquence de programmes linéaires26.
En utilisant la définition de la productivité
donnée par Fare et al (1994), l'indice de
changement de la productivité globale de
Malmquist est défini par:
B. L'indice de productivité globale
de Malmquist
On suppose qu'à chaque période t=1,…T,
l'activité des unités de production est
contrainte par un ensemble de production
Ψ des points physiquement réalisables
(xt,yt):
M t=
[(
Où xt est le vecteur des p inputs et yt est le
vecteur des q outputs.
M(xt +1, yt +1, xt, yt )=
D t (x t , y t ) donne la réduction radiale,
proportionnelle des inputs qu'une firme,
située au point (xt,yt) doit effectuer pour
être
considérée
comme
étant
techniquement efficiente dans ses inputs.
Une valeur de Dt (xt, yt ) égale à un, indique
que (xt,yt) est sur la frontière de production.
Pour définir l’indice de Malmquist, nous
utilisons les fonctions de distance relatives
à deux périodes D t (xt +1, y t +1) qui mesure le
changement
proportionnel
maximum
d’inputs requis pour rendre (xt+1,yt+1)
réalisable relativement à la technologie en
t. Similairement, il est possible de
déterminer une fonction de distance qui
mesure le changement proportionnel
maximum d’inputs requis pour rendre
26
Voir Zaim (1995) pour un exposé détaillé de ces
programmes linéaires.
)]
)(
Dt (x t +1, y t +1 ) D t +1(x t +1, y t +1 ) 1/ 2
×
D t (x t , y t )
D t +1 (x t , y t )
(5)
La fonction de distance en inputs telle que
développée par Farrell (1957), pour un
point donné (xt,yt) est définie comme:
(3)
(4)
Pour ne pas avoir à choisir une technologie
de référence donnée, la moyenne
géométrique des deux indices construits
par référence à t et t+1 est retenue et se
présente
comme
suit:
Ψ ={(xt, y t )∈R+p + q tel que xt peut produir e y t }
(2)
D t (xt, y t )=inf {θ tel que (θxt , y t )∈Ψ t }=(sup{θ tel que (xt /θ , y t )∈Ψ t})
D t ( x t +1, y t +1)
D t (x t, y t )
−1
L'indice de productivité défini dans
l'équation (5) représente la productivité du
point de production (xt+1,yt+1) relativement
au point de production (xt,yt). Il peut
prendre une valeur supérieure, égale ou
inférieure à 1 selon que la banque a subi
une croissance, une stagnation ou un déclin
de la productivité globale entre la période t
et la période t+1.
Il
s'écrit
équivalente:
(
M(xt +1, yt +1, xt, yt )=
de
) [(
manière
)]
)(
D t +1 (x t +1, y t +1 )
D t (x t +1, y t +1)
Dt (x t , y t ) 1/ 2
×
×
Dt(x t , y t )
Dt +1(x t +1, y t +1) D t +1 (x t , y t )
(6)
L'indice de productivité de Malmquist
apparaît dans la formulation (6) comme
étant le produit de deux composantes: le
changement de l'efficience technique
(CHEFF) (qui est le premier élément entre
parenthèses) et le changement technique
(CHTEC) (l'élément entre crochets).
L'indice CHEFF mesure la variation
relative de l'efficience entre la période t et
la période t+1 ou en d'autres termes le
degré avec lequel la firme s'est rapprochée
de la frontière efficiente entre les deux
90
périodes. Il prend une valeur supérieure à 1
pour une amélioration d'efficience, 1 en
cas de non changement de l'efficience et
une valeur inférieure à 1 pour une
dégradation de l'efficience.
L'indice CHTEC mesure le changement de
technologie entre les deux périodes
évaluées en xt et x t+1, c'est à dire quel est
le degré de changement atteint par la
frontière de production de référence pour
le mix d'input observé pour chaque
banque. Cet indice serait égal à 1 en cas de
stagnation technique, une valeur supérieur
à 1 pour indiquer un progrès technique et
une valeur inférieure à 1 pour la régression
technique.
Ainsi, le changement de la productivité
globale se décompose en évolution
technologique
et
changement
de
l'efficience technique. La détermination de
l'indice de productivité de Malmquist à
partir de l'équation (5) nécessite donc le
calcul des quatre composantes de fonctions
de distance, ce qui va impliquer quatre
programmes linéaires en assumant en
premier lieu une technologie de
rendements d'échelle constants (CRS). Le
changement de l'efficience technique peut
lui même être décomposé en changement
d'efficience technique pure (CHEFFP) et
changement d'efficience d'échelle (CHSC).
Ceci nécessite le calcul de fonctions de
distance relativement à une technologie de
rendements d'échelle variables (VRS) et
implique deux programmes linéaires
additionnels incluant la restriction de
convexité de la frontière de production27.
L'indice de changement de la productivité
totale des facteurs (CHPT) de Malmquist
s'écrit ainsi:
CHPT =CHEFFP×CHSC×CHTEC
(7)
27
Pour une description détaillée de ces programmes
linéaires, voir Coelli (1996).
C. Données et variables
Les données ont été tirées des états
financiers des banques tels que publiés par
celles-ci et fournis par l’association
professionnelle tunisienne des banques et
des établissements financiers. Elles
concernent 10 banques commerciales
tunisiennes sur les quatre années 19992002. En définitive, l’étude a porté sur 40
observations. Ces observations ont été
subdivisées en deux sous échantillons
représentant respectivement les grandes
banques et les petites banques, la taille
étant mesurée par le total des actifs.
L’étude nécessite une définition des inputs
et des outputs des banques. Elle a été faite
en adoptant l’approche d’intermédiation
développée initialement par Sealey et
Lindley(1977) qui considère la banque
comme une firme produisant des
investissements (prêts et autres) en utilisant
des inputs qui sont le travail, le capital
physique et les fonds empruntés.
Pour notre cas et selon les données
disponibles, nous avons pu retenir deux
variables d’outputs qui sont Y1 : les crédits
et Y2 : les investissements et trois variables
d'inputs X1 : le travail, X2 : le capital
physique et X3 : les fonds empruntés. Y1
est mesuré par la somme des crédits à la
clientèle, Y2 mesure l’importance des
investissements de la firme bancaire dans
son portefeuille titres. Pour les inputs, X1
est mesuré par le nombre d’employés de la
banque, X2 est approché par la valeur des
immobilisations nettes de la banque et X3
est mesuré par le montant en dinars des
fonds empruntés. Le prix du facteur travail
W1 est obtenu en divisant les charges de
personnel par le nombre des employés X1,
le prix du capital W2 est obtenu en divisant
le montant des amortissements et des
charges générales d’exploitation par X2, et
enfin le prix des facteur financier W3 est
donné par le rapport du total des intérêts
versés sur X3. La description statistique de
91
ces variables pour tout l’échantillon et par
classe de taille est fournie dans la table 1.
III. Résultats empiriques
A. Les efficiences relatives des
banques commerciales tunisiennes et
selon la taille
Les résultats dégagés dans la première
étape sont résumés dans la table 2.
L’examen de cette table montre que
l’efficience
moyenne
des
banques
commerciales
tunisiennes
tend
à
augmenter d’une façon remarquable d’une
année à l’autre durant la période récente de
déréglementation
financière.
Cette
amélioration concerne en fait toutes les
efficiences mesurées pour toute la période
de notre étude à l’exception de l’efficience
allocative dans l’année 2002 ayant subi
une légère diminution. Ce résultat
témoigne d’une capacité de plus en plus
grande des banques tunisiennes à s’ajuster
aux conditions imposées par le nouveau
contexte déréglementé et d’une volonté
d’améliorer leur compétitivité via la
réduction de leurs coûts. Il est à remarquer
que la variabilité des efficiences estimées
entre les banques et sur la période de notre
étude est assez faible.
Par ailleurs, d'une façon générale,
l'efficience coût totale moyenne des
banques tunisiennes n'est pas assez
importante. Elle varie sur la période de
notre étude entre 72,7% en 1999 et 84,5%
en 2002 avec une valeur moyenne de
l'ordre de 80%. En d'autres termes, les
banques tunisiennes examinées auraient pu
en moyenne réduire leurs coûts par 25,2%
des coûts réellement subis si elles étaient
totalement efficientes. Par ailleurs, entre
1999 et 2002, elles ont connu une
diminution des coûts totaux de l'ordre de
19,2 % due à la baisse de cette inefficience
coût.
Une décomposition de l'inefficience coûts
totale indique qu'elle provient de manière
équivalente de l'inefficience allocative
(11,6%) et de l'inefficience technique
(11,7%).
En examinant les scores d'efficience de nos
banques différenciées en fonction de la
taille (table 3), il apparaît que l'efficience
coûts totale des grandes banques est un peu
supérieure à celle des petites banques (84%
par rapport à 77,3%). Toutefois, les
sources
de
l'inefficience
constatée
semblent être différentes pour les deux
clases de taille. Pour les grandes banques,
l'inefficience coûts est plus d'origine
allocative que technique, inversement au
cas des banques de petite taille. En effet,
par une meilleure allocation des inputs
relativement à leurs prix, il est possible de
réduire les coûts pour les grandes banques
de 11% et pour les petites banques de
12,36%. D'un autre côté, une diminution
de l'utilisation des inputs (étant donnés les
niveaux d'outputs), pourrait baisser les
coûts des premières par 7,2% seulement et
des dernières par 15,1%.
Pousser,
l'analyse
et
décomposer
l'inefficience technique globale en ses deux
composantes inefficience technique pure et
inefficience d'échelle, indique que la
résolution de la majorité des problèmes liés
à l'inefficience dans les petites banques en
Tunisie, passe par l'amélioration de leur
inefficience d'échelle. En effet, si
l'inefficience coût de ces banques a comme
origine l'inefficience technique, celle-ci
semble être causée principalement par
l'inefficience
d'échelle
(12,2%).
L'inefficience technique pure ne semble
constituer une source de cette inefficience
technique globale que de 1.1%.
Pour examiner si cette inefficience
d'échelle relative dans les petites banques
est due aux rendements d'échelle croissants
ou aux rendements d'échelle décroissants,
les résultats de la table 4 sont d'un grand
apport. Cette table montre le nombre de
92
banques opérant dans les différentes
catégories de rendements d’échelle
différenciées selon leur taille. Dans la
catégorie des rendements d’échelle
constants, on ne trouve aucune banque de
petite taille en 1999, et une banque de
petite taille par année seulement pour le
reste de la période, ce qui fait un total de
trois observations appartenant à la classe
de petite taille opérant à l’échelle
d’équilibre. Le reste des observations de
cette même classe de taille, soit un nombre
de 21 observations, apparaît dans la
catégorie des rendements d’échelle
croissants, ce qui indique que les petites
banques tunisiennes peuvent encore
bénéficier des économies d’échelle par
l’augmentation de leur taille.
Par ailleurs, les observations appartenant à
la classe des grandes banques se trouvent
réparties presque de manière presque égale
entre les trois catégories de rendements
d’échelle (décroissants, constants et
croissants). Il semble que la relation entre
la taille des banques et leur efficience
d’échelle semble ne pas être monotone. Il
existe un niveau d’opérations dans la
catégorie des grandes banques au delà
duquel
les
rendements
d’échelle
deviennent décroissants.
L’efficience d’échelle des grandes banques
apparaît en définitive sur la période de
notre étude avec une valeur moyenne de
97,2%. Elle domine pour cette catégorie de
taille l’efficience technique pure dans la
constitution de l’efficience technique
globale des banques puisque celle-ci a une
valeur moyenne de 95,9%. Ces résultats
indiquent que les grandes banques de notre
échantillon auraient pu en moyenne
économiser prés de 3% des inputs si elles
opéraient à rendements d’échelle constants.
L’économie des inputs est de l’ordre de
4,2% en moyenne si elles opéraient sur la
frontière des possibilités de production qui
montrent des rendements d’échelle
variables.
B. Évolution de la productivité et
décomposition de l’indice de
Malmquist
L’évolution annuelle moyenne de la
productivité
avec
ses
différentes
composantes est présentée dans la table 5.
D’une manière générale, la productivité
globale des banques tunisiennes de notre
échantillon connaît une amélioration d’une
année à l’autre indiquant une meilleure
adaptation à la concurrence imposée par la
déréglementation. Cette amélioration est
variable sur toute la période et elle a été de
l’ordre de 7,2% entre 1999 et 2002. La
meilleure modification (16,6%) est
constatée entre 1999 et 2000. Par ailleurs,
on constate que cette amélioration de
productivité globale des facteurs provient
essentiellement
du
changement
technologique puisque si l’on analyse
l’évolution moyenne de l’efficience
technique globale sur toute la période, on
remarque qu’elle est restée stable
(CHEFF=1), et en examinant son évolution
par année, de légères variations sont
constatées pour chaque période (elles
varient entre une baisse de 0,5% en 2002 et
une augmentation de 0,2% en 2000). Ces
faibles variations sont causées par les
changements de faible ampleur touchant
l’efficience d’échelle des banques de notre
échantillon (avec une moyenne très proche
de 1), l’efficience technique pure apparaît
globalement stable sur toute la période
(sauf une amélioration de 0,4% entre 1999
et 2000).
Pour discerner l’existence de différences
éventuelles entre les banques en fonction
de leur taille quant à l’évolution de la
productivité et l’efficience et concernant le
progrès technologique, la décomposition
de l’indice de Malmquist a été faite pour
chacune des classes de taille retenues. Les
résultats sont présentés dans la table 6.
Aussi bien pour les grandes banques que
les petites banques, on constate une
amélioration de la productivité globale des
93
facteurs qui est entraînée par le progrès
technologique. En moyenne, les banques
appartenant aux deux classes de taille n’ont
pas changé leur niveau d’efficience durant
la période d’étude (une légère baisse pour
les grandes banques et une légère hausse
pour les petites banques). Une stagnation
des niveaux d’efficience peut être
constatée pour l’efficience technique pure
et l’efficience d’échelle. Néanmoins, le
progrès technologique est plus important
dans les banques de petite taille avec une
valeur moyenne de 8,7% entre 1999 et
2002. Il a été à la source principale de
l’amélioration de la productivité de ces
banques de 9,1% qui constitue une
amélioration nettement supérieure à celle
constatée pour les grandes banques (4,3%).
Nos résultas concernant l'évolution de la
productivité
globale
des
banques
commerciales
tunisiennes
après
la
déréglementation sont en conformité avec
ceux de Chaffai (1997).
D’une façon générale, malgré l’apparition
d’amélioration des niveaux de productivité
des banques de notre échantillon durant la
période récente de déréglementation, de
faibles variations sont constatées en ce qui
concerne les efficiences techniques globale
et pure, de même que l’efficience
d’échelle. Ceci peut être expliqué par le
faible nombre de banques par année et par
la courte période d’étude. Durant cette
période, les banques tunisiennes sont
apparues préoccupée plus par l’adoption de
nouvelles
technologies
que
par
l’amélioration de leur efficience.
Conclusion
L’examen de la performance des banques
commerciales tunisiennes sur la période
récente 1999-2002 a été fait par la mesure
et l’analyse de l’évolution de leurs
efficiences et productivité sur cette période
et en fonction de leur taille.
La
méthode
de
frontières
non
paramétriques
d’enveloppement
des
données a été à cet effet utilisée. En
premier lieu et en supposant une frontière
d’efficience commune sur toute la période
d’étude, nous avons trouvé une efficience
coûts totale moyenne pour toutes les
banques de l’ordre de 80% qui semble être
causée de manière égale par l’efficience
allocative et l’efficience technique pure. Le
classement des scores d’efficience par
classe de taille a permis de mettre en
évidence de meilleurs niveaux d'efficience
coûts totale des grandes banques par
rapport à celle des petites banques (84%
par rapport à 77,3%).
Toutefois, les sources de l'inefficience
constatée semblent être différentes pour les
deux clases de taille. Pour les grandes
banques, l'inefficience coûts est plus
d'origine allocative que technique,
inversement au cas des banques de petite
taille. En décomposant l'inefficience
technique globale en ses deux composantes
inefficience technique pure et inefficience
d'échelle, nous a permis de trouver que la
résolution de la majorité des problèmes liés
à l'inefficience dans les petites banques en
Tunisie, passe par l'amélioration de leur
inefficience d'échelle. En effet, si
l'inefficience coût de ces banques a comme
origine l'inefficience technique, celle-ci
semble être causée principalement par
l'inefficience d'échelle (12,2%).
La méthode DEA a servi aussi dans une
deuxième étape de notre analyse, à
déterminer
les
changements
de
productivité totale des banques tunisiennes
sur la période d’étude mesurés par l’indice
de Malmquist. Celui-ci a l’avantage de
permettre de décomposer les changements
touchant la productivité en progrès
technologique et changement d’efficience
productive avec ses deux composantes
efficience d’échelle et efficience technique
pure retenue. Ceci a nécessité la
construction de frontières de production
pour chaque année d’étude et a permis de
94
faire apparaître une amélioration de
productivité totale des banques de notre
échantillon, en moyenne, de l’ordre de
8,7% entre 1999 et 2002. L’amélioration
est plus nette pour les petites banques et est
expliquée pour cette classe de taille de
même que pour tout l’échantillon par
l’évolution de la technologie plutôt que
l’amélioration d’efficience.
Enfin, il importe de signaler que sur la
courte période d'étude, un taux assez
important de progrès technologique a été
constaté par les banques commerciales
tunisiennes, ce qui a fait évoluer leur
technologie de production et déplacer leur
frontière d'efficience. Une analyse
dynamique prenant en compte le
changement technologique s'avère donc
indispensable
pour
une
meilleure
évaluation de l'efficience des banques en
Tunisie. Dans notre cas, l’amélioration des
niveaux
d'efficience trouvée dans la
première étape de notre analyse en
supposant l'absence de progrès technique,
est apparue fictive dans la seconde étape
où le progrès technologique est pris en
compte.
Dans
leur
nouvel
environnement
compétitif, les banques commerciales
tunisiennes doivent faire preuve d'une
meilleure allocation des ressources et d'un
meilleur contrôle des coûts, afin
d’améliorer leur efficience et de
promouvoir
leur compétitivité. Une
amélioration de la productivité ayant
comme origine le progrès technologique
est importante mais ne fait pas preuve de
meilleures stratégies et pratiques des
managers des banques tunisiennes.
Bibliographie
Alam Ila M.S.(2001). A non parametric
approach for assessing productivity
dynamics of large U.S. banks. Journal of
Money, Credit and Banking Vol 33, pp
121- 139.
Avkiran N.K. (1999). The evidence on
efficiency gains: The role of mergers and
the benefits to the public. Journal of
Banking and Finance, Vol 23, pp 9911013.
Berger\ A.N.(2003). The economic effects
of technological progress: Evidence from
the banking industry. Journal of Money,
Credit, and Banking, Vol 35, pp 141- 176.
Berger A. N. et Humphrey D. B. (1997).
Efficiency of financial institutions :
International survey and directions for
future research. European Journal of
Operational Research, Vol 98, pp175- 212.
Chaffai M. E . (1997). Estimating inputspecific inefficiency : The case of Tunisian
banking industry. European Journal of
Operational Research, Vol 98, pp314- 331.
Coelli T (1996). A Guide to DEAP
Version 2.1: A Data Envelopment Analysis
(Computer) Program. Document de travail
du Center for Efficiency and Productivity
Analysis, N\UNICODE{0xb0} 96/08, pp
1- 49.
Elyasiani E. et Mehdian S. (1995). The
comparative efficiency performance of
small and large US commercial banks in
the pre- and post- deregulation eras.
Applied Economics, Vol 27, pp 10691079.
Evanoff D. D. et Israilevich P.R. (1991).
Productive
efficiency
in
banking.
Econometric Perspectives, Vol 15, pp 1132.
Fare R.S., Grosskopf S. et Lovell C.A.K.
(1994). Production Frontiers, Cambridge
University Press.
Farrell M.J. (1957). The Measurement of
Productivity Efficiency. Journal of the
Royal Statistical Society, S\'{e}ries A 120,
pp 253- 281.
95
Griffel-Tatje E.et Lovell C.A.K. (1996).
Deregulation and productivity decline: The
case of Spanish savings banks. European
Economic Review, 40, pp1281- 1303.
Grabowski \ R., Rangan N. et Rezvanian
R. (1994). The effct of deregulation on the
efficiency of US banking firms. Journal of
Economics and Business, 46, pp39- 64.
Humphrey D.B. et Pulley L.B. (1997).
Banks' responses to deregulation: Profits,
technology and efficiency. Journal of
Money, Credit, and Banking, Vol 29, pp
73- 93.
Humphrey D.B.(1993). Cost and technical
change: Effects from bank deregulation.
Journal of Productivity Analysis, 4, pp 534.
Isik I. et Hassan M.K. (2003). Financial
deregulation and total factor productivity
change: An empirical study of Turkish
commercial banks. Journal of Banking and
Finance, 27, pp 1455- 1485.
Savings Banks. Journal of Money, Credit,
and Banking, Vol 33, pp 101-120.
Sathye
M.(2001).
X-efficiency
in
australian
banking:
An
empirical
investigation. Journal of Banking and
Finance, 25, pp 613-630.
Sealey C W et Lindley J. T. (1997). Inputs,
Outputs and a theory of production and
cost at depository financial institutions.
Journal of Finance, Vol 32, pp 1251- 1265.
Wheelock D.C.et Wilson P.W. (1999).
Technical progress, inefficiency and
productivity change in US banking, 19841993. Journal of Money, Credit, and
Banking, Vol 31, pp 212- 234.
Zaim O. (1995). The effect of financial
liberalisation on the efficiency of Turkish
commercial banks, Applied Financial
Economics, Vol 5, pp257- 264.
Isik I. et Hassan M.K. (2002). Technical,
scale and allocatuve efficiencies of Turkish
banking industry. Journal of Banking and
Finance, 26, pp 719- 766
Joumady
O.(2000).
Efficacité
et
productivité des banques au Maroc durant
la période de libéralisation financière:
1990-1996.
17
èmes
journées
internationales d'économie monétaire et
bancaire, Lisbonne, 7-9 juin, pp 1- 24.
Kumbhakar S.C.et Sarkar S. (2003).
Deregulation, ownership and productivity
growth in the banking industry: Evidence
from India. Journal of Money, Credit, and
Banking, Vol 35, pp 403- 424.
Kumbhakar S.C., Lozano-Vivas A., Lovell
Knox C.A. et Hasan I.(2001). The effect of
deregulation on the performance of
financial institutions: The cas of Spanish
96
Annexes
Table 1 : Statistiques descriptives des variables*
1999-2002
Y2
X1
Y1
X2
X3
W1
W2
W3
Taille
Tout l’échantillon
Moyenne
Dév. standard
1398,4
655,5
189,9
145,9
1645,3
821,3
39,3
20,1
1608,1
743,9
0,018
0,004
0,469
0,178
0,034
0,006
1940,8
896,8
2030,0
530,2
328,9
121,4
2515,4
526,4
54,9
18,8
2360,2
564,9
0,018
0,004
0,491
0,161
0,033
0,006
2842,5
703,9
950,5
303,8
93,7
63,4
1064,3
294,7
28,5
13,1
1085,6
286,5
0,018
0,003
0,453
0,190
0,035
0,006
1314,1
326,3
Grandes banques
Moyenne
Dév. standard
Petites Banques
Moyenne
Dév. standard
*
Tous les chiffres sont en millions de dinars sauf le travail qui est exprimé en nombre d’employés.
Table2 : Moyennes et déviations standards des mesures d’efficience par année *
Années
EC
EA
ETG
ETP
1999
0,727 (0,135)
0,865 (0,067)
0,849 (0,145)
0,962 (0,045)
2000
0,805 (0,123)
0,905 (0,045)
0,889 (0,123)
0,974 (0,032)
2001
0,825 (0,104)
0,912 (0,051)
0,905 (0,113)
0,980 (0,033)
2002
0,845 (0,089)
0,905 (0,062)
0,933 (0,069)
0,991 (0,015)
1999-2002
0,799 (0,118)
0,894 (0,059)
0,893 (0,114)
* Les nombres entre parenthèses représentent les déviations standards.
Table 3 : Efficience moyenne par classe de taille
EC
EA
Grandes Banques
Moyenne
0,840
0,901
Dév.standard
0,039
0,061
Min
0,796
0,833
Max
0,875
0,953
Petites Banques
Moyenne
0,773
0,890
Dév.standard
0,118
0,031
Min
0,564
0,831
Max
0,891
0,912
0,977 (0,033)
ESC
0,882 (0,155)
0,913 (0,128)
0,923 (0,104)
0,941 (0,071)
0,913 (0,115)
ETG
ETP
ESC
0,932
0,034
0,896
0,974
0,959
0,012
0,949
0,976
0,972
0,031
0,932
0,996
0,869
0,132
0,618
0,978
0,989
0,012
0,967
0,995
0,878
0,135
0,621
0,983
97
Table 4 : Nombre de banques dans les différentes catégories de rendements d’échelle
Années
DRS
CRS
IRS
1999
Grandes Banques
0
2
2
Petites Banques
0
0
6
Total
4
6
Total
0
2
8
10
2000
Grandes Banques
Petites Banques
2
0
0
1
2
5
4
6
Total
2
1
7
10
2001
Grandes Banques
Petites Banques
2
0
2
1
0
5
4
6
Total
2
3
5
10
2002
Grandes Banques
Petites Banques
1
0
2
1
1
5
4
6
Total
1
3
6
10
5
9
26
40
(12,5%)
(22,5%)
(65%)
(100%)
5
6
5
16
(12,5%)
(15%)
(12,5%)
(40%)
et Petites Banques
0
3
21
24
(0%)
(7,5%)
(52,5%)
(60%)
DRS, CRS et IRS désignent des rendements d'échelles décroissants, constants et croissants respectivement.
Total 1999-2002
(pourcentages)
dont Grandes Banques
Table 5: Changement de la productivité totale : Moyennes annuelles
Périodes
CHEFF
CHTEC
CHEFFP
1999-2000
1,003
1,163
1,004
2000-2001
1,002
1,024
1
2001-2002
0,995
1,033
1
1
1,072
1,001
1999-2002
Table 6 : Changement de la productivité totale par classe de taille
CHEFF
CHTEC
CHEFFP
Grandes Banques
Moyenne
0,995
1,048
1
Dév. Standard
0,006
0,034
0,000
Min
0,994
1,021
1
Max
1
1,094
1
Petites Banques
Moyenne
1,003
1,087
1,002
Dév. Standard
0,044
0,031
0,006
Min
0,962
1,054
1
Max
1,083
1,134
1,015
CHSC
0,998
1,002
0,995
0,999
CHPT
1,166
1,027
1,028
1,070
CHSC
CHPT
0,995
0,006
0,994
1
1,043
0,035
1,015
1,094
1,001
0,044
0,962
1,083
1,091
0,049
1,023
1,171
98
Inflation Targeting monetary policies and real
interest rates: a panel data unit root test robust to
structural shifts for OECD countries
Imed DRINE (IHEC, University of Sousse)28
Nicolas MILLION (EUREQua, University of Paris 1)
Abstract
As the Fisher effect is rejected or accepted without a real consensus in empirical studies, it is
interesting to test for a unit root in a local-to-unity framework. We examine the validity of the
Fisher effect with annual real interest data from nineteen OECD countries for the time period
1970-1998. To perform our tests, we explore the field of potential non linearities in the data
generating the process of interest rates. Our results indicate that the Fisher effect is strongly
confirmed for OECD countries through the stationarity of the real interest rates.
Key words: Fisher effect, near unit root, inflation expectations, structural break.
.
JEL classification: E4, C12, C22
28
Corresponding author [email protected]
99
100
Introduction
Fisher was the first to give an extensive
explanation about the fact that interest
rates are etermined by expectations of
inflation, so that the real interest rates are
not driven by monetary variables. This
theory is one extra argument for price
stability and therefore for a limited
monetary growth as advised by Friedman.
In addition, this theory played an important
role in the formulation of a wide range of
economic models because problems related
to interest rates are multiple and concern
financial instruments and micro or macro
economic theory as well.
Despite the fact that this theory implies
expected and therefore not measured
variables, one accepted way for the
validation of the Fisher effect will be to
test for a potential stationarity of the real
interest rate. Moreover, the reason why its
stationarity has been examined and tested
intensively in the literature lies in the
intrinsic interest of the real interest rate
statistical characteristics, since it is an
important determinant of investment,
savings and virtually all intertemporal
decisions.
However, the Fisher effect has been tested
in numerous studies covering different
periods of time and maturities, especially
with US data, and no consensus emerged
from these empirical works about the
nature of the ex ante real rate.
Consequently, there is little agreement
whether or not the Fisher effect holds
during the post-war period, especially in
the United Sates. This lack of consistence
calls for several problems which could
arise when testing for stationarity in these
series. First, testing for the Fisher effect
within the framework of a linear dynamic
model may be considered to constitute a
rather extreme special case since the root
has to be exactly equal to one in order to
reject the Fisher effect. According to this,
one can think that the generating
mechanism for the real rate has not been
perfectly introduced in models. On the
other hand, it is now well known through a
large literature (Peroon 1989, Christiano
1992, Zivot et al 1992) that time series
with structural breaks could easily be
confused with random walks via standard
unit root tests. This is the reason why we
will focus on another way to deal with
potentially non stationarity in real interest
rates, by letting a shift occurs at a
significant time break in the period
observed. This first problem links to the
more general second problem, namely the
lack of power of standard unit root tests. It
is by now generally accepted that the
commonly used unit root tests like the
Augmented Dickey Fuller (hereafter ADF)
and the Phillips-Perron tests lack power in
distinguishing the unit root null from
stationary alternatives, in particular when
the root is close to unity. Using panel data
unit root tests is one way of increasing the
power of tests based on a single time
series, especially when the number of
observations for each country is not large.
Intuitively, combining information from
the time series dimension with that
obtained from the cross-sectional will
increase the sample size and therefore
make inference more precise. Also, while
test statistics based on time series
information have been shown to have
complicated limiting distribution, the
corresponding statistics based on nonstationary panel data have been shown to
converge to Gaussian distributions.
Finally, as it has been mentioned by
Coakly, the growing interest in inflation
targeting (as
discussed in Svensson
1997,Soderlin 2001,and Tobin 1998) and
the opportunistic behavior of the central
banks seem to be some of the reasons in
the lack of consensus of the Fisher effect
tested for short run interest rates.
According to the proponents of the
opportunistic approach (Orphanides and
Wilcox 1996), when inflation is moderate
but still above the long-run objective,
the central bank should not take deliberate
anti-inflation action, but rather should wait
101
for
external circumstances (such as
favourable supply shocks and unforeseen
recessions) to deliver the desired reduction
in inflation. More precisely, according to
the estimations of Bec et al 2002 and Kim
et al 2002 for the Taylor rule (cf Taylor
1993) for three major central banks
(American, German and French), interest
rate feedback rules imply that nominal
interest rates should respond to increases in
inflation with a more than one-to-one
increase when the central bank adopt a
very reactive stance or a less than one-toone increase for more accommodative
behavior (cf Dolado et al 2002) , calling
for a positive and a negative Fisher relation
respectively, as suggested by G. Torous
2002. This would mean that monetary
authorities are quick to raise nominal
interest rates in response to inflationary
pressures, which leads to a return of the
real interest rates to their equilibrium
value. On the other hand, in a falling
inflation environment, the authorities may
not be as quick to reduce the level of
nominal interest rates, especially during
the disinflation period. Hence, there is
strong evidence for a multiple-regime
behavior to inflation shocks in Central
Bank reaction function, which imply that
monetary authorities run a credible yet
opportunistic anti-inflationary policy,
reacting more strongly to positive than to
negative inflation surprises.
The consequences of this multiple-regime
behavior should be that non linear
stationary time series could be confused
with non stationary linear variables (see
Pippinger 1993 and Hamilton 1989), and
should considered while studying the
relationship between interest rates and
inflation rates.
We examine the validity of the Fisher
effect with annual real interest data from
nineteen OECD countries for the time
period 1970-1998. To perform our tests,
we explore the field of potential non
linearities in the data generating the
process of interest rates. Instead of using
stochastic regime shifts (such as
Markovian switching models in Garcia
1996), we rely on structural breaks in the
deterministic part while combining this
method with a panel investigation.
We employ a panel LM unit root test that
allows for heterogeneous structural change.
Our results indicate that the Fisher effect is
strongly confirmed for OECD countries
through the stationarity of the real interest
rates.
The remainder of the paper proceeds as
follows: the Fisher effect is briefly
presented in section 2 and importance of
inflation expectations is emphasized.
Section
3
describes
the
testing
methodology that we employ, performs the
tests and discusses the results. Section 4
concludes.
I.
Investigating for a Fisher effect
A. Some theory about the Fisher
relation
We could grossly say that the Fisher
hypothesis states that nominal interest rates
consist of real interest rates and
compensation for expected inflation
because
savers/investors
expect
compensation for the reduction in value of
nominal money (purchasing power) caused
by inflation. This is represented in the
following equation verified for any date t:
1 + it = (1 + Et rt m )(1 + π tm )
m
(1)
The Fisher effect represents therefore a
relation of determination between the
nominal interest rates and the expected
inflation rates, the former reflecting at each
time the latter. Provided (1), a nominal
interest rate of itm will thus guarantee an ex
ante real rate of E t rt m = rte as soon as the
anticipated price change expected by the
agents
is
where
E t π tm = π tm ,
102
E t xtm = E ( xtm / Ω t ) is the expectation of
xt + m given the current information set Ω t
available to the agents at time t. it is the mperiod interest rate known at time t, π te et
is the m-period expected inflation rate
from time t to t + m and rte is the real
return that economic agents wish to obtain
according to the inflation rate π te they
expect.
The nominal interest rate it is then
traditionally divided in two parts: the
exante real interest rate t and the expected
inflation π te . That is, a nominal interest
rate of it will assure an ex ante real rate of
rt e when the expected price change is π te
provided it = rte + π te + rteπ te ,
thereby
adjusting the compensation to the lender
for the anticipated loss in purchasing
power in the principal as well as in the
interest. For small values of interest rates
and inflation rates, the Fisher equation is
commonly simplified as:
it = rt e + π te
(2)
This implies that if the inflation n
expectations are perfectly accurate, the
nominal interest rate follows the inflation
evolution as soon as the interest rates series
rt e are constant. So, as soon as it is
accurately appraised, the inflation should
not interfere in the determination of the
real interest rate. Thus the Fisherian point
of view is consistent with the neutrality
proposition according to which permanent
changes in nominal variables have no
significant long run impact on real
variables.
But the inflation expectations and
consequently the ex ante real interest rate
could not be directly measured. So we
have to rely on nominal interest rates
measured at the beginning of the period m
and future inflation measured at the end of
the period m, so as to test for a Fisher
effect. But, as Mashkin 1992 pointed out, it
is very easy to show that a test of the
correlation of interest rates with future
inflation is also a test for the correlation of
interest rates and expected inflation.
Considering the underlying model
involving expected inflation, the Fisher
hypothesis asserts that the coefficient b
should be unity (or very near unity) in a
relation of the form :
t = a + bπ te + ωt
(3)
and that the residuals ω t
stationary.
should be
The real interest rates could then be
expressed in the following way (with b’= b
− 1):
rt e = a + bπ te + ω t
From the last equation, a potential non
stationarity of the ex ante real interest rates
rt e will result only from structural
instability in the deep parameter a, or from
a coefficient b’ significantly different from
0 (i. e. ruling out the Fisher hypothesis).
However, the inflation expectations and
consequently the ex ante real interest rate
could not be directly measured. So we
have to rely on nominal interest rates
measured at the beginning of the period m
and future inflation measured at the end of
the period m, so as to test for a Fisher
effect, with the idea that the results will
lead to the same interpretations as long as
the assumption of rationality for
expectations is held.
The forecast error _t represents the
difference between the inflation rates
expected ex ante by the agents in the
economy and the inflation rates really
observed ex post:
ε t = π te − π t = E (π t / Ω t ) − π t
(5)
103
Under rational expectations assumption, ε t
will be unforecastable given Ω t , the
current information set Ω t available to the
agents at time t. In most of the empirical
works, the expectation errors have been
assumed to be covariance stationary in
level but we will loose this assumption
here by considering them
to be a
martingale difference sequence with
respect to the history of the time series up
to time t − 1 so that they will be defined as
a process orthogonal to Ω t .
It will then be possible to write from
equation (3) the ex post real interest rate
as:
rt = a + bπ te − π t + ω t = a + ε t + b' π t '+ω t
(6)
which have the same statistical properties
as (4) notwithstanding the expectations
errors ε t . In this case, the volatility of the
ex post real interest rates could therefore
come from the same sources as the ones in
(4), in addition to potential volatility from
the expectation errors process.
While Fisher’s own research established
that nominal rate and inflation do not
correlate well, his book published in 1930
are more an attempt to explain why the
theoretically sound hypothesis fails in
practice.
Rigorously, one should only try to detect a
Fisher effect via the relation (1). However,
trying to do this mean that we should cope
with the problem of measures of the
expected inflation rates and then a fortiori
of the ex ante real interest rate, as they are
inherently unobservable. This fact should
explain why the Fisher hypothesis is
frequently badly defined as the Fisher
effect is mixed with additional joint
hypotheses. Based on ex post data, the first
possibility is to consider that the expected
inflation rates are incorporated into
nominal rates on a one to one basis (with
the conventional interpretation that the
investors are rational) by testing {β =
1}while assuming that the real interest
rates are constant in the following
regression:
it = α + βπ t + z t
(7)
An estimation value close to unity is then
expected for the parameter β while the
residuals z t encompass the fluctuations wt
as well as the volatility of the expectation
errors ε t , as in (6).
The alternative possibility is to assume that
β = 1 in (7) and to test if the real interest
rates are constant, presuming that there is
no effect of inflation on real interest rate if
constancy is not rejected.
However, as these tests are emphasizing on
other hypotheses (such as rational
expectations and constant real interest
rates), they are less related to the Fisher
effect. Because of the strong presumption
for the presence of stochastic trends in the
series, it is necessary to replace the Fisher
effect in the framework of a 6
cointegration equation (as in (7)), using
Error Correcting Models (ECM) so as to
discriminate the short-run Fisher effects
with the long run ones.
B. Literature on the Fisher effect
For the majority of the studies for the 70s
period, the conclusions are that short and
long real rates are constant and that
nominal interest rates accommodate
changes in inflation (seeFama 1975) and
Fama and Schwert). Subsequent studies
find that his conclusion no longer holds for
the 80s periods (cf Mishkin 1992).
Moreover, for the period before World
War II, there is no evidence to support the
Fisher effect (see Summers 1983).
However,
the
developments
in
econometrics (i. e. random walks, unit
roots) provide new methods. Studies find a
104
long-term relationship (cointegration)
between nominal interest rates and
inflation, but no relationship between short
term changes in nominal rates and inflation
(cfMishkin 1992). Although nominal rates
and inflation are cointegrated, the inflation
coefficient is not equal to 1: some find it
smaller than 1 (see Evans and Lewis
1995), some find it larger than 1 (Crowder
and HOFFMAN 1996). There appears to
be a negative correlation between actual
future inflation and ex ante real interest
rate and positive correlation between
expected future inflation and ex ante real
interest rates (Evans 1998).
The Fisher hypothesis has nothing to say
about the formation of inflation
expectations. The rational expectations
hypothesis is only one type of
expectations, and open to alternative
interpretation. Thus:
The lack of consensus and the reject of the
Fisher, especially during the 80s, gives
way to three kinds of responses:
For example, the Peso-problem (see Evans
and Lewis 1995) : Expectations may
incorporate a small probability of unique
but important occurrence. Often, when this
occurrence does not realize actual inflation
or time series forecasts are systematically
higher or lower than true expected
inflation. Consequently, real interest rates
are badly measured ex post (but not ex
ante).
1. The rejection of the Fisher effect
means that another theory is valid
for the relationship between real
rate and inflation.
2. Explanation form the debate
weaknesses
in
standard
econometric tests
3. Argue that testing Fisher effect is
(almost) impossible because of the
effect of monetary policies.
C. Weaknesses in standard Fisher
tests
The Fisher hypothesis does not imply that
real interest rates are constant through
time. Fisher hypothesis states only that
expected inflation is added to the real
interest rate given at any time.
Thus:
1) Tests for constant real rates are not tests
of the Fisher effect.
2) Time-varying and/or stochastic real
rates create econometric problems.
However, Fisher speculated that in the long
run real rates would not change much, thus
making crucial the span of the data studied.
1) Tests of one specific and possibly
incorrect type of expectations (REH) are
not tests of the Fisher effect.
2) Wrongly measured expectations create
econometric problems. Note: REH is good
for theory, but performs very badly in
empirical studies.
Learning under uncertainty: Are changes in
variables/environment
permanent
or
temporary? Only time will tell and learning
is inevitable. In the mean time expectations
will turn out to be systematically higher or
lower ex post (but not ex ante) real interest
rates.
Fisher hypothesis does not necessarily
imply an inflation coefficient equal 1.A
correct formula, including taxes on
nominal interest income, is
1 + rte =
1 + it (1 + θ )
1 + π te
Thus the coefficient π te is not 1, but larger
than 1 due to real rate effect and tax
effect29.
29
For empirical results see Crowder/Wohar (1999),
Crowder/Hoffman (1996).
105
4) Statistical problems:
- Errors-in-variables bias: Badly measured
inflation expectations and/or real interest
rates cause estimates of coefficient b to
depend on relative variances of expected
inflation and real interest rates. Coefficient
smaller than one is not surprising30.
- Missing-variables bias: Time-varying risk
premium, real interest rate, Jensen’s
inequality effect31.
D. Monetary policies influence
Central banks influence short term nominal
interest rate and, also, because actual and
expected inflation do not change much in
the short run, the short term real interest
rate. Long term nominal and real rates
depend on current and future interest rates
(expectations theory).
1. Testing the Fisher hypothesis on short
term interest rates makes no sense. (Unless
you are willing to assume flexible prices at
all times: the standard newclassical
model).
2. Inflation and real interest rates are likely
to be correlated due to (dis -) inflation
policy of the central bank (Mehra, 1998,
Goodfriend, 1998).
3. Testing the Fisher hypothesis on longterm interest rates depends very much on
monetary policy (reaction function) and
macroeconomic models (transmission
mechanisms)32.
Effect of changes in
current inflation on long term nominal
30
Results prewar gold standard- variance expected
inflation approximatively zero (Barsky, 1987).
Results post-1979-inflation variance decreases
compared to pre-1979 after disinflation episode
(Mishkin, 1990, 1992).
interest rates depends on market
expectations with respect to the response
of monetary policy. The time series
behavior of inflation is very important33.
4. In the long run, short rates will be
determined by real economy equilibrium
(i.e. short real rate = ‘natural’ real rate) and
inflation target (i.e. inflation = inflation
target central bank). When long rate
maturity increases, the long rate will
converge towards the equilibrium value
consisting of natural real rate plus inflation
target. Higher inflation (i.e. inflation
target) will result in higher nominal rate
(i.e. Fisher effect).
II. Testing for Fisher effect: Panel
LM Unit Root Tests in the presence of a
time break
Despite the fact that the testing
methodologies employed in the more
recent research offer distinct advantages,
none of these tests combine panel data and
structural breaks. In an effort to seek a
more accurate investigation of the fisher
effect, our paper extends the previous
research by employing the panel LM unit
root test developed by Im and Lee (2001).
This test has the advantage of utilizing
both panel data and structural breaks when
testing for unit root. Unlike the IPS and
other related panel unit root tests, the panel
LM test can successfully take structural
breaks into account without the necessity
to simulating new critical values that
depend on the number and location of
breaks. Combining these two productive
avenues of testing can potentially lead to
even greater power when testing for Fisher
effect.
A. LM Test with no Structural
Break
31
See empirical results Shome/Smith/Pinkerton
(1988).
32
See Soderlind (1997).
33
See Barsky (1987), Peng(1995).
106
To illustrate the underlaying model and
testing procedure, we suppose that the data
y it , t = 1, 2, ......., T ; i = 1, 2, ........,N, is
generated as :
y it = xit + z it ,
xit = φ i xi ,t −1
1 N
∑ LM iT ,
N i =1
Let E (ξ T ) and V (ξ T ) be the expected
value and variance of LM iT under the null
= ε it , z it = γ 1i + γ 2i t hypothesis. Then, under the null
hypothesis,
_____
LM NT =
____
The unit root test consists to test the null
hypothesis of unit roots φi = 1, for all i.
To do so, we express y it as :
∆y it = β i y i ,t −1 − βγ 1i + [1 − β i (t − 1)]γ 2i + ε it
ΓNT =
N [ LM NT − E (ξ T )]
→ N (0,1)
V (ξ T )
as N grows (for finite T), as long as
E (ξ T ) and V (ξ T ) exist.
B. Panel LM Test with Breaks
where β i = −(1 − φ i ) . We then have the
null hypothesis:
H0 : β = 0 for all i, against the alternatives
:
H1 : β i < 0 , i = 1, 2, ...,N1,
β i = 0,
i = N1 + 1, N 2 + 1,.........., N
Therefore, all or some of the tim series are
stationary under the alternative hypothesis.
We suppose that the error terms ε it , i = 1,
2, ...., T, are independent normal variables
2
with mean zero and variance σ i .
Let LM iT be the LM statistic for the i-th
time series, then the LM statistic based on
pooled likelihood function can be defined
as :
N
In this section we define the LM panel unit
root test in the presence of structural
change. Suppose structural shift occurs at
time period TB ,i in i-th time series.
Therefore, the data are generated as:
y it = xit + z it ,
for t = 0,1,........T ; i = 1,2,..... N
⎧ 0 , t < T B ,i ⎫
where D it ⎨
⎬
⎩1, t > T B , i ⎭
which has an alternative representation:
∆yit =βi yi,t −1 −βγ 1i +[1−βi(t −1)]γ 2i +(∆Dit −βi Dit )δ i +ε it
for t = 0,1,........T ;
i = 1,2,..... N , where
∆Dit = Dit − Dit −1 , i.e.
∆D
it
LM NT = ∑ LM iT
i =1
The distribution of LM NT depends on N
and T, but not on any other nuisance
parameters under the null hypothesis.
Therefore, LM NT it self may be used in
practice as a statistic. However, as N
increases, as long as the second moment of
LM iT exists, the distribution of LM NT will
approach a normal distribution. We denote
the average of the individual LM statistic
LM iT as :
xit = φ i xi ,t −1 = ε it , z it = γ 1i + γ 2i t + δ i Dit
⎧ 1 , t = T B ,i + 1 ⎫
= ⎨
⎬
⎩ 0 , otherwise
⎭
The LM statistic based on the pooled
likelihood function is given by the sum of
the LM statistics with break, LM iTB so that
N
B
LM NT
= ∑ LM iTB , let
i =1
_____ B
1 N
LM iTB
∑
N i =1
As Amsler and Lee (1995) showed, the
distribution of LM iTB does not depend on
LM NT =
107
the location of the break point λi =
T B ,i
in
T
the limit. In finite sample, however, the
distribution of LM iTB does depend on λi . If
we have the exact expected value and the
exact variance of LM iTB under the null
hypothesis,
which
we
denote
E (ξ tB (λi )) and V (ξ tB (λi )) , then it follows
that then it follows that :
_____
N [ LM B −
Γ
B*
LM
=
N
1
N
N
1
N
∑ E (ξ
i =1
∑ V (ξ
i =1
B
i
B
i
(λi ))]
→ N (0,1)
(λi ))
under the null hypothesis, as N→∞, as
long as V (ξ tB (λi )) exists of all i.
B*
, as it stands, is
However, the statistic ΓLM
not very practical since it requires
E (ξ tB (λi )) and V (ξ tB (λi )) to be known for
all λi in the sample.
Since ΓiTB − LM iT → o p (1) , we consider a
practical statistic using E (ξ T ) and V (ξ T )
in place of E (ξ tB (λi )) and V (ξ tB (λi )) to
have
____ B
B
ΓNT
=
N [ LM NT − E (ξ T )]
V (ξ T )
→ N (0,1)
Im and Lee (2001) derive the asymptotic
B
properties of LM NiT
and show that it has
a standard normal distribution. Indeed they
show that the panel LM test statistic
remains the same with or without a break.
In fact, the distribution of the panel LM
unit root test statistics is unaffected by
break.
The hypotheses tested in panel data can be
described as follows:
Null Hypothesis : βi = 0 for all i,
Aleternative Hypothesis : βi < 0 for at least
one i.
C. Empirical
interpretation
results
and
The mixed results from unit root tests in
previous research on Fisher effect suggests
that the question remains as to whether or
not the theory is empirically valid. To
perform our tests, we employ annual data
on real interest rates from nineteen OECD
countries over the 1970-1998. Our data
comes from the IMF data base.
In order to provide a robust analysis, we
compare both univariate and panel LM unit
root test results with and without structural
break. We begin with the Schmidt and
Phillips univariate LM unit root test
without structural change.
We then move to extensions that allow for
one break, since our time series covers
periods during which structural change
may have occurred, especially during the
1970’s and 1980s. In addition to the
Schmidt and Phillips no-break test, we
employ the univariate one and the Lee and
Strazicich (1999a, 1999b) minimum LM
unit root tests with one break to determine
the structural break point in each country.
After determining the optimal break point,
we employ the panel LM unit root test of
Im and Lee (2001). For comparison, we
additionally show the panel LM test results
with no breaks.
To determine the optimal break point in the
panel LM test, we utilize the univariate
”minimum” LM unit root tests of Lee and
Strazicich (1999a, 1999b). These test are
comparable to the corresponding Dickey
and Fuller type endogenous break tests of
Zivot and Andrews (1992). The
performance of the LM test is comparable
to or superior to these counter-part tests in
terms of size and power. In addition, the
LM unit root tests are not subject to
spurious rejections under the null. In each
test, the break point is determined
endogenously from the data via a gridsearch by selecting the break where the
108
unit root test statistic is minimum. Using
the minimum LM tests of Lee and
Strazicich (1999a,1999b), the unit root test
statistic is estimated at each of one break
point. The procedure is repeated over the
time interval [.1T,.9T], to eliminate end
points, until the break is determined where
the unit root t-test statistic is minimized.
The optimal number of lags in each
country is determined by sequentially
examining the t-statistic for the last lag
coefficient to see if it is significant at the
approximate 10% level in an asymptotic
normal distribution.
We begin with the one break LM test. If
less than one break is significant, we
employ the no-break LM unit root test. The
corresponding LM unit root test statistic is
then chosen after determining the optimal
break
point.
Afterdetermining
the
appropriate unit root test statistic for each
country, the panel LM test statistic is then
calculated. The results of testing are shown
in table 1. For the univariate LM testwith
no break, the unit root null cannot be
rejected in fourteen cases out off nineteen
at the usual significance levels. After
allowing for structural break, the univariate
minimum LM test rejects the unit root null
in sixteen of nineteen countries at 10%. So
the inclusion of structural break, the
univariate unit root tests are unable to
accept the null in nearly all cases.
Examination of the estimated break point
reveals, that most structural breaks in real
interest rate occur during the early 1990s.
In particular, sixty percent of all breaks
occur during the years 1990-1995. In three
countries, no structural break is identified
at any time period.
We next examine the panel test results.
Without allowing for structural breaks, the
panel LM test statistic of -1.697 clearly
indicates that the unit root null is hardly
rejected, in spite of increased power from
panel data. This highlights the importance
of allowing for structural change, even in
the panel setting. After allowing for
structural breaks, the panel test statistic of -
12.185 strongly rejects the unit root null at
less than 1%. These results clearly
demonstrate the gain in power from
combining structural breaks with panel
data.
Since the panel LM test statistic is
calculated using the average test statistic of
all countries, it is possible that the panel
results are due to a small number of
”outliers” having a relatively large impact.
Examination of the univariate test statistic
(with breaks) for each country reveals that
the majority of countries reject the unit
root null at 5%. We can, therefore, be
confident that the panel test results are not
due to outliers. These results demonstrate
that the failure to reject the null in
univariate tests is due to insufficient
power. After combining structural breaks
with panel data, the null hypothesis of unit
root is clearly rejected. Overall, our finding
supports the Fisher effect and suggests that
overwhelming majority of shocks to
interest rate are temporary.
Table 1: LM Unit Root tests results34
Countries LM1 k1 LM2 Tb k2
Australia
7
1984 5
2.542*
2.36*
Austria
0.598 8
1994 0
2.86*
Belgium
0.381 7
1986 5
3.02*
Canada
1
1985 8
2.459*
3.95*
Denmark
06
1990 0
2.322*
3.91*
Finland
-1.591 3
1989 8
5.63*
France
-0.497 0
1991 0
3.79*
Germany -1.798 0
1992 5
4.02*
Holland
-3.85* 5
7
3.96*
Italy
-5.50* 3
1992 8
3.04*
34
The critical value at 1% is 1.96. Tb is the time
of break and k the number of lags.
109
Japan
2.095*
-3.05*
1
-3.15*
8
Portugal
-5.52*
0
Spain
2.343*
-0.43
7
8
Sweden
-1.50
0
UK
-2.20*
6
USA
0.186
4
Panel
LM tests
-1.96
New
Zeeland
Norway
Suisse
0
5.29*
2.68*
3.29*
6.78*
2.24*
4.04*
3.16*
3.25*
2.82*
-12
1994
8
1985
0
0
1997
2
1993
8
1995
7
8
1990
0
1996
7
Conclusion
This paper re-examines the empirical
validity of Fisher effect using annual
OECD countries for the period 1970-1998.
We employ a variety of unit root tests,
including the recently developed panel LM
unit root test of Im and Lee (2001) that
allows for heterogeneous structural change.
By combining the use of structural breaks
and panel data, our tests realize a
significant gain in power as compared to
previous empirical research. Contrary to
univariate tests and/or those that ignore
structural break, by combining panel data
with structural break the Fisher effect is
strongly confirmed.
Furthermore, it would be also interesting to
test for a unit root while allowing for two
deterministic breaks so as to report the
shifts expected by the agents in 1979 and
in the mid 1980s. But if one wants to use
efficient tests for unit root as those
developed in Eliott 1996, it is necessary to
develop an asymptotic framework for such
a purpose. We leave this topic for further
research.
These empirical findings confirm the
different forward looking estimations of
Clarida and Gal 1999 for the Taylor rule
(cf Taylor 1993) in which interest rate
feedback rules imply that nominal interest
rates should respond to increases in
inflation with a more than one-to-one
increase during the Volcker-Greenspanera
or a less than one-to-one increase during
the Burns-Miller period. More precisely,
since the arrival of Paul Volcker at the
head of the Fed, monetary authorities are
quick to raise nominal interest rates in
response to inflationary pressures, which
leads to a return of the real interest rates to
their equilibrium value. On the other hand,
in a falling inflation environment, the
authorities may not be as quick to reduce
the level of nominal interest rates,
especially during the disinflation period.
Hence, as verified empirically by Bec et al
2002 and Kim et al 2002, there is strong
evidence for a multiple-regime behaviour
to inflation shocks in the Central Bank
reaction function, which implies that
monetary authorities run a credible yet
opportunistic anti-inflationary policy,
reacting more strongly to positive and
persistent than to negative and/or non
persistent inflation surprises35.
References
Amsler, Christine & Lee, Junsoo, 1995.
"An LM Test for a Unit Root in the
Presence of a Structural Change,"
Econometric
Theory,
Cambridge
University Press, vol. 11(2), pages 359-68.
Athanasios Orphanides & David H. Small
& Volker Wieland & David W. Wilcox,
1997. "A quantitative exploration of the
opportunistic approach to disinflation,"
Finance and Economics Discussion Series
35
which will correspond to a decrease of the real
interest rates, nominal interest rates being
kept constant
110
1997-36, Board of Governors of the
Federal Reserve System (U.S.).
Investment”,
Journal
Economics 9: 297-324.
Barsky, R. (1987): “The Fisher Hypothesis
and the Forecastability and Persistence of
Inflation,”
Journal
of
Monetary
Economics, 19, 3–24.
Feldstein M., SummersL., 1978. Inflation,
Tax Rules, and the Long-Term Interest
Rates,Brooking Papers on Economic
Activity.
Crowder, W.J. and D.L. Ho_man, “The
long-run relationship between nominal
interest rates and inflation: The Fisher
equation revisited,” Journal of Money,
Credit, and Banking, vol.28
(1) February 1996: 102-18.
Frederique Bec & Melika Ben Salem &
Fabrice Collard, 2002. "Asymmetries in
Monetary Policy Reaction Function:
Evidence for U.S. French and German
Central
Banks,"
Studies
in
NonlinearDynamics & Econometrics,
Berkeley Electronic Press, vol. 6(2), pages
1006-1006.
Crowder, W. J. (1997) “International
Evidence on The Fisher Relation”,
Working Paper, Department of Economics,
University of Texas at Arlington. Behavior
of Real Interest Rates”, CarnegieRochester Conference Series on Public
Policy 15:151- 200.
Darby, M. R. (1975) “The Financial and
Tax Effects of Monetary Policy on Interest
Rates”, Economic Inquiry 13: 266-276.
J. J. Dolado & R. Maria-Dolores & F. J.
Ruge-Murcia, 2002. "Nonlinear Monetary
Policy Rules: Some New Evidence For
The Us," Economics Working Papers
we022910, Universidad Carlos III,
Departamento de Economía.
Evans, L. T., Keef, S. P. and Okunev, J.
(1994) “Modelling Real Interest Rates”,
Journal of Banking and Finance 18: 153165.
Evans, M.
Expected
Estimates
Relation?”,
253.
and Lewis, K. (1995) “Do
Shifts in Inflation A_ect
of the Long-run Fisher
Journal of Finance 50: 225-
Fama, E. (1976): “Short-Term Interest
Rates as Predictors of Inflation,” American
Economic Review, 65, 269-282.
Fama, E. and Gibbons, M. R. (1982)
“Inflation, Real Returns, and Capital
of
Monetary
Fisher, I. (1896): “Appreciation and
Interest”, AEA Publications, 3(11),
August, 331-442.
Fisher, I. (1930): The Theory of Interest.
New York: Macmillan.
Garcia, R. and Perron, P. (1996): “An
Analysis of the Real Interest Rate under
Regime Shifts”, Review of Economics and
Statistics, 78, 111-125.
Goodhart, C. (1989): “The Conduct of
Monetary Policy”, EconomicJournal, 99,
293-346.
Jinill Kim & Dale Henderson, 2002.
"Inflation Targeting and Nominal Income
Growth
Hamilton, J. D. (1989). A new approach to
the economic analysis of nonstationary
time series and the business cycle.
Econometrica, 57, 357—384.
Huizinga, J., & Mishkin, F. S. (1986).
Monetary policy regime shifts and the
usual behavior of real interest rates.
Carnegie–Rochester Conference Series on
Public Policy, 24, 231–274.
Kyung So Im & Junsoo Lee, 2000. "LM
Unit Root Test with Panel Data: A Test
Robust
To
Structural
Changes,"
Econometric Society World Congress 2000
111
Contributed Papers 0648, Econometric
Society.
Marvin Goodfriend, 1998. "Using the term
structure of interest rates for monetary
policy," Economic Quarterly, Federal
Reserve Bank of Richmond, issue 0),
pages 13-30.
Mundell, R. A. (1963), “Inflation and real
interest.” Journal of Political Economy 71,
280-83.
Mishkin, F. S. (1992) “Is the Fisher E_ect
for
Real?
A
Reexamination
of
theRelationship between Inflation and
Interest Rates”, Journal of Monetary
Economics 30: 195-215.
Mishkin, F.S. (1992): “Is the Fisher Exoect
for Real? A Re- Examination of the
Relationship between In‡ation and Interest
Rates”, Journal of Monetary Economics,
30, 195-215.
Perron, P. (1990): “The Great Crash, the
Oil Price Shock, and the Unit Root
Hypothesis,” Econometrica.
Summers, L. (1983) “The Non-adjustment
of Nominal Interest Rates: A study of the
Fisher E_ect”, in J. Tobin (Ed.),
Symposium in Memory of Arthur Okun.
Washington, D.C.:Brooking Institution.
Summers,L.H. (1983): “TheNonadjustment
of Nominal Interest Rates: A Study of the
Fisher Exoect”, in J. Tobin (ed.):
Macroeconomics, Prices, and Quantities:
Essays in Memory of Arthur M. Okun,
Basil Blackwell, Oxford, 201.241.
Perron, P. (1997) “Further Evidence on
Breaking
Trend
Functions
in
Macroeconomic Variables”, Journal of
Econometrics 80, 355-385.
Pippinger, M.K. and G.E. Goering (1993)
“A Note on the Empirical Power of Unit
Root Tests Under Threshold Processes”,
Oxford Bulletin of Economics and
Statistics 55, 473-481.
Rose, A.K. (1988): “Is the Real Interest
Rate Stable?”, Journal of Finance, 43,
1095-1112.
Söderlind, Paul, 1997. "Monetary Policy
and the Fisher E_ect," CEPR Discussion
Papers 1610, C.E.P.R. Discussion Papers
Svensson, L-E-O, 1997. "Inflation
Targeting : Some Extensions," Papers 625,
Stockholm - International Economic
Studies.
James Tobin, 1998 “Monetary Policy:
Recent Theory and Practice", in Wagner,
editor, Current Issues in Monetary
Economics.
Tobin, J. (1969) “A General Equilibrium
Approach to Monetary Theory”, Journal of
Money, Credit and Banking 1: 15-29.
Tobin, J. (1965), “Money and economic
growth,” Econometrica 33, 671-684.
Yash P. Mehra, 1998. "The bond rate and
actual
future
inflation,"
Economic
Quarterly, Federal Reserve Bank of
Richmond, issue 0), pages 27-47.
Zivot, A., and D. W. K. Andrews (1992):
“Further Evidence on the Great Crash, the
Oil Price Shock and the Unit Root
Hypothesis,” Journal of Business and
Economic Statistics, 10(3), 251–270.
112
Business Development Strategy in the Internet age
Financial Manager Simona FIT
Aris Sistem – private firm
Address: 2 E. Gojdu Street, Ap.11
300176 Timisoara Timis County,Romania
Telephone: 0040 744 781 792
Email: [email protected]
University Professor Dorin COSMA
West University from Timisoara, Romania
Address: 8 Aleea Muzicii Street, Building C9,
Ap.5, 300457 Timisoara, Timis County,Romania
Telephone: 0040 722 348 039
E-mail: [email protected]
Abstract
E-commerce has a major impact on how business transactions are undertaken between
different businesses. For ecommerce everybody ends up operating other businesses' computer
systems via the web and not their own. This shift in responsibilities creates an odd effect on
businesses.
Essentially the computer systems are automatically monitoring and raising the ecommerce
transactions as required. What ecommerce has done is to allow for the complete interaction
between businesses based on a shared pool of data and agreed business logic. The most
integrated version of program-to-program interaction is a new type of software called eMarket
software. The eMarkets are the ultimate automated environment for the interaction between
buyers and sellers.
The Internet has been described as the world’s least expensive and most effective marketing
tool, which is why so many businesses have embraced it. Much of eMarketing's appeal is due
to some significant differences from mainstream marketing which uses traditional media,
which are detailed in the paper.
113
E-Definitions
Electronic commerce
Electronic commerce (E-commerce,
EC): the marketing, buying and selling
of products and services on the Internet
How does ecommerce change business
processes?
E-commerce has a major impact on how
business transactions are undertaken
between different businesses. Firstly it can
be implemented in two different phases.
The first phase is the people interaction
phase. The second phase is known as the
program interaction phase. Let us consider
these phases in detail.
The people interaction phase of
ecommerce essentially depends upon
people viewing information and entering
data. But even under this phase processes
are changed by ecommerce. Consider a
normal business process like taking
customer orders. In most businesses this
process means opening the post or making
or receiving telephone calls with you
entering these orders in your own internal
sales order processing system. Ecommerce
immediately changes this process to your
customers entering their orders directly
into your system via the Internet. So you
no longer have to data enter their sales
orders. But you now have to enter your
purchase orders directly into your suppliers
system rather than post or telephone an
order.
This creates an odd shift in responsibilities.
So for ecommerce everybody ends up
operating other businesses' computer
systems via the web and not their own.
This shift in responsibilities creates an odd
effect on businesses. Because you spend
more time on other businesses' computer
systems
(websites)
you
develop
preferences for which you prefer to deal
with based upon the design of their
websites. The design and facilities of the
website become a factor in terms of
supplier selection. So where similar
products and services are available from
businesses the website design becomes a
contributory factor in supplier selection.
This is the first time in computing history
that the design of computer systems can
have a direct impact on sales. Computer
systems (websites) in fact suddenly move
from the back office right into the front
office of the business.
Significantly whilst you are evaluating
your suppliers' websites your customers
will be doing the same with your website.
Suddenly you are exposed to a differing set
of business processes in terms of what you
use and importantly what you need to
provide to others to use. Ecommerce
creates a new revolution in business
processes. In fact ecommerce creates a
situation where everybody is entering data
into other businesses' websites whilst
others are entering data into their own site.
This revolution is not just limited to the
sales and purchase order transactions
common to every business; it also extends
off into invoicing and payment systems. It
covers all the services your business
currently provides and many new services
you will need to provide. So let us consider
some of these transactions:
•
For
Business-to-Business
(B2B) transactions, invoicing
remains a requirement. Which
means the customer will be
electronically sent an invoice.
Payment will be made on the
Internet
by
undertaking
electronic
bank
transfers.
Importantly the correct coding
of orders, invoices and the use
of these on payments becomes
important to allow for full
reconciliation. The so-called
114
"three way match" between the
orders, goods receipt note and
invoice becomes an important
business process.
•
Ecommerce, has by its nature,
made the banks an important
integrated partner in the
business transaction process.
The factoring of money in
relation to business transactions
will become a popular revenue
earner for banks and other
financial institutions who will
increasingly support the credit
arrangements
in
B2B
transactions. Ecommerce will
radically
change
the
conventional
banking
infrastructure with many other
players keen to enter this
lucrative area of the money
business.
•
Ecommerce radically changes
the services side of businesses
and creates immediacy in
people's expectations. This
makes the provision of services
by a business through the
Internet model vital. Services
include order progress, delivery
progress,
service
advice,
product problems, training and
any other frequently asked
questions (FAQ's) in respect of
the business and its products or
services.
Increasingly the expectation of customers
is "self-service". The customer goes to the
supplier website to check on the status of
your order; to the carrier website to check
on delivery progress. The customer can
also check out a product problem on the
service information side of the website and
can also submit a request for a service call
out online and track its progress.
We have covered some of the people
interaction
phase
requirements
of
ecommerce. This has kick started the
ecommerce revolution. But for many it is
the program interaction phase of
ecommerce that will have the largest
impact. So what is the program interaction
phase? Essentially the objective is to
reduce the people involvement in business
transactions. To have computer programs
in one business communicating with those
in another business with the minimum of
people involvement. For example your
stock system decides it needs to order
some items because you have reached a
minimum order level. Automatically the
system places an order on a preferred
supplier or goes out to the internet to seek
out suitable suppliers. Conversely your
supplier maybe authorised to manage the
stocks of his goods in your business to set
criteria. So within your business he
manages all stocks of his goods and their
replenishment.
Essentially the computer systems are
automatically monitoring and raising the
ecommerce transactions as required. What
ecommerce has done is to allow for the
complete interaction between businesses
based on a shared pool of data and agreed
business logic. The most integrated version
of program-to-program interaction is a new
type of software called eMarket software.
The arrival of the eMarkets
The eMarkets are the ultimate automated
environment for the interaction between
buyers and sellers. Because they both
operate within the same computer system
the degree of integration is at its highest.
With banks and carriers operating within
the eMarket as well, a complete automated
micro business environment exists.
An eMarket is like having every player
needed to support a business transaction
ready and waiting to make the transaction
happen. But the most exciting part of an
eMarket is the bidding stage where
115
different sellers are encouraged to bid for
the buyers business. These deals may
extend over weeks but some can be
completed in seconds. In fact the different
ways of business being undertaken in an
eMarket has almost become a science in its
own right. So how do you enter an
eMarket?
You normally need to be accepted by an
eMarket as a member. But once you are
accepted as a member and have set up all
your details as a buyer or seller within the
eMarket the actual transactions become
very simple. As a buyer: state what you
want; review the offers by sellers; pick the
deal and press the confirmation button. The
deal is done. All the processes of delivery
and payment just automatically proceed in
line with what you have previously
defined. As a seller just enter in the market
what you want to sell and wait for the
buyers.
The eMarket is designed to operate in the
same fast simple manner that any real
market operates. But in cyberspace the
membership set up processes are the keys
to allowing the final transactions to be so
swiftly undertaken. Just like real markets,
relationships develop in eMarkets between
buyers and sellers based upon mutual trust
and the success of previous transactions.
The eMarkets have developed their own
rating systems for both buyers and sellers
with the use of testimonials to allow for the
trust assessment processes between new
buyers and sellers. No business can afford
to not understand the eMarkets that are
evolving in their specific industry.
What effect will ecommerce have on
business in the future?
Under the latest Internet thinking, whereas
the business was made up of many
departments, it is now only considered to
consist of three departments. The "Sell
Side
Department",
"Value
Added
Department" and the "Buy Side
Department". The business is now
established in a closely structured chain of
businesses serving a specific marketplace.
The role of the business is fully
appreciated by both the customers and the
suppliers. It is the value added aspect that
ensures the business has a future.
Ecommerce has made product and service
so monitored that businesses are purely
assessed on their value added capabilities.
Global markets will make pricing operate
under stock market supply and demand
principles. So it is predicted that pricing
will cease to be a major business
differentiator. What you have to sell and
justify is your value added capability.
What effect does ecommerce have on
business competition?
Although the concepts of ecommerce are at
first difficult to grasp, essentially because
doing everything on a computer does not
appeal to everybody, it will make life
simpler. It's the transition over to
ecommerce that will be difficult. This is
because we are only at the start of the
ecommerce revolution and many things
attempted do not necessarily work first
time. In particular the narrow bandwidth of
the networks at present prevents it being
fully effective. Suppliers of ecommerce
software are also in their infancy and this
is causing added confusion. Establishing
where to get started and how to do it are
proving too higher barriers to many
businesses. The business model for many
industries in respect of how ecommerce
will operate has not been fully explored.
Many industries, in particular those with
existing distribution channels, are suffering
from a fear of change and other vested
interest issues.
How should you determine an
ecommerce strategy?
It is important to appreciate that
ecommerce is in its infancy and under
frantic development. Business models are
constantly changing with many of the more
entrepreneurial businesses already seeking
116
out and gaining competitive advantage in
this transition.
The one mistake that many businesses are
making is to consider the internet and
ecommerce to be a passing fad. In this
respect the ups and downs of the dotcom
industry has not helped the reputation of ecommerce. But whilst the press debates the
comings and goings of different dotcom
businesses, behind the scenes many
businesses are making major investments
in e-commerce.
To some degree the B2B ecommerce
revolution is a silent revolution lacking
much of the hype attached to the Business
to Consumer (B2C) dotcoms. Without
fanfare businesses are changing their
technologies towards the Internet and
ecommerce. Large corporations have
changed their investment decisions
towards the new economy with many
investing in the new technologies.
Ecommerce is proving the new area for
consultancy companies to seek their
revenues in assisting their clients with the
necessary decision making processes in
respect of business and technology
strategy. Overnight the whole software
supply industry has incorporated the magic
"e" into all its solution offerings. The
major industry software players have
aligned their research and development
strategies towards the creation of
infrastructures that support the new
Internet
economy.
Many
different
strategies are evolving some industry led,
some company led and increasingly many
are standards organization led.
Standards form a key requirement if the
objectives of ecommerce are to be satisfied
in a global marketplace. The need for
interoperability at both technical and
business levels is a key requirement. Any
business forming an ecommerce strategy
needs to be aware of the initiatives
currently being undertaken by a variety of
standards bodies. One view is that this is
best left to the software solution vendors to
resolve with the businesses just purchasing
the outcome of all their efforts. But
unfortunately it is not that simple. As
always proprietary interests are influencing
even the standards industry since although
publicly all vendors agree the need for
international standards, in private many are
still upholding their proprietary standards
to retain or gain competitive advantage.
The fact remains that each business needs
to devise its own strategy since its position
within its industry and its intentions within
that industry need to form part of that
strategy. Unfortunately with ecommerce,
in order to devise a strategy, a business
needs to acquire a huge amount of
background information from which the
strategy decisions can be formulated.
Obtaining this information concisely and
ensuring it is of an independent nature
remains a major problem. Because
ecommerce has evolved so quickly and it is
still evolving it is very difficult to acquire
the required background information from
most of the normal information or training
channels.
E-business
E-business: connecting critical business
systems and constituencies directly via the
Internet, Extranets or Intranets. It relates
both to external and to company internal
processes.
Our understanding of the term "e-business"
is such that it does not only describe
external communication and transaction
functions, but also relates to flows of
information within the company, i.e.,
between departments, subsidiaries and
branches.
IBM, in 1997, was one of the first to use the
term when it launched a campaign built
around the term. Today, many corporations
are rethinking their businesses in terms of
the Internet and its capabilities. Companies
are using the Web to buy parts and supplies
from other companies, to collaborate on sales
117
promotions, and to do joint research.
Exploiting the convenience, availability, and
global
reach
of
the
Internet,
many
companies, both large and small have
already discovered how to use the Internet
successfully.
E-marketing
E-marketing is marketing that utilizes
the Internet as a communications and
distribution channel. This includes using
email and the Web.
There are of course far more elaborate
definitions, but that’s it in a nutshell. (This
simplistic definition is not entirely
accurate. A more pedantic one would also
mention other electronic channels, such as
private wide area networks. However from
a practical perspective the above definition
is appropriate because virtually all
eMarketing is via the Internet).
E-marketing is Different and Yet the
Same
The Internet has been described as the
world’s least expensive and most effective
marketing tool, which is why so many
businesses have embraced it. Much of
eMarketing's appeal is due to some
significant differences from mainstream
marketing which uses traditional media.
Key differences are:
•
•
•
e-Marketing’s lower cost
its incredible degree of
measurability
and, most fundamentally, its unique
interactive nature (unlike
traditional media there is two-way
interaction that the target audience
controls).
Despite these differences, the fundamental
principals of marketing still apply to eMarketing. There are those who naively
thought the "old rules" don't apply in the so
called "New Economy". The same careful
planning and considerations about the
marketing mix that go into developing
offline marketing plans must also be
applied to online marketing.
Marketing is not just about advertising or
promotion - even though these are the most
visible aspects of marketing. The same
applies to online marketing. As with
offline
marketing,
developing
and
implementing an e-Marketing strategy isn’t
solely about using the Internet as an
advertising medium.
The key issue is to understand enough so
you are aware of the options and marketing
benefits the technology can deliver. You
no more need to understand the technical
intricacies of web hosting, email list
servers, search engine algorithms, banner
ad servers and the like any more than you
need to know the in depth technical
intricacies of printing or TV commercial
production.
It's more important to focus on what the
technology can do for you, rather than the
how. And whilst it’s important to harness
and use online technologies, they shouldn't
dictate your marketing strategies
How
do
Internet
marketing
communications differ from traditional
marketing communications?
Internet
marketing
differs
from
conventional marketing communications
because of the digital medium used for
communications. The Internet and other
digital media such as digital television,
satellite and mobile phones create new
forms and models for information
exchange. A useful summary of the
differences between these new media and
traditional media has been developed by
McDonald and Wilson (1999) which they
describe the new valences of the emarketing mix’. Note that these can be
used as a strategic analysis tool, but they
are not used in this context here. This is
useful since they highlight factors that
apply to practical aspects of Internet
marketing such as personalisation, direct
response and marketing research, but also
118
strategic issues of industry restructuring
and integrated channel communications.
By considering each of these facets of the
new media, marketing managers can
develop marketing plans that accommodate
the characteristics of the new media. This
presentation is an interpretation of these
factors using new examples to illustrate
these concepts.
III. Interactivity
Deighton (1996) was one of the first
authors
to
summarise
the
key
characteristics of the Internet. He identifies
the following characteristics inherent in a
digital medium (Deighton, 1996):
• the customer initiates contact;
• the customer is seeking information
(pull);
• it is a high intensity medium – the
marketer will have 100 per cent of
the individual’s attention when he
or she is viewing a web site;
• a company can gather and store the
response of the individual;
• individual needs of the customer
can be addressed and taken into
account in future dialogues.
IV.
Intelligence
The Internet can be used as a relatively low
cost method of collecting marketing
research, particularly about customer
perceptions of products and services. In the
competitions referred to above Nescafe are
able to profile their customers on the basis
of
the
information
received
in
questionnaires. The Internet can be used to
create two-way feedback which does not
usually occur in other media. Financial
services provider Egg (www.egg.com)
collects information about their online
service levels through a questionnaire that
is continuously available in the customer
service part of their site. What is
significant is that the company responds
via the web site to the main concerns from
customer; if the length of time it takes to
reply to customer service e-mails is seen as
a problem it will explain what the
organisation is trying to do to resolve this
problem. A wealth of marketing research
information is also available from the web
site itself, since every time a user clicks on
a link this is recorded in a transaction log
file summarising what information on the
site the customer is interested in. Since
these log files quickly grow to be many
thousands of lines long, analysis software
tools are needed to summarise the
information contained within them. Log
file analysers, of which Webtrends
(www.webtrends.com) is the most widely
used, will highlight which type of products
or promotions customers are responding to
and how patterns vary through time. This
enables companies to respond in realtime
to buyer behaviour. UK e-tailer Jungle.com
uses this technique to change the offers on
its home page if customers are not
responding to a special offer.
V.
Individualisation
Another important feature of the
interactive marketing communications
referred to above is that they can be
tailored to the individual unlike traditional
media where the same message tends to be
broadcast to everyone. The process of
tailoring is also referred to as
personalisation and is an important aspect
of achieving customer relationship
management online. Personalisation is
often achieved through extranets which are
set up with key accounts to manage the
buying and after-sales processes. Dell
(www.dell.com/premierpages) has set up
‘Premier Pages’ for key accounts such as
the Abbey National where special offers
and bespoke customer support are
delivered.
Another
example
of
personalisation is that achieved by
business-to-business
e-tailer
RS
Components (www.rswww.com). Every
119
customer who accesses their system is
profiled according to their area of product
interest and information describing their
role in the buying unit. When they next
visit the site information will be displayed
relevant to their product interest, for
example office products and promotions if
this is what was selected. This is an
example of what is known as mass
customisation where generic customer
information is supplied for particular
segments i.e. the information is not unique
to individuals, but to those with a common
interest. The online booksellers such as
Amazon (www.amazon.co.uk) use this
approach to communicate new books to
groups of customers. Gardeners for
instance, who have previously purchased a
gardening book, will receive a standard email advertising the latest gardening tome.
This is again mass customisation.
VI.
•
The Internet can be used as a direct
response tool enabling customers to
respond to offers and promotions
publicised in other media.
•
The web site can have a direct
response or call-back facility built
into it. The Automobile Association
have a feature where a customer
service representative will contact a
customer by phone when the
customer fills in their name, phone
number and a suitable time to ring.
•
The Internet can be used to support
the buying decision even if the
purchase does not occur via the
web site. For example, Dell has a
prominent web-specific phone
number on their web site that
encourages customers to ring a
representative in the call-centre to
place their order. This has the
benefits that Dell are less likely to
lose the business of customers who
are anxious about the security of
online ordering and Dell can track
sales that result partly from the web
site according to the number of
callers on this line. Considering
how a customer changes from one
channel to another during the
buying process is referred to as
mixed-mode buying. It is a key
aspect of devising online marketing
communications since the customer
should be supported in changing
from one channel to another.
•
Customer information delivered on
the web site must be integrated
with other databases of customer
and order information such as those
accessed via staff in the call-centre
to provide what Seybold (1999)
calls a ‘360 degree view of the
customer’.
Integration
The Internet provides further scope for
integrated marketing communications..
When assessing the success of a web site,
the role of the Internet in communicating
with customers and other partners can best
be considered from two perspectives. First
organisation to customer direction, how
does the Internet complement other
channels in communication of proposition
for the company’ s products and services to
new and existing customers with a view to
generating new leads and retaining existing
customers?
Second
customer
to
organisation, how can the Internet
complement other channels to deliver
customer service to these customers? Many
companies are now considering how they
integrate e-mail response and web-site callback into their existing call-centre or
customer service operation. This may
require a substantial investment in training
and new software. Some practical
examples of how the Internet can be used
as an integrated communications tool are
as follows:
120
•
The Internet can be used to support
customer service. For example
EasyJet (www.easyjet.com), who
receive over half their orders
electronically, encourage users to
check a list of frequently asked
questions (FAQ) compiled from
previous customer enquiries before
contacting customer support via
phone.
Marketing Strategies
Once your site offers something useful and
important to an audience, you have to find
a way to let them know it exists. Marketing
generally consists of two elements: online
promotion, and "offline" marketing done
through other media.
Online marketing tools
There are a number of means to improve
the likelihood that people on the web will
find their way to your site. While many are
straightforward, there are some tricks that
can greatly improve each method's
effectiveness. Some of the most popular
sources of traffic to a site are:
• search engine registration
• placement in directories or indexes
• placement in popular "guide" sites
• mention in online media
• email promotion
• links from sites on related topics
Search engine registration
Many individuals use search engines, like
Yahoo, Excite, and Google, to locate
websites with information and features
they want. Typically, a user enters a list of
keywords, and the search engine uses these
to return a list of websites that are likely to
be relevant to those topics.
Unless your organization focuses on very
specific issues, it's likely that there are
already dozens, hundreds, or thousands of
sites on the web which focus on your topic
areas. Entering keywords associated with
your issues into a search engine is likely to
yield a long list of results. It is increasingly
important, and ever more difficult, to get a
site into the coveted top results for a
relevant keyword search on popular search
engines. A top ranking in a key search
engine can bring hundreds of new visitors
each day.
Getting good rankings is complicated by
the fact that each search engine uses its
own set of criteria to determine whether a
site will be retrieved by a particular search,
and where in the rankings it will appear.
Some search engines are automated, and
rankings are determined using complex
software; in others, a human being reviews
and considers each submission for
inclusion.
Because many search engines use
information from the website itself to rank
search results, you should resubmit any site
on which you've made significant
revisions, particularly to search engines
where your site does not yet appear, or
where it tends to be ranked poorly in
relevant searches.
The keys to getting the best possible
rankings are to anticipate the search terms
you would like to be associated with your
site, and optimize your site so it will be
accepted by the largest number of search
engines. A good web developer should be
able to do this for you. Some tips are
included below.
Search Engines and Directory Submission
Search engines use different formulae to
determine the rankings of their sites.
Some
engines
use
software
to
automatically incorporate and rank new
sites, and others use human staff members
who examine each site and determine its
worthiness. For example, here are some
common sites, and the basic criteria they
use for ranking search results. (Search
engines' heuristics are closely guarded
secrets, and these descriptions are based on
what is known about them.)
121
•
Yahoo! - human judgment. Yahoo!
is a very exclusive site that prides
itself on
•
including sites that offer genuine
value to users.
•
Direct Hit - popularity. Direct Hit
tracks how many visitors click
through to each site that is retrieved
by a search. It continually refines
its results to highlight the most
popular sites accessed by visitors.
•
AltaVista - META tags (keywords
and phrases inserted into the
underlying code of the page) and
page text. AltaVista ranks sites
automatically based on the words
used in their META tags and the
text content of the page.
•
DMOZ (the Open Directory
Project) - human judgment. DMOZ
uses a system of categories
maintained by "editors" drawn
from the web at large. An editor
evaluates a submission in his/her
category for quality and for
appropriateness to the specific
topic.
To optimize a site, you must address the
needs of both automated and human based
systems. First, you should carefully select
a range of search terms that you'd like to
associate with the site (i.e. a search on
these words will bring up your site). With
these in mind, some easy strategies can
improve the likelihood of your site
showing up in a particular search. You
should carefully optimize not only on your
front page, but also every major page on
the site. In many cases, the web developer
will prepare the site for search engine
submission as it is built, but almost all sites
can be optimized for search engines at any
time.
•
Use key words and phrases,
specific to the desired search terms,
in the page text and title.
•
Use key words and phrases in the
page's META tags -- both the
descriptionand the keywords tags.
For directory submissions, make sure your
site is appropriate to the submission
category, of immediate value as a resource,
and likely to be appealing to the editor.
Consider submitting a specific page within
the site if your submission of the front
page is not accepted.
For automated search engine submissions,
don't just submit the front page of the site.
Submit individual pages that are rich in
content in a particular topic area, and make
sure these pages are all optimized for
search engine submission.
Keep in mind that few directories and
fewer search engines will tell you when
you've been accepted. The only way to
determine the success of your registration
is to keep trying searches and seeing if
(and where) your site comes up. Some
search engines take weeks to process
submissions. Don't rush, and don't "spam"
the engine with too many entries. Check
back on the status of your submissions
every six to eight weeks and keep
submitting to the ones that don't yet
include your site.
There are many services that promise to
register your site with dozens of search
engines for a price. While this might save
you some time, you also pay a price for
automation: in many cases, the service
can't match the care with which you would
submit your site individually to each
search engine. Visiting each engine,
familiarizing yourself with the process of
submitting, and taking the time to complete
the submission process will make a big
difference. Many web developers have
122
experience submitting sites, and can
perform this task quickly and efficiently.
Placement in Directories and Indexes
A Directory (or Index) works something
like a search engine, but the contents are
organized into a hierarchy of categories.
Most are also searchable, functioning
much as a search engine. More directories
have sprung up recently, and they are an
increasingly important source of hits.
Most directories are managed by a human
editor who decides whether or not to
include a submission. The key to a good
placement in a directory is locating the
category in which your site belongs. A site
that is professional and easy to navigate is
more likely to hold an editor's interest long
enough for him/her to evaluate the quality
of your resources.
In some directories, each category is
managed by an "editor" drawn from the
web community. Anyone can apply to
manage a category that doesn't currently
have an editor, or suggest a new category
and offer to edit it. A sneaky (but common)
method of getting into a directory is to
locate or suggest a category in which a site
could be listed, and then become the editor
of that category. If you are considering
this, be aware that 1) editing a category can
be a lot of work, 2) you'll be expected to be
fair and reasonable about including other
sites, and 3) the people who evaluate your
application to become an editor are aware
of this practice and tend to exclude people
who are doing it out of blatant self interest.
Only apply if you have a genuine interest
and intend to be a fair editor.
Placement in popular "guide" sites
Some new sites promise to organize the
complex web and link to only the "top"
sites on various topics. These may be
presented with some narrative or
background information. This differs from
a directory in that it is itself a source of
information as well as links to other sites.
About.com is an excellent example of this
type of resource. Like a directory, it is
organized into categories, but within each
category an editor (or guide) provides
structure and information that is designed
to help visitors navigate intelligently
around the web. Content is updated
continually, and the editor inserts links to
only the sites s/he determines to be of high
merit.
Getting listed in a resource can be very
difficult, but it's often worth it. One key is
locating the category that best fits your
organization. Another is to insure that your
site offers resources that will be useful and
important for a key audience. You may
also try to attract a guide's attention by
sharing a news item that shows that your
site focuses on issues that are of current
interest. Finally, the human factor matters:
your site may have a better chance at being
listed if it is professional, easy to navigate,
and has dynamic content that is
consistently updated.
As with online directories, you can also
attempt to become a guide in a relevant
topic. The same caveats apply. Being a
guide is likely to be a far more demanding
task than editing a category, because you
will be expected to provide your own
content and make regular updates.
Mention in online media
Media sites include the online versions of
newspapers, magazine, and journals, as
well as online-only publications like ezines. Like a "guide" site, many media
sites see large numbers of visitors. Some
stories in media sites include links to
highlight relevant sites with more
information. Getting cited as a resource
can mean a short, but significant, increase
in visitors to your site.
You may seek to be identified as a
resource by pitching a story to the online
media, or locating an editor who covers
your topic area and sending him/her more
123
information about your organization. If the
publication accepts freelance material,
consider submitting an article or op-ed to
them.
Email promotion
If you have a mailing list, it can be used
effectively to market a site or attract
attention to a revised one. Because people
may perceive a mass mailing to be spam,
it's important to identify that it comes from
your organization in the subject line. Keep
the body of the message brief: summarize
new features of the site and mention a
handful of the most interesting resources
there. Then provide a link to the front page
of the site.
You may prefer to run your email mailing
list using software that will allow
recipients to automatically remove
themselves from the list. There are also
websites that will allow you to host
mailing lists or "listservs" (email
discussion groups) in which members of
the list can also email other members of
the list automatically.
In addition, you may consider developing
an email list of individuals who indicate
that they want to be apprised of new
resources or information on your site.
Visitors to the site should be able to sign
up for this list online, and in turn receive
regular mailings summarizing new content
on the site and providing links directly to
the mentioned pages.
To encourage visitors to sign up for
updates, you should develop and post a
privacy statement assuring them that you
won't sell or give out their contact
information. You should clearly predefine
the intervals in which you'll send updates - one every month is a good interval unless
you plan to keep your site updated with
new information on a much more rigorous
schedule. Finally, users must see that
they'll get something of value by
participating, so include a couple lines
about what kind of information they'll
receive.
Another related method of promotion is
through participation in listservs. Joining
and participating in an email discussion
group is a good way to represent your
organization's issues to others and generate
interest in the kinds of materials your site
offers. Adding the URL of your site to
your signature every time you send an
email or participate in a listserv allows
others to follow up on their interests at
your site.
There are a number of sites that allow you
to locate listservs on various topics.
Links from sites on related topics
Many colleague sites may have "Links"
sections, which may or may not themselves
receive a significant number of visitors.
You may wish to focus first on the sites
that are likely to receive high traffic, and
those in which the "Links" section is a
widely-used resource. This strategy may be
productive if colleagues are your primary
target audience. Email the webmasters of
these sites and request that they include
your site in their next update.
Organizations frequently offer to place a
link on their own site (if they have a
"links" section) in exchange.
Offline Marketing Through Other Media
You can use additional materials and
media to market your site in the "real
world." The best strategies will be ones
that your organization has already
identified as effective in marketing its
materials and presence to its target
audience. Since these vary considerably,
they are not described in detail here. Some
possibilities include:
•
Printing your web address on all
appropriate
organizational
documents, from business cards to
stationary.
124
•
Using postcards, palm cards, and
other
common
advertising
mechanisms.
•
Mentioning your site in all
communications and outreach
efforts, from speaking engagements
to media contacts.
•
Advertising (paid or pro bono) in
print media, on buses, on
community bulletin boards, on
television including public access
cable, and in other places where
your target audience is likely to see
it.
•
Press releases to highlight unique
features or capacities of your site.
Email Marketing
Permission Email Marketing: Single vs.
Double Opt-In
The best and most profitable way you can
use Email Marketing is to develop personal
one-on-one relationships with your clients
and prospects. These personal relationships
are the key to the long-term success of
your business.
Effective Email Marketing is based on two
pillars: permission and respect for privacy.
In order to send customers or prospects a
message, you must first get their
permission (they must opt-in to your
mailing list). At the same time, you must
agree to never sell or share your list with
anybody else.
Opt-in Email Marketing (also called
Permission-Based Email Marketing) has
proven to produce the best response rates
compared to other marketing methods,
such as direct traditional mail or banner
advertisements.
Opt-In Email comes in two forms: "single"
opt-in and "double" opt-in.
A "single" opt-in list is usually created by
inviting members to join via a web form or
by sending an email message to a
"subscribe" email address. Once readers
send the form or the email message, they
are subscribed to the list.
A "double" opt-in list, also called a
"confirmed" opt-in list, requires the
subscriber to reply to a confirmation
message to activate the subscription.
The advantage of the “single” opt-in
method is that your list will grow faster.
However, there are some pitfalls, like the
fact that people may subscribe friends or
family, who may not want to receive your
messages and who could, in the worse case
scenario, accuse you of spam.
The advantage of the „double” opt-in
method is that you will have a higher
quality list (since only interested readers
will take the time to go through your
confirmation process). "Double" opt-in
lists also command higher advertising rates
because they get far better responses from
readers. Double confirmation also makes
list administration easier, by keeping the
email list clean with valid addresses of
willing subscribers (clean lists are also
delivered faster, because the server doesn't
spend time retrying bad addresses).
The main disadvantage of "double" opt-in
lists is that many people may not
understand your confirmation message or
may not want to go through the extra step.
Some Email Marketing companies
consider the percentage of people who fail
to confirm to be as high as 50%.
All things considered, we strongly
recommend the "double" opt-in approach.
It is not only the most ethical way to create
a list, but the one that builds more valuable
memberships. Also, with the current
125
increase of anti-spam legislation, double
confirmation may soon become the only
safeguard against being blacklisted by antispam organizations.
Finally, a couple of suggestions on Opt-In
Email Marketing etiquette:
Always include a short line of text at the
beginning of the message reminding your
readers that they are receiving your email
because they subscribed to your mailing
list. This is important because we receive
so much email these days that we may
easily forget that we have subscribed to
any particular list.
Always include clear and easy-to-follow
instructions to unsubscribe. You must not
make your subscribers jump through hoops
if they want to stop receiving your
messages. You must either include an
"unsubscribe link" (which most mailing list
hosts will provide) or a "mailto link" where
readers can send a blank message to
unsubscribe.
The Top Ten Tips for Designing Pretty
Email
1) Think readability
It might be pretty, but if the reader can't
see it, you've defeated your purpose. Red
fonts against a pink background to
advertise your Valentine's Day sale -POOR idea!
2) Minimize the glare
A recently received email contained
turquoise fonts covered with a lime green
highlight. Ouch!
3) Use images sparingly
These images are bandwidth hogs. They
take up much more bandwidth (and hence
increase the download time) than text
emails. If you're going to use images, make
sure they are small -- both in dimensions
and in the total number of bytes.
4) Be original
A lot of business email messages are
arriving with Outlook Express packaged
stationery used for the background. "Ivy"
and "Tiki Express" appear to be particular
favorites. Using these pre-packaged
backgrounds sends the message that you
are inexperienced, and that's not the
message you want to send. If you plan on
using stationery, create your own. Outlook
allows you to use images other than the
ones that they have provided.
5) Avoid using all capitals
In the Internet world, writing in all-caps is
called "shouting." All-caps send the
message that you are inexperienced or that
you are "flaming." (Flames are hostile
messages that are often sent in capital
letters to indicate the sender's anger.)
Moreover, messages sent in all capitals are
difficult to read -- especially brightly
coloured messages against an even brighter
coloured background!
6) Use short lines of 55-66
characters
Email messages that stretch the width of
the screen are difficult to read and
unpleasant to view. Remember that the
email will display differently on the
recipient's computer than it does on yours.
For example, Eudora Pro allows you to
choose the size of your email-viewing
window. When you create a message, you
will see it in whatever size window you
have set up. BUT your recipient is likely to
be using different software or to have the
windows set at a different size. Most email
software has a feature that allows you to
wrap the text at approximately 55-66
characters. By wrapping, you know how
wide your email will be when others
receive it.
7) Use standard fonts that are
installed on most computers
126
That wonderful font that you downloaded
from FreeStuff.com will display nicely on
your computer. However, the recipient's
computer will discern that your great
freebie font is not installed, and it will
substitute another. To be sure you know
what your message will look like when
opened, play it safe with choices like
Times, Times New Roman and Arial.
8) No unsolicited email attachments.
Ever. Please
9) Take advantage of HTML's
stronger functions
For example, if you are publishing a
newsletter, put a Table of Contents near
the top. Use bookmarks so readers can
click on an item in your TOC and jump
directly to the linked spot in your
newsletter.
10) Use white (or background) space
appropriately
Spaces between headings, between
paragraphs and between images will make
it easier for the eye to assimilate the
content. However, be cautious of too much
white space or white space that is
unsymmetrical.
To get a feel for appropriate use of white
space, take a look at well-designed web
sites. Notice how spacing can enhance
readability.
Case study
Hamleys reaches new customers using
the Internet
Hamleys toy shop in London’s Regent
Street seems quintessentially British, so it
may come as a surprise to learn that the
majority of the sales from its website are to
the US. This is not an accident, however.
The content and appearance of the shop’s
e-commerce site have been carefully
designed to attract a very particular kind of
customer: those who have the money to
spend on expensive toys, but little time to
visit toy shops. While its London store
stocks approximately 40,000 toys, the site
offers only a small fraction of that number.
There are already numerous toyshops
online offering cheap, plentiful toys aimed
at the mass market.
Hamleys wanted to differentiate itself, so it
called in Equire, an e-commerce company
specialising in designing and hosting
websites for retailers of luxury items,
including Links of London and jewellers
Van Peterson.
Hamleys and Equire
decided to use the website to sell goods it
was difficult to obtain anywhere else:
Steiff bears, die-cast figures and other
collectors’ items. Apart from collectors,
says Pete Matthews, Equire founder and
chairman, customers tend to be parents and
grandparents looking for unusual gifts.
An article in the New York Times before
Father’s Day, for example, resulted in the
site selling a large number of gold-plated
models of the James Bond Aston Martin.
Because the brand name is crucial to the
kind of customers Hamleys wants to
attract,
the
look
of
the
site
(www.hamleys.com) is also distinctive,
with numerous graphics and animations, a
prominent Hamleys logo on each page and
menu options with names such as
Collectables, Exclusive and Executive.
As well as designing and hosting the
website, Equire manages all other aspects
of the e-commerce operation, including
holding the stock in its warehouse, taking
care of orders and delivery, and running
the customer care centre. Its financial
arrangement with Hamleys is unusual:
instead of charging a large fee for hosting
the site, it charges a smaller fee and takes a
cut of the revenue. The idea is that it has a
stake in making sure the site works, giving
the customer confidence that it will do the
job well. It also means a smaller
investment for the customer.
127
"The typical cost of implementing an
infrastructure like ours would be in the
many millions of dollars. Typically,
Equire’s customers don’t contribute
anything like that," says Mr Matthews.
Because of the site’s target customers,
speed of delivery is important. Some ecommerce sites have become notorious for
not being able to fulfil orders quickly or
efficiently. But Mr Matthews says most of
the US orders are delivered within three
days - and many in fewer than that.
The Hamleys site uses the Broadvision ecommerce platform, which is integrated
with the call centre, the fulfilment centre
and Equire’s despatch partners, who allow
online tracking of every parcel. "When an
order comes in, it automatically informs
the customer-care centre. At the same time,
it tells the fulfilment centre an order has
come in and needs to go out today. It gets
picked,
packed,
gift-wrapped
and
despatched and is then tracked throughout
its life via our despatch partners, UPS and
Parcelforce," says Mr Matthews. Returns
are low - less than two per cent.
no depreciation or amortisation to
consider, while we deliver them net
incremental revenue, and we help to build
brand franchise outside their immediate
geography”.
Source
Financial Times (2000b) HAMLEYS:
Where to buy a gold-plated model of
James Bond’s Aston Martin.
Financial Times;
http://www.ft.com/ftsurveys/spbf9a.htm,
By Kim Thomas
Recently, Hamleys has announced a drop
in profits. Part of its plan for drawing in
more revenue is to expand the website to
include a wider range of toys: 50 per cent
of calls and e-mails to the customer care
centre are inquiries about toys not stocked
on the site.
Instead of simply increasing sales to
existing customers, the site has given
Hamleys the opportunity to attract many
new customers who, according to Mr
Matthews, spend more on an average visit
to the site than visitors to the London shop.
Other planned improvements include
greater emphasis on "personalisation", so
that customers will be guided to their
particular interests. Mr Matthews believes
his company has a model that works.
"Over a period of five years, we’re able to
deliver a very healthy net margin, their
revenues flow to the bottom line, they have
128
Risk and Portfolio management and optimization
Slim GHORBEL
Faculté des Sciences économiques et de gestion de Sfax,
FSEG Sfax, Tunisie
129
Asset pricing theory includes the valuation
of a wide range of financial assets and
derivative securities. Modern financial
theory is based on some standard
assumptions regarding markets and
investors. The theory has had an impact on
the development of financial markets.
Portfolio theory refers to the work of
Markowitz (1952) on portfolio selection.
Investors prefer to increase their wealth
and to minimize the risk linked with the
potential gain. It is not possible to obtain
the maximum expected return and the
minimum variance. The limitations of the
standard portfolio theory and mainly its
restrictive assumptions, lead to the
extensions of the theory in several
direction.
The expected return from the investment
can be computed as a weighted average of
each uncertain return by its corresponding
probability :
n
∑ Pi Ri = 10,67%.
E(R) =
i =1
The variance is computed as the deviations
around the mean :
n
σ2 = ∑ Pi[[Ri-E(R)]2].
i =1
Table 2 shows the procedure for the
computation of the variance of returns in
this context.
Table 2 : Computing the variance
I.
The mean-variance framework
The mean-variance framework refers to a
risk-return trade-off. Table 1 shows an
uncertain return and its corresponding
probability.
Table 1 : The probable results of the
investment
Rate of return
R1 = 6%
R2 = 8%
R3 = 10%
R4 = 12%
R5 = 14%
R6 = 16%
Total
Probability Pi Probability in %,
Pi
P1 = 1/12
8,33
P2 = 2/12
16,66
P3 = 4/12
33,33
P4 = 3/12
25
P5 = 1/12
8,33
P6 = 1/12
8,33
∑
i =1
Pi = 1
∑
i =1
Pi
1/12
2/12
4/12
3/12
1/12
1/12
Ri
6.00
8.00
10.00
12.00
14.00
16.00
E(R)
10.67
10.67
10.67
10.67
10.67
10.67
(Ri-E(R))2
21.78
7.11
0.44
1.78
11.11
28.44
Pi×(Ri-E(R))2
1.81
1.19
0.15
0.44
0.93
2.37
Hence σ2 = 6.89 (%)
A. Risk and
definitions
return
:
some
Risk is often defined as the deviations of
the expected return with respect to the
mean return.
Pi = 100%
Example : The variance for a portfolio
with N assets
When there are N assets, the matrix can be
written as in Table 3.
The sum of the probabilities equals one.
m
∑ Pi = P1 + P2 + P3 + P4 + P5 + P6 =
i =1
1/12 + 2/12 + 4/12 + 3/12 + 1/12 + 1/12 = 1
130
Table 3 : The variance-covariance matrix for N assets
Action
1
2
3
4
.
.
N
1
X
2 2
1 1
X X
2 1
Cov(R ,R )
2 1
X X
3 1
Cov(R ,R )
3 1
X X
4 1
Cov(R ,R )
4 1
.
.
X X
N 1
Cov(R ,R )
N 1
2
3
4
...
N
X X
1 2
Cov(R ,R )
1 2
X X
1 3
Cov(R ,R )
1 3
X X
2 3
Cov(R ,R )
2 3
X X
1 4
Cov(R ,R )
1 4
X X
2 4
Cov(R ,R )
2 4
X X
3 4
Cov(R ,R )
3 4
...
X X
1 N
Cov(R ,R )
1 N
X X
2 N
Cov(R ,R )
2 N
X X
3 N
Cov(R ,R )
3 N
X X
4 N
Cov(R ,R )
4 N
.
.
X
2
2
2
2
X X
3 2
Cov(R ,R )
3 2
X X
4 2
Cov(R ,R )
4 2
.
.
X X
N 2
Cov(R ,R )
N 2
X
2 2
3 3
X X
4 3
Cov(R ,R )
4 3
.
.
X X
N 3
Cov(R ,R )
N 3
For example, when i = 3, j = 4, X4X3 and
X3,X4 correspond to the fraction of the
portfolio invested in the assets 3 and 4. The
matrix is symmetric, i.e, XiXjCov(Ri,Rj)
is equal to XjXi Cov(Rj,Ri). For a matrix
with N elements in rows and columns,
...
2
4
...
.
.
X X
N 4
Cov(R ,R )
N 4
.
.
...
X
2
4
X
2
N
2
N
where ρAB is the correlation coefficient
between A and B.
When the two assets are perfectly
correlated, ρAB = 1, and the variance of
the
portfolio
is
:
σ 2p = X 2A σ 2A + X 2B σ 2B + 2X A X B σ A σ B
2
NxN = N . The number of variance terms
is N on the
diagonal. The number of
covariance terms is N2-N.
B. Portfolio selection and portfolio
optimisation
Portfolio theory is based on the concepts of
risk and return. Consider a portfolio with a
proportion XA of asset A and XB of asset
B, with : RA < RB, σA < σB,
XA + XB = 1.
The
expected
return
E P = X A R A + X B RB
is
:
The
is
:
variance
σ 2p = X 2A σ 2A + X 2B σ 2B + 2X A X Bρ ABσ A σ B
Or : σ 2p = (X A σ A + X B σ B ) 2
The standard deviation is :
σp = XAσA + XBσB
Using this system for different values of
ρAB in the interval (-1,1), it is possible to
generate point by point all the curves
reflecting the relationships between the
pairs (Rp,σp) of a portfolio. Consider the
pairs (Rp,σp). There is a rate at which the
investor can gain expected return by taking
on variance, or reduce variance by giving
up expected return”. For the case of a
portfolio with two assets A and B where A
is the risk-less asset, the expected return
and the variance : RP = X A R A + X B RB
131
Risk
Non systematic risk
(diversifiable)
σ 2p = X 2A σ 2A + X 2B σ 2B + 2X A X Bρ ABσ A σ B
RP = X A R A + X B RB
become
and
σ 2p = X 2B σ 2B
Systematic risk
Number of stocks
When a riskless asset is used, it is possible
to determine the “best” combination
between the riskless asset and point C on
the efficient frontier.
Consider a portfolio comprising N assets in
equivalent proportions (1/N).
The assets have the same variance Var and
covariance Cov.
Ep
In this case, the matrix for the variance of
this portfolio is given in Table 4.
C
RF
Table 4. Variance-covariance matrix of
a portfolio with N assets
B
σp
Action
Figure 1. Introduction of a risk-free asset
1
Point C dominates all the other portfolios
on the efficient frontier. It is often referred
to as the market portfolio, M. The expected
return and the variance of the market
portfolio can be written as :
2
E (RM) =
N
3
4
M
.
.
i=2
N
∑ X iM E (Ri) and σ2(M) =
N
∑ ∑ X iM X M
j σi σj ρi,j
i = 2 j= 2
M
M
With : X M
2 + X 3 + ... + X N = 1
C. Systematic
risk
and
diversification : an introduction
The diversification principle is based on a
relationship between risk and the number
of stocks to be included in a portfolio. The
idea is illustrated in Figure 2.
Figure 2 : Diversification principal
1
(1/N)2
Var
(1/N)2
Cov
(1/N)2
Cov
(1/N)2
Cov
2
(1/N)2
Cov
(1/N)2
Var
(1/N)2
Cov
(1/N)2
Cov
3
(1/N)2
Cov
(1/N)2
Cov
(1/N)2
Var
(1/N)2
Cov
N
...
...
(1/N)2
Cov
(1/N)2
Cov
(1/N)2
Cov
(1/N)2
Cov
...
...
...
...
(1/N)2
Cov
(1/N)2
Cov
(1/N)2
Cov
...
(1/N)2
Var
For higher values of N, the total variance
of a portfolio tends toward its covariance.
Since there are N terms on the principal
diagonal and N(N -1) covariance terms, the
variance can be written as :
Variance of a portfolio = N (1/N2)var +
N(N-1) (1/N2) cov
or :
Variance of a portfolio = (1/N) var + [(N2N)/N2] cov
or :
Variance of a portfolio = (1/N) var + [1(1/N)] cov
132
When N tends to infinity, (1/N) approaches
zero and (1 - (1/N)) becomes one. Hence,
the variance is eliminated and only remain
the covariance terms in the appreciation of
the portfolio risk. This is the diversification
principle. When investors hold the market
portfolio, the contribution of each asset to
the risk of a portfolio can be easily
determined as in Table 5.
Table 5. Variance-covariance matrix of the market portfolio
Stock
1
2
3
4
.
.
N
1
2 2
1 1
X σ
X X
2 1
Cov(R ,R )
2 1
X X
3 1
Cov(R ,R )
3 1
X X
4 1
Cov(R ,R )
4 1
.
.
X X
N 1
Cov(R ,R )
N 1
2
3
4
...
N
X X
1 2
Cov(R ,R )
1 2
X X
1 3
Cov(R ,R )
1 3
X X
2 3
Cov(R ,R )
2 3
X X
1 4
Cov(R ,R )
1 4
X X
2 4
Cov(R ,R )
2 4
X X
3 4
Cov(R ,R )
3 4
...
X X
1 N
Cov(R ,R )
1 N
X X
2 N
Cov(R ,R )
2 N
X X
3 N
Cov(R ,R )
3 N
X X
4 N
Cov(R ,R )
4 N
.
.
2 2
2 2
X σ
X X
3 2
Cov(R ,R )
3 2
X X
4 2
Cov(R ,R )
4 2
.
.
X X
N 2
Cov(R ,R )
N 2
2 2
3 3
X σ
X X
4 3
Cov(R ,R )
4 3
.
.
X X
N 3
Cov(R ,R )
N 3
The variance of a portfolio can be written
n n
as : σ 2p = ∑ ∑ X i X jσ ij
i =1j=1
where σi,j is the covariance of i and j
when i is different from
j. The
contribution of asset i to the risk of the
market portfolio weighted by its proportion
in the portfolio is given by cov(Ri,RM).
Since cov(Ri,RM) = ρi,M σiσM .
The term cov(Ri,RM) can be divided by
the market variance to obtain a direct
measure of risk, the beta of the asset as :
Cov( R i , R M )
σ
βi =
or β i = ρ iM i
2
σM
σ (R )
M
Hence the contribution of an asset to the
risk of the market portfolio is measured by
its covariance cov(Ri,RM) with the market
portfolio and its beta.
2 2
4 4
X σ
.
.
X X
N 4
Cov(R ,R )
N 4
...
...
.
.
...
X
2 σ2
N N
II. Capital market theory and capital
asset pricing model, CAPM
At equilibrium, there is a simple
relationship between the expected return
and risk, given by the beta of an asset. If
we denote by Xi and Xm the weights of the
risk-less asset and the market portfolio, by
Y the portfolio comprising the market
portfolio M and an asset i, then the
expected return and variance of this
portfolio are given by :
E(RY) = Xi Ri + XM RM
σ2(RY) = X i2 σ i2 + X 2M σ 2M + 2 Xi XM
ρiM σi σM
Xi + XM = 1
where :
133
•
ρiM : the correlation coefficient
•
•
between asset i and portfolio M,
σM : standard deviation of M,
Ri : expected return for asset i,
•
RM : expected return for the portfolio
M,
In equilibrium, we have :
Ri =
RA + σi σM ρi,M
2
RA)/σ Μ
straight line from the risk free rate. The
efficient portfolio can be determined by
maximizing the following objective
function : F = R p − R F σp
(
under the constraint :
This is the security market line. This linear
relationship applies to all assets (efficient
or non efficient).
The main difference between the capital
market line CML and the security market
line SML is that the slope of the CML is
given by :(RM - RA)/σM
When there is a risk free rate in the
economy, the relationship between the
expected return and risk for a given asset is
given by
Ri - RF = βi [RM - Rf]
2
with : βi = σi σM ρi,M//σM
where RF is the risk free rate and βi is a
measure of risk for asset i.
N
∑x
i =1
i
=1
⎞
⎛ N
R F = ⎜ ∑ x i ⎟R F , the
⎝ i =1 ⎠
solution can be found using the Lagrange
multiplier or by substituting the constraint
into the objective function.
Since
(RM -
)
R F = 1,
Replacing
R p, R F et σp
into
the
objective function gives :
⎡
⎤
N
N N
⎢⎛ N 2 2 ⎞
⎥
F = ∑ xi R i − R F ⎢ ⎜ ∑ xi σi ⎟ + ∑ ∑ xi x jσij ⎥
i =1
⎠ i =1 j =1
⎢ ⎝ i =1
⎥
j≠ i
⎣
⎦
(
)
The maximization of this function requires
the partial derivatives to be zero or :
∂F δx1 = 0 ,
∂F δx 2 = 0 ,
∂F δx3 = 0 ,
.
III. Portfolio optimization : General
Techniques for the derivation of the
efficient frontier
This section shows how to obtain the
efficient frontier in different contexts.
A. The efficient frontier when
investors can borrow and lend
without short selling restrictions
This is a very easy case. When short
selling is allowed and there is a risk free
asset in the economy, there is a risky
portfolio which is preferred to the other
portfolios.
The
efficient
frontier
corresponds to the tangency point of the
.
∂F δx N = 0 ,
B. The efficient frontier when
investors can borrow and lend in
the presence of short selling
restrictions
In this case, we face the same problem,
except the fact that the weights must be
positive. The maximization problem
becomes :
(
)
F = R p − R F σp
134
− 0.5
under the constraint :
N
∑x
i =1
i
=1
xi ≥ 0
Since the variance has terms in x2 and
products xi xj, the solution can be found
using the Kuhn-Tucker conditions.
C. The efficient frontier when
investors are not allowed to borrow
and lend at the risk free rate in the
presence of short selling restrictions
In this case, we face the following
maximization problem :
F =
∑ x i σi +
2
2
N
N
∑∑xxσ
i =1 j =1
i
j ij
i≠ j
under the constraint :
N
∑x
i =1
N
i
=1
∑xR
i =1
i
i
= Rp
x i ≥ 0 for i = 1 …N
The efficient frontier can be determined by
varying Rp between the return on the
minimum variance portfolio and the return
on the portfolio with the maximum
variance.
Conclusion
Markowitz (1952) shows how an investor
should divide wealth between risky assets
and a riskless asset. He shows that “ the
proportionate composition of the non-cash
assets is independent of their aggregate
share of the investment balance. This fact
makes it possible to describe the investor’s
decisions as if there was a single non-cash
asset, a composite formed by combining
the multitude of actual non-cash assets in
fixed proportions”. Tobin’s separation
theorem shows that the allocation between
risky assets and the riskless asset (the asset
mix) should reflect the degree of risk
aversion or risk tolerance of the investor.
In equilibrium, the optimal portfolio
should be independent of the risk
preferences. Sharpe (1963) develops a
simplified model for portfolio analysis by
observing that stocks are likely to co-move
with the market. The contributions of
Markowitz and Sharpe were honored by
the first Nobel Prize in financial economics
in 1991. In 1997, Black, Scholes and
Merton obtain the Nobel prize for their
work on the pricing of derivative assets.
Sharpe (1964) shows that “through
diversification, some of the risk inherent
in an asset can be avoided so that its total
risk is obviously not the relevant influence
on its price ...” Sharpe (1964) paper on the
capital asset pricing model
was
supplemented by contributions from
Lintner (1965).
References
Lintner, J., (1965), "Security Prices, Risk
and Maximal gains from Diversification.",
Journal of Finance, [1965], 587-516.
Markowitz H.M., (1952),
« Portfolio
Selection», Journal of Finance, Vol 7, N 1,
77-91
Sharpe W., (1963), "A Simplified Model
for Portfolio Analysis", Management
Science 10, 277-93.
Sharpe WF., (1964), "Capital asset prices:
A theory of market equilibrium under
conditions of risk", Journal of Finance 19,
425-44
135
Appendix 1 : Tables
Appendix 2 :
The partial derivatives are computed as follows. In fact, since F is of the form :
N
(
F = ( f )( g ) = ( f )( a + b )n f = ∑ xi R i − R F
i =1
N
)
2 2
a = ∑ xi σi
i =1
N N
b = ∑ ∑ xix jσij
i =1 j =1
j≠ i
Recall that the partial derivative of ( f )( g ) = f' g + g' f and that of
( a + b )n
= ( n − 1 )( a + b )
( a + b )' where ‘ denotes the derivative.
n −1
The partial derivative with respect to a given k is easy to find by considering all the other
terms as constants :
(
f' = R k − R F
)
−3
⎤2
⎡
N N
⎥
⎢N 2 2
g' = ( − 0.5 )⎢ ∑ xi σi + ∑ ∑ xi x jσij ⎥
i =1 j =1
⎥
⎢ i =1
j≠ i
⎦
⎣
N
⎡
⎤
2
σ
+
σ
2
x
2
x
∑
⎢ k k
j jk ⎥
j =1
⎣
⎦
In the derivation with respect to k, we fix in the double sum i = k :
′
′
⎛
⎞
⎞
⎛ ⎡
⎡
⎤
⎤
⎜ N
⎟
⎜ ⎢ N
⎢ N
⎥
⎥⎟
⎜ ∑ x x σ ⎟ = ⎜x ⎢ ∑x σ ⎥⎟ = ⎢ ∑x σ ⎥
j kj
k
j kj
⎜⎜ j =1 k j kj ⎟⎟
j =1
⎟⎟
⎜⎜ ⎢ j =1
⎢
⎥
⎥
⎣ j≠ k
⎦
⎦⎠
⎝ ⎣ j≠ k
⎝ j≠ k
⎠
136
When j = k, we have :
′
′
⎞
⎛
⎛ ⎡N
⎞
⎤
⎡N
⎤
N
⎟
⎜
⎜ ⎢
⎟
⎥
⎢
⎜ ∑ xi x kσik ⎟ = ⎜ x k ⎢ ∑ x kσik ⎥ ⎟ = ⎢ ∑ xiσik ⎥⎥
i =1
i =1
⎜
⎟
⎟
⎜ i =1
⎦⎠
⎣ i≠k
⎦
⎝ ⎣ i≠k
⎠
⎝ i≠k
Since the indexes i and j are used only for the summation and since σik = σki , the sum of
N
these two last partial derivatives gives 2 ∑ x jσ jk . The partial derivative of F with respect to
j =1
j≠ k
a given k is :
⎡ N
⎡ N
⎤
2 2
∂F ∂x k = ⎢ ∑ x i R i − R F ⎥( − 0.5 )⎢ ∑ x i σi +
⎢
i =1
⎣ i =1
⎦
⎣⎢
(
)
−3
⎤2⎡
⎤
N
N
N
⎥ ⎢ 2x σ 2 + 2
⎥+
σ
σ
x
x
x
∑
∑
∑
k k
j jk ⎥
i j ij ⎥ ⎢
j =1
i =1 j =1
j≠ k
j≠ i
⎦⎥ ⎣⎢
⎦⎥
(
⎡ N
2 2
R k − R F ⎢ ∑ x i σi +
⎢ i =1
⎢⎣
)
⎤
x i x jσij ⎥
∑
∑
⎥
i =1 j =1
⎥⎦
j≠ i
N
−0.5
N
Multiplying this equality by the term :
⎡ N
⎛ N N
⎞⎤
⎜
⎟
2 2 ⎞
⎢⎛
x i σi ⎟ + ⎜ ∑ ∑ x i x jσij ⎟ ⎥
⎜
∑
⎢ ⎝ i =1
⎠ ⎜ i =1 j =1
⎟ ⎥⎥
⎢⎣
j≠ i
⎝
⎠⎦
0.5
and denote by γ:
γ = (R p − RF )
⎡N
⎤
σ = ⎢∑ xi (Ri − RF )⎥
⎣ i =1
⎦
2
p
⎤
⎡N
N N
⎢ x 2σ 2 +
xi x j σ ij ⎥⎥
∑∑
i
i
⎢∑
i =1 j =1
⎥⎦
⎢⎣ i =1
j ≠i
we have :
N
⎡
⎤
− ⎢γx k σ k2 − ∑ λx j σ kj ⎥ + (Rk − RF ) = 0
j =1
⎣
⎦
137
Hence, the partial derivative of F with respect to xi gives :
[
]
∂F ∂xi = − γxiσ 1i + γxiσ 2i + γxiσ 3i + K + γxiσ i2 + γx N −1σ N −1,i + γx N σ N ,i + (Ri − RF ) = 0
This can be written as :
(R
i
)
2
− R F = y1σ1i + y2σ2i + K + yiσi + K + y N −1σN −1, i + y NσN, i
( )
with yk = λ x k .
Since this equation is satisfied for each asset i, the following system must be :
(R
(R
(R
)
− R ) = yσ
− R ) = yσ
2
1
2
N
− R F = y1σ1 + y2σ21 + y3σ13 + K + y Nσ1N
F
F
2
1 12
+ y2σ2 + y3σ23 + K + y Nσ2N
2
1 1N
+ y 2σ2N + y3σ3N + K + y Nσ N
Since there are N equations and N unknowns, the optimal proportion to be invested in each
asset k, x k = yk
N
∑ y , is given by this system.
i =1
i
138
L’impact des caractéristiques des dirigeants sur la
croissance de l’emploi des P.M.E. : Etat de la
question et étude empirique*
Prof. Frank JANSSEN
Titulaire de la Chaire Brederode en développement de l’esprit d’entreprise
Université Catholique de Louvain
Institut d’Administration et de Gestion
1, Place des Doyens, 1348 Louvain-la-Neuve, Belgique
Tél. : +32 10 47 84 28 Fax : +32 10 47 83 24 Courriel : [email protected]
Résumé
L’étude de l’impact des caractéristiques du dirigeant sur la croissance de son entreprise a
donné lieu à de nombreuses recherches empiriques. Toutefois, la plupart de ces travaux se
sont concentrés sur l’analyse d’un ou d’un nombre réduit de prédicteurs. En outre, aucune
recherche n’a répertorié de manière exhaustive l’ensemble des variables précédemment
étudiées. Nous avons cherché à combler cette lacune et avons testé sur un échantillon de
P.M.E. belges l’influence potentielle sur la croissance de l’emploi de 28 variables. Nous
avons regroupé ces variables en 5 sous-catégories : les traits du dirigeant, son expertise et ses
origines familiales, ses motivations, ses caractéristiques démographiques et la présence d’une
équipe de dirigeants. Nos résultats montrent que la croissance de l’emploi au sein des P.M.E.
est uniquement influencée par certaines variables liées à deux sous-groupes, à savoir
l’expertise du dirigeant et ses caractéristiques démographiques. Ses caractéristiques
psychologiques, ses motivations et la présence d’une équipe de dirigeants n’exercent aucun
impact significatif sur les chances de croissance de l’emploi de l’échantillon de P.M.E. que
nous avons étudiées.
Abstract
Many empirical studies have been dedicated to the impact of the manager’s characteristics on
his firm’s growth. However, most of these studies have focused on one or a few predictors.
Besides, no research has exhaustively listed the variables studied in former studies. We have
tried to fill this gap and have tested on a sample of Belgian SMEs the potential impact on
employment growth of 28 variables. We have classified our variables in five sub-classes :
traits, expertise and family origins, motivations, demographic characteristics and the presence
of a team. Our results show that workforce growth is only influenced by variables belonging
to 2 sub-groups, i.e. expertise and demographic characteristics. The psychological
characteristics of the manager, his motivations and the presence of a team of managers have
no significant impact on the employment growth of the sample of SMEs we have studied.
*
Cette étude a été réalisée grâce au soutien financier de la BBL (Groupe ING)
139
Introduction
Depuis la publication en 1979 des travaux
de Birch, un nombre impressionnant
d’études a été consacré au rôle des P.M.E.
dans la création d’emploi. Les données et
la méthodologie utilisées par Birch (1979)
ont soulevé un certain nombre de critiques
(Armington et Odle, 1982). La plus
retentissante de ces critiques fut celle d’un
autre économiste américain, Bennett
Harrison (1997). Outre le fait que Birch
n’établirait pas de différence entre P.M.E.
et filiales de grandes entreprises, Harrison
estime que Birch n’aurait reconnu que
tardivement que la majeure partie des
emplois est créée par une infime partie des
entreprises, les entreprises en croissance.
Birch constate toutefois ce phénomène
dans un ouvrage paru en 1987. C’est
d’ailleurs lui qui est à l’origine du terme
« gazelles », communément utilisé pour
désigner les entreprises à forte croissance
(Birch, 1987).
Plusieurs études, tant européennes
qu’américaines, confirment ce phénomène.
Dans une étude portant sur l’ensemble de
ce qui était, à l’époque, encore appelé la
Communauté Economique Européenne,
Storey et Johnson (1987) constatent qu’en
12 ans, moins de 10 % des entreprises
créées au début de la période croissent audelà de 20 travailleurs et moins d’1 % de
celles-ci dépassent une taille de 100
salariés. Dans le même sens, une étude
récente de l’OCDE (1999) démontre que,
parmi les P.M.E. ayant entre 20 et 50036
employés en début de période, les
entreprises dont l’emploi a doublé durant
les dernières années ne représentent
qu’entre 2 % et 10 % des firmes pérennes,
mais ont généré
entre 48 %37 et 88
38
% des nouveaux emplois créés par ce type
de firmes en France, en Italie, aux PaysBas, en Espagne et au Québec. Ces
tendances sont confirmées par des études
36
Entre 10 et 500 pour le Québec
Italie
38
Espagne
37
portant sur l’Allemagne, la Grèce, et la
Suède (Julien, 2000), l’Irlande (O’Farrel,
1984), les Etats-Unis (Dunkelberg et
Cooper, 1982), le Canada (McMullan et
Vesper, 1987) ou certaines régions du
Royaume-Uni (Gallagher et Miller, 1991).
Les entreprises à forte croissance sont donc
relativement marginales (Deakins, 1996).
Selon Starbuck (1965), la croissance n’est
pas un phénomène spontané ni aléatoire,
mais bien la conséquence d’une décision :
la décision d’embaucher et/ou de ne pas
licencier, la décision d’accroître l’output
en réponse à un accroissement de la
demande ou encore la décision de stimuler
la demande. Il souligne que la croissance
peut être un objectif en soi. Elle peut
constituer un étalon de la réussite du
dirigeant et de l’entreprise, ainsi que des
« progrès » réalisés par cette dernière. La
majorité des dirigeants de P.M.E. n’intègre
toutefois pas la croissance parmi ses
objectifs (Kolvereid, 1992 ; Davidsson,
1989 ; Hakim, 1989 ; Gibb et Scott, 1986 ;
Chell, 1986). Au-delà d’une certaine taille,
parfois appelée « stade de confort » (Perry,
1987), il deviendra, par exemple,
impossible pour le dirigeant de contrôler
directement l’ensemble des tâches
effectuées au sein de l’entreprise.
La croissance a été mesurée sur base d’un
nombre impressionnant de variables, les
deux indicateurs les plus largement utilisés
par la littérature étant l’emploi et les
ventes. Nous avons choisi de limiter cette
communication à l’étude de la croissance
de l’emploi. Outre le fait qu’elle soit une
mesure de la croissance économique
(Kirchoff, 1991), pour l’entrepreneur, elle
peut constituer un indicateur de son succès
et, pour la société dans son ensemble, elle
est une mesure de la contribution
économique de la firme au bien-être
commun (Dunkelberg et Cooper, 1982).
C’est pourquoi ce critère a été utilisé par
de nombreux économistes et sociologues,
140
bien qu’au sein des entreprises-mêmes, il
semblerait que le succès soit plus mesuré
en termes de croissance des ventes
(Hughes, 1998 ; Donckels, 1990) et que ce
dernier critère ait été privilégié par les
chercheurs en sciences de gestion
(Weinzimmer, 1993). En outre, selon Child
(1973), l’emploi est un critère adéquat pour
mesurer la taille d’une organisation car ce
sont avant tout des humains qui sont
« organisés ». Enfin, dans la mesure où le
dirigeant attendra en principe que la
demande se stabilise avant de recruter du
personnel, l’emploi est théoriquement une
mesure moins volatile de la croissance que
le critère des ventes (Delmar, 1997). Dans
certains pays européens, comme la
Belgique, la stabilité de ce critère est
accrue par les rigidités présentes sur le
marché du travail liées à une législation
sociale contraignante.
La croissance est parfois considérée
comme la mesure de performance de
l’entreprise la plus importante, la plus
fiable et la plus facile d’accès (Wiklund,
1999 ; Delmar, 1997), bien que, étant
donné qu’une croissance mal gérée est
susceptible de conduire à la faillite, elle ne
puisse pas nécessairement être considérée
comme telle (St-Pierre, 1999).
La croissance étant un phénomène
complexe
et
multidimensionnel
(Weinzimmer, 1993), il va de soi qu’une
approche de type purement interne, se
limitant à l’impact des ressources et, en
particulier, aux déterminants liés au
dirigeant, néglige le potentiel de prédiction
des variables liées à l’entreprise, aux
stratégies développées, à l’environnement
et aux interactions entre ces différents
types de variables (Janssen, 2002).
Toutefois, dans le cadre restreint de cette
communication, nous avons choisi de nous
concentrer sur l’influence des facteurs
relatifs au dirigeant39.
Lorsqu’on les interroge sur les facteurs de
succès d’une firme, les sociétés de capital à
risque, les « business angels » et les
39
Pour l’analyse d’un modèle causal complet de la
croissance, voir Janssen, 2002
dirigeants eux-mêmes estiment que
l’entrepreneur est l’élément explicatif
principal de la performance d’une
entreprise (Herron et Robinson, 1993).
Cette opinion est partagée par certains
chercheurs tels que Sandberg (1986).
L’analyse des relations entre les
caractéristiques du dirigeant et la
croissance de son entreprise a déjà donné
lieu à de nombreuses études empiriques.
Toutefois, la grande majorité des
recherches sur la croissance s’est contentée
d’étudier l’impact d’un nombre limité de
variables. En outre, l’ancrage théorique de
la plupart de ces travaux est relativement
faible. Le concept-même de croissance n’y
est que rarement fondé théoriquement. Ces
recherches présentent un caractère
hautement fragmenté accentué par une trop
grande attention accordée au secteur
manufacturier, par une importante
hétérogénéité en termes de période de
temps étudiée et d’opérationalisation de la
mesure de la croissance. L’on peut en outre
regretter qu’à l’exception de scientifiques
suédois et surtout britanniques, peu de
chercheurs européens se soient intéressés à
cette problématique.
Plusieurs auteurs (Grinyer et al., 1988 ;
Miller Friesen, 1984) estiment qu’il est
nécessaire de tester simultanément
l’impact d’un grand nombre de variables
afin d’aboutir à une image plus complète et
réaliste du phénomène de croissance. A
notre connaissance, aucune recherche n’a
tenté de répertorier de manière exhaustive
l’ensemble des variables indépendantes
examinées par les études antérieures.Au
départ d’un « état de l’art » de la recherche
sur les déterminants de la croissance liés au
dirigeant, nous avons développé 28
hypothèses. Ces hypothèses reprennent
l’ensemble des déterminants que nous
avons identifiés au sein de la littérature sur
la croissance, ainsi qu’un certain nombre
d’hypothèses originales issues de travaux
théoriques.
Plutôt que de porter des jugements de
valeur sur l’importance relative de l’une ou
l’autre variable, qui nous auraient conduits
141
à ne retenir qu’un nombre plus limité
d’hypothèses, nous avons préféré tester
l’ensemble de celles-ci, certains travaux
empiriques récents ayant démontré
l’importance surprenante que peuvent
revêtir des facteurs qui, a priori, pourraient
sembler mineurs (voir, par exemple,
Gartner et Bhat, 2000).
Ces hypothèses ont été testées sur un
échantillon de P.M.E. belges. Les P.M.E.
étant souvent caractérisées par une
interpénétration entre les dirigeants et leur
firme (Janssen, 1998), le pouvoir de
décision stratégique y est fréquemment
concentré entre les mains du ou des
dirigeants
(Dromby,
2000).
Les
déterminants relatifs aux dirigeants sont
donc plus susceptibles d’avoir un impact
sur la croissance d’une P.M.E. que sur
celle d’une entreprise de plus grande taille.
C’est pourquoi nous avons limité notre
recherche à ce type d’entreprise.
I.
Les déterminants liés au dirigeant
d’entreprise
Nous avons classé les déterminants de la
croissance relatifs aux caractéristiques du
dirigeant en 5 groupes : les caractéristiques
psychologiques du dirigeant, son expertise
et son historique familial, ses motivations,
ses caractéristiques démographiques et la
présence d’une équipe de dirigeants.
A. Les caractéristiques
psychologiques
Les recherches sur le lien entre les
caractéristiques
psychologiques
du
dirigeant et la croissance de son entreprise
trouvent leur source dans des études
antérieures portant sur les « traits »40 qui
permettraient
de
différencier
les
entrepreneurs
des
autres
groupes
professionnels.
40
Les traits peuvent être définis comme étant les
caractéristiques durables de la personnalité qui se
manifestent par un comportement relativement
constant face à une grande variété de situations
(Herron et Robinson, 1993).
Ces recherches ont, par exemple, visé à
démontrer qu’une des caractéristiques
principales
du
comportement
entrepreneurial réside dans le besoin
d’accomplissement, c’est-à-dire le besoin
d’exceller et de réaliser un certain but dans
un objectif d’accomplissement personnel
(McClelland, 1961). A ce jour, il n’a
cependant pas été démontré qu’il existerait
une relation causale entre un important
besoin d’accomplissement et le fait de
diriger et posséder une entreprise
(Brockhaus, 1982). En ce qui concerne la
croissance, Murray et al. (1995) ont
constaté que les dirigeants d’une entreprise
en phase de croissance ont un besoin de
réalisation plus semblable à celui des
managers de grandes entreprises qu’à celui
des créateurs d’entreprises. Une étude de
Miller et Toulouse (1986) portant sur un
échantillon de 97 P.M.E. québécoises
n’observe aucun lien entre le besoin de
réalisation et la performance des
entreprises,
mesurée
à
la
fois
subjectivement
par
rapport
à
la
performance moyenne de l’industrie et
objectivement sous la forme de la
croissance des ventes, des revenus nets et
du ROI.
Une autre caractéristique psychologique
mise en avant par la recherche a trait au
lieu de contrôle du destin, concept issu
d’une théorie développée par Rotter dans
les
années
60
(Rotter,
1966).
L’entrepreneur aurait un lieu de contrôle
de son destin interne, c’est-à-dire qu’il
percevrait les conséquences de ses actions
comme dépendantes de son propre
comportement. Les travaux empiriques
visant à valider cette théorie n’ont toutefois
pu établir qu’une corrélation positive
modeste entre ce trait et l’entrepreneur
(Perry et al., 1986 ; Brockhaus, 1982) ou
ont conclu à une absence de relation entre
ces variables (Hull et al., 1980). Miller et
Toulouse (1986) observent toutefois une
relation positive entre ce trait et la
performance
de
l’entreprise,
mais
contingenté
en
fonction
de
l’environnement dans lequel se trouve la
firme. Kalleberg et Leicht (1991)
142
constatent, eux, une absence de lien entre
la croissance et le fait que l’entrepreneur
ait un lieu de contrôle de son destin
interne41.
De nombreuses recherches ont également
été menées afin de déterminer si la
propension à prendre des risques peut être
considérée
comme
l'une
des
caractéristiques
fondamentales
de
l'entrepreneur (Brockhaus, 1982). Force
est de constater que les auteurs sont loin
d’être unanimes quant à cette notion
(Timmons et al., 1985; Hull et al., 1980).
Gasse (1987) relève que certains la
rejettent purement et simplement, que
d’autres estiment que l’entrepreneur
prendrait des risques modérés, tandis que
d’autres encore estiment que la propension
à prendre des risques est l’essence même
de l’activité entrepreneuriale. En ce qui
concerne la croissance, Siegel et al. (1993)
constatent une absence de relation entre
cette dernière et la volonté de prise de
risques.
D’autres encore se sont penchés sur le lien
entre la croissance et la flexibilité du
caractère du dirigeant ou son QI (Delmar,
1996 ; Miller et Toulouse; 1986), sans
aboutir à des résultats tranchés.
L’analyse des traits de l’entrepreneur a
donné lieu à des résultats équivoques ne
permettant pas d’isoler avec certitude les
caractéristiques
psychologiques
qui
permettraient
de
distinguer
les
entrepreneurs susceptibles de mieux réussir
que les autres (Chell, 1985). De même, les
recherches relatives à l’impact des traits de
personnalité sur la croissance n’ont, à ce
jour, pas révélé de relation significative
entre ces variables (Snuif et Zwart, 1994).
Delmar (1996) souligne que ces traits ne
permettent d’expliquer qu’une partie
mineure des différences de performance
41
Un sentiment de confiance globale dans le chef du
dirigeant semble également stimuler la croissance,
au contraire d’une volonté de sécurité et de
protection (Ivanaj et Géhin, 1997). Une étude plus
ancienne observe toutefois une absence d’influence
sur la croissance du degré de confiance exprimé par
le dirigeant (Kalleberg et Leicht, 1991).
entre entreprises. Cet auteur attribue le
caractère décevant de ces résultats à des
problèmes
tant
théoriques
que
méthodologiques.
Premièrement,
les
tenants de cette école n’ont pas été
capables d’aboutir à un consensus quant à
l’importance des nombreux traits étudiés,
ni quant à la façon dont ils varient en
fonction des situations. Deuxièmement, ces
chercheurs postulent généralement que les
caractéristiques de l’entrepreneur et de son
environnement
sont
stables.
Or,
l’environnement est changeant et les traits
seuls ne permettent pas d’expliquer un
comportement entrepreneurial. Enfin, les
méthodologies utilisées sont dépassées au
vu de la psychologie moderne. Ainsi, par
exemple, la personnalité d’un individu
n’est
plus
mesurée
de
manière
unidimensionnelle.
La recherche de Miller et Toulouse (1986)
ayant toutefois conclu à une relation ténue,
mais positive, entre la performance et un
lieu de contrôle du destin interne, nous
retiendrons cette variable et testerons
l’hypothèse suivante :
Hypothèse 1 : la croissance est
positivement influencée par un lieu
de contrôle du destin interne dans le
chef du dirigeant
B. L’expertise du dirigeant et son
historique familial
En dehors des traits, les chercheurs en
entrepreneuriat ont étudié d’autres facteurs
incubateurs
du
comportement
entrepreneurial chez un individu, tels que
l'expérience professionnelle, le système
scolaire ou le contexte familial. Au-delà de
son influence sur l’entrepreneuriat au sens
large, de nombreux auteurs se sont attachés
à rechercher l’impact de l’expertise du
dirigeant sur le développement de son
entreprise.
Cette expertise du dirigeant peut résulter
d’une expérience fonctionnelle antérieure,
d’une expérience de création d’entreprise
ou en tant qu’indépendant, d’une
143
connaissance du secteur dans lequel opère
l’entreprise, ou provenir de connaissances
acquises dans le cadre de ses études ou au
sein de sa famille.
Hypothèse 2 : la croissance est
positivement influencée par une
expérience
antérieure
de
management ou de supervision
Selon Gasse (1982), l’impact de
l’expérience de l’entrepreneur peut être
positif ou négatif. L’expérience peut aider
le dirigeant à éviter ou à solutionner plus
facilement des problèmes rencontrés
antérieurement. Elle pourrait toutefois
également inhiber sa créativité et son degré
d’adaptabilité en le poussant à se
raccrocher à des solutions ayant fait leurs
preuves dans le passé. Or, un style de
management conservateur, qui se limite
aux
produits
et
aux
approches
managériales qui ont déjà fait leur preuve,
inhibe la croissance (Grinyer et al., 1988).
Hypothèse 3 : la croissance est
positivement influencée par une
expérience antérieure dans le
domaine du marketing, de la vente
ou de la R&D
L’expérience fonctionnelle antérieure
permet en principe le développement d’une
expertise susceptible de favoriser la
croissance. Il ressort de certaines études
empiriques qu’une expérience antérieure
de management (Storey et al., 1989) ou de
supervision (Dunkelberg et Cooper, 1982)
a un impact positif sur la croissance de
l’entreprise. Une expérience antérieure
dans le domaine du marketing semble
également stimuler la croissance (Storey,
1994). Des fonctions liées à l’output, c’està-dire dans le domaine du marketing, de la
vente ou de la R&D sont, en effet,
supposées mettre l’accent sur la croissance
(Hambrick et Mason, 1984). Nous
présumons que le fait que le dirigeant ait
précédemment
travaillé
dans
la
consultance lui procure également une
certaine expertise dans un grand nombre de
domaines
de
gestion
susceptible
d’accroître le développement de son
entreprise. Par contre, le fait que le
dirigeant
soit
issu
d’un
institut
d’enseignement supérieur semble inhiber
la croissance (Westhead, 1995). Bien que
l’influence de l’expérience fonctionnelle
antérieure ne soit pas confirmée par
l’ensemble des chercheurs (Brush et
Changati, 1998;
Dunkelberg et
Cooper,
1982),
nous
formulons
l’hypothèse d’un lien positif entre ces
variables.
Hypothèse 4 : la croissance est
positivement influencée par une
expérience antérieure dans le
domaine de la consultance
Hypothèse 5 : la croissance est
négativement influencée par une
expérience antérieure au sein d’un
institut d’enseignement supérieur
La taille de l’entreprise dans laquelle était
exercé l’emploi précédent peut également
avoir un impact sur la croissance. Le fait
d’avoir travaillé au sein d’une entreprise
d’une certaine taille a pu permettre au
dirigeant de se familiariser avec des
techniques de gestion propices à la
croissance. Westhead et Birley (1995)
observent une relation positive entre le fait
que le dirigeant ait précédemment travaillé
dans une grande entreprise et la croissance.
Plusieurs auteurs relèvent que les
fondateurs de sociétés de haute technologie
à forte croissance sont fréquemment issus
de grandes entreprises, voire de sociétés
cotées (Feeser et Willard, 1989 ; Cooper et
Bruno, 1977). L’étude de Dunkelberg et
Cooper (1982), par contre, constate que la
taille de l’entreprise dans laquelle le
dirigeant était précédemment employé ne
semble pas exercer d’influence sur la
croissance, si ce n’est si le dirigeant
travaillait dans une entreprise de moins de
100 personnes, auquel cas l’influence sur
la croissance est négative. Cette étude étant
relativement isolée, nous émettons
l’hypothèse d’une relation positive :
144
Hypothèse 6 : la croissance est
positivement influencée par le fait
que le dirigeant ait une expérience
antérieure dans une grande
entreprise
Certains auteurs se sont interrogés sur
l’influence du fait que le dirigeant ait déjà
une expérience de création d’entreprise
(Dahlqvist et al., 1999). Ces auteurs
observent une influence positive de cette
variable sur la croissance. D’autres études,
par contre, ne détectent aucun impact
d’une expérience de création d’entreprise
antérieure dans le chef du dirigeant (Brush
et Changati, 1998 ; Siegel et al., 1993). Ces
recherches constatent également que le
nombre
d’années
d’expérience
professionnelle au sens large n’est pas
déterminant pour la croissance. Dans le
même ordre d’idées, il n’y aurait aucun
lien entre le fait de posséder une
expérience
antérieure
en
tant
qu’indépendant et la croissance (Kalleberg
et Leicht, 1991). Afin de confirmer ou
d’infirmer ces conclusions, nous testerons
l’hypothèse d’une relation positive :
Hypothèse 7 : la croissance est
positivement influencée par une
expérience antérieure de création
d’entreprise
Hypothèse 8 : la croissance est
positivement influencée par une
expérience antérieure en tant
qu’indépendant
Hypothèse 9 : la croissance est
positivement influencée par le
nombre
d’années d’expérience
professionnelle antérieure à la
création de l’entreprise
Une expertise sectorielle peut également
revêtir une certaine importance. Siegel et
al. (1993) constatent que la connaissance
du secteur a un impact positif important sur
la croissance. Des études comparatives
entre des sociétés de haute technologie à
forte croissance et des sociétés du même
secteur ayant quitté le marché ou connu
une croissance plus lente montrent aussi
que les premières sont plus susceptibles
d’utiliser la même technologie et de
desservir les mêmes marchés que les
entreprises dont sont issus les créateurs
(Feeser et Willard, 1990 ; Feeser et
Willard, 1989 ; Cooper et Bruno, 1977).
Dunkelberg et Cooper (1982) constatent
que le fait de produire le même produit ou
de fournir le même service que durant
l’emploi précédent a une influence positive
sur la croissance. Bien que deux autres
recherches concluent à une absence de lien
entre l’expérience sectorielle et la
croissance (Brush et Changati, 1998 ;
Kalleberg et Leicht, 1991), nous testerons
donc l’hypothèse d’un lien positif :
Hypothèse 10 : la croissance est
positivement influencée par une
expérience antérieure à la création
d’entreprise au sein du même
secteur
La relation entre le nombre d’entreprises
possédées et/ou dirigées par le dirigeant et
la croissance a également donné lieu à
certaines recherches. Selon Storey (1994),
de
nombreux
propriétaires-dirigeants
posséderaient plus d’une entreprise. La
multicréation constitue en fait un mode
particulier de croissance. Westhead (1995)
observe que le fait qu’un dirigeant possède
et/ou dirige plus d’une entreprise a un
impact négatif sur la croissance de
l’entreprise isolée. Cet impact négatif peut
être dû au fait qu’il consacre moins de
temps à cette dernière s’il possède
plusieurs entreprises. Une étude américaine
confirme cette relation, mais uniquement
pour les entreprises dirigées par des
femmes (Kalleberg et Leicht, 1991)42.
Nous émettons donc l’hypothèse d’une
influence négative sur la croissance :
Hypothèse 11 : la croissance d’une
entreprise
particulière
est
négativement influencée par le fait
que le dirigeant possède plusieurs
entreprises
42
Cette variable serait sans effet sur la croissance
des firmes dirigées par des hommes.
145
Le fait que, lors de la création, le dirigeant
ne se consacre pas de manière permanente
à la nouvelle entreprise pourrait influencer
positivement sa croissance ultérieure. En
effet, selon Storey (1994c), un tel dirigeant
a eu la possibilité d’évaluer ses qualités
entrepreneuriales de manière peu risquée.
Cette formule peut donc être considérée
comme une forme d’apprentissage.
direct avec les activités de l’entreprise, une
formation en gestion d’entreprise ou une
formation à la création d’entreprise44
contribuent au développement de celle-ci.
Hypothèse 14 : la croissance est
positivement influencée par le
niveau d’éducation du dirigeant
Hypothèse 15 : la croissance est
positivement influencée par le fait
que le dirigeant ait suivi des études
ayant un lien avec l’activité de
l’entreprise
Hypothèse 12 : la croissance est
positivement influencée par le fait que,
lors de la création de l’entreprise, le
dirigeant ait exercé d’autres activités
Etrangement, l’impact d’un premier échec
entrepreneurial sur la croissance d’une
seconde entreprise créée par le même
dirigeant n’a, à notre connaissance, pas été
testé empiriquement. Pour des raisons liées
à une perception négative de cette
expérience ou à une prise de conscience
des limites de ses aptitudes managériales
dans le chef du dirigeant, on pourrait
penser que ce facteur devrait influencer
négativement la croissance. Inversement,
cet échec pourrait également constituer un
facteur d’apprentissage propice au
développement d’aptitudes stimulant la
croissance. Nous supposons toutefois que
l’aspect inhibiteur prédominera.
Hypothèse 16 : la croissance est
positivement influencée par une
formation en gestion
Hypothèse 17 : la croissance est
positivement influencée par une
participation à une formation à la
création d’entreprise
De nombreuses recherches constatent que
le niveau d’éducation du dirigeant a un
impact positif sur la croissance (Julien,
2000 ; Hall, 1995 ; Westhead, 1995 ;
Storey et al., 1989 ; Dunkelberg et Cooper,
1982)43. Le fait que le dirigeant soit
détenteur
d’un
diplôme
d’études
supérieures,
voire
de
diplômes
complémentaires, semble stimuler la
croissance de son entreprise. On peut
également supposer que le type d’études
poursuivies aura un impact sur la
croissance. Nous émettons donc, en outre,
l’hypothèse que des études ayant un lien
Curieusement, l’impact de l’historique
familial sur la croissance n’a retenu
l’attention que de peu de chercheurs.
Pourtant, l’hypothèse de l’influence d’un
héritage
intergénérationnel
sur
l’entrepreneuriat et, plus particulièrement
sur la création d’entreprise, est loin d’être
neuve (voir Bolton, 1971). Certaines
études constatent que plus de 50 % des
entrepreneurs ont un parent entrepreneur
lui-même (Gasse, 1987). En ce qui
concerne la croissance, on pourrait
supposer qu’un dirigeant issu d’une famille
comptant un ou plusieurs propriétairesdirigeants bénéficiera de l’expérience de
ceux-ci et pourra compter sur un
financement familial. En conséquence, on
peut émettre l’hypothèse que cette variable
influencera positivement la croissance
(Storey, 1994). Julien (2000) observe
effectivement un lien positif entre une
origine familiale entrepreneuriale et la
croissance. À l’inverse, la famille pourrait
freiner la croissance de manière à ne pas
perdre le contrôle de l’entreprise ou à
éviter une prise de risques trop importante
(Gibb et Davies, 1990). Nous supposons
43
44
Hypothèse 13 : la croissance est
négativement influencée par un
échec entrepreneurial antérieur
Brush et Chaganti (1998) observent toutefois
une absence de lien.
Bien que Dahlqvist et al. (1999) constatent
une absence de lien entre des deux variables.
146
toutefois
que
prédominera :
le
premier
aspect
Hypothèse 18 : la croissance est
positivement influencée par une
origine familiale entrepreneuriale
Enfin, plusieurs auteurs ont examiné la
relation entre le type de lien unissant le
dirigeant au fondateur de l’entreprise,
d’une part, et la croissance, d’autre part.
Dunkelberg et Cooper (1982) observent
que les firmes qui ont à leur tête un
dirigeant ayant succédé au fondateur
croissent moins que celles qui sont
toujours dirigées par la première
génération. Selon ces auteurs, ce
phénomène pourrait être dû au fait que les
dirigeants de la seconde génération ne sont
pas caractérisés par la même volonté de
réalisation que leurs aînés. Une étude
européenne constate également un lien
positif entre le fait qu’une entreprise soit
dirigée par son créateur et sa croissance
(Delmar, 1997). Dans le même ordre
d’idées, McCarthy et al. (1993) montrent
que la croissance des actifs des entreprises
dirigées par leur créateur est plus
importante que celles d’autres entreprises.
Par ailleurs, l‘étude de Dunkelberg et
Cooper (1982) constate que les firmes
dirigées par des dirigeants externes ont
généralement un taux de croissance assez
important.
Ces
dirigeants
sont
vraisemblablement
des
managers
professionnels. Il est généralement admis
que les entreprises à forte croissance
doivent faire face à une série de problèmes,
comme des problèmes de délégation ou de
« leadership », requérant des qualités
managériales que le fondateur ne possède
pas nécessairement (Willard et al., 1992 ;
Hambrick et Crozier, 1985). Ces dirigeants
externes sont, en principe, moins enclins à
conserver un statu quo. Willard et al.
(1992) ont comparé les performances d’un
échantillon
d’entreprises
de
haute
technologie à forte croissance dirigées par
leur fondateur à celles d’entreprises du
même type gérées par des managers
professionnels externes. Ils n’observent
toutefois aucune différence significative
entre les performances des deux catégories
de firmes. Une étude multisectorielle
suédoise aboutit à la même conclusion
(Delmar, 1999). Sur base des résultats
antérieurs, nous testerons les deux
hypothèses suivantes :
Hypothèse 19 : la croissance est
positivement influencée par le fait
que l’entreprise soit dirigée par un
manager externe plutôt que par son
créateur
Hypothèse 20 : la croissance est
négativement influencée par le fait
que l’entreprise ait à sa tête un
dirigeant familial ayant succédé au
fondateur
C. Les motivations
Selon Delmar (1996), les motivations du
dirigeant sont des déterminants importants
de la croissance. Ces motivations peuvent
être du type « pull » ou « push ». Les
motivations de type « pull » sont des
facteurs intrinsèques que le dirigeant
contrôle, tandis que les motivations
« push » sont des facteurs extrinsèques sur
lesquels le dirigeant n’a que peu d’emprise
(Walker et al., 1999).
Plusieurs recherches révèlent l’existence
d’un lien positif entre la croissance de
l’entreprise et la présence d’une motivation
de type « pull » ou « positive » dans le chef
du dirigeant au moment de la création, telle
que la perception d’une opportunité de
marché (Storey et al., 1989 ; Kalleberg et
Leicht, 1991), la réalisation personnelle ou
la recherche d’un certain statut social
(Stratos Group, 1990 ; Kolvereid, 1991).
Par contre, la croissance ne serait pas
influencée par des motivations pécuniaires
(Davidsson, 1989). Julien (2000) observe
toutefois que des objectifs de profit et de
réalisation d’un défi favorisent une
croissance
plus
forte.
Plus
fondamentalement, une motivation de
croissance dans le chef du dirigeant semble
stimuler la croissance réelle de l’entreprise
(Delmar, 1999). De rares études concluent
cependant à une absence de lien entre les
147
variables motivationnelles et la croissance
(Dahlqvist et al., 1999 ; Brush et Changati,
1998). Dans la mesure où la majorité des
études observe un lien positif entre la
croissance et des motivations du type
« pull », nous émettons l’hypothèse
suivante :
Hypothèse 21 : la croissance est
positivement
influencée
par
des
motivations de type « pull » dans le chef
du dirigeant au moment de la création,
telles que la perception d’une
opportunité de marché, la réalisation
d’un défi, la réalisation personnelle,
l’indépendance, l’amélioration du statut
social, la recherche du profit ou un
objectif de croissance
Selon certains auteurs, les perspectives de
croissance sont moins importantes au sein
d’une entreprise créée au départ d’une
motivation de type « push », ou
« négative », telle qu’une situation de
chômage (Storey, 1994b ; Wynarczyk et
al., 1993). On peut supposer que celle-ci
devrait résulter en une perte de contacts
professionnels
ainsi
qu’en
une
détérioration des aptitudes professionnelles
(Dahlqvist et al., 1999). Logiquement, il
devrait en aller de même en cas de création
d’entreprise suite à une expérience
professionnelle
antérieure
peu
satisfaisante. Pourtant, dans une étude
empirique comparant des entrepreneurs à
succès à des entrepreneurs ayant échoué,
Brockhaus (1980) constate que les
premiers expriment un mécontentement
plus important que les seconds par rapport
à leur emploi antérieur. Comme le note cet
auteur, ce phénomène pourrait être lié au
fait que ces entrepreneurs aient été plus
motivés à développer une activité à succès
afin de ne pas devoir réintégrer leur
ancienne fonction ou un emploi similaire.
Elle pourrait également être le résultat
d’une dissonance cognitive, c’est-à-dire le
désir de rendre congruents des faits
apparemment contradictoires. L’étude de
Dunkelberg et Cooper (1982) n’observe
aucun lien significatif entre les raisons
pour lesquelles le dirigeant a quitté son
emploi précédent ou ses objectifs et la
croissance. Une étude suédoise constate
que la motivation de type « push » liée au
chômage n’affecte pas la performance de
la firme (Dahlqvist et al., 1999). Plusieurs
études constatant un lien négatif, nous
formulons l’hypothèse suivante :
Hypothèse 22 : la croissance est
négativement influencée par des
motivations de type « push » dans le
chef du dirigeant au moment de la
création, telles qu’une situation
antérieure de chômage ou une
expérience
professionnelle
antérieure peu satisfaisante
D. Les variables démographiques
Des variables démographiques, comme
l’âge et le sexe de l’entrepreneur ou
son appartenance à une minorité ethnique,
ont également donné lieu à certaines
recherches.
L’âge est généralement associé à un
comportement plus conservateur supposé
exercer un impact négatif sur les
performances de l’entreprise pour trois
raisons (Hambrick et Mason, 1984).
Premièrement, un dirigeant plus âgé est en
principe moins enclin à adopter un
comportement novateur ou à adhérer à une
idée nouvelle. Deuxièmement, un tel
dirigeant serait plus attaché à un certain
statu quo organisationnel. Enfin, des
objectifs de sécurité salariale et
professionnelle
engendrent
un
comportement plus prudent. Un dirigeant
plus jeune serait par contre plus enclin à
prendre des risques (Hambrick et Mason,
1984). Dans le même sens, certains
constatent que des valeurs, c’est-à-dire des
principes guidant la vie d’un individu,
telles que le conformisme et la tradition ont
un impact négatif sur les performances de
l’entreprise (Delmar, 1996).
Plusieurs
études
(Delmar,
1997 ;
Weinzimmer, 1993 ; Dunkelberg et
Cooper, 1982) observent effectivement un
impact négatif de l’âge du dirigeant ou de
l’âge moyen de l’équipe de dirigeants sur
148
la croissance. Notre hypothèse va donc
également dans ce sens :
E. La présence d’une équipe de
dirigeants
Hypothèse 23 : la croissance est
négativement influencée par l’âge
du ou des dirigeant(s)
Selon Vesper (1990), la présence d’une
équipe de dirigeants signifie une quantité
de travail plus importante, ainsi qu’une
plus grande variété et un plus grand
équilibre d’aptitudes et de ressources
susceptibles de déboucher sur des
synergies. Chaque dirigeant apportera sa
propre expertise. Cela permet également de
partager les risques. De plus, Vesper
souligne que, dans ce cas, l’entreprise peut
se permettre de croître de manière plus
importante qu’une entreprise dirigée par
une seule personne avant de devoir faire
appel à des managers extérieurs. En outre,
le fait que le fondateur initial ait rassemblé
une équipe autour de lui constitue un signal
de sa capacité à attirer et à gérer d’autres
personnes, tandis qu’une incapacité ou une
réticence à constituer une équipe pourrait,
aux yeux d’investisseurs potentiels, être
symptomatique d’une absence des qualités
managériales requises pour croître. Enfin,
Vesper estime que le recrutement des
membres de l’équipe dirigeante peut mener
à une première évaluation de l’idée à la
base de la création de l’entreprise et de son
potentiel de succès. Toutefois, la présence
de plusieurs dirigeants risque également de
ralentir le processus décisionnel (Feeser et
Willard, 1990).
Le sexe et l’ethnicité peuvent contribuer à
déterminer les opportunités d’emploi et
d’accès à des réseaux professionnels d’un
individu (Dahlqvist, 1999). Les femmes
qui se lancent dans une carrière
d’indépendant, par exemple, seraient
désavantagées par rapport aux hommes par
l’existence de barrières liées à l’éducation,
à la pression familiale et à l’environnement
professionnel (Kalleberg et Leicht, 1991).
En outre, une femme dont le comportement
s’éloignerait des normes de comportement
socialement acceptées en fonction du sexe
d’un
individu
s’expose
à
une
désapprobation sociale, tandis qu’un
comportement
anticonformiste
ou
innovateur est toléré, voire encouragé chez
les hommes (Papalia et Olds, 1981). Une
étude menée par Dahlqvist et al. (1999) sur
les entreprises nouvellement créées en
Suède observe un lien négatif entre le fait
que l’entrepreneur soit de sexe féminin et
la croissance. Cette étude constate
également que le fait que l’entrepreneur
soit une personne immigrée influence
négativement la croissance. D’autres
études, par contre, n’observent aucun lien
significatif entre le sexe du dirigeant et la
croissance (Delmar, 1999). De même, une
étude portant spécifiquement sur la survie
et les performances comparées des
entreprises dirigées par des hommes ou des
femmes conclut à une absence quasiment
générale de différences (Kallleberg et
Leicht, 1991). Sur base des arguments
théoriques, nous émettons toutefois
l’hypothèse d’un lien négatif
Hypothèse 24 : la croissance est
négativement influencée par le fait
que le dirigeant soit de sexe féminin
Hypothèse 25 : la croissance est
négativement influencée par le fait
que le dirigeant soit une personne
immigrée
Plusieurs études montrent que les
entreprises créées et possédées par
plusieurs personnes sont plus enclines à
croître que les entreprises n’ayant qu’un
seul propriétaire (Siegel et al., 1993 ;
Weinzimmer, 1993 ; Feeser et Willard,
1990 ; Dunkelberg et al., 1987 ; Woo et al.,
1989). Par ailleurs, il semblerait également
que les entreprises de haute technologie à
forte croissance aient généralement été
fondées par plusieurs personnes (Cooper et
Bruno, 1977). Une étude observe toutefois
une absence de lien entre le fait qu’une
entreprise ait plus d’un propriétaire et les
décisions de réinvestissement, mesurées
par la croissance des actifs (McCarthy et
al., 1993). Cette étude étant isolée, nous
émettons l’hypothèse d’un lien positif :
149
Hypothèse 26 : la croissance est
positivement influencée par le fait
que l’entreprise soit dirigée par une
équipe
Au-delà de la taille du groupe de dirigeants
à proprement parler, l’hétérogénéité du
groupe, en termes d’expérience sectorielle
et/ou fonctionnelle des dirigeants, a
également fait l’objet de plusieurs études.
L’homogénéité est susceptible de mener à
un phénomène appelé « pensée de groupe »
(Eisenhardt et Schoonhoven, 1990) c’est-àdire une détérioration du processus
décisionnel entraînée par un désir trop
important d’unanimité au sein du groupe
(Kreitner
et
Kinicki,
1992).
L’hétérogénéité est toutefois également
susceptible de provoquer des crises au sein
de l’équipe et, par conséquent, de
compliquer la mise en œuvre des décisions
(Ensley et al., 1998). Einsenhardt et
Schoonhoven (1990) observent un impact
positif de l’hétérogénéité des expériences
sectorielles antérieures des membres de
l’équipe dirigeante sur la croissance. De
même, Weinzimmer (1993) constate
qu’une
hétérogénéité,
à
la
fois
fonctionnelle et sectorielle, influence
positivement la croissance. Bien qu’une
étude isolée observe un impact négatif de
l’hétérogénéité en termes d’expérience
sectorielle, fonctionnelle et de formation
sur la croissance et la performance (Ensley
et al., 1998), nous formulons donc
l’hypothèse d’un lien positif entre cette
hétérogénéité et la croissance :
Hypothèse 27 : la croissance est
positivement influencée par le fait que
l’entreprise soit dirigée par une équipe
hétérogène en termes d’expérience
fonctionnelle,
sectorielle
et/ou
de
formation
Une expérience de travail antérieure
commune est également susceptible
d’accélérer le processus décisionnel. Cette
expérience
commune
permettrait
d’accroître l’efficacité du processus
décisionnel (Eisenhardt et Schoonhoven,
1990). Cette hypothèse a été confirmée
empiriquement
(Eisenhardt
et
Schoonhoven, 1990). Nous formulons
donc une hypothèse identique :
Hypothèse 28 : la croissance est
positivement influencée par le fait que
l’entreprise soit dirigée par une équipe de
personnes dont certains membres ont une
expérience
de
travail
antérieure
commune.
II.
Méthodologie
A. Population,
représentativité
échantillon
et
Pour déterminer la population de P.M.E. à
analyser, au départ d’une base de données,
constituée par la BBL, reprenant toutes les
entreprises établies en Belgique ayant
déposé leurs comptes annuels à la Centrale
des Bilans de la Banque Nationale, nous
avons retenu toutes les entreprises actives
sur l’ensemble de la période étudiée (de
1994 à 2000), pour lesquelles nous
disposons de données en termes d’emploi
pour 1994 et 2000 et qui, en 1994,
correspondaient à la définition de la P.M.E.
donnée par la Commission de l’Union
Européenne45. Dans la mesure où, en
45
Selon la Recommandation de la Commission du
3 avril 1996 (JOCE, L 107/4, 1996), doivent être
considérées comme P.M.E., les entreprises :
- employant moins de 250 personnes ; le nombre de
personnes employées correspond au nombre
d'unités de travail-année.
- dont, soit le chiffre d'affaires n'excède pas 40
millions EUR., soit le total du bilan annuel n'excède
pas 27 millions EUR.
- qui respectent un critère d'indépendance. Sont
considérées comme indépendantes, les entreprises
qui ne sont pas détenues à hauteur de 25 % ou plus
du capital ou des droits de vote par une ou plusieurs
grandes entreprises. Nous n’avons pas utilisé ce
critère dans la mesure où l’une de nos hypothèses
présupposait que le fait qu’une entreprise soit
dépendante d’une autre entreprise influencera
positivement la croissance de la première.
La Commission établit également une distinction
entre entreprises moyennes, petites entreprises et
micro-entreprises. La petite entreprise est celle qui
emploie moins de 50 personnes, qui respecte le
critère d'indépendance défini ci-dessus et dont, soit
le chiffre d'affaires annuel n'excède pas 7 millions
d'EUR., soit le total du bilan annuel n'excède pas 5
150
Belgique, de nombreuses entreprises sont
créées pour des raisons purement
fiscales46et n’exercent pas réellement
d’activités, nous avons éliminé les
entreprises déjà actives en 1994, mais qui
emploient toujours moins de 5 personnes
en 2000.
Sur base de ces critères, la population était
composée de 11.481 entreprises. Nous
avons sélectionné aléatoirement 788
entreprises, tout en veillant à avoir des
proportions d’entreprises de très petite
taille (moins de 10 personnes), de petite
taille (entre 10 et 49 personnes) et de taille
moyenne (entre 50 et 249 personnes)
identiques à celles de la population totale.
De manière à permettre une analyse
dynamique, ce critère de taille était vérifié
au début de la période étudiée, soit en
1994. Nous avons également conservé des
proportions d’entreprises issues des trois
régions du pays (Flandres, Wallonie,
Bruxelles) identiques à celles de la
population.
Parmi les 788 entreprises, 331 ont refusé
de participer à l’enquête et 186 n’étaient
pas disponibles durant la période des
interviews. Pour 121 autres entreprises, le
numéro de téléphone contenu dans la base
de données était erroné ou correspondait à
un numéro de fax. Notre étude a donc porté
sur un échantillon de 150 entreprises47.
la moyenne de croissance48 des entreprises
de l’échantillon à celle des entreprises de la
population49 sur base d’un test t bilatéral.
L’une des conditions d’application soustendant ce test sur deux échantillons
indépendants est l’homogénéité des
variances (Howell, 1998). Nous avons
donc préalablement testé l’homogénéité
des variances à l’aide du test de Levene.
Après avoir constaté que les variances ne
sont pas significativement différentes (F =
1,476 et sign. = 0,224), nous avons testé la
différence entre les moyennes de la
croissance de l’emploi des deux groupes.
Les résultats du test t bilatéral (t = -0,823 ;
d.l. = 11.479 ; sign. = 0,411) indiquent que
la moyenne de croissance de l’emploi des
entreprises de notre échantillon n’est pas
significativement différente de celle des
entreprises de la population.
Notre échantillon ayant été constitué sur
base de contraintes de taille et
d’appartenance régionale issues des
caractéristiques de la population, il n’est
plus
nécessaire
d’examiner
la
représentativité de l’échantillon par rapport
à la population relativement à ces deux
critères. Enfin, nous avons également
examiné les pourcentages d’entreprises
indépendantes au sein de la population et
de l’échantillon. Ceux-ci sont également
identiques (66,7%). Ces éléments de
comparaison ont été choisis car ils figurent
dans la base de données.
Afin de déterminer la représentativité de
notre échantillon par rapport à la
population originale, nous avons comparé
millions d'EUR. Est considérée comme microentreprise, celle qui emploie moins de 10 salariés.
46
Le régime fiscal des sociétés est, en effet, plus
avantageux que le régime des personnes physiques.
47
Selon Harris (1985), la taille de l’échantillon doit
excéder le nombre de prédicteurs d’au moins 50.
Un échantillon de 150 observations respecte donc
cette règle. Selon d’autres auteurs (Bernard, 1999),
il faudrait un minimum de 10 observations par
prédicteur. Harris (1985) souligne que ce principe
ne repose sur aucune preuve empirique. D’autres
suggèrent des règles plus libérales que celle
d’Harris et estiment que le nombre d’observations
ne doit excéder le nombre de variables que de 40
(voir Howell, 1998).
B. Méthode de collecte des données
et mesure de la variable dépendante
Les données publiées par les entreprises ne
permettent pas de tester la très grande
majorité des hypothèses développées dans
notre recherche. A cet effet, nous avons
opté pour une enquête téléphonique50.
48
Pour la mesure de celle-ci, voir le point 3.2.
Dont nous avons préalablement retiré les
entreprises appartenant à l’échantillon interrogé.
50
Le grand avantage de cette méthode par rapport
aux enquêtes personnelles et par correspondance est
sa rapidité d’exécution. En comparaison avec un
entretien personnel, elle présente en outre un risque
plus faible de biais lié à la personne de l’enquêteur
49
151
Nous avons préalablement établi un
questionnaire constitué de questions
fermées que nous avons pré-testé auprès de
plusieurs dirigeants d’entreprises. Les
dirigeants de 150 P.M.E. ont été
interviewés téléphoniquement au mois de
novembre 2001.
La valeur de la variable dépendante a été
recueillie au départ de la base de données.
Le choix d’un indice approprié de mesure
de la croissance a donné lieu à de
nombreuses
discussions
théoriques
(Wooden et Hawke; 2000; OCDE, 1998;
Birch, 1986). Aucun indice n’étant neutre
(Julien et al., 1998), nous avons opté pour
une mesure simple, à savoir la variation
relative « (Et - Et-1) / Et-1) », celle-ci étant
l’indice le plus fréquemment utilisé dans
les études sur les déterminants de la
croissance (Delmar, 1997).
Afin d’effectuer une régression logistique
(voir infra), ces variables dépendantes ont
été dichotomisées en « forte croissance »
(encodée 1) et « faible croissance,
stagnation ou régression » (encodée 0).
Nous avons défini la « forte croissance »
comme une croissance supérieure ou égale
à 50 % sur la période étudiée. 34,3 %. des
entreprises de notre échantillon peuvent
être considérées comme ayant connu une
forte croissance.
Les études antérieures diffèrent fortement
en termes de période de temps étudiée.
Afin d’identifier des tendances irrégulières
de court terme et de permettre une
estimation fiable des performances
organisationnelles (Weinzimmer et al.,
1998), le période de temps étudiée devrait
être d’au moins 5 ans. Sur base des
contraintes de notre base de données, nous
avons mesuré la croissance sur une période
de 7 ans s’étendant de 1994 à 2000.
De manière à éviter des mesures statiques,
alors que la croissance est un phénomène
dynamique par essence, nous avons exclu
(Lambin, 1990). Enfin, elle permet l’encodage
immédiat des réponses, ce qui réduit les risques
d’erreur.
les entreprises créées durant la période
étudiée.
C. Traitement des données
Afin de tester nos hypothèses, nous avons
réalisé une régression logistique binomiale
à l’aide du logiciel SPSS. Cette méthode
présente certains avantages par rapport à la
régression multiple standard qui est
soumise à des conditions d’application plus
restrictives (Garson, 2001 ; Howell,
1998)51. Parmi ces avantages, on peut
notamment citer le fait que, contrairement
à la régression standard, la régression
logistique ne présuppose pas une relation
linéaire entre la variable dépendante et les
variables indépendantes, et ne requiert pas
une distribution normale des variables. Or,
nous avons constaté que notre variable
dépendante ne présentait pas une
distribution normale. La régression
logistique permet en outre d’intégrer au
sein d’un même modèle des prédicteurs de
type dichotomique ou polytomique et de
type métrique. Chaque modalité d’une
variable d’origine a donné lieu à une
variable auxiliaire codée 1 si la
caractéristique est réalisée et 0 dans le cas
inverse. Afin d’éviter une liaison linéaire
entre les variables indépendantes, pour
chaque variable d’origine, une des
variables binaires créées est exclue du
modèle. En cas de « filtrage », c’est-à-dire
lorsqu’une partie de l’échantillon n’est pas
concernée par une question, nous avons
créé une variable auxiliaire composée des
entreprises non concernées.
III. Présentation
discussion
des
résultats
et
51
Celle-ci présente également certains avantages
par rapport à l’analyse discriminante qui peut aussi
être utilisée lorsque la variable dépendante est
dichotomisée. Outre le fait que l’analyse
discriminante implique une distribution normale
des variables, elle peut donner lieu à des
probabilités de succès « impossibles » car situées en
dehors de la plage 0-1 (Howell, 1998).
152
Préalablement à la régression, nous avons
comparé les moyennes de croissance des
entreprises ayant répondu à notre enquête à
celles des entreprises ayant refusé d’y
répondre sur base d’un test t bilatéral. Les
moyennes de croissance de l’emploi et du
chiffre d’affaires des entreprises n’ayant
pas répondu à l’enquête ne sont pas
significativement différentes de celles des
entreprises ayant refusé d’y répondre.
Nous avons ensuite comparé la taille,
l’indépendance et la localisation des
entreprises des deux groupes à l’aide de
tests de χ2 de Pearson. Le fait que
l’entreprise ait ou non répondu à l’enquête
est indépendant de sa taille en début de
période, du fait quelle soit indépendante ou
dépendante et de son appartenance
régionale.
Les résultats statistiquement significatifs
au seuil de 5 % de la régression logistique
de la croissance de l’emploi sur les
variables liées au dirigeant sont les
suivants :
Tableau n° 1 : prédicteurs
statistiquement significatifs de la
régression logistique binomiale de la
croissance de l’emploi sur les variables
liées au dirigeant d’entreprise
Variables
indépendantes
Hypothèse 3 :
expérience de
marketing, de
vente ou de R&D
Hypothèse 4:
expérience de
consultance
Hypothèse 12 :
autres activités
lors de la création
Hypothèse 15 :
études en rapport
avec les activités
de l’entreprise
Hypothèse 24 :
dirigeant de sexe
féminin
Hypothèse 25 :
dirigeant immigré
Coeff.
E.S.
Wald
D.L.
Sig.
Exp. (b)
- 4,453
1,569
8,051
1
0,005
0,012
3,092
1,425
4,706
1
0,030
22,023
4,574
2,221
4,242
1
0,039
96,969
3,237
1,283
6,361
1
0,012
25,446
- 4,948
2,178
5,161
1
0,023
0,007
3,626
1,408
6,630
1
0,010
35,571
χ2 du modèle : 51,890
Sign. : 0,015
Degré de concordance entre les valeurs prédites et les valeurs
observées : 85,9 %
Six variables liées au dirigeant influencent
significativement la croissance de l’emploi.
Parmi les cinq catégories de variables
indépendantes liées au dirigeant que nous
avons étudiées lors de la formulation des
hypothèses, trois groupes n’exercent
aucune influence significative sur la
croissance de l’emploi. Il s’agit de la
variable
liée
aux
caractéristiques
psychologiques, des motivations et de la
présence d’une équipe de dirigeants.
Quatre variables ayant un effet significatif
sur la croissance de l’emploi sont liées à
l’expertise du dirigeant. Deux de ces
variables sont liées à son expérience
fonctionnelle.
Les résultats relatifs au fait que le dirigeant
ait une expérience de marketing, de vente
ou de R&D infirment notre hypothèse 3.
Alors que, selon Hambrick et Mason
(1984), des fonctions liées à l’output sont
supposées mettre l’accent sur la croissance,
nous constatons que cette expérience
influence négativement la croissance de
l’emploi. On peut supposer que cette
expérience conduira le dirigeant à se
focaliser sur ces fonctions au détriment
d’autres, ce qui pourrait être préjudiciable
à la croissance de l’emploi. Elle pourrait
également le mener à privilégier la
croissance du chiffre d’affaires au
détriment de celle de l’emploi.
A l’inverse, conformément à notre
hypothèse 4, le fait que le dirigeant ait
précédemment travaillé dans le domaine de
la consultance semble bien lui procurer une
expertise susceptible d’accélérer le
développement de son entreprise. Cette
expérience est en effet un prédicteur
statistiquement significatif des chances de
croissance de l’emploi. L’influence de
cette variable sur la croissance n’avait pas
encore fait l’objet d’études empiriques.
Comme nous l’avons présupposé dans
notre hypothèse 12, le fait que, lors de la
création, le dirigeant ne se consacre pas de
manière permanente à la nouvelle
entreprise influence positivement sa
croissance ultérieure. Cette formule peut
être considérée comme une forme
d’apprentissage permettant au dirigeant
d’évaluer ses qualités entrepreneuriales
tout en n’étant pas tributaire des seuls
153
revenus générés par son entreprise (Storey,
1994c).
Conformément à l’hypothèse 15, le fait que
le dirigeant ait suivi des études ayant un
lien direct avec les activités de l’entreprise
contribue positivement au développement
de celle-ci. Cette constatation est
intéressante en ce que cette variable n’avait
pas encore fait l’objet d’études empiriques.
Par contre, ni le niveau des études, ni le
fait qu’il ait suivi une formation en gestion
ou une formation à la création d’entreprise
n’influencent
significativement
la
croissance de l’emploi.
Enfin, deux variables sur les trois variables
démographiques étudiées ont un impact
significatif sur la croissance de l’emploi. Il
s’agit du sexe du dirigeant et du fait qu’il
soit issu de l’immigration. Seul l’âge ne
constitue pas un déterminant significatif.
A l’instar d’une étude menée en Suède
(Dahlqvist et al. (1999) et conformément à
notre hypothèse 24, il ressort des résultats
de la régression que le fait que le dirigeant
soit de sexe féminin diminue les chances
de croissance de l’emploi de son
entreprise. Cette constatation est conforme
aux arguments théoriques relatifs aux
désavantages sociaux relatifs des femmes
qui se lancent dans une carrière
entrepreneuriale (Kalleberg et Leicht,
1991). Une étude américaine (Kalleberg et
Leicht, 1991) a toutefois constaté une
absence de différences en termes d’impact
des variables indépendantes sur la
croissance des entreprises selon que ces
dernières soient dirigées par des hommes
ou des femmes. Ces différences entre
entreprises américaines et européennes
pourraient être le fruit de différences
culturelles, l’Europe étant, à cet égard, plus
conservatrice.
Enfin, contrairement à Dahlqvist et al.
(1999), dont l’étude portait également en
partie sur la croissance de l’emploi, et à
notre hypothèse fondée sur les résultats de
cette étude, nous constatons que le fait que
le dirigeant soit issu de l’immigration
influence positivement la croissance de son
entreprise. L’entrepreneuriat peut être un
facteur d’intégration sociale (Wtterwulghe,
1998). Dès lors, une explication potentielle
du lien positif entre la croissance et le fait
que le dirigeant soit une personne
immigrée pourrait résider dans le fait que
la croissance de l’entreprise renforcerait ce
phénomène d’intégration.
Conclusion
L’étude de l’impact des caractéristiques du
dirigeant sur la croissance de son
entreprise a donné lieu à de nombreuses
recherches empiriques. Toutefois, la
plupart de ces travaux se sont concentrés
sur l’étude d’un ou d’un nombre réduit de
prédicteurs. En outre, aucune recherche n’a
répertorié
de
manière
exhaustive
l’ensemble des variables précédemment
analysées. Nous avons cherché à combler
cette lacune et avons testé l’influence
potentielle sur la croissance de l’emploi de
28 variables, que nous avons regroupées en
5
sous-catégories,
à
savoir
les
caractéristiques
psychologiques52,
l’expertise et les origines familiales du
dirigeant, ses motivations, les variables
démographiques et la présence d’une
équipe de dirigeants.
Nos résultats montrent que la croissance de
l’emploi au sein des P.M.E. est uniquement
influencée par certaines variables liées à
deux sous-groupes, à savoir l’expertise du
dirigeant
et
ses
caractéristiques
démographiques. Ses caractéristiques
psychologiques, ses motivations et la
présence d’une équipe de dirigeants
n’exercent aucun impact significatif sur les
chances de croissance de l’emploi de
l’échantillon de P.M.E. belges que nous
avons étudiées.
Quatre variables ayant un effet significatif
sur la croissance de l’emploi sont liées à
l’expertise du dirigeant. Deux de ces
variables sont liées à l’expérience
fonctionnelle, à savoir le fait d’avoir une
expérience dans le domaine du marketing,
52
Rappelons que nous n’avons émis qu’une seule
hypothèse relative aux caractéristiques
psychologiques du dirigeant.
154
de la vente ou de la R&D et le fait d’avoir
une expérience dans le domaine de la
consultance. Le signe de la relation n’est
toutefois pas nécessairement celui qui nous
avions présumé. Le fait que le dirigeant ait
exercé d’autres activités professionnelles
lors du démarrage de son entreprise
influence également significativement la
croissance de l’emploi. La quatrième
variable liée à l’expertise est liée à
l’éducation du dirigeant. Il s’agit du fait
qu’il ait suivi des études en rapport avec
les activités de son entreprise. Par contre,
les autres variables liées à l’expérience
fonctionnelle (expérience de direction ou
de supervision, expérience au sein d’une
université, expérience en grande entreprise,
expérience de création ou d’indépendant)
n’exercent aucune influence significative.
Il en va de même de l’expérience
sectorielle,
du
nombre
d’années
d’expérience professionnelle, du fait de
posséder plusieurs entreprises, de l’échec
entrepreneurial antérieur, de l’origine
familiale entrepreneuriale, des autres
variables liées à l’éducation (formation en
création d’entreprise, formation en gestion
et niveau d’éducation) et des circonstances
qui ont amené le dirigeant à la tête de
l’entreprise.
Enfin, deux variables démographiques sont
également des prédicteurs significatifs de
la croissance de l’emploi. Il s’agit du sexe
du dirigeant et du fait qu’il soit issu de
l’immigration. L’âge ne constitue pas un
déterminant significatif.
Les conclusions de notre recherche sont
sujettes à certaines limitations. Tout
d’abord, celle-ci porte exclusivement sur
des entreprises individuelles. Or, certaines
organisations sont susceptibles de croître
au travers de la création de nouvelles
firmes ou de franchises par leur dirigeant.
Notre unité d’analyse n’étant pas le
groupe, ce type de croissance est
nécessairement ignoré dans le cadre de nos
résultats. Par ailleurs, nous mesurons la
croissance sur base de données relatives au
début et à la fin de période. Or, la
croissance n’est pas nécessairement
régulière. Le processus de développement
peut, en effet, être « en dents de scie ».
Notre étude ne permet toutefois pas de
rendre compte de ce phénomène car elle ne
tient
pas
compte
des
données
intermédiaires. En outre, le type d’enquête
réalisée et de questions posées empêche
d’obtenir des données longitudinales pour
un certain nombre de variables. Enfin,
notre choix méthodologique de tester
simultanément le plus grand nombre de
variables et de ne pas exclure des facteurs
qui pourraient, a priori, sembler mineurs
dilue en principe la contribution potentielle
des différents prédicteurs. Une telle
enquête pourrait être répliquée sur un
échantillon de taille plus importante. Une
autre piste de recherche qui permettrait de
surmonter ce problème consisterait en
l’adoption d’une démarche plus sélective
basée sur les résultats de la présente
recherche.
Bibliographie
Armington, C. et Odle, M. (1982), «Small
business: how many jobs ? », Brookings
Review, n° 20, p. 14-17
Bernard, P.-M. (1999), Régression
logistique, Cours EPM-64312, Doctorat en
épidémiologie, Université de Laval,
http://w3.res.ulaval.ca/cours-epm64312/Default.htm
Birch, D. (1987), Job creation in America :
how our smallest companies put the most
people to work, New York, Free Press
Birch, D. (1986), « The job generation
process and small business », in Julien,
P.A., Chicha, J. et Joyal, A. (éd.) (1986),
La P.M.E. dans un monde en mutation,
Québec, Les Presses de l’Université du
Québec
Birch, D. (1979), The job generation
process, Cambridge (Mass.), MIT program
on neighborhood and regional change
Bolton, J.E. (1971), Report of the
Committee of inquiry on small firms,
Cmmd. 4811, Londres, HMSO
155
Brockhaus, R.H. (1982), « The psychology
of the entrepreneur », in Kent, C.A.,
Sexton, D.L.
et Vesper, K.H. (ed.),
Encyclopedia
of
Entrepreneurship,
Englewoods Cliffs (N.J.), Prentice- Hall, p.
39-57
Brush, C.G. et Chaganti, R. (1998), «
Business without glamour ? An analysis of
resources on performance by size and age
in small service and retail firms », Journal
of Business Venturing, 14, p. 233-257
Chell, E. (1986), « The entrepreneurial
personality : a review and some theoretical
developments », in Curran, J., Stanworth,
J. et Watkins, D., The survival of the small
firm, vol. 1,
The economics
of
survival
and
entrepreneurship, Aldershot, Gower, p
102-119
Chell, E. (1985), « The entrepreneurial
personality : a few ghosts laid to rest »,
International Small Business Journal, vol.
3, n° 3, p. 43-54
Child, J. (1973), « Predicting and
understanding organizational structure »,
Administrative Science Quarterly, 18, p.
168-185
Cooper, A.C. et Bruno, A.V. (1977),
« Success among high-technology firms »,
Business Horizons, Avril, p. 16-22
Dahlqvist, J., Davidsson, P. et Wiklund, J.
(1999), « Initial conditions as predictors of
new venture performance: a replication and
extension of the Cooper et al. study », 44th
World Conference of the International
Council for Small Business, Naples, 20-23
juin
Davidsson, P. (1989), « Entrepreneurship
and after ? A study of growth willingness
in small firms », Journal of Business
Venturing , 4 , p. 211-226
Deakins, D. (1996), Entrepreneurship and
small firms, Londres, McGraw-Hill
Delmar, F. (1999), « Entrepreneurial
growth motivation and actual growth – A
longitudinal study », in RENT XIII (1999),
Research on Entrepreneurship, Londres,
25-26 novembre
Delmar, F. (1997), « Measuring growth :
methodological
considerations
and
empirical results », in Donckels, R. et
Miettinen,
A.
(ed.)
(1997),
Entrepreneurship and SME research : on
its way to the next millennium, Aldershot,
Ashgate
Delmar, F. (1996), Entrepreneurial
behavior and business performance, Thèse
de doctorat, Stockholm School of
Economics
Donckels, R. (éd.) (1990), Les leviers de
croissance de la P.M.E., Bruxelles,
Fondation Roi Baudouin, Roularta Books
Dromby, F. (2000), « Les déterminants de
la volonté de croissance chez les dirigeants
français de P.M.E. Proposition d’un
modèle intégrant les aspects économiques
et sociaux », Actes du Congrès de
l’Association
Internationale
de
Management Stratégique, Montpellier, 2426 mai
Dunkelberg, W.G., Cooper, A.C., Woo, C.
et Dennis, W.J. (1987), « New firm growth
and performance », dans Churchill, N.C.,
Hornaday, J.A., Kirchoff, B.A., Krasner,
C.J. et Vesper, K.H. (éd.), Frontiers of
entrepreneurship research, Boston (Mass.),
Babson college.
Dunkelberg, W.G. et Cooper, A.C. (1982),
« Patterns of small business growth »,
Academy of Management Proceedings, p.
409-413
Ensley, M.D., Carland, J.W. et Carland,
J.A. (1998), «
The effect of
entrepreneurial team skill heterogeneity
and functional diversity on new venture
performance », Journal of Business and
Entrepreneurship, vol. 10, n° 1, p. 1-14.
156
Eisenhardt, K. M. et Schoonhoven, C.B.
(1990), « Organizational growth : linking
the founding team strategy, environment,
and growth among U.S. semiconductor
ventures, 1978-1988 », Administrative
Science Quarterly, 35, p. 504-529
Feeser, H. R. et Willard, G. E. (1990),
« Founding strategy and performance : a
comparison of high and low growth tech
firms », Strategic Management Journal, 11,
p. 87-98
Feeser, H.R. et Willard, G.E. (1989),
« Incubators
and
performance :
a
comparison of high- and low-growth hightech firms », Journal of Business
Venturing, 4, p. 429-442
Gallagher, C.C. et Miller, P. (1991), « New
fast-growing companies create jobs »,
Long Range Planning, vol. 24, n° 1, p. 96101
Garson, G.D. (2001), Logistic Regression,
North
Carolina
State
University,
http://www2.chass.ncsu.edu/garson/pa765/
logistic.htm
Gartner, W.B. et Bhat, S. (2000),
« Environmental
and
ownership
characteristics of small business and their
impact on development », Journal of Small
Business Management, vol. 38, n° 3, p.
14-26
Gasse, Y. (1987), « L’entrepreneur, son
profil et son développement », Gestion
2000, 5, sept.-oct., 27-41
Gasse, Y (1982), « Elaborations on the
psychology of the entrepreneur », in Kent,
C.A., Sexton, D.L. et Vesper, K.H. (ed.),
Encyclopedia
of
Entrepreneurship,
Englewoods Cliffs (N.J.), Prentice- Hall, p.
57-71
Gibb, A. et Davies, L. (1990), « In pursuit
of the frameworks of growth models of the
small business », International Small
Business Journal, vol. 9, n° 1, p. 15-31.
Gibb, A. et Scott, M. (1986),
« Understanding small firm growth », in
Scott, M., Gibb, A., Lewis, S. et Faulkner,
T., Small firm growth and development,
Aldershot
Grinyer, P. H., McKiernan, P. et YasaiArdekani,
M.
(1988),
« Market,
organizational and managerial correlates of
economic performance in the U.K.
electrical engineering industry », Strategic
Management Journal, 9, p. 297-318
Hakim, C. (1989), « Identifying
fast
growth
small firms », Employment Gazette,
January, p. 29-41
Hall, G. (1995), Surviving and prospering
in the small business sector, Londres,
Routledge
Hambrick, D.C. et Crozier, L.M. (1985),
« Stumblers and stars in the management
of rapid growth », Journal of Business
Venturing, 1, p. 31-45
Hambrick, D.C. et Mason, P.A. (1984),
« Upper-echelons : the organization as a
reflection of its top managers », Academy
of Management Review, vol. 9, n° 2, p.
193-206
Harris, R.J. (1985), A primer of
multivariate statistics, seconde édition,
New York, Academic Press
Harrison, B. (1997), Lean and mean: Why
large corporations will continue to
dominate the global economy, seconde
édition, New York, Guilford
Herron, L. et Robinson, R.B. Jr. (1993),
« A structural model of the effects of
entrepreneurial characteristics on venture
performance », Journal of Business
Venturing, 8, p. 281-294
Howell, D.C. (1998), Méthodes statistiques
en sciences humaines, Bruxelles, De Boeck
Université
Hull, D.L., Bosley, J.J. et Udell, G.G.
(1980), « Renewing the hunt for the
heffalump:
identifying
potential
entrepreneurs
by
personality
157
characteristics », Journal of Small Business
Management, vol.18, n° 1, p. 11-18
Hughes, A. (1998), « Growth constraints
on small and medium-sized firms »,
Working Paper n° 107, ESRC Centre for
Business
Research,
University
of
Cambridge, novembre
Ivanaj, V. et Géhin, S. (1997), « Les
valeurs du dirigeant et la croissance des
P.M.E. », Revue Internationale P.M.E.,
vol. 10, 3-4, 81-108
Janssen, F. (2002), Les déterminants de la
croissance des P.M.E.: analyse théorique et
étude empirique auprès d’un échantillon
d’entreprises belges, Thèse de doctorat,
Université Jean Moulin – Lyon 3
Janssen, F. (1998), « L'influence de
l'interpénétration du dirigeant et de son
entreprise sur l'endettement des P.M.E. et
sur leurs relations avec les banques »,
Cahiers de recherche de l'Institut de
Recherche sur les P.M.E., Université du
Québec à Trois-Rivières, n° 98-07
Julien, P.-A. (2000), « Les P.M.E. à forte
croissance : les facteurs explicatifs », Actes
du Congrès de l’Association Internationale
de Management Stratégique, Montpellier,
24-26 mai
Julien, P.-A., Morin, M. et Gélinas, J.
(1998), « L’importance des P.M.E. à forte
croissance au Québec de 1990 à 1996 »,
Cahiers de Recherche de l’Institut de
recherche sur les P.M.E., Université du
Québec à Trois Rivières, 97-15-C.
Kalleberg, A.L. et Leicht, K.T. (1991),
« Gender and organizational performance:
determinants of small business survival
and success », Academy of Management
Journal, vol. 34, n° 1, p. 136-161
Kirchhoff, B.A. (1991), « Entrepreneur’s
contribution
to
economics »,
Entrepreneurship Theory and Practice, vol.
16, n° 2, p. 93-112
Kreitner, R. et Kinicki,
Organizational
Behavior,
Homewood, Irwin
A. (1992),
sec.
éd.,
Kolvereid, L. (1990), « Growth aspirations
among Norwegian entrepreneurs », Journal
of Business Venturing, 7, p. 209-222
Lambin, J.-J. (1990), La recherche
marketing: analyser, mesurer, prévoir,
Paris, Ediscience International
McCarthy, A.M., Schoorman, D.F.,
Cooper, A.C. (1993), « Reinvestment
decisions by entrepreneurs : rational
decision-making
or
escalation
of
commitment », Journal of Business
Venturing, 8, p. 9-24
McClelland, D.C. (1961), The achieving
society, Princeton (New Jersey), Van
Norstand
McMullan, W. E. et Vesper, K. (1987), «
New ventures and small business
innovation for economic growth » , R&D
Management, vol. 17, n° 1, p. 3-13
Miller, D. et Friesen, P.H. (1984),
Organizations :
a
quantum
view,
Englewood Cliffs, Prentice-Hall
Miller, D. et Toulouse, J.M. (1986),
« Chief
executive
personality
and
corporate strategy and structure in small
firms », Management Science, vol. 32, n°
11, p. 1389-1409.
Murray, S., Brandt, M. et Van Susteren, T.
(1995), « Predictors of management
success
in
growing
businesses »,
th
Proceedings of the 25 European Small
Business
Seminar,
Cyprus,
20-22
septembre, vol. I, p. 225-234
OCDE (1999), « High growth firms and
employment », Rapport préparé pour la
réunion d’Helsinki du groupe de travail sur
les
P.M.E.,
20-21
mai,
DSTI/IND/P.M.E.(99)6, cité par Julien et
al. (2000)
OCDE (1998), Les P.M.E. à forte
croissance et l’emploi : évaluation des
158
pratiques exemplaires des pouvoirs
publics, rapport présenté à la réunion
d’Athènes les 26-28 avril, Paris, OCDE,
OCDE DSTI/IND/P.M.E.(98)11, cité par
Julien (2000)
O’Farrel, P. N. (1984), « Small
manufacturing
firms
in
Ireland :
employment
performance
and
implications »,
International
Small
Business Journal, vol.2, n° 2, p. 48-61
Papalia, D.E. et Olds, S.W. (1981), Human
development, New York, McGraw-Hill
Book co., cité par Kalleberg et Leicht
(1991)
Perry, C. (1987), « Growth strategies for
small firms: principles and case studies »,
International Small Business Journal, vol.
5, n° 2, p. 17-25
Perry, C., MacArthur, R., Meredith, G. et
Cunnington, B. (1986), « Need for
achievement and locus of control of
Australian small business owner-managers
and super-entrepreneurs », International
Small Business Journal, 4, p. 55-64
Rotter,
J.B.
(1966),
« Generalized
expectancies for internal versus external
control of reinforcement, Psychological
Monographs
Sandberg, W.R. (1986), New venture
performance : the role of strategy and
industry structure, Lexington, D.C. Heath
& Co.
Siegel, R., Siegel, E. et MacMillan, I.C.
(1993), « Characteristics distinguishing
high-growth ventures », Journal of
Business Venturing, 8, p. 169-180
Snuif, H.R. et Zwart, P.S. (1994),
« Modeling new venture development as a
path of configurations », in Small business
and its contribution to regional and
international development, Proceedings of
the 39th ICSB world conference,
Strasbourg, p. 263-274
St-Pierre, J. (1999), La gestion financière
des P.M.E. : théories et pratiques, SainteFoy, Presses de l’Université du Québec
Starbuck, W. H. (1965), « Organizational
growth and development », dans March, J.
G.
(éd.)
(1965),
Handbook
of
organizations, Chicago, Rand McNally
Storey, D. J. (1994), Understanding the
small business sector, Londres-Boston,
International Thomson business press.
Storey, D. J. (1994b), « The role of legal
status in influencing bank financing and
new firm growth », Applied Economics,
vol. 26, p. 129-136
Storey, D.J. (1994c), « New firm growth
and bank financing », Small Business
Economics, vol. 6, n° 2, p. 139-150
Storey, D. J. et Johnson, S. G. (1987), Job
creation in small and medium sized
enterprises, vol. 1, Luxembourg, Office
for the Official Publications of the
European Community
Storey, D., Watson, R. et Wynarczyk, P.
(1989), « Fast growth small businesses :
case studies of 40 small firms in northern
England », Department of employment,
Research paper n° 67, cité par Storey
(1994)
Stratos Group (1990), Strategic orientation
of small European business, Aldershot,
Avebury-Gower
Timmons, J.A., Smollen, L.E. et Dingee,
A.L.M. (1985), New venture creation,
seconde édition, Homewood (Ill.), Irwin
Vesper, K.H. (1990), « New venture
strategies » (Revised edition), Englewood
Cliffs (NJ), Prentice Hall
Walker, E., Loughton, K. et Brown, A.
(1999), « The relevance of non-financial
measures of success for micro business
owners », 44th World Conference of the
International Council for Small Business,
Naples, 20-23 juin
159
Weinzimmer, L. (1993), Organizational
growth
of
U.S.
corporations :
environmental,
organizational
and
managerial determinants, Thèse de
doctorat, University of Wisconsin –
Milwaukee, Ann Arbor, U.M.I.
Weinzimmer, L.G., Nystrom, P.C. et
Freeman, S.J. (1998), « Measuring
organizational
growth :
issues,
consequences and guidelines », Journal of
Management Studies, vol. 24, n° 2, p. 235262
une entreprise humaine, Bruxelles, De
Boeck Université.
Wynarczyck, P., Watson, R., Storey, D.,
Short, H. and Keasey, K. (1993), The
managerial labour market in small and
medium sized enterprises, Londres,
Routledge.
Westhead, P. (1995), « Survival and
employment growth contrasts between
types of owner-managed high-technology
firms », Entrepreneurship Theory and
Practice, Fall, p. 5-27
Westhead, P. et Birley, S. (1995),
« Employment growth in new independent
owner-managed firms in Great Britain »,
International Small Business Journal, vol.
13, n° 3, p. 11- 34
Wiklund, J. (1999), « The sustainability of
the
entrepreneurial
orientationperformance
relationship »,
Entrepreneurship Theory and Practice, vol.
24, n° 1, p. 37-48
Willard, G.E., Krueger, D.A. et Feeser,
H.R. (1992), « In order to grow, must the
founder go : a comparison of performance
between
founder
and
non-founder
managed
high-growth
manufacturing
firms », Journal of Business Venturing, 7,
p. 181-194
Woo, C.Y, Cooper, A.C., Dunkelberg,
W.C., Daellenbach, U. et Dennis, W.J.
(1989), « Determinants of growth for small
and large entrepreneurial start-ups »,
Babson entrepreneurship conference
Wooden, M. et Hawke, A. (2000),
« Unions and employment growth : panel
data evidence » ; Industrial Relations, vol.
39, n° 1, p. 88-107
Wtterwulghe, R. (1998), avec la
collaboration de Janssen, F., La P.M.E.,
160
Coûts de transaction et dynamique non-linéaire des
prix des actifs financiers : une note théorique
Fredj JAWADI
Professeur au Groupe Sup de CO Amiens-Picardie, chercheur associé à EconomiX,
[email protected])+
Slim CHAOUACHI
Université de Val de Marne Paris12, ERUDITE
Résumé
Le débat d'actualité concerne la place occupée par les modèles non-linéaires au sein des
formalisations des séries financières. Pour justifier la non-linéarité inhérente à la dynamique
de ces séries, nous explorons les effets de la microstructure du marché financier et les
enseignements de la théorie de finance comportementale (i.e. coûts de transaction, asymétrie
d'information, hétérogénéité des intervenants sur le marché, mimétisme). Nous montrons que
la présence de coûts de transaction dissuade l’arbitrage, limite les transactions, prive les prix
de s’ajuster linéairement et continuellement et induit des déviations des cours asymétriques et
persistantes.
Mots clés : Coûts de transaction, mésalignements de prix, Ajustement non-linéaire, asymétrie
et persistance. JEL : G12, G14
+
ESC Amiens School of Management, 18 place Saint Michel, 80000 Amiens cedex, Tél : +33 (0)3 22 82 24 41.
161
Introduction
« Les phases de contraction sont plus
violentes (de plus grande intensité) mais
plus brèves (de plus courte durée) que les
phases d'expansion », Keynes (1936),
Théorie Générale de l’Emploi, de l’Intérêt
et de la Monnaie (p.314).
Les marchés financiers constituent des
systèmes dynamiques ouverts soumis à
l'influence
de
leur
environnement
économique, politique et social. Leur rôle
est d'allouer les ressources productives à
l'économie. L'observation des distributions
de séries financières montre que ces
données sont caractérisées par des
mouvements
cycliques
(Sercu
et
al.(1995)), des fluctuations asymétriques
(Escribano et Mira (1997)), des ruptures de
tendance, des irrégularités dans les
mouvements (Teräsvirta et Anderson
(1992)), un caractère leptokurtique (Jawadi
et Koubaa (2006), et une variabilité
excessive ( Shiller (1981)).
L'asymétrie des séries financières peut être
signe de la présence de non-linéarité dans
le processus d'évolution de ces séries. Or,
les modèles linéaires ne peuvent générer
qu'un comportement symétrique de la série
et ne peuvent pas donc rendre compte des
phénomènes d'asymétrie. Les modèles
non-linéaires peuvent ainsi nous permettre
de réconcilier les notions d'asymétrie et de
non-linéarité.
Conviés à chercher des spécifications
adéquates pour reproduire les dynamiques
des prix des actifs financiers, plusieurs
travaux ont mis l'accent sur les
insuffisances des processus linéaires et ont
montré
l'inadaptation des
modèles
linéaires. Dès lors, se sont développées de
nouvelles voies de modélisation qui ont
fait appel aux notions de non-linéarité, de
non
stationnarité
et
d'instabilité
structurelle.
La
recherche
s'est
essentiellement concentrée sur la définition
de la forme fonctionnelle du processus
sous-jacent à la dynamique d’ajustement
des prix et sur le développement des
différentes classes de modèles nonlinéaires permettant de décrire ce type de
dynamique.
Mais, peu de travaux se sont intéressés à la
justification économique de la nonlinéarité et à l’étude des différentes
hypothèses comportementales qui sont à
l'origine de la non-linéarité des
dynamiques financières. Par exemple,
Benning et Protopapadakis (1988), Dumas
(1992), Sercu et al.(1995), Michael, Nobay
et Peel (1997), et Obstfeld et Taylor (1997)
ont expliqué la non-linéarité inhérente à la
dynamique d'ajustement des taux de
change par l'existence des coûts de
transaction. Krugman (1991) a attribué
cette non-linéarité à la présence des zones
cibles. Teräsvirta (1994), De Grawe et
Grimaldi (2001) ont retenu quant à eux
l'hétérogénéité des anticipations des
investisseurs comme source de nonlinéarité. En effet, suite à l’arrivée d’une
nouvelle information, les agents peuvent
réagir
instantanément
mais
pas
nécessairement au même temps et ce, en
raison de la différence au niveau de la
compréhension de l'information et du degré
d'aversion au risque. Jawadi (2006) a
expliqué la non-linéarité caractérisant les
dynamiques boursières par la présence de
coûts de transaction, l’interaction entre
investisseurs informés et investisseurs mal
informés,
l’existence
d’anticipations
différenciées et la tendance à suivre des
comportements mimétiques.
Les comportements mimétiques constituent
une source de non linéarité puisqu’ils
peuvent provoquer la création de
séquences d'achats ou de ventes et peuvent
amener les investisseurs à réagir - à tort- de
la même manière lors de la publication
d'informations53. Selon Orléan, le marché
53
« En de multiples occasions, le marché se
comporte plus comme une foule que comme un
ensemble de monades calculatrices », Orléan
(1990), (p.841).
162
financier est assimilé à un système ouvert à
l'influence de deux forces : Une force
interne, mettant en évidence la psychologie
du marché, les mouvements collectifs, les
comportements mimétiques, et une force
externe,
reflétant
l'environnement
économique du marché, les chocs
aléatoires, les nouvelles informations54.
D’où le caractère déstabilisant de la
spéculation.
Mais, quoi qu'il en soit, ce travail aura pour
objet d'étudier de manière rigoureuse
l'impact des coûts de transaction sur la
dynamique des prix des actifs financiers,
de réconcilier les concepts de coûts de
transaction et de non-linéarité et de tenir
compte de l'éventuelle interaction entre ces
deux concepts pour expliquer et justifier
les éventuels mésalignements des prix des
actifs financiers.
A cette fin, le présent travail s'articulera
autour de cinq sections. La deuxième sera
consacrée à la présentation des limites de
la modélisation linéaire et des raisons nous
permettant de croire aux modèles nonlinéaires. La troisième section exposera un
bref panorama de la littérature consacrée à
la réconciliation entre les coûts de
transaction et la non-linéarité. La
quatrième section présentera brièvement la
théorie de coûts de transaction et justifiera
la non-linéarité de l'ajustement du prix par
rapport à l'équilibre par la présence des
coûts de transaction. La cinquième section
conclura.
I.
Insuffisances
économiques
économétriques de la linéarité
et
A. Insuffisances économiques de la
linéarité
54
Selon la théorie des News, les informations
nouvelles sont des inputs qui activent le système de
détermination des cours; toute hausse ou baisse des
cours est proportionnelle à l'information nouvelle.
La linéarité était depuis A.Smith la
coutume en matière de modélisation
économique. Les modèles linéaires
gaussiens ont dominé le développement de
la modélisation des séries temporelles
depuis plus de soixante ans. Cette phase a
débuté avec les processus autorégressifs,
pour se généraliser à la classe des modèles
ARMA. Cette catégorie de modèles a été
couramment utilisée dans plusieurs
applications pour reproduire les phases du
cycle économique du fait que l'hypothèse
de linéarité est facile à adopter et qu'elle
admet un traitement mathématique simple.
Les modèles linéaires ont connu ainsi une
utilisation quasi-systématique. Du fait de
leurs nombreux avantages, ils ont été
fréquemment retenus pour le traitement des
relations économiques et financières. En
effet, l'hypothèse de linéarité reflète un
compromis entre les propriétés de
maniabilité et de réalisme que tout
oscillateur
économique
est
censé
comporter. De plus, les méthodes
d'estimation linéaire (Moindres Carrés
Ordinaires (MCO) et Moindres Carrés
Généralisé (MCG)) sont plus simples que
les méthodes d'estimation non-linéaires
(i.e. Moindres Carrés Non Linéaires
(MCNL), Maximum de Vraisemblance
(MV)).
C'est notamment, le critère de simplicité
qui a conduit au recours aux modèles
linéaires. En effet, la difficulté d'ordre
méthodologique,
l'absence
d'outils
quantitatifs performants et la faiblesse
d'outils mathématiques ont amené les
économètres à adapter la théorie des
oscillations linéaires aux phénomènes
économiques.
Néanmoins,
l'aspect
dominant de ces processus linéaires ne doit
pas nous faire oublier les limites et les
inconvénients qui ont été attribués à cette
catégorie de modèles linéaires. En effet,
plusieurs études ont montré que la classe
des modèles linéaires est inadaptée et que
ces modèles risquent de dissimuler les
propriétés importantes des fluctuations
cycliques des séries telle que les
163
oscillations auto-entretenues, la variabilité
excessive de certaines séries financières,
les changement de régime, les ruptures de
tendance et l'asymétrie du cycle, qui fait
que les phases d'expansion et de récession
n'ont ni les mêmes durées, ni les mêmes
amplitudes.
De plus, ces modèles contraignent les
oscillateurs
économiques
à
être
périodiques et à se produire à l'identique
d'une période à une autre (symétrie). Or, il
est évident que les phases de récession
durent plus longtemps que les phases
d'expansion et que les chocs défavorables
ont des conséquences plus importantes et
plus durables que les chocs favorables.
Escribano (1986), Dumas (1992), Balke et
Fomby (1997), Escribano (1997), Michael,
Nobay et Peel (1997), Michael, Peel et
Taylor (1997), Escribano et Pfann (1998),
Peel et Taylor (2000) et Dufrénot et
Mignon (2002) ont mis en évidence les
phénomènes d'asymétrie ainsi que les
mouvements irréguliers caractérisant les
marchés financiers (marché boursier,
marché monétaire, marché de change)55.
Ces auteurs ont mis l'accent sur les
difficultés du modèle linéaire à apporter un
soutien empirique à la dynamique des prix
à long terme et à prévoir le retour du prix
vers l'équilibre. Ils ont retenu les modèles à
correction d'erreur non linéaires et ont
montré que les séries macroéconomiques et
financières peuvent être générées de façon
endogène à partir d'un mécanisme à
correction d'erreur non-linéaire.
terme. Par exemple, Dumas (1992) a
analysé la dynamique des processus
d'ajustement des taux de change réel en
présence des coûts de transaction et a
montré que les déviations du taux de
change par rapport à la PPA (Parité des
Pouvoirs d'Achat) suivent un processus
non-linéaire dont la vitesse d'ajustement
par rapport à l'équilibre est une fonction de
l'ampleur de l'écart du cours par rapport à
l'équilibre. Michael, Nobay et Peel (1997),
Michael, Peel et Taylor (1997), Peel et
Taylor (2000) ont également montré que
l'ajustement vers un équilibre fondamental
ne se fait pas nécessairement de façon
symétrique et qu'il dépend de l'ampleur de
l'écart par rapport à l'équilibre.
Outre ces limités économiques de la
linéarité, des insuffisances économétriques
peuvent justifier le recours aux modèles
non-linéaires.
B. Insuffisances économétriques de
la linéarité
La linéarité constitue une hypothèse trop
restrictive pour pouvoir décrire des
évènements tels que les krachs et les fortes
variations caractéristiques des périodes
turbulentes typiques des marchés boursiers.
Elle a été considérée comme étant une
hypothèse qui restreint les dynamiques
possibles du cycle économique. D'après le
théorème de Wald, tout processus ARMA
peut s'écrire sous la forme d'un processus
de moyenne mobile infinie de type :
∞
En effet, ces auteurs ont suggéré que
l'ajustement des prix peut ne pas se faire
d'une façon continue, linéaire et à vitesse
constante et ont montré que l'estimation du
modèle à correction non-linéaire peut
apporter une information supplémentaire
permettant de reproduire l'asymétrie de
l'ajustement des prix vers la cible de long
55
Les cotations des actifs sur les marchés financiers
n'ont aucune raison d'être régulières vu que
l'intervalle de temps séparant deux cotations dépend
de la volonté des agents d'acheter et de vendre.
X t = ∑ β i ε t −i
(1)
i=0
En ce sens, le passé ne fournit aucune
information relative au comportement futur
de la série. En outre, cette formulation se
limite à engendrer des phases d'expansion
et de récession similaires. D’où l'incapacité
des modèles ARMA à prendre en compte
les phénomènes d'asymétrie ainsi que les
ruptures de forte amplitude. En effet, les
processus ARMA ne prennent en
considération que les moments d'ordre
164
deux de la série induisant ainsi une
exploitation incomplète de l'information
contenue dans la série.
Dans le même ordre d’idées, Frank et
Stengos (1989) ont souligné l'incapacité
des tests classiques de bruits blancs (i.e.
test de Box-Pierce et test de Ljung-Box) à
détecter
la
dépendance
temporelle
inhérente aux séries générées par des
processus non-linéaires. Leur étude est
intéressante,
car
particulièrement
révélatrice de l'inadéquation des tests
classiques de dépendance temporelle en
analyse des séries temporelles, lorsqu'ils
sont appliqués à des données générées par
des processus non linéaires. En effet, elle
montre que tout observateur peut être
induit en erreur par ces tests et conclut tout
de suite au caractère de bruit blanc d'un
processus alors même qu'il est issu d'une
loi d'évolution dont la dépendance
temporelle est non-linéaire.
Froot et Rogoff (1995) et Lothian et Taylor
(1996) ont mis en évidence le fait que les
tests traditionnels (tests de racine unitaire,
tests de cointégration) ainsi employés
durant les années 1980 pour examiner la
stabilité du taux de change réel peuvent
avoir une très faible puissance pour rejeter
l'hypothèse nulle d'instabilité du taux de
change réel. En effet, l'argument tient au
fait que la vérification du taux de change
réel sur cette période ne produit pas assez
d'information pour détecter un retour vers
la PPA. Mais, même en disposant de plus
d'informations ou en étalant la période, la
puissance du test n'augmente que très
légèrement (au maximum autour de 11%
sur la vue la plus optimiste de la vitesse de
retour à l'équilibre56.
56
« ... Même avec un siècle de données pour le
taux de change réel livre sterling-Dollar américain,
on aura pourtant une faible chance de rejeter
l'hypothèse de racine unitaire », Lothian et Taylor
(1996, pp. 950-951).
Ces limites montrent que les modèles
linéaires ne peuvent pas rendre compte de
l'asymétrie des phases du cycle
économique et rendent nécessaire le
recours aux modèles non-linéaires en
économie et en Finance. En outre, nous
comprenons
qu'appliquer
les
tests
traditionnels peut conduire à réfuter
certaines hypothèses théoriques pourtant
avérées. Ceci ne peut que nous inciter à
rechercher quels sont les moyens de
détecter la présence de termes nonlinéaires au sein des processus temporels.
Mais, si la linéarité conduit à une vision
très affaiblie de l'évolution des systèmes, si
elle semble être une hypothèse excessive et
si elle doit être isolée, faut-il encore
préciser pourquoi doit-on faire recours à la
non-linéarité ? Quels sont les fondements
théoriques de la non-linéarité ? Quels sont
les facteurs de comportement qui peuvent
créer de la non-linéarité ?
Pour répondre à ces questions, le troisième
paragraphe justifie le recours aux
processus non-linéaires en réconciliant la
notion de non-linéarité et les hypothèses
comportementales sur le marché financier
et en s’inspirant de la microstructure des
marchés
financiers
(i.e.
asymétrie
d'information,
rigidité
des
prix,
hétérogénéité des agents, coûts de
transaction).
C. Pourquoi faut-il croire
modèles non-linéaires ?
aux
Plusieurs travaux ont essayé d'expliquer la
très forte persistance des déviations des
prix des actifs financiers. Ces études ont
distingué plusieurs limites empêchant le
prix d'un actif de se fixer au voisinage de
sa valeur d'équilibre. Ces limites sont
multiples : d'ordre physique (coûts de
transport), juridique (interdiction pour un
investisseur de passer des ordres de
transaction
sur
d'autres
marchés),
commercial
(politique
commerciale).
L'existence de ces limites rend difficile
l'étude des dynamiques des séries
165
financières par des modèles linéaires
standards et laisse penser aux modèles
non-linéaires. La classe des modèles nonlinéaires apparaît pertinente pour expliquer
les irrégularités constatées dans l'évolution
des séries financières. Elle tient compte de
la présence des coûts de transaction, de
l’existence de comportements et réactions
hétérogènes, du phénomène d'asymétrie
entre les phases d’un cycle, de la
variabilité excessive des séries financières
et des effets de rigidités des prix.
De ce fait, une littérature empirique récente
des travaux centrés sur l’étude des prix des
actifs financiers a découvert l'importance
des non-linéarités. Les coûts de transaction
ont été identifiés en tant qu'une des sources
les plus significatives de cette nonlinéarité. En effet, la présence de ces coûts
dans le marché de changes induit une
bande d'inaction à l'intérieur de laquelle les
déviations du cours par rapport à la PPA ne
sont pas corrigées puisque les frais de
transaction sont assez larges pour qu'ils
soient couverts (voir section 4).
L'hétérogénéité des agents a été retenue
pour expliquer la très forte persistance des
déviations des prix et justifier le recours
aux modèles non-linéaires. Le mimétisme,
défini comme l'action qui consiste pour un
opérateur à imiter les autres intervenants
sur les marchés financiers, est également
une explication possible de cette nonlinéarité. En effet, les comportements
mimétiques des investisseurs sont des
facteurs de création de séquences d'achats
et de séquences de ventes vu que l'agent,
comme le note Orléan (1990) est indécis,
influençable, perpétuellement soumis aux
rumeurs qui circulent à l'emprise des
regards des autres.
Ce type de comportement peut amener les
agents à réagir de la même manière lors de
la publication d'information. Or, la réaction
des agents vis-à-vis de l'arrivée d'une
nouvelle information est étroitement liée
au
degré
de
compréhension
de
l'information et à leur aversion vis-à-vis du
risque. De ce fait, les anticipations des
agents risquent de ne plus refléter leurs
propres opinions, mais plutôt leur capacité
à prévoir la psychologie du marché et les
croyances des autres opérateurs sur le
marché. L'individu ne cherchera donc plus
à anticiper la valeur fondamentale du titre
mais l'opinion moyenne des participants au
marché. Les opérateurs vont alors spéculer
non seulement sur leur informations
privées mais également sur les croyances
des autres investisseurs. Ce qui risque
d’affecter négativement les prix des actifs
financiers en ajoutant de la variance à la
variance normale des actifs57.
Faut-il ajouter également que l'asymétrie
d'information sur les marchés financiers
qui se traduit par une différence entre la
fourchette affichée et celle réalisée
constitue une source des non-linéarités des
dynamiques boursières. En effet, en
présence d'asymétrie d'information, nous
distinguons deux types d'investisseurs : les
investisseurs informés et les investisseurs
mal ou non-informés. Or, plus l'accès à
l'information est facile, plus les agents sont
incités à augmenter leur participation au
marché financier. Ainsi, ceci peut
engendrer une réduction totale du nombre
des non-informés dans le marché et peut se
traduire par une réaction plus rapide et un
ajustement instantané des prix. En
revanche, la présence d’investisseurs noninformés peut créer des fluctuations dans la
demande, dans le degré d'aversion vis-à-vis
du risque et au niveau des prix.
L'existence de limites à l'arbitrage
contribue- entre autres- à la rigidité des
prix sur les marchés financiers. De telles
rigidités peuvent, d'une part, remettre en
cause l'ajustement instantané et symétrique
des prix et être à l'origine d'un surajustement ou sous-ajustement réel
57
“It is efficient for me to imitate the others as long
as they are better informed thanIi am, but it
becomes inefficient if they are also imitators”.
Orléan et Tadjeddine (2000).
166
persistant des prix. Les trajectoires suivies
par les prix des actifs financiers ne sont pas
indépendantes des régimes observés à
chaque période et leurs dynamiques sont
asymétriques et le plus souvent causées par
ces rigidités.
D'autre part, ces rigidités peuvent imprimer
une inertie dans les prix des actifs lorsque
ceux-ci tentent de rejoindre leurs valeurs
d'équilibre de long terme. Ces effets
d'inertie, la lenteur des prix des actifs
financiers à rejoindre la valeur de long
terme et les phénomènes de dépendance de
long terme sont capturés par des
spécifications non-linéaires (Michael et
al.(1997)). En effet, la non-linéarité reflète
la
complexité
des
fondamentaux
économiques et l'irréversibilité inhérente
aux trajectoires des prix des actifs
financiers. Elle constitue une manière
visant à tenir compte des causes
structurelles de rigidités pour expliquer la
lenteur de l'ajustement des prix des actifs
financiers vers l’équilibre et reproduire
l'ajustement lisse et asymétrique vers les
fondamentaux économiques.
A ce sujet, plusieurs travaux théoriques et
empiriques ont étudié l'effet de rigidités sur
la dynamique des taux de change et ont
montré que cette rigidité, combinée à la
très forte volatilité de taux de change
nominaux, conduit à d'amples variations
des taux de change réels et à une forte
persistance des déviations par rapport à la
PPA. Les déviations peuvent être
gouvernées par un processus d'ajustement
non-linéaire plutôt que d'être modélisées en
utilisant un modèle linéaire. En effet, à
court terme le cours peut avoir tendance à
s'éloigner de son niveau d'équilibre mais
une fois qu'il devient de plus en plus
mésaligné
avec
les
fondamentaux
économiques, les forces de marchés
tendent à le ramener au voisinage de
l'équilibre.
Mais, si les représentations non-linéaires
permettent d'autoriser la reproduction de
fluctuations irrégulières et de représenter
mieux le cycle que le linéaire, faut-il
encore préciser dans quelle mesure la
présence des coûts de transaction peut
créer de la non-linéarité. La section
suivante dresse un panorama des
principaux travaux empiriques appliqués
aux marchés financiers (marché boursier,
marché de changes) et réconciliant les
concepts de coûts de transaction et de nonlinéarité.
Elle
se
limite,
plus
particulièrement, aux travaux empiriques
ayant eu recours aux modèles à seuil et à la
théorie des coûts de transaction pour
justifier ce type de non- linéarité.
II. Une brève revue empirique des
travaux sur l’étude de l’ajustement nonlinéaire des prix des actifs financiers
Nous ne cherchons pas ici à produire un
recensement exhaustif de la littérature sur
les modèles non-linéaires. Mais, nous nous
proposons plutôt de sélectionner parmi
l'énorme masse de travaux disponibles
ceux qui nous paraissent les plus à même
d'être d'un intérêt particulier pour les séries
financières.
Les travaux relatifs à la recherche des
sources
de
non-linéarité
et
des
justifications de la présence d'éventuelles
non-linéarités dans les cycles sont
relativement rares dans la littérature. En
effet, le caractère leptokurtique et la nonlinéarité inhérents aux dynamiques
boursières ont été souvent attribués à
l'arrivée de nouvelles informations et aux
phénomènes de coexistence et d'interaction
entre les opérateurs. Par exemple, Artus et
Kaabi
(1992)
ont
formalisé
les
comportements d'imitation et ont montré
que l'imitation peut avoir des effets
déstabilisants car si les nouveaux arrivants
sont dépourvus de l'information alors ils
vont copier immédiatement et au hasard les
autres opérateurs, ce qui peut déstabiliser
le marché surtout s'ils se copient
mutuellement.
167
Heckscher (1916) fut le premier auteur à
avoir étudié le taux de change en présence
des coûts de transaction. Il a montré qu'il
peut y avoir des déviations significatives
par rapport à la loi du prix unique (LPU),
dues essentiellement à la présence des
coûts de transaction dans les marchés
spatialement séparés. Plus récemment,
Benninga et Protopapadakis (1988),
Dumas (1992), MacDonald et Taylor
(1994), Sercu, Uppal et Van Hulle (1995),
Lothian et Taylor (1996), Peel et Taylor
(2000) et Taylor, Peel et Sarno (2001) ont
étudié l’ajustement des taux de change
d'équilibre en présence des coûts de
transaction et ont montré que la présence
de ces coûts peut induire des effets
d’inerties dans les prix, des discontinuité
dans l’arbitrage et des non-linéarités dans
l’ajustement des cours. Michael, Nobay et
Peel (1997) et Michael, Peel et Taylor
(1997) ont étudié la nature d’ajustement
des taux de change réels vers l’équilibre en
utilisant des modèles non-linéaires. Les
auteurs ont justifié la non-linéarité par la
présence de coûts de transaction et ont
montré que les déviations des taux de
change par rapport à l’équilibre sont
caractérisées par des traces de non-linéarité
et qu'il est possible de les reproduire en
générant les données par un modèle de
type ESTAR.
Quant à Dumas (1992), il a considéré le
cas de deux pays produisant un bien
homogène qui peut être consommé, investi,
ou transféré à l'étranger. Les deux pays
sont dotés avec des technologies de
production identiques mais avec des chocs
d'output (de productivité) non corrélés. Le
transfert des biens et/ou de capital
physique est coûteux : si une unité de bien
est transportée, seulement (1 - s) de ce bien
arrive actuellement58. L'objectif de ce
modèle est de résoudre l'équilibre commun
dans les marchés de bien et de capital pour
obtenir le capital transféré entre les pays
(équilibre d'échange), la consommation,
l'investissement et le taux de change réel
(le prix relatif du capital physique entre les
pays).
En pratique, il est optimal pour les agents
de rééquilibrer les biens après chaque choc
d'output aléatoire. Or, en présence des
coûts de transaction, aucun rééquilibre
n'aura lieu jusqu'à ce que le profit marginal
excède son coût marginal. Donc, la
présence de ces coûts peut donner
apparition à une zone de non-échange
appelée « bande d'inaction ». A l'intérieur
de cette bande, aucun arbitrage n'aura lieu
et aucun transport ne se présentera. Dès
lors, le taux de change réel peut dévier de
sa valeur de parité et les déviations du taux
de change par rapport à la PPA seront
persistantes et pourront ne pas être
corrigées. En revanche, à l'extérieur de
cette bande d'échange, le taux de change
réel permettra un retour à la moyenne pour
des larges déviations par rapport à la
PPA59, mais « passera la plupart du temps
loin de sa parité, proche de la situation
frontière où aucun transfert de capital d'un
pays à un autre n'aura lieu », Dumas
(1992, p.154).
Dumas (1992) a analysé la dynamique de
ce processus d'ajustement des taux de
change
réels
dans
des
marchés
spatialement séparés en présence des coûts
de transaction proportionnels et en
supposant que la consommation est une
fraction variable. Il a montré qu'en
présence de ces coûts variables, les
déviations du taux de change par rapport à
la PPA suivent un processus non-linéaire.
L'ajustement des prix n'est ni continu, ni
constant. Le mouvement des prix est
positif si les déviations par rapport à la
PPA sont négatives et négatif si ces
dernières sont positives. Les prix admettent
alors un ajustement non-linéaire dont la
vitesse d'ajustement varie en fonction de
l'ampleur de l'écart du prix par rapport à
l'équilibre. En effet, à l'intérieur de la
59
58
s désigne les coûts de transaction, avec s ∈ [ 0,1].
Plus la déviation par rapport à la PPA est grande,
plus la tendance de retour à l'équilibre est élevée.
168
bande de transaction, où aucun échange n'a
lieu, le processus d'ajustement diverge, de
telle sorte que la plupart du temps, le taux
de change n'est pas à sa parité. Les écarts
par rapport à la PPA- et donc au modèle
monétaire- peuvent perdurer longtemps et
se comporter de manière non linéaire. Ce
qui expliquerait non seulement les
mauvaises performances empiriques du
modèle monétariste mais aussi la difficulté
d'un soutien empirique à la PPA à long
terme.
transaction60. Par contre, à l'extérieur de
cette bande, les déviations peuvent être
corrigées car une fois que le différentiel
des prix excède les coûts de transaction, les
forces de marché s'activent et auront
tendance à ramener le taux de change à sa
valeur
d'équilibre
engendrant
un
phénomène de « Mean Reversion ».
Autrement dit et comme l'illustre le
graphique 1 présenté en annexes, il y aura
exportation du pays étranger quand
En revanche, Macdonald et Taylor (1994)
ont réexaminé le modèle monétaire à prix
flexible pour le taux de change livre-dollar
et ont trouvé un soutien empirique à une
relation de cointégration entre le taux de
change, les offres relatives de monnaie, la
production industrielle et les taux d'intérêt
qui implique un ajustement linéaire,
continu et à vitesse constante. Quoi qu’un
peu plus tard, Flood et Taylor (1996) ont
montré que l'ajustement des prix vers un
équilibre peut ne pas être continu, mais
dépendre, par exemple, de l'ampleur de
l'écart du prix par rapport à l'équilibre ainsi
que de la variation des fondamentaux
économiques sous-jacents.
aura exportation du pays domestique. Par
Dans le même ordre d’idées, Sercu, Uppal
et Van Hulle (1995) ont développé un
modèle de détermination de taux de change
réel d'équilibre, défini par l'utilité
marginale relative de consommation en
présence des coûts de transaction et ont
montré que l'ajustement du taux de change
vers la PPA suit nécessairement un
processus non- linéaire. Les auteurs ont
montré que la présence de ces coûts
implique une convergence non-linéaire des
déviations des cours par rapport à la PPA.
⎡ q 2 (t) ⎤
.⎥ ≥ k
⎢
⎣ q1( t ) ⎦
, alors que pour
contre, pour
1 ⎡ q 2 (t) ⎤
.⎥ ≤ k ,
≤⎢
k ⎣ q1 ( t ) ⎦
⎡ q 2 (t) ⎤ 1
.⎥ <
⎢
⎣ q1 ( t ) ⎦ k
, il y
il n' y aura pas
d'échange. C'est-à-dire qu'en présence des
coûts de transaction et à cause de
l'arbitrage fait par les agents économiques,
les forces du marché ne s'activent que par
sous-période.
Taylor et David Peel (2000), quant à eux,
ils ont utilisé une approche monétaire du
taux de change et ont souligné le fait que
les déviations du taux de change nominal
par rapport au niveau suggéré par les
fondamentaux monétaires peuvent être
gouvernées par un processus d'ajustement
non-linéaire. Pour des petites déviations,
cette relation n'est pas activée. Mais, une
fois que le taux de change devient de plus
en plus mésaligné avec les fondamentaux
économiques, les forces de marché
s'activent et tendent à le ramener au
voisinage de l'équilibre fondamental. Un
tel raisonnement intuitif met en en
60
suit
La bande d’inaction est définie comme
. / ∂c2 ⎡ c2(t ) ⎤
∂U []
⎥
: ⎡⎢ 1 ⎤⎥ ≤ Z(t )≡ 2
=⎢
⎣ 1+ s ⎦
. / ∂c1 ⎢⎣ c1 (t ) ⎥⎦
∂U1 []
−η
≤[1+ s ] ,
soit
de
1
En effet, à l'intérieur de la bande d’inaction
les déviations par rapport à la PPA ne sont
pas corrigées puisqu'elles ne sont pas assez
larges pour couvrir les coûts de
manière équivalente :
1
⎡ 1 ⎤ η ⎡ q 2 (t) ⎤
⎢ 1 + s ⎥ ≤ ⎢ q ( t ) .⎥ ≤ [1 + s]η ≡ k
⎣
⎦
⎣ 1
⎦
Où : z(t) désigne le taux de change réel,
qi(t) désigne la dotation du bien de
consommation du pays i, ∀ i = 1,2,
ci désigne la consommation du pays i,
η désigne le degré d’aversion vis-à-vis du
risque,
169
évidence la discontinuité de l'arbitrage
dans le marché des biens et prévoie
l’existence de vitesses d’ajustement
différenciées qui augmentent avec
l’ampleur des déviations des cours par
rapport à l'équilibre.
Jawadi (2006) s’est focalisé sur l’étude de
la dynamique d’ajustement des cours
boursiers des pays du G7 par rapport à
leurs valeurs fondamentales. Il a montré
l’existence de mécanismes d’ajustement
non-linéaires des cours des sept pays vers
les fondamentaux qu’il les a justifié par
l’existence de coûts de transaction
hétérogènes et la présence d’anticipations
différenciées. Formellement, l’auteur a
retenu les modèles STECM (Smooth
Transition Error Correction Models) pour
spécifier la dynamique des déviations des
cours par rapport à l‘équilibre et pour
définir deux indicateurs statistiques
permettant de repérer les périodes de sous
et sur-évaluation des indices et de mesurer
l’intensité
de
correction
des
mésalignements des cours ainsi que leurs
vitesses d’ajustement.
III. Coûts de transaction et ajustement
non-linéaire des prix
A. Les frais de transaction
La littérature empirique récente relative à
l'analyse des mésalignements des prix a
découvert l'importance de la non-linéarité
dans la dynamique d'ajustement des prix.
Cette non-linéarité a été attribuée, comme
nous l’avons noté, aux anomalies des
marchés financiers (hétérogénéité des
intervenants sur les marchés financiers,
asymétrie d'information, interaction et
contagion des opinions, mimétisme, coûts
de transaction,...etc.). Mais, les coûts de
transaction ont été, plus particulièrement,
identifiés en tant qu'une des sources les
plus significatives de la non-linéarité.
L'impact de la présence des coûts de
transaction sur la structure et la
performance des marchés financiers a fait
dès lors l'objet d'un thème central dans la
littérature des systèmes d'information
depuis une dizaine d'années (Clémons et
Row (1992) et Clémons et Weber (1994)).
Par définition, les frais de transaction ont
une composante explicite qui apparaît sur
les avis d'opéré et une composante
implicite qui dépend de l'arrondi des
cotations, de la fourchette et de l'impact de
l'ordre de transaction sur les prix. La
composante essentielle des frais de
transaction est la fourchette ou écart entre
les cours acheteurs et vendeurs. Les frais
explicites dépendent du circuit par lequel
l'ordre transite et de la taille de cet ordre.
Ils se décomposent en commission,
courtage, TVA, impôt de bourse et les frais
de gestion du compte titres (droits de
garde, frais d'encaissement de coupons de
dividendes et coûts d'accès aux services
télématiques de gestion de titres).
Ces frais de transaction permettent de
pénaliser souvent les transactions. Ils sont
compris
entre
0.15%
(transaction
importante avec commissions affichées ) et
12% (transaction passée par un réseau
pratiquant des coûts fixes)61. De plus, les
différences entre les organisations du
marché ont un impact sur la valeur de
fourchette, sur les modalités d'affichage et
sur les prix. En effet, la valeur de
fourchette observée est liée aux modalités
d'organisation des marchés, au degré de
concurrence entre les intermédiaires, à la
liquidité du marché et à l'intensité des
asymétries
d'information
entre
les
donneurs d'ordre. Ce qui explique la
différence entre la valeur de la fourchette
effectivement réalisée et celle initialement
affichée.
61
Le NYSE est le marché où les frais sont les
moins élevés. Les frais moyens estimés
d'intervention sur les actions du CAC 40 sont
d'environ 1% : plus du double du marché américain
mais moins cher que les titres du London Stock
Exchange.
170
B. Les coûts de transaction : une
source de la non-linéarité
Les coûts de transaction peuvent affecter la
dynamique des prix des actifs financiers en
agissant sur la demande et l'offre des titres
ainsi que sur les intervenants du marché
financier62. La présence de ces coûts peut
engendrer une réduction du bien être social
même si les agents sont parfaitement
rationnels. Elle se traduit dès lors par une
augmentation du nombre des gens non
informés ou mal informés et elle implique
par ailleurs une augmentation du risque du
marché et une diminution de l'efficience de
l'efficacité du marché.
En pratique, l'impact des coûts de
transaction sur les prix a été étudié et testé
et différents résultats souvent controversés
ont vu le jour. Nous distinguons ainsi deux
types d'approches. La première considère
que les coûts de transaction inférieurs sont
bénéfiques et interprète les réductions de
ces coûts comme étant des économies de
coûts. Ce sont donc les résultats d'une
meilleure gestion des coûts de l'agence et
d'une meilleure coordination entre les
organisations existantes qui permettent de
créer de nouvelles structures de marché
plus efficientes (Clémons et Row (1992)).
Une diminution de ces coûts se traduit par
une augmentation des participations
directes des agents moins informés63, par
une sur-efficacité totale du marché
financier et par une diminution dans les
marges des intermédiaires. De plus, la
réaction des agents vis-à-vis de l'arrivée
d'une nouvelle information est étroitement
liée au niveau des coûts de transaction. En
effet, plus les coûts de transaction sont
faibles, plus l'accès à l'information est
62
Selon Dumas (1992), il y a toujours un coût
associé aux ordres de transaction passés sur le
marché. En effet, si un titre fait l'objet d'un ordre de
transaction à un prix pt, seulement 1/(1+s) arrive
réellement, Autrement dit, pour acheter une unité
d'une action X à un prix pt, l'actionnaire doit payer
(1+s) * pt.
63
Plus les coûts de transaction diminuent, plus les
agents augmentent leur usage du marché.
facile et plus les investisseurs sont incités à
augmenter leur participation au marché
financier. Ceci engendre une réduction
totale du nombre des non-informés dans le
marché et peut se traduire par une réaction
plus rapide et un ajustement instantané des
cours boursiers. En revanche, plus ces
coûts sont faibles, plus les prix sont
volatils car, d'une part, plus ces coûts
diminuent, plus les individus auront
tendance à multiplier les ordres d'achat et
de vente des titres. D'autre part, la présence
de ces investisseurs moins informés peut
créer des fluctuations dans la demande,
dans le degré d'aversion vis-à-vis du risque
et dans les prix.
La deuxième approche tient aux travaux de
Clémons et Weber (1994). Elle suppose
que la réduction des coûts de transaction a
des effets négatifs, notamment, en terme
d'intermédiation car la réduction des coûts
de transaction peut créer des coûts sociaux.
Mais quoi qu'il en soit, les frais engagés
par les intermédiaires sont répercutés sur
leurs clients. Cette répercussion se
matérialise par des frais explicites ou par la
pratique
d'un
prix
acheteur
systématiquement différent du prix
vendeur (prix incitatif). La pratique des
prix incitatifs peut être économiquement
significative (afin de résorber le stock des
titres), mais risque de réduire la fourchette
réalisée qui sera inférieure à celle
initialement affichée et d'avoir des prix
plus rigides. Ces rigidités peuvent rejeter
l’hypothèse d'ajustement instantané et
symétrique des prix et peuvent être à
l'origine d'un sur ou sous-ajustement réel
persistant des prix. D'ailleurs, les
dynamiques asymétriques sont le plus
souvent causées par des rigidités liées au
fonctionnement des marchés. De plus, elles
peuvent créer une inertie dans les prix des
actifs lorsque ceux-ci tentent de rejoindre
leur valeur d'équilibre de long terme. En
effet, à court terme, le cours peut avoir
tendance à s'éloigner de son niveau
d'équilibre mais lorsqu’il s’en écarte
171
durablement les forces de marchés tendent
à le ramener à son niveau d'équilibre.
Ainsi, nous comprenons que la présence
des frais de transaction peut affecter la
nature de l'arbitrage. En effet, plus les
coûts de transaction sont élevés, plus la
demande des titres diminue, moins les
agents vont faire de l'arbitrage et plus les
effets d'inertie et la lenteur des prix à
rejoindre la valeur d'équilibre seront
importants64. En revanche, plus les frais de
transaction diminuent, plus le nombre des
informés augmente et plus l'ajustement des
prix est rapide. Sercu, Uppal et Van Hulle
(1995) ont montré que plus les coûts de
transaction sont élevés, plus les prix ont
tendance à s'éloigner de leur valeur
d'équilibre mais leur déviation est moins
proportionnelle que celle des coûts de
transaction.
Or, en présence des coûts de transaction, il
est difficile voire impossible de corriger en
même temps tous les mésalignements des
cours boursiers à l'intérieur des différentes
places financières car l'agent économique
rationnel doit comparer les coûts assumés
aux profits espérés et il n'a intérêt à réagir
que lorsqu'il anticipe que les gains attendus
peuvent compenser les coûts associés à ces
titres. Autrement dit, il ne sera pas optimal
de corriger chaque déséquilibre dans les
différentes places financières à chaque
date. En effet, les titres sont échangés entre
les différentes places financières seulement
quand le déséquilibre dans les utilités
marginales de consommation est assez
grand pour compenser les coût de
transaction qui leur sont associés.
Ainsi, nous pourrions identifier, comme
nous l’avons noté, deux zones : Une zone
64
Plus il est coûteux de passer un ordre de
transaction sur un actif dans une autre place
financière, plus il sera optimal d'acheter une action
seulement lorsqu'on anticipe un gain espéré
suffisamment plus élevé.
de non échange (bande de non arbitrage)65
marquée par un écart durable entre le cours
et son prix d'équilibre et par des déviations
importantes du cours par rapport à sa
valeur fondamentale. A l’intérieur de cette
zone, les coûts de transaction génèrent une
région pour laquelle les déviations par
rapport l'équilibre ne sont pas corrigées
puisque les coûts de transaction sont assez
larges pour qu'ils soient couverts. Elles
sont divergentes et elles admettent une
racine unitaire car à l'intérieur de cette
région, aucun arbitrage n'est possible et
aucun ajustement n'a lieu. Les prix peuvent
fluctuer mais sans que l'arbitrage exerce sa
force de rappel. La seconde zone est une
zone d'échange à l'intérieur de laquelle, le
prix fluctue au voisinage de sa valeur
d'équilibre et les déviations admettent un
phénomène de « Mean Reversion » lorsque
le différentiel des prix excède les coûts de
transaction. A l'intérieur de cette zone,
l'arbitrage devient possible et l'ajustement
peut avoir lieu mais de façon discontinue et
non-linéaire (Michael et al.(1997)).
En effet, on peut s'attendre à ce que les
agents réagissent ou non aux écarts des
cours par rapport à l'équilibre selon que les
coûts de transaction associés à leurs
échanges soient élevés ou non relativement
aux rendements issus des déviations des
cours. Par exemple, de faibles écarts à
l'équilibre peuvent être jugés peu
importants par les opérateurs sur le
marché. La présence de ces coûts implique
alors un ajustement non-linéaire des prix
des actifs financiers dont la vitesse
d'ajustement est d'autant plus élevée que
l'écart à l'équilibre est important. Selon
Bessec (2002), il existe des vitesses de
convergence différenciées des séries
suivant l'amplitude du déséquilibre. Les
déviations du prix par rapport à l'équilibre
sont alors gouvernées par un ajustement
non-linéaire dont la vitesse de retour vers
l'équilibre est fonction de l'ampleur des
déviations par rapport à l'équilibre. Cette
65
Cette bande sera d'autant plus large que le coût de
l'arbitrage sera élevé.
172
non-linéarité dans l'ajustement reflète la
complexité
des
fondamentaux
économiques et l'irréversibilité inhérente
aux trajectoires des prix des actifs
financiers. Elle constitue une manière
visant à tenir compte des causes
structurelles de rigidité pour expliquer la
lenteur de l'ajustement des prix des actifs
financiers vers la valeur de long terme.
C. Ajustement des prix en présence
des coûts de transaction :
Méthodologie adoptée
La présence des coûts de transaction dans
le passage des ordres se traduit par la
lenteur des prix des actifs financiers à
rejoindre la valeur de long terme. Elle
limite l'arbitrage et elle génère des effets
d'inertie dans la dynamique des prix. En
conséquence, l'ajustement des prix est
discontinu, asymétrique et non-linéaire
avec une vitesse de convergence qui est
fonction de l'ampleur de l'écart par rapport
à l'équilibre. Parmi les processus nonlinéaires, un modèle à transition lisse de
Transition
type
STAR
(Smooth
Autoregressive Models) peut paraître
approprié pour représenter la dynamique
d'ajustement des prix en présence des coûts
de transaction pour plusieurs raisons.
D'abord, comme le suggèrent Dumas
(1994) et Teräsvirta (1994), même si le
saut vers le régime stationnaire est brutal,
l'agrégation temporelle des données tend à
lisser la transition entre les régimes. Par
ailleurs, les marchés financiers sont
marqués par la présence des coûts de
transaction et sont composés d'agents
hétérogènes. Les agents sont caractérisés
par
des
mécanismes
d'anticipation
différenciés et des effets d'apprentissage
plus ou moins longs. Il est donc probable
qu'ils changent simultanément de stratégie
d'achat. Pour toutes ces raisons, les prix
ont plus de chance de s'ajuster
graduellement qu'instantanément.
linéarité est indispensable pour reproduire
les effets d'inertie et que ces phénomènes
de dépendance de long terme sont capturés
par des spécifications non-linéaires. Ils ont
étudié, plus particulièrement, la dynamique
d'ajustement du taux de change vers les
fondamentaux économiques et ont utilisé le
cadre des modèles ESTAR pour
représenter les mésalignements des taux de
change par rapport à leur équilibre
fondamental. Donc, la représentation nonlinéaire ESTAR de Granger et Teräsvirta
(1993) et Teräsvirta (1994) constitue un
cadre idéal pour détecter les périodes de
sur- et sous-évaluation des prix des actifs
financiers et s’avère plus adéquate que la
classe des modèles linéaires pour étudier la
dynamique d’ajustement des prix.
Conclusion
L'objectif de ce papier a été double. Le
premier a consisté à chercher toute une
panoplie d'arguments théoriques et de
raisons économiques à l'origine du rejet de
l'hypothèse de linéarité. Le deuxième
objectif a été d'expliquer la non-linéarité
souvent détectée dans la dynamique
d'ajustement des prix des actifs financiers
par la présence des coûts de transaction, et
de mettre en avant l'intérêt des
formalisations non-linéaires (i.e. Modèles à
seuil) pour reproduire la dynamique des
séries financières.
La multiplicité des outils mis à la
disposition pour la modélisation des séries
financières est une preuve de l'intérêt porté
à ce domaine de recherche, mais également
apparaît comme une conséquence de
l'absence des résultats fiables concernant la
nature de la dynamique de l'ajustement des
prix des actifs financiers.
En pratique, Michael et al.(1997) et Peel et
Taylor (2000) ont montré que la non-
173
Bibliographie
Artus P. et Kaabi M.(1994a), « Mimétisme
: un modèle théorique simple et une
application au cas de la structure des taux
d’intérêt », Revue économique, n.3, mai
pp.613-624.
Balke
N.S.
et
Fomby
T.B.
(1997), « 'Threshold Cointegration », The
Review of Economics and Statistics, 5,
pp.629-645.
Dufrénot G. et Mignon V. (2002), Recent
Developments in Nonlinear Cointegration
With Applications to Macroeconomics and
Finance, Kluwer Academic Publishers,
299 pages.
Dumas B. (1992), “ Dynamic Equilibrium
and the Real Exchange Rate in a Spatially
Separated World ”, The Review of
Financial Studies, Vol.5, N°2, pp.153-180.
Benninga, S., and A.A. Protopapadakis,
1988, ''The Equilibrium Pricing of
Exchange Rates and Assets When Trade
Takes Time'', Journal of International
Economics, Vol. 7, pp. 129-49.
Dumas B. (1994), “ Partial Equilibrium
Versus General Equilibrium Models of the
International Capital Market”, dans Van
der Ploeg F., The Handbook of
Macroeconomics, Blackwells, Oxford,
pp.301-347.
Bessec M. (2002), « Taux de change réels
de 1973 à 2000 : une mesure non-linéaire
des mésalignements », Working Paper,
EUREQua, Université de Paris 1Panthéon-Sorbonne.
Escribano A. (1986), “Identification and
Modelling of Economic Relationships in a
Growing Economy, PhD Dissertation
(chapter4), university of california san
diego.
Clémons E.K and Row M.C. (1992), “
Information Technology and Industrial
Cooperation : The Changin Economics of
Coordination and Ownership”, Journal of
Management Information Systems, pp.928.
Escribano A. (1997), “ Nonlinear Error
Correction : the Case of Money Demand in
the U.K. (1878-1970) 3 Working Paper,
université carlos III, Madirid.
Clémons E.K and Weber B.W. (1994), “
Segmentation, Differentiation, and Flexible
Pricing : Experience with Information
Technology and Segment- Tailored
Strategies”, Journal of Management
Information Systems”, (11:2).
Constantinides G. M.(1986), “Capital
Market Equilibrium with Transaction
Costs”, Journal of Political Economy, 94,
pp.842-862.
De Grauwe P. et Grimaldi M. (2003), “
Heterogeneity of Agents, Transaction
Costs and the Exchange Rate”, Actes de la
Conférence Internationale de l’Association
d’Econométrie Appliquée (AEA), 6 et 7
mars, Marseille.
Escribano A. et Pfann G.A. (1998), “
Nonlinear Error Correction, Asymmetric
Adjustment and Cointegration”, Economic
modelling, 15, pp.197-216.
Escribano A. et Mira S. (1997), “
Nonlinear Error Correction Models”,
Working Paper n°97-26, Department of
Statistics, Universidad Carlos III, Madrid.
Flood R. et Taylor M.P. (1996), “
Exchange Rate Economics: What’s Wrong
with the Conventional Macro approach?”,
in J.A Frankel, G. Galli et A.Giovannini
(eds), The Microstructure of Foreign
Exchange Markets, Chicago, University of
Chicago Press for National Bureau of
Economic Research.
174
Frank M. et Stengos T. (1989), “
Measuring the Strangeness of Gold and
Silver Rates of Return ”, Review of
Economic Study, 56 (4), pp.553-568.
Froot, K.A., and K. Rogoff, 1995,
“Perspective on PPA and Long-Run Real
Exchange Rates,'' in K. Rogoff and G.
Grossman, eds., Handbook of International
Economics (Amsterdam: North Holland).
Jawadi F. (2006), « Ajustements nonlinéaires des cours boursiers dans les pays
du G7 : Essai de modélisation », Thèse de
doctorat, Université de Paris 10-Nanterre.
Jawadi
F.
et
Koubaa
Y.(2006),
« Dynamique d'ajustement à seuil des
rentabilités boursières des pays G7 :
Application des modèles STECM, Euro
Mediterranean
Economics
and
Finance
Review, Vol.1, n°2, Mars, pp.151-163.
Lothian J., et Taylor M.P. (1996), “Real
Exchange Rate Behavior: the Recent Float
from the Perspective of the Past Two
Centuries”, Journal of Political Economy,
104, p 488-509.
MacDonald R., Taylor M.P. (1994), “The
Monetary Model of Exchange Rate : Long
Run Relationship, Short Run Dynamics
and How to Beat a Random Walk”,
Journal of International Money and
Finance, vol.13, pp. 276-290 .
Michael P., Nobay A. R., Peel, D. A.,
(1997), “Transaction costs and Nonlinear
Adjustment in Real Exchange Rates : An
emprical Investigation”, Journal of
Political Economy, Vol.105, n°4.
Michael P., Peel D.A. et Taylor M.P.
(1997), “ Ajustement non linéaire vers le
taux de change d’équilibre- le modèle
monétaire revisité ”, Revue économique,
Vol 48, N.3 , pp.653-659.
Obstfeld M., Taylor A. (1997), “ Nonlinear
Aspects of Good-Market Arbitrage and
Adjustment : Hecksher's Commodity Point
Revisited”, Journal of the Japanese and
International Economies, pp.441-479.
Orléan A. (1990), “ Le rôle des influences
interpersonnelles dans la détermination des
cours boursiers ”, Revue économique,
Vol.41, n.5, pp.839-868.
Peel D. A. et Taylor M. P.(2000), “
Nonlinear
Adjustment,
Long-run
Equilibrium
and
Exchange
Rate
Fundamentals”, Journal of International
Money and Finance, 19, pp.33-53.
Sercu P., Uppal R. et Van Hulle C. (1995),
“ The Exchange in the Presence of
Transaction Costs : Implication for tests of
Purchasing Power Parity “, Journal of
Finance, 50, pp.1309-19.
Shiller R. (1981), “ Do Stock Prices Move
Too Much to be Justified by Subsequent
Changes in Dividends”, The American
Economic Review, Vol.71, n.3, pp.421436.
Taylor, M.P., Peel, D.A. and L. Sarno
(2001), “Nonlinear Mean Reversion in
Real Exchange Rates towards a Solution to
the Purchasing Power Parity Puzzles,
International Economic Review, 4, 10151041.
Teräsvirta T. (1994), “ Specification,
Estimation and Evaluation of Smooth
Transition Autoregressive Models ”,
Journal of the American Statistical
Association, Vol.89, pp.208-218.
Teräsvirta T. et Anderson H.M. (1992), “
Characterizing Nonlinearities in Business
Cycles
using
Smooth
Transition
Autoregressive Models”, in Nonlinear
Dynamics, Chaos and Econometrics,
Edited by Pesaran M.H.and Potter S.M.,
pp.111-128.
175
Annexes
Graphique 1
176
The Interaction between Economic Reforms and
FDI in MENA Countries
Anis KHAYATI
Ph.D. ,Nagoya City University, UMLT Tunisie
Abstract
An examination of the amount of FDI in the Middle East and North Africa (MENA)
shows that it remains below the potential of the region et is well behind FDI in other
regions, notably in Asian and South-American countries.
In order to explore the causes of this situation, this paper uses a game-theoretical
framework to examine the strategic interaction between economic restructuring in
MENA countries and the participation of foreign firms in the restructuring process of
these economies.
The paper points to the need for increased credibility of reform efforts by MENA
governments. It shows that contribution of FDI to economic restructuring is only as
effective as the commitment of these governments to initiate and especially to maintain
high paces of economic reforms. Since a “fast track” economic restructuring is difficult
to succeed without adequate external financial support, higher foreign aid is also
essential to reduce costs of reform through social safety nets and elevate MENA
countries out of the present equilibrium with low restructuring-oriented FDI.
Keywords: MENA countries, economic restructuring, FDI, foreign firms, game theory.
177
Introduction
The recent decade in several countries
of the Middle East and North Africa
(MENA) region has been marked by an
economic restructuring aiming at
transforming these economies into
market-oriented ones. A vital element of
reform in the region was liberalization
of investment and trade. FDI was seen
as a vehicle for economic restructuring
by providing valuable investment funds
as well as much needed technical and
managerial know-how. In previous
literature, analyses of where and how
firms are likely to invest in the region
have relied mainly on evidence from
country studies in combination with
transaction-cost
or
resource-based
approaches. However, such efforts to
look at the determinants of FDI do not
explicitly address the problem of
dependency
between
economic
restructuring in the host country and the
contribution of FDI to competition and
efficiency.
The interdependence of restructuring by
host governments and foreign firms in
the MENA region is interesting because
reform policies in these economies over
the past decade have resulted in
progress but the amount of FDI
remained low comparatively to other
regions. It is of interest therefore to
investigate whether reforms initiated by
either the host country itself or
prescribed by the World Bank and the
IMF would serve to encourage the type
of inward FDI that contributes to
efficient economic restructuring.
This paper uses a game-theoretical
framework
to
examine
the
interdependency between economic
restructuring in the host country and
enterprise restructuring by foreign
firms. When a government and a
foreign firm interact strategically in a
static setting, two equilibriums arise: In
one, the government is committed to
rapid
economic
reform
and
restructuring, and the foreign firm
contributes to such restructuring
through the acquisition of an existing
enterprise. In another equilibrium, the
host government chooses a gradual
approach to reform and the firm chooses
to minimize operational uncertainties by
playing only a mediating role in
economic restructuring through the
indirect transfer of technical and
managerial know-how. When players
are allowed to learn from the
experiences of their predecessors in a
dynamic
setting,
the
model’s
equilibriums take on the interpretation
of long-run conventions about the
modality of investment.
The paper is structured as follows:
Section two presents an outlook of
progress with reform in some MENA
countries and highlights trends in FDI in
the region. Section three develops the
game-theoretical model. First, the static
framework is considered, and then is
extended to a dynamic setting. Section
four concludes.
I.
Some Features of Market
Reforms and FDI Trends in MENA
Countries
During the last decade, several MENA
countries faced a colossal challenge of
stabilizing the economy, restructuring
production capacities, while at the same
time maintaining employment levels
and a social consensus for reform.
Indeed, national debts accumulated
since the 1980s posed constraints on the
ability of countries to raise new capital
178
for market reforms. Specifically, in
view of the debt situation, foreign
private banks were reluctant to continue
lending, and for many countries, the
main source for financial assistance
became multilateral institutions such as
the World Bank and the IMF.
Due to the interdependence of reforms
on the micro and macroeconomic levels,
funding was in most cases contingent on
the implantation of a reform package
with
four
components:
(1)
macroeconomic stabilization; (2) price
liberalization; (3) easing of trade and
investment barriers and (4) privatization
of state-owned enterprises. The speed
and
extensiveness
of
reform
implementation, however, was not
uniform across the region due to
differences in initial conditions and
social costs across countries. Some
countries chose to implement all reform
components simultaneously, while in
others, the scope of reforms placed
emphasis on some of the components
only (see Nabli and Véganzonès
(2004)).
The key components of reform that may
serve to encourage entry by foreign
firms into MENA are the liberalization
of investment and privatization. While
the essential laws required by foreign
investors were implemented in most
MENA countries66, the application of
investment
frameworks
varied
significantly with respect to foreign
ownership, approval requirements,
effectiveness of profit repatriation and
66
Such laws include: (1) a basic investment
protection act that allows for compensation to
the investor in case of expropriation; (ii) a
company act allowing for the establishment of
joint-stock companies: (iii) profit repatriation
laws; and (iv) a tax code that simplifies the rules
and procedures for corporate taxation.
tax codes; and they remained
incomplete in different areas.
The part of reform that concerns
privatization of state-owned enterprises
has proven to be the most politically
challenging and time-consuming. In
most countries where privatization has
been slow or stalled, the main difficulty
for governments has been to reconcile
the political and social aspect with the
economic objectives of privatization.
Catering to political objectives is
therefore, in conflict with the aim of
attracting foreign equity. Table 1
illustrates the reluctance in privatization
in some countries67.
In general, indicators compiled in the
ERF report provide a useful measure of
progress with market-oriented reforms
in general areas such as: (1) enterprise
reform
(including
progress
in
privatization and governance); (2)
progress in the development of markets
and trade; (3) progress in developing
financial institutions; and (4) legal
reform
(measuring
both
the
extensiveness and effectiveness of
laws). Observation does not reveal any
high pace of reforms in these fields.
To illustrate the success individual
countries have had in attracting FDI, the
data in Table 2 summarizes the
distribution of FDI flows to MENA
economies for the period 1995-2003.
67
This story too: “Urged on by the
International Monetary Fund, Tunisia in 2000
published on list of 41 companies to be sold, but
by the end of March 2000, only 22 firms had
been privatized. The government said of the
combined assets of the 41 companies was 1.84
billion Tunisian dinars. However, a number of
companies the government had previously
earmarked for privatization appeared neither on
official list of companies sold nor on any other
list”; ERF report (2002), Chap. 2; p. 39-40.
179
The countries that have been relatively
leaders in reforms attracted the highest
share of FDI flows if we take the market
size into consideration. The table clearly
shows that cumulative FDI flows in
MENA countries have grown much
slower than the potential of the region
would have suggested, and is still low in
comparison to other regions.
In view of the above considerations
regarding the pace of reforms and the
flow of inward FDI, it is therefore
important to frame the problem in a
learning environment where the
interaction between host governments
and foreign investors is strategically
interdependent.
II. A
Model
of
Strategic
Dependence in Restructuring Efforts
This section aims to present the problem
of strategic dependency between host
governments and foreign firms within a
game-theoretical framework. The main
features of an interaction motivate a
game which allows for (i) multiple
equilibriums, (ii) changing players in a
dynamic setting, and (iii) adaptive
learning by agents. The model is
developed in two parts. As a first step,
the players, their actions, and payoffs
are introduced in a static setting. Here
the possibility of multiple equilibriums
is discussed and some attention is
devoted to the equilibrium selection
mechanism called risk dominance (due
to Harsanyi and Selten, 1988). Second,
the dynamics of the game are developed
using a recurrent game framework. The
way in which players make decisions in
the dynamic setting is formally
introduced through a learning-type
mechanism called adaptive play (due to
Young, 1998). The discussion here
focuses on how the formation of
conventions can determine which of the
game’s equilibriums is on average more
likely to emerge as a long-run outcome
of the FDI game.
A. FDI as a Static Coordination
Game
Consider a game played by the
government undertaking reforms and a
foreign firm. The players, their actions,
and payoff functions are defined as
follows. The host country can either
pursue a fast track approach to reform,
or a gradualist approach. The actions
available to government are therefore
denoted FT (for a fast track regime) and
GR (for a gradualist regime). The
actions available to the firm are an
expansion via FDI modes68 or an
expansion via non-FDI modes69.
The FDI game Γ has two players each
of which has two actions. The first
player is the government in a
restructuring economy which either
undertakes a fast-track regime or a
gradualist regime. The second player is
the foreign firm, which can undertake
an investment in the host country either
through an FDI mode (we take
acquisition AC as reflecting an FDI
mode of expansion) or a non-FDI mode
(we take international subcontracting IS
as reflecting a non-FDI mode of
expansion). The strategy spaces for the
government and the firm are denoted g
∈{FT,GR}and
f
∈{AC,
IS}
respectively.
68
The most important forms are acquisitions
and greenfield investments (UNCTAD, 2005).
69
That includes subcontracting, licensing,
franchising, call centers, representative offices,
etc…
180
The payoff functions of the government
and the firm capture the consequences
that any given choice of actions has for
each player. It is assumed that players
have complete information, so that once
a pair of actions is chosen, the objective
function for each player maps these into
a payoff. The payoff functions are as
follows: The government undertaking
reforms cares about efficiency and
employment70 :
G= E (g,f) + L (g,f)
(1)
Both terms in equation (1) are functions
taken by the firm, f∈{AC, IS}, and the
government, g ∈{FT,GR}. The first
term, E(g,f), represents the gains in
economic efficiency from restructuring
by the firm and/or the transfer of
technical/managerial know-how. The
second term, L(g,f) represents the
impact of the foreign firm’s actions on
employment.
The objective function of the firm is
essentially a profit function that
captures the costs and benefits from
undertaking an investment project in the
host country:
Π= π (g,f) – C(g,f)
(2)
The first term in equation (2), π (g,f), is
a standard operating profit function
which gives the discounted present
value of profits from future production.
The second term, C(g,f), represents the
transaction costs associated with entry
into the host country such as searching
for suitable targets, analyzing their
70
A reduced form representation of government
objectives has been used in several studies of
endogenous protection. For instance, Grossman
and Helpman (1994) take a similar approach
when modelling political contributions on trade
policy.
economic viability, negotiating with
managers and owners, and fulfilling
conditions imposed by governments.
A government and a firm that are
matched to play the FDI game will
choose a best response to the action
they expect their opponent to take.
Specifically, a player’s action is
considered a best response if it
optimizes his expected payoff given the
action taken by the other player. To
determine the strategic interaction
between the government and the firm in
this game, a description of what
constitutes a best response for players is
considered next.
Best responses for the Government:
Suppose the firm enters through the
acquisition of an existing enterprise.
Post-acquisition restructuring will have
a positive effect on production
efficiency
through
upgrades
in
production
technologies
and
implementation
of
corporate
governance structures. At the same
time, reduction in overstaffing will have
a positive effect on efficiency but a
negative effect on employment. If the
government imposes a fast track regime,
the rapid privatization of state-owned
enterprises reduces the probability of
lengthy acquisition negotiations and
allows for speedy post-acquisition
restructuring by the foreign firm. On the
other hand, if the government imposes a
gradualist
regime,
delays
in
privatization increase the probability of
a lengthy acquisition process. In
addition, requirements for employment
guarantees can delay reduction in
labour. Such setbacks imply that the
efficiency gains from the FDI under a
gradualist regime may be lower than
those with a fast-track approach,
181
E(FT,AC)
≥
E(GR,AC),
with
comparable reduction of overstaffing
under both regimes, L(FT,AC) =
L(GR,AC). Given these effects, a
government that wishes to maximize its
payoff when the firm enters via an
acquisition is better off choosing a fasttrack over a gradualist regime:
E(FT,AC) + L(FT,AC) ≥ E(GR,AC) +
L(GR,AC)
(3)
The firm may also choose to enter
through a subcontracting agreement.
Production efficiency can be higher
relative to the surrounding economy due
to the indirect transfer of technical and
managerial know-how by the foreign
firm which benefits the host country
equally under both a gradualist and a
fast-track regime, E(GR, IS) =
E(FT,IS). In addition, the firm employs
(and often trains) local labour force,
which results in gains to the government
through the employment term in its
payoff function. Job creation under both
regimes is associated with political
dividends to the host government but
positive social sentiments toward
subcontracting are likely to be more
pronounced under a gradualist regime.
Higher political dividends from higher
employment under a gradualist regime
implies, L(GR, IS) ≥ L (FT, IS). Thus, a
best response for the government when
the firm expands through subcontracting
is to choose a gradualist regime over a
fast-track one:
E(GR, IS) + L(GR, IS) ≥ E(FT, IS) +
L(FT,IS)
(4)
Best
Responses
for
The
best response for the firm is to choose
an acquisition over subcontracting.
Intuitively, the firm’s goal is to
minimize costs as ∂Π/∂C<O and
maximize the discounted present value
of future profits as ∂Π/∂π> 0. An
acquisition allows for speedy entry
since the foreign firm inherits
established supply/distribution networks
and/or taps into the established
customer base for the products of the
acquired enterprise: π (FT, AC)> π (FT,
IS). In addition, the transaction costs
that the firm faces with an acquisition
can be reasonable under a fast-track
regime, but quite high under a
gradualist regime. This inequality when
combined with the relationship between
profits under both modes of entry
implies:
π (FT, AC) – C (FT, AC) > π (FT, IS) –
C (FT, IS)
(5)
The government can also choose a
gradualist regime. In general, Evidence
shows that it is not uncommon for firms
to choose other forms of expansion over
an acquisition out of sheer frustration
from setbacks in negotiating an
acquisition.
Indeed,
when
the
institutional framework in the host
country is relatively undeveloped, the
discounted value of future profits is
likely to be higher with subcontracting,
π (GR, AC) < π (GR, IS). A
subcontracting agreement is likely,
therefore, to be a best response by the
firm when the regime is gradualist:
π (GR, AC) - C (GR, AC) < π (GR, IS)
– C (GR, IS)
(6)
Firm:
Equilibriums
Suppose the government imposes a fasttrack regime. Assuming that a target
enterprise exists in the host country, a
of
the
FDI
Game:
In the FDI game above, players’ give a
best response to what they expect their
182
opponent to do. This motivates Nash
equilibrium (due to Nash, 1950) as the
solution concept employed in this
model.
Figure 1: The Static Investment Game
Gov.
FT
GR
FDI Firm
AC
G11 , Π11
G21, Π21
IS
G12 , Π12
G22, Π22
Figure 1 shows the payoff for each
player. The discussion of best responses
above suggests it is possible that the
government’s payoffs are related
through the inequalities G11 ≥ G21 and
G22 ≥ G12, and the firm’s payoffs are
related through the inequalities Π11 >
> Π21. With these
Π12 and Π22
restrictions on the players’ payoffs, the
FDI game has two Nash equilibriums,
which lie on the diagonal of the payoff
bi-matrix: (FT, AC) and (GR, IS). Such
a configuration makes the FDI game a
coordination game, i.e. each player has
the same number of actions, which can
be indexed so that it is a strict Nash
equilibrium to play actions having the
same index. The existence of two
equilibriums poses an equilibrium
selection problem since in the absence
of some convention about how the game
should be played, it is not clear which
equilibrium should be expected.
Fortunately, analyses of equilibrium
refinement in coordination games
provide various sets of conditions that
make it possible to predict whether one
equilibrium is more likely to be selected
than another. The selection criterion that
turns out to be important here is risk
dominance (due to Harsanyi and Selten,
1988).
In this case, an equilibrium is risk
dominant if and only if the product of
the losses from unilateral deviation by
the government and the firm is
maximized
at
that
equilibrium.
Equilibrium (FT, AC) is risk dominant
if and only if (G11 – G21) (Π11 – Π12) ≥
(G22 – G12) (Π22 – Π21) and equilibrium
(GR, IS) is risk dominant if and only if
(G11 – G21) (Π11 – Π12) ≤ (G22 – G12)
(Π22 – Π21).
The losses from unilateral deviation in
the FDI game can be defined as follows.
The loss incurred by the government if
it chooses GR over FT when a foreign
firm makes an acquisition is positive,
(G11 – G21) ≥ 0, and a strictly positive
loss to the foreign firm results from the
choice of IS over AC when the
government implements a fast-track
regime, (Π11 – Π12) > 0. The loss to the
government from choosing FT over GR
when the firm chooses subcontracting
can be either positive or zero, (G22 –
G12) ≥ 0. The loss to the foreign firm
from choosing AC over IS when the
government chooses a gradualist regime
is strictly positive, (Π22 – Π21) > 0.
B. Recurrent
Game
Adaptive Learning
with
The FDI coordination game can now be
extended to a dynamic setting. To
account for the fact that every period71
either the government or the firm or
both may be different from the ones that
played last period, it is useful to adopt a
recurrent game framework. In this
framework, the agents playing the game
may be changing over time, but what
they all have in common are the actions
available to them when it is their turn to
71
Time is measured in periods, each interaction
between two players marks a new period.
183
play. It is therefore convenient to think
of the game as having two roles rather
than two players. Thus, the FDI game
now has a role called “Government”
and a role called “Firm”. For each role,
there exists a non-empty population of
individuals eligible to play that role.
The population of governments is
denoted by PG and the population of
firms is denoted by PF. It is assumed
that these populations are disjoint and
that within each class, all players are
equally likely to be drawn to play the
FDI game. Intuitively, the requirement
that the two populations are disjoint
simply says that an agent from the
population of government cannot play
in the role of a firm and vice versa.
The pure strategy space for the player in
role “Government”, as before, contains
two elements which can be interpreted
as publicly observable actions: g ∈{FT,
GR}. Similarly, the pure strategy space
for the player in role “Firm” is f ∈{AC,
IS}. The payoff functions, G and Π are
also as before. The elements (g, f, G, Π,
PG, PF) constitute a recurrent game,
which is played as follows. In period t, t
= 1, 2, …., a government and a firm are
drawn at random from each of the two
populations to play the FDI game. As
before, a pair of actions, known as the
record (or play) at time t72, is chosen
independently. At the end of period t,
the history of the game consists of α
records. The value of α determines how
far back in time the players are able (or
willing) to look. It is assumed that the
government and the firm are not
72
Note that t captures all instances of interaction
between governments and foreign firms, which
makes it reasonable to assume that it is large
enough to be used in long-run analysis of a
stochastic process such as the pattern of
investment behaviour in a restructuring
economy.
completely knowledgeable about the
process they are engaged in and have
limited information about the history of
play up to period t. The history of
interaction between foreign firms and
host governments at the end of period t
is then a sequence of the last α plays,
denoted ht = {(gt-α+1, ft-α+1),..., (gt, ft)}.
As before, in each period a player
chooses his action based on his
expectation of what the other player will
do. But since the government and the
firm in any given period may have
never interacted with each other before,
they need some mechanism by which to
form their expectations. In this game,
expectation’s formation is modeled as
an adaptive learning type mechanism.
Essentially,
a
firm
develops
expectations
about
what
the
government’s behavior will be based on
precedent, i.e. on information about
what players in the role “Government”
have done in the past. Similarly, the
government forms its expectations
about what the firm will do based on
information about how other players in
the role “Firm” have behaved in the
past. In this game, such information is
considered part of an agent’s situation
rather than the result of an optimal
search. Because agents in both
populations are assumed to be rational,
this information is often fragmentary.
That is, the government and the firm
this period will generally know only a
small portion of the relevant precedents,
which they learn through a social
network. Furthermore, players do not
know (or perhaps do not care) about
things that happened long ago, i.e. only
recent events matter (Young, 1998).
Given that both the firm and the
government are associated with a social
network through which they have
access to information about what has
184
been done in the past by players in the
opponent’s role, it is standard to model
the information transmission process as
a random variable. Specifically, suppose
that the process is in state ht at the end
of period t and consider a government
and a firm that are matched to play the
FDI game in period t+1. Each player
independently draws a sample of sizes
from the set of actions taken by past
players in the other role over the last α
periods. On the basis of the
informational content of their respective
samples, both players construct a simple
assessment of how their opponent is
likely to behave. For example, when the
government is trying to choose between
its actions, it will draw an independent
sample of size s from the actions that
agents in the firm’s role have played in
the past. It will then use this sample to
compute the observed frequency
distribution of the actions taken by past
players in the role “Firm”. On the basis
of this distribution the government
constructs a maximum likelihood
estimate of what action the firm will
take this period and gives a best
response
to
it.
The firm acts in a similar manner. It
draws a sample of size s and uses it to
compute the observed frequency
distribution of the actions taken by past
players in the role “Government”. The
firm then uses this distribution to
construct a maximum likelihood
estimate of what action the government
will take this period and gives a best
response to it. Although players usually
give a best reply given their
expectations of what their opponent will
do, sometimes idiosyncrasies in their
behavior can result in arbitrary or
unexplained choices. Even though such
behavior is modeled as a small positive
probability that the player makes an
error, its interpretation is not necessarily
that of a mistake. In the present
framework, such minor disturbances to
the adaptive process can also be
interpreted as experimentation by
governments and firms who are
continuously learning about how to play
the FDI game. The error rate is denoted
by ε > 0. With probability (1- ε), each
player will give a best reply to what he
expects the other will do; and with
probability ε, they will choose an action
at random. The probability of making
an error is assumed to be independent
across players. Therefore, the three
characteristics that describe how
governments and firms make choices in
each period are the player’s memory
size, players’ sample size, and the error
rate. Taken together, these factors
define a Markov process called adaptive
play (Young. 1998). That is, in the
recurrent FDI game Γ, adaptive learning
by governments and firms is a Markov
process with memory size α, sample
s
and
error
rate
ε.
size
As the game is played repeatedly over
time, precedent accumulates. Thus
records in a player’s sample can be any
combination of the players’ actions. If
in each period players choose a best
response to what they think their
opponent will do, then the process will
eventually arrive at a state in which the
last α records are of the form {(g*,
f*),…, (g*, f*)}, where (g*, f*) is one of
the two pure Nash equilibriums of Γ.
Such a state is called a convention.
Since the FDI game has two Nash
equilibriums, this implies that two
conventions can possibly develop over
time: h1 = {(FT, AC),…, (FT, AC)} or
h2= {(GR, IS),… (GR, IS)}.
Specifically, suppose that the process is
currently in convention h1, where (FT,
AC) has been the outcome of the game
185
for the last α periods. When the firm or
the government look at past strategies
taken by individuals in the opponent’s
role, they predict that the opponent in
this period will also choose to play the
Nash equilibrium (FT, AC). In the
absence of errors, a best response to this
prediction will be for the player to also
play his part in (FT, AC). Therefore,
equilibrium (FT, AC) will be repeated.
In the model developed above however,
the government and the firm are
allowed to exhibit idiosyncratic
behavior. In the presence of such
behavior, the question is whether
experimentation (or errors) can upset a
convention and affect the long-run
outcome of the game. In order to make
a prediction about which of these two
conventions is more likely to prevail in
the long run, there needs to be an
understanding of how random errors by
players can switch the FDl process from
one convention to the other. To this end,
suppose that (FT, AC) has evolved as
the outcome of the game and the player
in role “Government” makes a mistake
in period t. Such a “mistake” can, for
example, be a slow down in the pace of
reforms. In period (t+1), the player in
role “Firm” can draw a sample in which
all records but one are of the form (FT,
AC). Based on this sample, the firm
computes a maximum likelihood
estimate of the distribution the
government is using. A best response to
this distribution will most likely be the
strict Nash equilibrium strategy AC.
Such an outcome would imply that the
error made by the player in role
“Government” in period t is most likely
insufficient to upset the convention.
But what if an error was made by
several players in role Government in
the periods preceding (t+1), would such
persistent errors be sufficient to upset
the (FT, AC) convention and make the
process switch to convention (GR,IS)?
To answer this question, we need to
know how stable each convention is in
the presence of random errors. In
previous literature, (see for example.
Young, 1998), this problem has been
addressed through analysis of the
stochastic stability of an equilibrium.
Specifically, the stochastically stable
state will be the one in which the
process will spend the most time over
the long run. Intuitively, the process
will spend most of its time in the state
that requires the least amount of errors
to get to and the most to get away from.
Thus in the FDI game, if the amount of
errors it takes to switch the process to
h1= {(FT, AC),..., (FT, AC)} is greater
than the number it takes to switch it
back to h2 = {(GR, IS),..., (GR, IS)},
then the state h1, is said to be
stochastically stable. Since each
convention corresponds to a Nash
equilibrium, the stochastically stable
state will correspond to the one of the
Nash equilibriums in the static game.
The following proposition identifies the
stochastically stable state as the
convention corresponding to the risk
dominant equilibrium: (Young 1998):
Let Γ be a 2x2 coordination game, and
let Pα,s,ε be adaptive learning with
memory size α, sample size s and error
rate ε. If information is sufficiently
incomplete (s/α≤ 1/2), and s and α are
sufficiently large, the stochastically
stable states of the perturbed process
correspond one to one with the risk
dominant conventions.
What are some conditions under which
the FDI process can settle in one of the
two conventions? Suppose that repeated
interaction between governments and
firms has isolated (FT, AC) as a
186
stochastically stable state of the
recurrent FDI game. Then this
equilibrium must be risk dominant, i.e.:
(G11 – G21) (Π11 – Π12) ≥ (G22 – G12)
(7)
(Π22 – Π21)
The inequality in Equation (7) can be
satisfied if restructuring has been a
priority for the governments that played
the FDI game and acquisitions has been
crucial to the operations of foreign
firms. If the government is committed
to rapid restructuring, then the loss in
efficiency it incurs by deviating to a
gradualist regime when the firm enters
via an acquisition can strictly outweigh
the political dividends, (G11 – G21) >
(G22 – G12) ≥ 0. Similarly, by deviating
from (FT, AC), the foreign firm
foregoes the benefit of speedy entry
through an acquisition which can
outweigh the benefit of operating
through a subcontracting agreement,
(Π11 – Π12) > (Π22 – Π21) > 0. Taken
together, the inequalities over the
unilateral losses of governments and
firms posit sufficient conditions for risk
dominance of equilibrium (FT, AC).
Alternatively,
suppose
that
the
interaction between governments and
firms has isolated (GR, IS) as the
stochastically stable state of the
recurrent FDI game. Then equilibrium
(GR, IS) must be risk dominant i.e.:
(G11 – G21) (Π11 – Π12) ≤ (G22 – G12)
(Π22 – Π21) (8)
The inequality in Equation (8) can be
the host government wishes to benefit
from foreign know-how, but is not
ready to undertake rapid restructuring.
In addition, this outcome implies that
the firm is better off entering indirectly
than via acquisition. Intuitively, if the
government is not committed to rapid
restructuring, the loss incurred by
deviating to a fast track regime in the
case where the firm enters via
subcontracting is more pronounced than
the gain obtained by changing to such a
regime if the firm enters via an
acquisition. That is, (G22 – G12) > (G11 –
G21)≥0.
A similar reasoning can be used to
interpret the actions of the firm at this
equilibrium. If the firm considers it is
better-off entering via subcontracting
than via an acquisition, the cost of
deviating at (GR, IS) is strictly greater
than that at (FT, AC), so (Π22 – Π21) >
(Π11 – Π12) ≥ 0. Therefore, over the long
run, in a country where the government
has taken a gradual approach to reform,
firms are likely to play more of a
mediating
role
in
economic
restructuring. Formally, the inequalities
over
the
unilateral
losses
of
governments and firms with the above
characteristics
posit
sufficient
conditions for risk dominance of
equilibrium (GR, IS).
Conclusion
The recurrent FDI game provides a
theoretical framework that captures how
the level of restructuring efforts by the
MENA governments is strategically
interrelated with the amount of
restructuring- oriented FDI that foreign
firms would undertake. The actions of
the government capture the tradeoff
between catering to political objectives
and the goal of attracting foreign equity.
The actions for the firm capture two
forms of expansion into the region: FDI
modes and other forms. An important
outcome of the analysis is the
possibility that the game has two
equilibriums. In one equilibrium, (FT,
187
AC), the host county is committed to
rapid economic restructuring and
market-oriented policies. Since at this
equilibrium the foreign firm chooses to
enter via the acquisition of an existing
enterprise, it plays an active role in
industrial restructuring. In the other
equilibrium, (GR, IS), the host country
chooses a more gradualist approach to
reform. Here the firm plays more a
mediating
role
in
economic
restructuring through the indirect
transfer of technical and managerial
know-how.
The interpretation of the game’s
equilibriums as long-run conventions
about the modality of investment has
important implications. First, the
contribution of FDI to economic
restructuring is only as effective as the
commitment of the MENA governments
to execute and especially to maintain
high paces of reforms. This condition is
essential to elevate these countries out
of the present equilibrium with low
restructuring-oriented
FDI.
Also,
economic restructuring is difficult to
succeed without adequate external
financial support. Indeed, collaboration
between
host
governments
and
international fund institutions can serve
easing potential social costs, and
therefore the pressure for a slow down
in economic reforms.
References
Carr, D., Markusen, J.R., Maskus, K.E.
(2001): “Estimating the KnowledgeCapital Model of the Multinational
American
Economic
Enterprise.”,
Review 91(3), 693–708.
ERF Report (2002): Economic Research
Forum: Chapter 2: “Financial and
Capital Markets, Privatization and
Web
Site:
FDI”.
www.erf.org.eg/docs/Indicators_02/Cha
p2.pdf
Fudenberg, D., Tirole, J. (1991): Game
Theory, Boston: MIT Press.
Gibbons, R. (1992): “ Game Theory for
Applied
Economists”,
Princeton
University Press.
Handoussa, H and Reiffers, J.L (2002):
“Trade and Investment in the
Mediterranean Partner Countries”:
FEMISE
report.
Web
Site:
www.femise.org/PDF/femise_0203_en.p
df
Harsanyi, J. and Selten R (1988): “A
General Theory of Equilibrium
Selection in Games”, Cambridge.
Head, K. and Ries, J.( 2005): “Judging
Japan’s FDI: The verdict from a
dartboard model,”, Journal of the
Japanese and International Economies
19, 215–232.
Loungani, P., Mody, A., Razin, A.,
Sadka, E. (2003): “The Role of
Information in Driving FDI: Theory and
Evidence,” Scottish Journal of Political
Economy 49, pp.546-543.
Markusen, J. (1984): “Multinationals,
Multi-Plant Economies, and the Gains
from Trade”, Journal of International
Economics 16, 205-226.
Meier, O. and Schier, G. (2005):
“Entreprises Multinationales”, Dunod.
Mody, A., Razin, A., Sadka, E. (2004):
“The Role of Information in Driving
FDI
Flows:
HostCountry
Transparency and Source Country
188
Specialization,” NBER Working Paper
9662.
Nabli, M. and Véganzonès, M.A
(2004): M.: “Reform and Growth in
MENA Countries: New Empirical
Evidence”, World Bank, Washington
D.C.
Decisions: The Case of US Firms”,
Journal of International Economics, 33,
57-76.
Young, P. (1998): “Individual Strategy
and Social Structure: An Evolutionary
Theory of Institutions”, Princeton
University Press.
Nash. J (1950): “The Bargaining
Problem”, Econometrica 18, 155-162.
Navaretti, B. G. and Venables, A.J.
(2004): “Multinational Firms in the
World Economy”, Princeton University
Press, New Jersey
OECD (2003): “Global Integration of
Economic Activities”, STI Scoreboard
(www.oecd.org).
Rivoli, P. (2005): “The
T-shirt in the Global
Economist examines
Power and Politics of
John Wiley and Sons.
Travellers of a
Economy: An
the Markets,
World Trade”;
Sekkat, K. and Véganzonès, M.A
(2005): “Trade and Foreign Exchange
Liberalization, Investment Climate and
FDI in the MENA Countries”,
BULBEA Research Series, Brussels.
Stalk, G. and Young, D. (2004):
“Anatomy of a Cost Advantage: It’s
More
than
Cheap
Labor”,
Manufacturing
Today,
Boston
Consulting Group.
UNCTAD: (2005): World Investment
Report, United Nations.
UNCTAD: (2004): World Investment
Report, United Nations.
Wheeler, K. and Mody, A. (1992):
“International Investment and Location
189
Appendix
Table 1: Measure of Commitment to Privatization
(Rate Relative to Potential Transactions)
Country
Egypt
Jordan
Kuwait
Lebanon
Morocco
Oman
Saudi Arabia
U.A.E
Rate (%)
65
51
32
49
64
52
50
67
Source: EIU (2004); measurement is based on a survey done by the
EIU for ratings to privatization.
Table 2: FDI Inflows by Host Region and Economy
(Millions of US $)
Host Region/Economy
1989-94 (Av.)
1995
2003
World
Developed economies
Developing economies
Africa
North Africa
Algeria
Egypt
Morocco
Sudan
Tunisia
Asia
West Asia
Bahrain
Iran
Iraq
Jordan
Kuwait
Lebanon
Oman
Qatar
Saudi Arabia
Syria
Turkey
UAE
Yemen
S-E Asia
Indonesia
Malaysia
200,145
137,124
59,578
3,952
1,533
12
741
352
-5
358
37,659
2,181
237
-23
1
6
-4
10
119
48
502
98
708
90
300
35,078
1,524
3,964
331,068
203,462
113,338
4,694
1,209
5
598
335
-a
378
75,293
-2
431
17
2a
13
7
35
29
94a
-1877
100
885
399a
-218
73,639
4,346
5,816
1270,764
1,005,178
240,167
8,198
2,616
6
1,235
201
392
781
143,479
3,427
500
36a
-a
300a
16
180a
62a
303a
1000a
84a
982
100a
-201
137,348
-4,550
5,542
Source: UNCTAD (2004), World Investment Report.
190
R&D Investment and the Financial Performance
of Technological Firms
Jean-Sébastien LANTZ
Associate Professor of Finance
ParisTech - Telecom Paris
[email protected]
Jean-Michel SAHUT
Professor of Finance
Cerege - Sup de Co La Rochelle
[email protected]
Abstract
The growth of technological firms is based on the exploitation of innovative products and
services thus forcing them to strongly invest in research and development (R&D). If the R&D
expenditures announce the strategic positioning of firms, they can also significantly decrease
the financial performances in terms of net income, return and risk.
With the IAS 38 standard, the R&D expenditures can be accounted as expenses or assets. This
choice has an impact on financial performances but this effect is difficult to forecast because
these expenditures increase the information asymmetry between shareholders and managers.
We demonstrate that it is preferable to capitalize the R&D expenditures if the firm is able to
draw an immediate commercial exploitation from them or to adopt a swarming strategy of
innovative projects (spin-off) as the benefits arise in the future.
Keywords: R&D, intangible asset, capitalization, value, beta, return, performance, risk,
accounting standard, IAS 38, swarming, spin-off.
JEL Classification : G32, G14, L19, O33
191
Introduction
The nature of investments realised by firms
have especially changed during the last
twenty years; intangible investments
developed quickly and represent a large
proportion of the firms assets, which by
nature are difficult to evaluate. The
research and development (noted R&D
thereafter) expenditures are strategic and
sensitive because they intervene in the
upstream of the production cycle and
reveal the strategic orientations of firms.
The decisional choices, resulting from the
process of knowledge acquisition and
rights, are irreversible and structure firms,
sometimes putting them in danger.
Moreover, the control of R&D activities is
delicate
because
the
developing
complexity of technological projects
generates an increase of control costs to
overcome the information asymmetry. This
is the reason why we questioned the
incidence of the integration strategies upon
the financial performance of firms. This
research lies within the scope of the
implementation of IAS 38 standard73 in the
European Union for firms listed on stock
exchanges. This standard should help the
financial communication on intangibles
assets.
Previous research shows that firms which
undertake intense R&D expenditures
reinforce their position on the market by
improving their sales. Nevertheless, these
studies did not lead to a consensus about
the impacts on income and financial
73
The IAS 38 standard distinguishes two phases in
intangible assets creation: the research phase and
the development phase. R&D expenditures of the
first research phase are expenses, but R&D
expenditures of the development phase can be
capitalized, i.e. these expenditures are counted as an
intangible asset if the firm shows: (A) the technical
feasibility of the asset for its start-up or of its sale,
(b) its intention to use it or sell it and (c) the
resource availability, in particular technical and
financial resources, for its development and use.
performance. This last aspect remains
under researched.
This paper is organized in two parts. In
Section 2, we located our research in R&D
literature in order to define our framework.
We formulate assumptions to study the
impacts of R&D expenditures on income,
financial performance and risk of firms. In
section 3, after a descriptive analysis of our
sample, we test our assumptions using
simple and multiple regressions, as well as
tests of differences of the averages. Lastly,
we discuss the results obtained in order to
show what can be of interest for
technological firms to adopt a strategy of
R&D expenditures capitalization.
I.
Theoretical Framework
Among the studies on the performance,
value and risk of the intangible assets,
R&D occupies a dominating position
because of the link of this intangible
element with the theories of the innovation
in economy. In this section, we present a
review of the literature about the impacts
of R&D expenditures on the firms value,
its performance and its risk in order to
elaborate our assumptions.
A. R&D and the firms value
Many researchers have been interested in
the
relationship
between
R&D
expenditures and the firms value. These
studies are founded on a stock exchange
analysis of the firms which realized
immaterial capital expenditures. The
objective is to establish a link between the
evolutions of the market value of firms and
their immaterial expenditures, generally
limited to the expenditures of R&D,
publicity, and patents. This market value is
expressed as the sum of the market value
of the tangible and intangible assets. To
explain the link between "R&D and the
192
firms value ", the review of the literature
suggests to use the “Q of Tobin” indicator
expressed by the ratio:
Q t = MVt / RC(Tt + It)
where MVt : market value of the assets
RC(Tt + It) : replacement value of the
tangible assets (Tt) and intangible
assets (It)
According to its creator, this ratio must
equal one. However, the review of the
literature studied thereafter, shows that
generally this is not the case, which allows
for many interpretations.
For Tobin (1978) this indicates an
imbalance, and thus profitable investment
or disinvestment opportunities. Whereas
for Salinger (1978), Bulow (1985), and
Wernerfelt and Montgomery (1988), this
imbalance is due to the out-balance sheet
elements (like the provisions for
retirements), or to strategic factors
(monopoly rent, diversification). The latter
authors postulate that the “Q of Tobin”
variable consists of measuring the
difference between the current value of a
firm (market value, output) and the initial
value of the resources used to create the
firm (historical book value, input). This
ratio is thus a measurement of the firms
performance since its creation and has to
be higher than 1.
Other authors such as Griliches (1981),
Cockburn
and
Griliches
(1988),
Hall(1988), Megna and Klock (1993),
Chung and Pruitt (1996) considered this
ratio Q as an indicator of the intangible
assets of a firm not recognized in
accounting.
Today, this approach is generally adopted
and numerous studies shown a strong
correlation between this Q ratio and the
intangible expenditures of firms, in
particular the R&D expenditures (Hirshey
and Weygandt 1985; Skinner 1993;
Agrawal and Knoeber 1996).
The results obtained seem to be
unambiguous;
R&D
expenditures
positively and significantly correlate with
the market value of firms. These
expenditures are valued by the market as
assets which will generate additional cashflows in the long term. For example, Pakes
(1978, 1985) found that an increase in
R&D expenditures or patents has a positive
and significant impact on the firms value.
Another approach, founded on heuristic
models, comes to confirm this correlation
between R&D expenditures, net income
and the firms value. Connolly and
Hirschey’s
(1984)
study,
which
concentrated on 390 firms of the
classification Fortune 500, showed the
existence of a positive correlation between
the R&D expenditures and the firms value.
This tends to validate the concept of
intangible capital.
Nakamura and Leonard (2001) added that
during the last decade, studies regularly
highlight that the R&D expenditures of a
firm increase its market value of an amount
at least equivalent to these expenditures.
However Lev (1996) does not recognize
the stock exchange as a means of
evaluating intangible assets. Using the
results recorded by Chan, Lakonishok and
Sougiannis’s (2001) study, it can be seen
that
the
market
systematically
underestimates the firms value realizing
significant intangible investments, in
particular in R&D.
Thus, these studies show that there is a
positive correlation between the R&D
expenditures and the firms value quoted on
stock exchange. The current value of the Q
of Tobin rate can be explained by the fact
that firms are moving to adapt to a certain
economic reality where the intangible
elements play a crucial role for their
development. This importance of the
intangible elements is appreciated through
its impact on the firms performance in the
following section.
193
B. R&D and the firms performance
Beyond their impact on the firms market
value, R&D expenditures have an
influence on the firms performance, which
is appreciated in terms of income and
return.
i) Impact on income :
On this point, we can note in particular the
contribution of Sougiannis (1994), who
studied the correlation between the annual
R&D expenditures and the net income
announced by the firms in their annual
report. Its two main results are :
* a dollar spent in R&D induces an
average net income rise of 2 dollars over
the following 7 years, which means a
return of these investments of 26% per
year on average,
* a dollar spent in R&D leads to a
rise of almost 3 dollars of the firm studied
value.
But Morbey (1989) affirmed that there is
any link between the R&D expenditures of
American companies and the growth of
their profit.
In Europe, because of the IAS 38 standard,
the result of this type of study depends on
the way in which these expenditures are
accounted whether as expenses or assets.
Ding and Stolowy (2003) worked on the
reasons for which French firms capitalize
their R&D expenditures and the relevance
of this strategy. Their analysis did not
provide any result to show this. They just
identified, for the French domestic market,
the firm’s characteristics (high tech
industry and having a high risk beta) which
can predict their R&D capitalization.
Other authors studied this type of
relationship by looking at other factors,
like the sales growth, instead of the net
income. So, Brenner and Rushton (1989)
noticed that the firms which have higher
R&D expenditures on average obtain a
sales growth rate higher than the market
average rate, and vise versa.
ii) Impact on return :
We have indexed three studies which
would confirm the assumption of a positive
incidence of R&D expenditures on the
return of firms. Chan et al. (1990)
highlighted a positive reaction of the firms
stock exchange prices when they announce
the increase of their R&D expenditures.
Canibano, Garcia-Ayuso and Sanchez
(2000) asserted that return rises with the
increase of the R&D expenditures. It is by
supposing that the investments in R&D
help to increase future profit, that this sort
of research identifies this positive and
significant link.
However, Sundaram, John and John (1996)
reached the opposite conclusion. They did
not find a positive relationship between
R&D expenditures and stock exchange
prices. By refining their study, they
showed that the reaction of the market
depends on the level of competition in the
sector ; an increase of R&D expenditures
in a non competitive sector (weak
competition) leads to a rise of the initiating
firm’s stock price. On the other hand, in a
very competitive sector, this type of
announcement induces a fall of the firms
stock price. This difference, concerning the
impact on the stock price, is noted by other
authors like Hall (1993) and can be
explained by the fact that the results
depend on the period of the study, and in
particular, if they were carried out before
or after the year 1985, which seems to be a
hinge year in terms of investor behaviour
in the United States.
These various studies assert that the R&D
expenditures of a firm influence its value,
return and its accounting figures with,
however, a strong sensitivity to the
economic situation and the competition in
their sector. Consequently, we make the
following assumption:
H 1.1: The return of technological firms is
decreasing with the intensity of the
expenses
in
R&D
(expenses
of
R&D/turnover).
194
On the other hand, a firm which intensely
exploits the results of its research should
generate a significant turnover compared to
its intangible assets and have weak
intangible fixed assets compared to its total
assets. Indeed, if the R&D expenditures are
accounted as expenses, they strongly
decrease the firms income but if they are
capitalized, they weigh down the balance
sheet. In the first case, they deteriorate the
margin ratio and in the second case, they
decrease the financial lever, finding its
origin in asset rotation. So, we can deduct
the following assumptions :
H1.2: The firms return increases when the
R&D expenditures are accounted as
expenses rather than assets.
H1.3: The firms return grows when its
EBIT is significant compared to its
intangible assets.
C. Expenditure of R&D and risk of
the firm
The immaterial elements put the firm in a
situation of informational asymmetry
compared to the market because it
obviously lacks control on the contents as
well as on the prospects for future profit.
The immaterial investments require an
attentive management and specific means
because of their particular risks. Indeed,
the future value of these assets is not
guaranteed. These R&D projects imply
very high development and control costs.
From this point of view, firms must exert
high expenditures for a dubious future
return.
More over, innovating firms generally
have a strong growth. This induces a risk
of growth which can lead to problems of
liquidity, and bankruptcy especially
because these firms are generally small and
do not have the financial strength
necessary to absorb these crises. In the
technological
sector,
like
the
pharmaceutical industry, many research
projects are developed by small specialized
laboratories which, in the event of success,
sell or lay off their discoveries to big
groups. This is because the uncertainty of
the innovations created involves a
technological and competitive risk - the
first is that a technological rupture brutally
makes obsolete the discovery, the second is
that its discovery will not become a market
standard - that small firms cannot assume.
In a study on the failure factors of
investment projects, Mansfield and
Wagner (1975) showed that intangible
investments have a greater probability of
failure than tangible investments. For
Williamson (1988), the absence of
materiality in these investments, associated
with the absence of secondary market,
implies that there is not real guarantee put
on the asset, and this leads to a stronger
risk of insolvency.
Studies realized by Mansfield and Wagner
(1977), Griliches (1979), Jaffe (1986),
Audretsch
and
Feldman
(1996)
demonstrate that the spillovers relating to
processes of specific R&D make it
possible for competitors to gain
competitiveness at a lower cost; the
imitation of the processes. These studies
show in particular that, in the sectors with
a strong intensity of R&D, the R&D
expenditures increase the competitor’s
inventories of knowledge and improve the
results of their research.
Another
characteristic
intangible
expenditure is irreversibility, i.e. if a firm
stop a project, it can not recover all the
money invested, because generally these
investments are partly specific to the firm
and cannot be sold at their acquisition cost.
Lastly, with regards to the link between
risk of the firm and R&D expenditure,
Ding and Stolowy (2003), in a study on the
capitalization of R&D expenditures
applied to a sample of 68 French firms
belonging to the SBF 250 index, noticed
that the companies which capitalize their
195
R&D expenditures have a high beta risk.
The study of Y.K. Ho, X. Zhenyu, and
C.M. Yap (2004) leads to the same
conclusion. Based on a broad sample of
American firms characterized by a very
significant stock exchange capitalization,
this study indicates a very great return for
firms with very intensive R&D
expenditures. At the same time, the
analysis of the correlation confirms that the
intensity of the R&D expenditures
positively relates to the systematic risk of
the stock market. Thus, we can elaborate
the following assumptions:
H2.1: the more intense the R&D expenses
of a firm are, the riskier the firm is (high
beta).
H2.2: The risk of the firm is higher when it
capitalizes its R&D expenditures.
H2.3: The firm is less risky when its EBIT
is high compared to its intangible fixed
assets.
The review of the literature insists on
contradictory results about the incidence of
the R&D expenditures on the firms
financial performance. Our synthesis and
observation led us to suppose that if the
R&D expenditures should indicate the
capacity of a firm to maintain its
competitive advantages. Firstly there are a
source of expenses coming to decrease the
firms return. Moreover, the asymmetry of
information being increasing with the
R&D expenditures, they would enhance
the perceived risk by the investors.
In order to test these assumptions, we
chose to focus our study on technological
firms because their activities are based on
the economic exploitation of their R&D
results. In the following section, we expose
the characteristics of our sample and the
methodology employed to test these six
assumptions.
II.
Empirical results
A. Sample and methodology
For the purpose of our analysis we use data
from the 2004 annual report of firms and
the JCF Quant software. For homogeneity,
the firms of our sample are exclusively
listed on EURONEXT and NASDAQ. Our
sample is composed of 213 firms in
technological sector74.
The annual return of a share is obtained by
summing the daily returns which are
calculated with the closing prices. For each
firm of the sample, the beta is the
covariance of the daily stock return with
the daily market index return divide by the
variance of the daily market return.
The objective of the regression analysis,
which we lead in the empirical part, is to
explain the firms financial performance in
the sample, in terms of return and beta,
(the metric dependent variables) with the
other accounting metric independent
variables.
B. Descriptive
sample
analysis
of
the
The technological firms of our sample
have R&D expenditures accounted as
expenses in the income statement which
rise on average to 100,7 million euros.
These expenses are highest for the
aerospace and telecommunications sectors,
74
Our original sample is composed of a total of 365
European firms. 194 of them are within the
software sector, 73 in the telecommunications, 68
in the aerospace and 30 in biotechnologies.
Initially, we refined the composition of the sample
by excluding the 108 firms whose earnings, before
interests and taxes, are negative because the ratios
necessary for our analysis are not interpretable
when they are negative. For the same reasons, we
excluded the 23 firms which have a negative
recorded value of their intangible fixed assets. Our
sample is then made up of 234 firms.
Secondly, after a logarithmic transformation of our
data, we excluded the firms with extreme values.
That is to say, we excluded 21 firms, so our final
sample was composed with 213 firms.
196
with respectively 312 million euros and
55,3 million euros. For the software sector,
expenses in R&D are on average 33,7
million euros and 1,47 million in
biotechnologies sector. More over, the
companies in the aerospace and
telecommunications sectors have the
largest total assets and the he biotech firms
are the smallest : the size is nearly 94 times
lower than those in the aerospace sector.
These statistics show that biotech firms are
mostly spin-off of pharmaceutical groups
or large laboratories.
The averages EBIT and intangibles assets
also follow the same order. However, this
order is reversed when we look at
intangible assets with regards to the total
assets (the intangibility of the firm).
Whereas the firms in the biotechnology
and the software sectors have respectively
6,8% and 5,6% (medians) intangibles to
their total assets, firms in the
telecommunications and aerospace sectors
have close to two times less intangible
assets (respectively 3,7% and 3,9%). These
observations point out that these last two
sectors invested and capitalized less in
R&D expenditures.
We approximate the R&D capitalization
intensity with the ratio : intangible asset /
R&D expenses, that we call the R&D
capitalization ratio. For firms with
significant R&D expenditures, a high
R&D capitalization ratio means that the
firm strongly account their R&D
expenditures
as
intangible
assets.
Intangible assets are then high compared
to the R&D expenses. We will see later
that the R&D capitalization ratio must be
combined with the R&D expenses ratio to
improve financial analysis. But before
going further in the interpretation of the
descriptive statistics, let us recall that the
ratio of R&D expenses is high if the
expenditures in R&D, registered in the
income statement, are high compared to
the EBIT.
The median of the R&D capitalization
ratio for our sample of technological firms
is 1,446. The expenses in R&D thus
represent about two thirds the intangible
assets. The median of this ratio appears
particularly low in biotechnology firms
(0,66). One explanation of this
observation is that investments in R&D
are capitalized in the balance sheet. If, one
observes a low R&D expenses ratio, one
can then conclude that the firm does not
have a strategy to indicate the quality of
its projects by displaying only its
expenditure in R&D. This can be shown
in the biotechnologies sector since the
median of the R&D expenses ratio is low
(0,7). One explanation is that the R&D
expenses have a large proportion of the
operating costs and that it is preferable to
reveal this expenditure by increasing the
EBIT. On the other hand, expenses in
R&D in the software industry represent
1,26 times the EBIT. Indeed, in a lot of
cases, the net income is inevitably
negative. In addition we can observe a
R&D capitalization ratio of 1,82, nearly
three times superior to the biotechnology
sector. In this sector, it seems that
companies tend to announce the quality of
their projects by showing explicitly their
investments in R&D.
Table n°1: Indicators of accounting integration of
the R&D expenditures
Intangibles
R &D
Sector Statistics expens./EBIT
Aerospa. Average
1,1292
Median
, 4035
Biotech Average
1,0138
Median
, 7000
Software Average
2,626
Median
1,2568
Tele
Average
1,5683
COM
Median
, 8881
Total
Average
1,8709
Median
, 8671
Expens. :expenses
/ asset
0,0694
0,0391
0,1229
0,0681
0,0647
0,0566
0,0613
0,0372
0,0707
0,0443
Intangibles
/
Intangibles
R&D
expens.
/ EBIT
2,433
1,8506
1,2278
, 7091
2,1139
2,6895
, 6634
, 4989
3,1118
6,9787
1,8209
2,4276
4,8426
1,5735
3,2636
1,4465
197
4,6729
1,5501
4,8209
1,2612
The graph n°1 helps us to visualize that the
median of the R&D capitalization ratio is
close to the R&D expenses ratio for the
four sectors. Indeed, it seems that the
capitalization of the R&D expenditures are
related to the economic cycle. In the
software sector, the entry barriers rely
essentially on intense short term
technological renewal. This is because, on
the one hand, the software remains difficult
to patent (although it is made possible in
the United States) and on the other hand,
the cycles of innovation are very short (for
example six months for the videogames
and up to 3 years for professional
software). The investments of R&D are
appropriate in the short term. In general in
biotechnologies, the economic cycles are
more than ten years. Commercial
exploitation often takes place in a situation
of monopoly because of the patents and
commercial licences. These are genuine
entry barriers for the competitors in this
sector. The investments in R&D are
appropriate for a long term strategy and
mostly appear in the operating costs,
because they are part of the economic
cycle.
Graph n°1: Intensity of R&D expenses and
capitalization
expenditures as expenses, compared with
the telecom and software sectors. The
following table shows, the median of the
betas in the aerospace and biotechnology
sectors are 0,65 and 0,61. Thus, it testifies
that those industries are not very risky
compared to the telecom and software
sectors, which respectively have betas of
1,76 and 2,13.
These sectors can be grouped in two
categories:
category 1: sectors with strong signal of
investment in R&D
(telecommunications and software),
category 0: sectors with low signal of
investment in R&D
(biotechnologies and aerospace).
We observe on our sample of technological
firms that the median return is 13,5 % for a
median beta of 1,33. The median beta is
three times superior for the sectors with a
strong activity in R&D since it is 1,95
against 0,63 (median) for the firms with
low ratios. Cumulated returns follow a
reversed order because the sectors
integrating their expenditures in R&D have
returns nearly 9 times lower: 4% against
34%.
Table n°2: Integration of the R&D
expenditures
and
firms
financial
performance
Signal
Sectors with
low signal in R&D
–0
Sector
Aerospac Average
Median
Biotech
Average
Total
Software
Sectors with
low signal in R&D
–1
NB: the figures come from the sectorial medians
calculated in the previous table
The graph above points out that the
aerospace and biotechnologies sectors are a
less likely to account their R&D
Telecom
Total
Median
Average
Median
Average
Median
Average
Median
Average
Median
Beta
, 6400
, 6500
Return
0,6106
0,4
, 5357
, 6100
, 6092
1,0043
0,24
0,727
, 6300
2,1686
2,13
0,34
0,0769
-, 0400
1,757
1,76
2,0247
0,3288
0,175
0,165
1,95
0,04
These first statistics highlight that the firms
in the telecommunications and software
198
sectors are underperformers in term of
return and beta, compared to the firms in
the aerospace and biotechnologies sectors.
We continue our analysis using simple and
multiple regressions to examine whether
the accounting strategies of investments in
R&D have an effect on the financial
performances of the technological firms, or
if we are more simply facing sectorial
effects.
C. Accounting of R&D expenditures
and financial performance
1. The correlations matrix
The existence of negative returns and betas
led us to a shift of the scale. After, we have
proceeded to a logarithmic transformation
for each variable and drew up the matrix of
correlations. We examine the effect of our
variables on the financial return by
analyzing the results of the simple and
multiple regressions. Finally, while
following the same process, we studied the
effect of our variables on the financial risk
beta. This methodology allows us to
confirm the assumptions we posed in our
review of the literature, and to examine
whether there are differences in the
average of the financial performances
according to the selected strategies.
Table n° 3: Pearson correlations matrix
(ANNEXE 1)
The following sections discuss the
correlations between the studied variables
and the financial performances of the firm,
and between the variables themselves.
2. R&D investment and the
return of technological firms
The table of correlations reveals that the
intangibility of the firm, measured by the
intangible assets to the total assets, does
not have any relationship with the stock
returns of technological firms (correlation
= -0,022). On the other hand, we can
observe a weak negative correlation (-
0,167*) of the stock returns with the R&D
expenses ratio (R&D expenses/EBIT) and
a weak negative correlation of -0,138*
with the R&D capitalization ratio
(Intangible
assets/R&D
expenses).
Although these results are significant only
with an error threshold of 5%, they are
useful to indicate the tendency that the
R&D expenditures decrease the firms
return. Here, we confirm the H1.1
assumption with precaution.
Let us recall that the explanation of this
result is due to the fact that the expenditure
of R&D, entered as expenses in the income
statement, burdens the net income of the
firm and/or comes to weigh down the
balance sheet when they are capitalized
(the correlation between these two
variables is 0,173*, which authorizes us to
proceed to a multiple regression). When
one considers the R&D to asset
capitalization ratio (total assets/R&D
expenses), the correlation is significant
with an error threshold of 1% (-0,188**).
This observation puts forward the
importance attached by the stock market to
the negative leverage effect of capitalized
R&D expenditures. This variable has a
strong correlation with the two variables
previously studied. Thus, the more one
firm chooses an intense capitalization of its
R&D expenditures to the total asset, the
lower the stock return is (H1.2 confirmed).
The best way to describe this is with the
intangible operating ratio (intangible assets
/EBIT) which seems to signal the best the
return. The correlation is -0,234 ** and is
significant with an error threshold of 1%.
The firm announces its capacity to
generate benefits for the shareholder,
providing that its EBIT is high compared
to the intangible assets. This observation
shows that the firm fully makes use of its
intangible assets by exploiting them
commercially. (H1.3 confirmed).
Let us note that the intangible operating
ratio is strongly correlated with the R&D
to intangible capitalization ratio (0,709 **)
and with the R&D expenses ratio. On the
199
other hand, the intangible operating ratio is
not highly correlated with the R&D to
asset capitalization ratio (0,145*).
When one regresses the intangible
operating ratio and the R&D to asset
capitalization ratio with the stock returns,
we can only explain 3,6% of the variance.
The estimated coefficients are not
significantly different from zero. These
results oblige us to reject the assumption,
according to which there would be a
combined effect of these two variables on
stock returns. At this stage, we will retain
that the more the firm has a high EBIT
compared to its intangible assets, the
higher the stock returns. The intangible
operating ratio (Intangible assets/EBIT) is
the product of the R&D expenses ratio and
the R&D to intangible capitalization ratio
(Intangible assets/R&D expenses x R&D
expenses/EBIT). From this you can see
that the stock returns of a firm increase
with its capacity to generate benefits, by
entering its expenditures in R&D as
expenses in the income statement, rather
than to capitalize them.
This assumption is confirmed when one
regresses the R&D expenses ratio (R&D
expenses/EBIT) and the R&D to intangible
capitalization ratio (Intangible asset/ R&D
expenses) with the return. The explained
variance is 5,7% with an error threshold
lower than 1%. The coefficients estimated
for this regression are positive and
significant with an error threshold of 1,4
%. The estimated coefficients show that
the return is higher when the firm records
its expenditure of R&D as expenses rather
than as intangible assets and that the firm
is capable to generate a high EBIT
compare to its R&D expenses. This result
demonstrates again that high-return
companies have R&D programmes
supported by the operating profits, rather
than by the balance sheet. Problems of
multi colenearity do not authorize us to
proceed to other multiple regressions.
Performing technological firms do not
capitalize their entire R&D expenditures,
because it is not very probable that all
research is successful. On the other hand,
when a firm has low R&D expenses
compared to the size of its assets and when
the firm has high R&D expenses compare
to its EBIT, its net income can only be
negatively affected. Within this framework
they would be start-up or large companies
which have cumulated a delay as regards
innovation compared to the market, or
firms which have invested in unfruitful
R&D. Indeed there are many scenarios
where the R&D expenditures give rise to
financial risks that we propose to analyze
in the following section.
Table n°4: Simple and multiple regressions
between return and R&D expenditure
variables (ANNEXE 2)
3. R&D expenditures and the
risk of the technological firms
We observe a positive relationship between
the
R&D
expenses
ratio
(R&D
expenses/EBIT) and the risk measured by
the beta, since the coefficient of correlation
is 0,33 and is significant with an error
threshold of 1 %. The R² of the simple
regression between beta and the R&D
expenses ratio is 0,11**. Indeed, the
market would tend to consider the firms
which show large expenses in R&D
compared to the EBIT as being riskier.
This is due to the fact that these firms
would have multiple options of economic
exploitations of this research in the future
(real options). However, the fact that they
are not marketable immediately generates a
doubt about the economic effectiveness of
this research and thus the perceived risk by
investors. (H2.1 confirmed).
It is noticed that the variable intangibility
of the firm measured by the ratio total
assets/intangible assets maintains a strong
positive correlation (0,765 **) with the
variable "R&D to intangible capitalization
ratio". In other words, when the firm
200
records significant expenditure of R&D in
the income statement, rather than in the
balance sheet, it has few intangible assets
compared to the total assets. It is thus
noted that more the firm records significant
expenditure in R&D as expenses, the less it
appears to be intangible.
If we do not find a relationship between
the intangibility of the firm and its risk, it
is not the same with its R&D to total asset
capitalization ratio. The more the
expenditures of R&D recorded as expenses
are significant, compared to the total assets
(low R&D to total asset capitalization), the
less risky the firm appears (correlation of
0, 211 ** and H2.2 is confirmed).
The correlation which characterizes the
relationship between the variables “R&D
expenses ratio” and “R&D to intangible
capitalization ratio” is -0,173 and
significant with an error threshold of 5 %.
This correlation is statistically very weak
and we proceed to a multiple regression in
order to examine whether it is possible to
improve the results previously obtained.
As the correlation between the variables
“R&D expenses ratio” and “R&D to total
asset capitalization ratio” are very
significant (-0,447 **), we cannot proceed
to multiple regressions.
When we regress the variables “R&D
expenses ratio” and “R&D to intangible
capitalization ratio” we find a clear
improvement of the explained variance of
betas : 12,6%. Although the F test is
significant with the threshold of 1%, the
coefficient of the variable " R&D to
intangible capitalization ratio" is not
statistically significant.
The product of the two ratios can be
rewritten as the intangible operating ratio :
“intangible assets/EBIT”. This ratio has a
close relationship with the beta since the
correlation is 0,286 (R²=0,082). Indeed, the
firm is riskiest when its EBIT is low
compared to its intangible assets. (H2.3 is
confirmed). In this case, the market can be
interpreted as having a low EBIT for high
intangibles which is dangerous for
technological companies. It would mean
that in spite of, for example, the
development of new patented products or
the acquisition of brands, it puts doubt on
the opportunities for the firm to exploit
economically its assets, thus generating a
source of risk.
As we previously mentioned, when we
regress the variable "intangibility of the
firm” to the beta, we obtain a R² of 0,009
and none of the statistic tests validate a
significant relationship between these two
variables. This result indicates that the
variable measuring the intangibility of the
firm is not an indicator of the risk for
technological firms when it is taken
independently of other variables. On the
other hand, this ratio takes all its meaning,
when it is aggregated with the variable
“R&D expenses”. The R² is then 0,134.
The tests of Fisher and Student are all
significant. The coefficient of correlation
between the two explanatory variables
being slightly significant (0,139 *). From
this, we deduce that the beta increases as
the firm has increasing R&D expenses and
decreasing intangible assets to total assets
(the coefficient of this last variable being
negative). It is thus observed that a firm
can compensate with intangibles for the
risk generated by its R&D expenses. The
explanation that we can give for this is due
to the fact that capitalization tends to
reduce the informational asymmetry of
innovating firms. This is because an
intense control is then exerted, contrary to
the expenditure of R&D, which is more
abstract in its interpretation. The
expenditure in R&D capitalized in the
balance sheet is then perceived as a source
of competitive advantage. The risk of a
firm increases with high R&D expenses
and low intangible assets to its total assets.
201
The last two results obtained are
significant because they confirm the
assumption according that stakes that a
technological firm announces the quality of
its research programmes by the
capitalization of its expenditure in R&D,
while being able to generate a consequent
EBIT. This means that the technological
firms reduce the asymmetry of information
by adopting this strategy, because it shows
that it is able to draw part of its intangible
assets. A firm which would only
capitalized little of its expenditure in R&D,
would tend to signal to the market that its
research programmes are only slightly
effective.
Table n°5: Simple and multiple regressions
between risk beta and R&D expenditures
variables (ANNEXE 3)
D. Tests
averages
of
differences
of
the
After identifying the two variables, “R&D
expenses ratio” and “R&D to intangible
capitalization ratio”, as having jointly an
incidence on the technological firm’s stock
return and risk, we now propose to
measure the impact of these variables on
our sample, divided into four groups.
These groups where made by splitting our
variables at the median.
The following graph represents the
financial performances of the technological
firms according to their investment
strategy in R&D. We observe that the
market gives a very high risk to the
innovating firms, which are characterized
by an intense strategy of R&D (Group G1).
Beta is close to two times higher compared
with the firms that have a low strategy of
R&D (Group G2), since it passes on
average from 2,01 to 1,17.
Graph n°2: Investment strategy in R&D
and financial performances of the
technological firms
Return
G4 :
Low R&D
investment Strategy
G2 :
R&D investments as
expenses
Low R&D expenses ratio
Low intangible capitalization ratio
High R&D expenses ratio
Low intangible capitalization ratio
Average Return =
Average beta =
Average Return =
Average beta =
G3 :
41,48%
1,17
Capitalized R&D
investments
G4 :
26,46%
1,80
High R&D
investment Strategy
Low R&D expenses ratio
High intangible capitalization ratio
High R&D expenses ratio
High intangible capitalization ratio
Average Return =
Average beta =
Average Return =
Average beta =
24,95%
1,29
18,45%
2,01
Beta
When we study the differences of the
averages of the two groups, which are
clearly different in terms of investment
strategy in R&D (G1 group has a very
strong strategy of R&D investment
compared to the G4 group), we obtain the
following results :
Table n°6: Differences of the averages
between the groups G1 and G4
Beta
Return
Group
1
4
1
4
N
64
42
66
41
Average
Standard standard
Average deviation
error
2,0101
1,1747
0,1446
1,1716
1,14092 0,17605
0,1845
0,51841 0,06287
0,4148
0,68484 0,10695
Table n°7: Test of independent samples
(ANNEXE 4)
The Levene test of equality of the
variances allows us to consider that the
distribution of the betas of the two groups
have a similar shape. This is also observed
by the proximity of the standard deviations
when they are squared. Consequently, the
test of the differences of the averages is
interpreted with the estimated parameters,
which consider the equality of the
variances. The statistic t (p value) is 3,65
and has a probability of 0,000. We can
conclude that the averages of the betas of
the two groups are significantly different.
202
We also observe that returns are double for
the firms with a low investment strategy in
R&D (18,45% vs 41,48%). The test of
differences of the averages is, however,
less conclusive because we are prepared
for the possibility of considering an
equality of the variances and in fact to
consider that our averages are statistically
different with an error threshold lower than
5%.
However, the survival of the technological
firms can not always ignore investment in
R&D and it appears preferable to capitalize
the R&D expenditures. If the test of
differences of the averages on returns is
not significant between groups G2 and G3
(respectively 26,46% and 24,95%), it is the
opposite for the betas. The average beta is
1,29 for the firms which capitalized their
expenditure in R&D and 1,8 for the firms
which enter their expenditure in R&D as
expenses. This difference of the averages is
significant with an error threshold of 2%.
Thus, for an almost equal return, it is
preferable to capitalize the expenditure in
R&D because the perceived risk of the
firm by the market will be reduced. Let us
notice that this difference is even stronger
between the firms of groups G1 and G3,
since the capitalization strategy lowers the
risk from a beta of 2,01 to 1,29. The test of
the differences of the averages is
significant with an error threshold of 1%
on the betas, whereas it is not significant
on the returns.
A strategy of capitalization has
consequently a decisive impact on the
financial performance of technological
firms. The explanation, according to which
the accounting rule of capitalization (IAS
38 standard) limits drifts, signals the
control of technology and contributes to
reduce the uncertainties and risks of the
business plan, is confirmed through our
empirical analyses.
Conclusion
The growth of technological firms relies on
its opportunities to exploit innovative
products and services, thus forcing them to
strongly
invest
in
research
and
development (R&D). Our results show that
R&D expenditures signal the strategic
positioning of a firm and significantly put
strain on the financial performances.
We define companies with intensive
investments in R&D as companies that
have a high R&D expenses ratio (R&D
expenses/EBIT) and a high R&D
capitalization ratio (Intangible assets/R&D
expenses). We have observed that the beta
is nearly two times higher, and the return
nearly two times lower for companies with
intensive investments in R&D, compared
to low R&D investing companies. Indeed,
firms with an intensive investment strategy
in R&D have significantly lower financial
performances.
Nevertheless, rules of R&D capitalization
seems to limit the information asymmetry
between technological firms and the
exchange market, because firms with a
high R&D capitalization ratio (Intangible
assets/R&D expenses) have lower betas.
Financial performances hold so long as the
company generates important earnings. If
not, it appears that the more a firm
capitalizes its R&D expenditures, the more
it increases its intangible assets. So, the
capitalization of R&D weighs down the
balance sheet and has a negative leverage
effect on the returns.
R&D, being impossible to avoid for some
technological firms, our results show that it
is preferable to capitalize the R&D
expenditures if the firm is able to draw an
immediate commercial exploitation from
them. In this case, where the benefits are
expected in the future, the R&D
expenditures will have a strong negative
impact on the financial performances. It is
then preferable to externalise projects
(spin-off) which require significant
203
investments in R&D, rather than to
develop them in-house.
Quantitative Analysis, Vol. 31, n° 4,
December, pp. 493-512
While talking about their patents, brand
and know how, Bill Gates said about
Microsoft: “ our primary assets do not
show up in the balance sheet at all. ”The
observation we made from this article
might contribute to the explanation of the
current spin-off trend in technological
groups and why annual reports do not have
much affect on.
COCKBURN I., GRILICHES Z. (1988),
"Industry effects and appropriability
measures in the stock market's valuation of
R&D and patents", American Economic
Review, May, pp. 419- 423
Bibliography
DING Y, STOLOWY H. (2003), «
Capitalisation des frais de R&D en France
: déterminants et pertinence», working
paper du Groupe HEC
AGRAWAL A., KNOEBER C. R. (1996),
"Firm performance and mechanisms to
control
agency
problems
between
managers and shareholders", Journal of
Financial and Quantitative Analysis, Vol.
31, n° 3, September, pp. 377-397
ALCOUFFE C, LOUZZANI Y. (2003), «
Impact des dépenses dans l’activité de la
R&D sur la performance des entreprises
industrielles en France » LIRHE, unité
mixte de recherche CNRS/UT1
AUDRETSCH D. B., FELDMAN M. P.
(1996), "R&D spillovers and the
geography of innovation and production",
American Economic Review, June, pp.
630-640
BRENNER M. S., RUSHTON B. M.
(1989), "Sales growth and R&D in the
chemical industry", Research-Technology
Management, Vol. 32, n° 2, March-April,
pp. 8-15
CHUNG K. H., PRUITT S. W. (1996, a),
"Executive ownership, corporate value,
and executive compensation : a unifiying
framework", Journal of Banking and
Finance, Vol. 20, pp. 1135-1159.
CHUNG K. H., JO H. (1996, b), "The
impact of security analysts' monitoring and
marketing functions on the market value of
firms", Journal of Financial and
CONNOLLLY R. A., HIRSCHEY M.
(1984), "R&D, market structure and profits
: a value-based approach", Review of
Economics and Statistics, pp. 682-686
DING Y, STOLOWY H, ENTWISTLE G.
(2003), « International differences in R&D
disclosure practices : evidence in a French
and Canadian context », 26th Annual
Congress of the European Accounting
Association
GAGNON M.A. (2004), « Nouvelle
économie et actifs intangibles : les défis de
la dimension immatérielle de la création de
valeur », Cahiers de Recherche-CEIM
GRILICHES Z. (1979), "Issues in
assessing the contribution of research and
development to productivity growth", Bell
Journal of Economics, n° 10, spring
GRILICHES Z. (1981), "Market value,
R&D and patents", Economic Letters, Vol.
7, n° 2, pp. 183-187
HALL B. H. (1993), "The stock market's
valuation of R&D investment during the
1980's", American Economic Review,
May, pp. 259-264
HALARY I..(2005), « Ressources
immatérielles et fiance de marché : le sens
d’une
liaison
»,
CERAS-LAME,
Université de Reims
204
HIRSCHEY M., WEYGANDT J. J.
(1985),
"Amortization
policy
for
advertising and research and development
expenditures", Journal of Accounting
Research, Vol. 23, n° 1, spring, pp. 326335
HO Y.K, ZHENYU X ET YAP C.M.
(2004), « R&D investment and systematic
risk » Accounting & Finance, Vol 44,
issue3
JAFFE
A.
(1986),
"Technological
opportunity and spillover of R&D :
evidence from firms' patents, profits and
market value", American Economic
Review, Vol. 76, n° 5, December, pp. 9841001.
LEV B., SOUGIANNIS T. (1996), "The
capitalization, amortization, and valuerelevance of R&D", Journal of Accounting
and Economics, Vol. 21, n° 1, February,
pp. 107-138
MANSFIELD E., WAGNER S. (1975),
"Organizational and strategic factors
associated with probabilities of success in
industrial research and development",
Journal of Business, Vol. 48, n° 2, April
MEGNA P., KLOCK L. (1993), "The
impact of intangible capital on Tobin's Q
in the semiconductor industry", American
Economic Review, May, pp. 265-269
MORBEY G. K. (1989), "R&D
expenditures and profit growth", ResearchTechnology Management, Vol. 32, n° 3,
May-June, pp. 20-23
NAKAMURA,
LEONARD
(2001),
“Investment in Intangibles: Is a Trillion
Dollars Missing from GDP?”, Federal
Reserve Bank of Philadelphia, Business
Review, Fourth Quarter, pp. 27-37
PAKES A. (1985), "On patents, R&D and
the stock market rate of return", Journal of
Political Economy, Vol. 93, n° 2, April,
pp. 390-419
SKINNER D. J. (1993), "The investment
opportunity set and accounting procedure
choice", Journal of Accounting &
Economics, Vol. 16, n° 1-2-3, pp. 407-445
SMITHERS, A AND WRIGHT, S (2002)
‘Will the Real US P/E Please Stand Up?’,
Report No 174, Smithers & Co. Ltd,
London.
SOUGIANNIS T. (1994), "The accounting
based valuation of corporate R&D",
Accounting Review, Vol. 69, n°1, January,
pp. 44-68
SUNDARAM A. K., JOHN T. A., JOHN
K. (1996), "An empirical analysis of
strategic competition and firm values : the
case of R&D competition", Journal of
Financial Economics, Vol. 40, n° 3, March,
pp. 459-486
WERNERFELT B., MONTGOMERY C.
A. (1988), "Tobin's q and the importance
of focus in firm performance", American
Economic Review, Vol. 78, n° 1, March,
pp. 246-250
WILLIAMSON O. E. (1988), "Corporate
finance and corporate governance", Journal
of Finance, Vol. 43, July, pp. 567-591
205
ANNEXE 1
RD expens./
EBIT
RD expens.
/EBIT
Intangible/
RD expens.
Assets/RD
expens.
Intangib.
/EBIT
Intangib
/asset
Beta
Return
Correlation
of Pearson
Sig.
(bilateral)
Correlation
of Pearson
Sig.
(bilateral)
Correlation
of Pearson
Sig.
(bilateral)
Correlation
of Pearson
Sig.
(bilateral)
Correlation
of Pearson
Sig.
(bilateral)
Correlation
of Pearson
Sig.
(bilateral)
Correlation
of Pearson
Sig.
(bilateral)
Assets/RD
expens.
Intangib
/EBIT
Intangib
/asset
Beta
1
Intangible
/RD
expenses
-, 173(*)
-, 447(**)
, 139(*)
.
,012
,000
,
572(**)
,000
,
331(**)
,000
-,
167(*)
,015
-, 173(*)
1
, 557(**)
.
,000
,
765(**)
,000
,054
, 012
,
709(**)
,000
,431
-,
138(*)
,046
-, 447(**)
, 557(**)
1
, 145(*)
-, 109
, 000
,000
.
,035
,114
,
211(**)
,002
-,
188(**)
,006
, 572(**)
, 709(**)
, 145(*)
1
, 000
,000
,035
.
,
738(**)
,000
,
286(**)
,000
-,
234(**)
,001
, 139(*)
, 765(**)
-, 109
1
-, 094
-, 022
, 043
,000
,114
,
738(**)
,000
.
,171
,754
, 331(**)
,054
, 211(**)
-, 094
1
, 000
,431
,002
,
286(**)
,000
,171
.
-,
200(**)
,003
-, 167(*)
-, 138(*)
-, 188(**)
-, 022
, 015
,046
,006
-,
234(**)
,001
-,
20(**)
,003
,043
,754
Return
1
.
* The correlation is significant at level 0.05 (bilateral)
** the correlation is significant at level 0.01 (bilateral)
Incorpo./EBIT: intangible fixed assets/turnover
ANNEXE 2
Ratio
R&D expenses ratio
Simple
regression
-0,066
[ 0, 0 15 ]
Firm Intangibility
Simple
regression
Simple
regression
Simple
regression
Multiple
regression
- 0,0 78
[ 0, 0 04 ]
Multiple
regression
-0,057
[ 0,014 ]
-0,017
[ 0,53 ]
- 0,0 82
[ 0,0 55 ]
0,057
0,048
6,299
[ 0, 00 2 ]
0,036
0,027
3,896
[ 0,022 ]
-0,009
[ 0,754 ]
R&D
to
Intang.
capitalization ratio
R&D to total assets
capitaliz. ratio
Intangible operating
ratio
R2
Adjusted R2
F
Significant
Simple
regression
-0,047
[ 0,046 ]
-0,09 8
[ 0,006 ]
0,026
0,023
6,036
[ 0, 015 ]
0,022
0,000
0,098
[ 0,754 ]
0,019
0,014
4,030
[ 0,046 ]
0,035
0,031
7,663
[ 0,006 ]
-0,066
[ 0,001 ]
0,055
0,05
12,19
[ 0, 00 1 ]
206
ANNEXE 3
Ratio
R&D expenses
ratio
Fim
Intangibility
R&D to Intang.
capitalization
ratio
R&D to total
assets capitaliz.
ratio
Intangible
operating ratio
R2
Adjusted R2
F
Significant
Simple
regression
0,092
[ 000 ]
Simple
regression
Simple
regression
Simple
regression
Simple
regression
Multiple
regression
0,028
[ 000 ]
- 0,02 7
[ 0,171 ]
0,013
[ 0,431 ]
Multiple
regression
0,099
[ 000 ]
-0,042
[ 0,026 ]
0,099
[ 0,079 ]
0,078
[ 0,002 ]
0,11
0,106
26,04
[ 000 ]
0,009
0,004
1,889
[ 0,171 ]
0,003
0,002
0,622
[ 0,431 ]
0,044
0,04
9,785
[ 0,002 ]
0,057
[ 000 ]
0,082
0,078
18,862
[ 000 ]
0,126
0,118
15,077
[ 000 ]
0,134
0,126
16,144
[ 000 ]
ANNEXE 4
Test of Levene on
the equality of the
variances
BETA
RETURN
AEV (2)
AEV
AEV
AEV
F
Sig.
T
ddl
, 575
0,45
2,503
0,117
3,656
3,68
-1,988
-1,857
106
89,333
107
67,597
Test-T for equality of the averages
Diff. st.
Interval (1)
Sig.
Average
(bilat.)
diff.
deviation
Inf.
Sup.
0
0,8384
0,22931 0,3838 1,2931
0
0,8384
0,22782 0,3858 1,2911
0,049
-, 2304
0,1159 -, 46014 -, 00060
0,068
-, 2304
0,12406 -, 47796 0,0172
(1) Confidence Interval : 95% of the difference
(2) AEV : Assumption of equal variances
207
Les Enjeux de la Gestion du Risque de Crédit
Laurence LE PODER
BP 921
13288 Marseille Cedex 9
[email protected]
Tél. : + 33 (0)491 827 794
Fax : + 33 (0)491 827 750
Résumé
Le secteur bancaire est l’un des secteurs de l’économie confronté à une grande diversité de risques.
Etant donnés les multiples risques auxquels les banques sont confrontées, nous nous sommes focalisés
sur le risque de crédit ou risque de contrepartie. Ce risque constitue aujourd’hui un risque majeur
contenu dans le bilan bancaire et conditionne donc la solvabilité des institutions bancaires et la
sécurité du système.
La mesure et la gestion du risque de crédit font l’objet de nombreux développements sous l’impulsion
de plusieurs facteurs, d’une part réglementaires (la détermination d’un ratio fonds propres
réglementaires se fondent sur la prise en considération du risque de crédit en l’occurrence), d’autre
part techniques (des progrès ont été réalisés dans la mesure du risque de crédit) et enfin économiques
(la gestion du risque de crédit est une activité coûteuse pour les établissements bancaires pouvant avoir
un impact sur leurs performances). La gestion du risque de crédit et celle du portefeuille de prêts
constituent un atout majeur pour les établissements et les autorités de tutelles.
Après un tour d’horizon de l’état actuel des connaissances en matière de mesure et de gestion du
risque de crédit, nous nous proposons de mettre en évidence les enjeux des nouvelles techniques de
gestion du risque de crédit. Les innovations financières en la matière, encore peu développées en
Europe, pourraient avoir des incidences sur la performance bancaire.
Dans un premier temps, nous abordons les principales approches de mesure du risque crédit, qui
peuvent globalement se regrouper en deux catégories d’approches. La première approche, probabiliste,
se fonde sur un rating de crédit, c'est-à-dire une mesure statistique du risque de crédit. La seconde
approche, qualifiée d’approche fonctionnelle, évalue le risque de crédit de manière quantitative, c'està-dire comme une fonction d’un taux instantané d’occurrence. Cette approche est liée est liée au
développement des nouveaux instruments de gestion du risque de crédit, notamment des dérivés de
crédit.
Dans un second temps, nous abordons les différentes techniques et instruments de gestion du risque de
crédit. Une distinction est faite entre les techniques qualifiées de classiques (garanties, syndications et
application de la théorie du portefeuille), et les techniques qui privilégient les instruments de marché
(titrisation, marché secondaire et dérivés de crédit). Concernant ces techniques, elles permettent
d’externaliser les risques de crédit.
Devant l’essor des dérivés de crédit comme instrument de gestion du risque de crédit et la croissance
de ce marché, nous analysons dans un troisième point les principaux enjeux de ces instruments de
gestion du risque de crédit en termes qualitatifs touchant l’établissement concerné mais également le
système dans sa globalité. En effet, les instruments utilisés deviennent de plus en plus sophistiqués
permettant aux établissements de crédit de dynamiser la gestion de leur portefeuille de prêts.
Néanmoins, ces nouveaux instruments et techniques, de plus en plus élaborés, ne vont pas sans poser
de problèmes.
Mots clés : Mesure du risque de crédit, gestion du risque de crédit, dérivés de crédit.
208
Introduction
Le secteur bancaire est l’un des secteurs de
l’économie confronté à une grande
diversité de risque. Parmi l’ensemble de
ces risques, le risque de crédit75 constitue le
risque principal contenu dans le bilan d’un
établissement
bancaire
à
vocation
universelle. Etant donnée l’importance de
cette catégorie de risque pour la solvabilité
des institutions bancaires et la sécurité du
système bancaire, les autorités de
réglementations internationales ont élaboré
des normes prudentiels en la matière.
Ainsi, les ratios Cooke et Mc Donough76
tentent de prendre en considération le
risque de crédit et ses conséquences sur la
solvabilité des établissements de crédit et
sur la stabilité financière du système dans
sa globalité.
Par ailleurs, la gestion du risque de crédit a
fait l’objet de nombreux développements,
avec pour résultat des systèmes de gestion
du risque de crédit de plus en plus
sophistiqués. Les évolutions des techniques
et procédures de gestion du risque de crédit
peuvent s’expliquer par trois facteurs
principaux77.
Tout d’abord, les directives des autorités
de réglementation concernant l’élaboration
des normes de fonds propres se fondent
sur « une approche évolutive du risque de
crédit » (La Commission Bancaire 200378).
En second lieu, l’imperfection des
marchés, fondée sur une hypothèse
d’information
asymétrique,
justifie
l’existence des établissements bancaires en
tant qu’intermédiaires financiers. Ainsi, les
75
Le risque de crédit est également appelé risque de
défaut, de contrepartie, de défaillance.
76
Dans ces ratios, plus un actif est risqué, plus les
exigences de capital pondéré par les risques seront
importantes
77
D’autres facteurs pourraient être également
évoqués comme par exemple le nombre croissant
des faillites bancaires.
78 ème
3 document de consultation de la Commission
Européenne (2003) : « Révisions des exigences de
fonds propres applicables aux banques et aux
entreprises d’investissement ».
risques de ruine et de sélection contraire
associés
aux
activités
bancaires
traditionnelles engendrent des coûts liés au
risque de défaillance de l’emprunteur et de
faillite bancaire. La gestion des crédits
bancaires, et par voie de conséquence celle
du risque de crédit, constitue une activité
coûteuse pour les banques. Dans ce cadre
d’analyse, Froot et Stein (1998)79 mettent
en exergue les enjeux d’une gestion active
du risque en termes de structure financière
et de politique managériale. Selon leur
analyse, une gestion active du risque peut
permettre aux établissements bancaires de
détenir moins de capital et d’avoir une
politique de gestion de l’actif plus
agressive en faveur de prêts plus risqués et
moins liquides.
En troisième lieu, le développement des
méthodes de gestion du risque de crédit
s’est fait sous l’impulsion des progrès
réalisés dans la mesure du risque de crédit
pour des portefeuilles de prêts bancaires.
Les objectifs de politiques commerciales
des
établissements
bancaires
dans
lesquelles des relations clientèles stables et
durables peuvent parfois se révéler
incompatibles avec l’optimisation du
portefeuille de prêts. Néanmoins, certaines
opérations ou techniques permettent de
concilier des objectifs de politiques
commerciales et de gestion « optimale »
des volumes et des risques du portefeuille
de crédit.
Ainsi,
devant
les
évolutions
l’environnement
dans
lequel
établissements bancaires opèrent,
gestion des risques de crédit constitue
enjeu stratégique majeur.
de
les
la
un
L’analyse des enjeux que représente la
gestion du risque de crédit pour un
établissement bancaire constitue le propos
central de ce papier. En effet, cette gestion
du risque de crédit peut affecter certes la
79
Froot K. A. et Stein J. C. (1998): Risk
management: Capital budgeting, and capital
structure policy for financial institutions: an
integrated approach. Journal of Financial
Economics, Vol 47, pp: 55-82
209
performance de l’établissement bancaire,
mais également son organisation, sa
structure et le système bancaire dans son
ensemble.
Ainsi nous nous proposons de préciser
dans un premier temps les approches
d’évaluation du risque de crédit. Le
développement des approches et méthodes
d’évaluation du risque crédit est parallèle à
celui des instruments de gestion du risque
de crédit que nous aborderons dans un
second temps. Dans ce cadre, nous
distinguerons les techniques de gestion du
risque de nature plus traditionnelle et les
techniques de gestion faisant appel aux
instruments financiers. Les outils utilisés
en la matière deviennent de plus en plus
sophistiqués permettant aux établissements
de crédit de dynamiser la gestion de leur
portefeuille de prêts. Néanmoins, cette
technicité de plus en plus élaborée ne va
pas sans poser de problèmes.
Nous terminerons par une analyse des
implications qualitatives de ces nouveaux
instruments de gestion du risque de crédit
tant pour les établissements de crédit que
pour le système dans son ensemble.
I.
Le risque de crédit : évaluation
75% des fonds propres réglementaires sont
absorbés par le risque de crédit supporté
par une institution bancaire. Ainsi, même
si le capital de l’établissement bancaire
doit permettre d’absorber les pertes
engendrées par les risques de crédit, ces
derniers
revêtent
une
importance
indubitable pour la gestion bancaire.
Egalement appelé risque de défaut ou
encore risque de contrepartie, le risque de
crédit peut se définir comme la perte
consécutive à la défaillance d’un
emprunteur face à ses obligations de
remboursement, ou à la détérioration de sa
situation financière. En d’autres termes, le
risque de crédit dépend d’une part
d’évènements spécifiques à l’activité de
l’emprunteur, et d’autre part du cycle des
affaires.
Ainsi, en cas de défaillance d’un ou de
plusieurs
emprunteurs,
la
valeur
économique de la banque prêteuse, à savoir
la différence entre la valeur de marché de
son actif et celle de son passif, sera réduite,
toutes choses égales par ailleurs. En outre,
l’impact du risque de crédit sur la valeur de
marché de l’établissement bancaire sera
d’autant plus important que les actifs
détenus sont sensibles aux mêmes
éléments.
Or les établissements bancaires ont
tendance à concentrer leurs activités
d’octroi de crédit sur des secteurs
d’activité particulier, limitant leur capacité
de diversification des risques de
contrepartie entre emprunteurs.
La mesure du risque de crédit apparaît
ainsi étant la clé de voûte de tout système.
L’évaluation du risque de crédit et les
procédures de gestion de cette catégorie de
risques bancaires sont relativement
anciennes et connues. Elles ont également
considérablement évolué sous l’impulsion
de plusieurs facteurs, parmi lesquels la
réglementation constitue un facteur de
premier ordre.
La réglementation concernant les normes
de fonds propres nécessite de disposer
d’une évaluation et donc d’une approche
du risque de crédit. Aujourd’hui le
nouveau projet McDonough en la matière
« repose sur une approche différenciée et
évolutive, prévoyant un degré important de
flexibilité, sous la forme d'une série de
méthodes de calcul des exigences de fonds
propres »80.
De manière plus précise, le calcul des
exigences en fonds propres se fondera sur
80
Document de la Commission Européenne
(2003) : Révisions des exigences de fonds propres
applicables aux banques et aux entreprises
d’investissement » 3ème document de consultation
des services de la commission.
210
une approche du risque de crédit non plus
sur une pondération unique mais
contrepartie par contrepartie. Ainsi, dans
le cadre du nouveau ratio de solvabilité
bancaire, les établissements bancaires sont
incités à classer leurs portefeuilles de
crédit sur la base soit d’une notation
externe, soit d’une notation interne.
Remarquons que les directives des
autorités réglementaires prennent de plus
en plus en considération les modèles
internes de gestion du risque. Les
établissements bancaires sont encouragés à
développer leur propre système interne de
notation car l’exigence en fonds propres
est diminuée en cas d’utilisation de celuici. Néanmoins, de tels systèmes
d’évaluation des risques de crédit sont au
demeurant coûteux à mettre en place.
Depuis le début des années 1970, les outils
d’évaluation et de couverture des risques
se sont fondés sur les probabilités et les
calculs stochastiques. Ces outils se sont en
fait développés sous l’influence des
opérateurs des marchés financiers désireux
de formaliser et de quantifier le risque de
marché.
Aujourd’hui, des méthodes équivalentes
sont élaborées pour le traitement des
risques de crédit. A cet égard, nous
pouvons distinguer deux approches
principales81 : l’approche probabiliste et
l’approche fonctionnelle.
A. Approche Probabiliste
Cette approche se fonde sur un «rating » de
crédit, c’est à dire une mesure statistique
du risque de crédit présenté par une
entreprise
emprunteuse.
Elle
allie
techniques statistiques et jugement des
praticiens.
Actuellement cette approche est la plus
largement utilisée dans les établissements
bancaires pour mesurer le risque de crédit.
Le principe s’applique aussi bien aux
risques de marché82 qu’aux risques de
crédit.
Concernant les notations des entreprises,
ces dernières se fondent généralement sur
des états financiers des entreprises.
L’évaluation du risque de crédit par une
notation externe peut être élaborée par des
agences de natations privées, telles que
Moody’s et Standard & Poor ‘s, ou par une
institution «publique », telle que par
exemple la Banque de France.
Néanmoins, pour être efficace, les
institutions élaborant des notations
externes doivent être indépendantes et
reconnues83. Ainsi, en France, la Banque de
France est une institution qui répond à ces
critères et fournit une cotation des
entreprises utilisée par les établissements
bancaires français pour leur évaluation du
risque de crédit84.
81
Une première approche qualifiée de structurelle a
été initialement élaborée par Robert Merton en
1974 mais a été rapidement abandonnée en raison
des difficultés liées à sa mise en œuvre. Cette
approche consistait à appliquer la théorie
d’évaluation des options à l’évaluation des prêts
risqués. Selon cette approche, les prix des actifs
contiennent l’ensemble de l’information disponible.
Dans cette hypothèse, les actions et les obligations
risquées émises par une société apparaissent comme
des options dont on peut évaluer le prix. Appliquée
au risque de crédit, cette approche semble peu
réaliste. En effet, selon cette approche, la faillite
n’est constatée qu’à l’échéance de la dette et
l’entreprise est éventuellement liquidée pour
permettre son remboursement. Or il apparaît plus
réaliste de supposer qu’il existe une certaine valeur
de la firme, à spécifier, en dessous de laquelle elle
se déclare en faillite. Cette hypothèse a été
développée par Black et Cox (1976). En outre, ce
seuil n’est pas constant dans le temps et dépend de
l’évolution de la structure des taux comme le
montrent Longtaff et Schartz (1992).
82
Le risque de marché, appelé parfois risques de
prix, concerne à la fois les taux d’intérêt, les taux de
change, la valeur des actions et celle des matières
premières.
83
External Credit Assessment Institution ou ECAI
dans l’organisation anglo saxonne.
84
Le système de notation élaborée par la Banque de
France était initialement destiné, non pas à
l’évaluation du risque de crédit et à la gestion du
portefeuille de prêts bancaires, mais à la mise en
œuvre de la politique monétaire, dans le cadre des
opérations de refinancement en monnaie centrale.
211
Dans le cadre de cette approche
probabiliste, la mesure du risque de crédit
permet de déterminer « un seuil de
tolérance » pour le risque, c'est-à-dire le
niveau de pertes potentielles au-delà
duquel les pertes subies par l’établissement
bancaire peuvent engendrer une défaillance
de ce dernier.
Les pertes futures sont réparties en deux
catégories : les pertes statistiques (la
moyenne) et les déviations possibles audelà de cette moyenne. Les pertes
statistiques sont inévitables à long terme.
Par exemple, si les clients d’un
établissement bancaire ont une probabilité
de faire défaut de 1%, alors cela signifie
qu’en moyenne une entreprise sur cent fera
défaut et selon la loi des grands nombres,
ces pertes surviendront. Inclure ces pertes
dans le capital requis ou les retranchées des
résultats apparaît comme étant insuffisant.
Un établissement bancaire fera faillite au
premier euro de perte au-dessus de cette
moyenne si cette « casse statistique » est la
seule couverte. Or les pertes potentielles
peuvent ne pas être égales aux pertes
moyennes.
En
conséquence,
un
établissement doit détenir un niveau de
capital suffisant pour couvrir les déviations
défavorables des pertes observées au-delà
de la moyenne.
Les principes de mesures retenues
correspondent à la notion de VaR.
Initialement appliquée au risque de
marché, la méthode de la VaR s’applique
aujourd’hui au risque de crédit. La
détermination d’une VaR se fonde sur
l’existence
d’une
distribution
de
probabilité entre une valeur possible et ses
chances de survenir. Il s’agit alors de
déterminer quel niveau des pertes
potentielles ne sera dépassé que dans une
faible proportion des cas ; au-delà,
l’établissement bancaire fera défaut par
définition.
Cette fraction s’appelle le « seuil de
tolérance » pour le risque. La principale
difficulté de cette méthode réside dans le
fait que des estimations ou des
distributions de probabilités des pertes
doivent être préalablement connues pour
appliquer cette méthode. En effet, il est
important de pouvoir déterminer que le
niveau de X millions de perte ne sera
dépassé que dans Y% des cas.
Cette méthode probabiliste de mesure du
risque de crédit peut être utilisée pour
élaborer par des agences de notations, mais
également par les établissements bancaires
eux-mêmes en vue d’élaborer des systèmes
de notations internes85. Dans tous les cas, il
apparaît ainsi essentiel de disposer d’une
information sur le risque.
Il existe des historiques de défaillances et
de pertes en cas de défaut initiés par les
agences de notations. Ces dernières
diffusent ces statistiques par classe de
rating ou les centrales de bilan. Le modèle
de référence le plus connu en la matière
est celui de JP Morgan CreditMetrics.
Le rating mesure une sévérité des pertes, à
savoir la combinaison des probabilités de
défaut et de pertes en cas de défaillance de
la part de l’emprunteur. L’observation
montre que les ratings sont très fortement
associés avec les risques de défaut. Les
choix d’un taux de défaut et d’un rating
« cible » sont donc indissociables, car cela
revient en fait à choisir un seuil de
tolérance pour le risque86.
B. Approche Fonctionnelle
La seconde approche de mesure du risque
de crédit provient notamment des travaux
de Longstaff et Schwartz (1992). Cette
85
Citons par exemple l’élaboration des systèmes
scoring dans lesquels l’établissement identifie
préalablement certains facteurs clés déterminant la
probabilité de défaut et définit une pondération
spécifique à chacun de ces facteurs.
86
A titre indicative, un rating Baa Moody’s
correspond approximativement (en moyenne) à une
chance de défaut de 0,2% dans l’année, celle d’un
Aa est de 0,05% et celle d’un A est de l’ordre de
0,08%.... En terme de niveau de capital, cela montre
que la marge de sécurité procuré par ce dernier pour
être considéré comme un « bon risque » est très
forte.
212
approche privilégie la modélisation. Elle
suscite un intérêt particulier dans les
milieux académiques et professionnels et
semble
offrir
des
perspectives
intéressantes.
Dans cette approche, le défaut d’une
entreprise est considéré comme un
évènement qui, ne pouvant pas être « lu »
dans les prix, est modélisé comme un
processus ayant une intensité, c'est-à-dire
un taux instantané d’occurrence. En
conséquence, la mesure du risque de crédit
et l’évaluation des produits dérivés liés à
ce risque font actuellement l’objet de
travaux de recherche tant académiques
qu’empiriques dans les cellules de
recherche des établissements financiers
(Liu, Longstaff et Mandell (2000)).
II. Les techniques et instruments de
gestion du risque de crédit
Les objectifs de politiques commerciales
des établissements bancaires peuvent
parfois se révéler incompatible avec une
gestion optimale des portefeuilles de prêts.
Néanmoins,
certaines
opérations
techniques permettent de concilier des
objectifs de politiques commerciales et de
gestion « optimale » des volumes et des
risques du portefeuille de crédit.
Nous allons distinguer parmi les
différentes techniques de gestion du risque
de crédit les techniques et instruments
classiques, des outils recourant aux
instruments de marché.
A. Les Techniques Classiques
Il s’agit essentiellement d’une mesure
quantitative du risque de crédit se reflétant
dans une « prime » de risque de crédit.
Cette prime de risque de crédit correspond
à la différence entre le taux d’intérêt
d’emprunt payé par une entreprise et le
taux d’intérêt d’un titre « sans risque ».
Cette
prime
constitue
ainsi
une
compensation supplémentaire exigée par
l’établissement bancaire prêteur pour
supporter le risque de contrepartie.
La recherche débutante aujourd’hui
conduit à déterminer une évaluation du
risque de crédit et vise à mettre en place un
cadre de référence pour obtenir une courbe
de taux risqués, le pricing des produits
dérivés liés à cette courbe et la mesure des
risques encourus liés à la qualité des
émetteurs. Le développement de cette
dernière approche est lié à celui de
nouvelles techniques et de nouveaux
instruments financiers de réduction du
risque de crédit. Ces derniers permettent,
comparativement aux techniques plus
anciennes, une gestion plus dynamique du
risque de crédit et donc du portefeuille de
prêts des établissements bancaires.
Ces techniques classiques constituent en
fait de simples instruments de couverture.
Parmi les techniques connues, il y a les
prises de garanties personnelles, les
garanties réelles comme par exemple le
nantissement. Il s’agit de façon générale de
clauses incluses par les créanciers dans le
contrat de crédit qui permettent d’obtenir
le remboursement des prêts si certains
indicateurs « d’alerte » sont atteints, tels
que par exemple un seuil donné du ratio
d’endettement.
Ces techniques, relativement anciennes,
peuvent se négocier pour chaque contrat ou
client, en amont de l’octroi de crédit, c'està-dire à la signature du contrat.
A côté de ces techniques, la syndication
constitue une autre méthode traditionnelle ;
Cette technique permet de répartir les
encours au sein d’un pool bancaire.
L’application de la théorie moderne du
portefeuille à la gestion du portefeuille de
crédit constitue une autre technique. Dans
cette approche, la gestion du portefeuille
de prêts bancaires se fait selon un critère
rendement – risque. Il s’agit en fait de
diversifier le portefeuille de crédit de sorte
à réduire le risque global de ce portefeuille.
213
De la sorte, la réduction du risque global
du portefeuille sera d’autant plus
importante que la corrélation entre les
actifs du portefeuille est faible.
L’application de la MPT à la gestion de
portefeuille de crédit bancaire met en
évidence une relation entre le risque global
du portefeuille de prêts bancaires et d’une
part les corrélations de défaut, d’autre part
la diversification du portefeuille. En
d’autres termes, les corrélations de défaut
sont en moyenne généralement plus faibles
et les rendements ou gains obtenus via la
diversification du portefeuille de prêts
bancaires sont potentiellement plus élevés.
Les utilisations de la VaR en matière de
gestion du risque de crédit sont diverses et
variées. En l’occurrence, la VaR permet de
quantifier l’effet de diversification obtenu
en consolidant les risques des diverses
centres de responsabilité spécialisés
géographiquement
ou
par
secteur
d’activité. Cet « effet de portefeuille »
permet de réduire les risques et donc
« d’économiser » du capital. Le risque
étant la perte potentielle, l’exposition doit
être distinguée du risque. Ainsi, en fixant
des limites de dotations en fonds propres,
et non en autorisations d’encours, pour
chaque centre de responsabilités, les
responsables de ces centres de profit
choisissent alors les risques et les revenus
souhaités à condition de respecter
l’enveloppe de fonds propres et la
rentabilité suffisante sur cette dotation. Cet
instrument peut également permettre de
comparer entre différentes structures de
portefeuilles
par
une
optimisation
quantitative du couple rentabilité - risque
du portefeuille de prêts.
A côté de ces techniques relativement
connues, de nouveaux instruments de
gestion du risque de crédit et du
portefeuille de prêts se développent.
B. Techniques
Privilégiant
Instruments de Marché
les
Ces techniques utilisent des instruments de
marché et externalisent les risques de
crédit.
La titrisation est une technique qui consiste
à sortir du bilan un sous portefeuille
d’actifs pour être financé par des
investisseurs. La titrisation conduit à se
financer par l’actif du bilan en
transformant des actifs illiquides, les
créances, en titres négociables sur le
marché financier. Cette transformation
s’apparente donc à un swap, de créances
contre des titres. Elle implique l’existence
de deux flux financiers : à l’origine, un
flux lié à l’achat d’un portefeuille de
créances, les ressources provenant de
l’émission de valeurs mobilières ; et en
cours de vie, un flux financier destiné à la
rémunération des porteurs de parts.
L’avantage pour l’établissement bancaire
est de déconsolider le risque de son bilan,
d’externaliser totalement le risque et de
libérer à cette occasion des fonds propres.
La titrisation permet de modeler le
portefeuille bancaire, c'est-à-dire de gérer
de façon plus dynamique les volumes et les
risques du portefeuille de crédits.
De la sorte, une couverture du risque soit
individuelle (au niveau du client), soit
globale (au niveau du portefeuille) peut
être mise en place. Parfois, plusieurs de ces
techniques peuvent être combinées pour
atteindre plusieurs objectifs : amélioration
du ratio Cooke, externalisation des coûts et
amélioration de la rentabilité.
Néanmoins, certains de ces outils ne sont
pas sans inconvénients. La titrisation par
exemple peut se révéler coûteuse pour un
établissement qui ne désire pas de
refinancement mais qui désire tout de
même se couvrir contre le risque.
Les carences des instruments de gestion du
risque de crédit ont conduit les
établissements bancaires à vouloir gérer
activement le risque de crédit en
intervenant sur le marché secondaire des
crédits. Il existe aujourd’hui aux EtatsUnis un tel marché organisé des prêts
214
bancaires. Ce marché secondaire des
crédits permet aux banques américaines
d’échanger aussi bien des créances de
mauvais risque que des créances de
meilleurs risques à un prix convenu entre
le cédant et l’acquéreur. Ce prix peut aller
de 100% du pair pour les meilleurs risques
à – 10% pour les créances de mauvais
risques.
Ce type de marché est aujourd’hui à
l’étude en Europe. Ces cessions de
créances sur un marché permettraient aux
établissements bancaires européens de
céder le risque en cours de vie des contrats
sans remettre en question la relation
commerciale.
Les dérivés de crédit constituent également
une nouvelle technique de gestion active
du risque de crédit. Un dérivé de crédit est
un produit dérivé dont le sous jacent est un
crédit, c'est-à-dire une créance. Les dérivés
de crédit sont des contrats de swap,
d’option ou de gré à gré87 que les banques
peuvent utiliser pour couvrir et donc gérer
activement le risque de crédit. Ces dérivés
de crédit permettent de transférer le risque
et le rendement à une contrepartie sans
céder la propriété de l’actif sous jacent. En
recourant à ces dérivés de crédit, les
établissements bancaires prêteurs peuvent
ainsi réduire leur exposition au risque de
crédit sans devoir céder leurs créances.
Ces produits de hors bilan se négocient de
gré à gré et apportent une flexibilité à la
gestion des volumes et des risques de
crédit.
La diversification permet de réduire le
risque dans un portefeuille de prêts
bancaires. Néanmoins, aucun prêt ne peut
à lui seul constituer une couverture du
risque crédit du portefeuille de prêts
bancaire. En d’autres termes, tout nouveau
prêt accordé accroît nécessairement le
risque global du portefeuille. Ainsi, les
dérivés de crédits visent à transférer le
risque de crédit sur un sous jacent
indépendamment du risque de marché qu’il
peut présenter. De la sorte l’établissement
bancaire a la possibilité d’externaliser le
risque sur une contrepartie en achetant un
dérivé de crédit dont le sous jacent est par
exemple une obligation émise par la
contrepartie.
Les établissements bancaires peuvent, en
recourant aux dérivés de crédit, de
diversifier leurs portefeuilles de crédit tout
en restant sur leur créneau de clientèle
habituel en fonction de ses compétences.
Ainsi deux banques, l'une spécialisée dans
le crédit au secteur agricole, l'autre dans le
crédit à l'industrie, peuvent acheter
chacune une part des revenus liés au
portefeuille de l'autre. Chacune diversifie
ainsi les risques encourus, en bénéficiant
de plus de l'expertise de sa contrepartie
dans son domaine de compétences.
Il existe quatre grandes familles de dérivés
de crédit. La plupart de ces instruments
sont « calqués » sur des instruments de
couverture des risques de marché.
Le premier type de dérivés de crédit est
appelé les « swaps sur défaillances » (ou
« credit default swaps » ou encore « crédit
swap »). Il s’agit de contrat d’assurance
par lequel l’acheteur, la banque par
exemple, souhaite se protéger contre la
survenance d’un incident de crédit88
(« credit event »). Ainsi l’acheteur paye
une prime fixe versée périodiquement ou à
l’achat jusqu’à l’incident de crédit ou
jusqu’à l’échéance du contrat de prêt. Le
vendeur, quant à lui, paye lors de la
survenance de l’incident un flux
correspondant à la différence entre le pair
du crédit et sa valeur de marché. Ce type
de contrat revient donc à céder la perte
potentielle sur un actif de référence
pouvant résulter d’incidents de crédit
(défaut
de
paiement,
insolvabilité,
faillite…).
88
87
Initialement, les dérivés, à savoir les options et
les swaps, étaient des opérations de marché. Il
s’agissait de produits de couverture de risques
engendrés par des opérations de marché.
Cette notion d’incident de crédit (ou “credit
event”) est une notion relativement large allant du
simple défaut de paiement et ne correspond pas
forcément au dépôt de bilan de la contrepartie
faisant l’objet de la protection.
215
La deuxième catégorie de dérivés de crédit
correspond à une « option de vente sur
écart de crédit (ou « credit spread
derivatives » ou encore « crédit option »).
Cet instrument financier offre à l’acheteur
une protection contre la diminution de la
valeur de l’actif de référence qui n’est pas
liée à l’évolution de la courbe des taux
d’intérêt. Ce instrument correspond à un
swap sur défaillance dans lequel l’incident
de crédit correspond à l’élargissement de
l’écart de crédit, le « spread » futur étant
défini par le différentiel de rendement du
sous - jacent et celui d’une valeur de
référence. En contrepartie, l’acheteur verse
au vendeur une prime. L’acheteur tente de
se protéger contre la dégradation du spread
de l’obligation d’un émetteur par rapport à
l’obligation d’Etat de même échéance89.
Avec ce « credit option», la contrepartie
n’a pas besoin de définir les incidents de
crédit, le paiement s’effectuera. Cette
distinction entre d’une part l’option de
vente sur l’écart de crédit et d’autre part
sur l’incident de crédit constitue un
avantage indubitable.
Néanmoins, ces produits sont difficiles à
couvrir et l’évaluation de leurs prix sont
relativement complexes.
La troisième famille de dérivés de crédit
est appelée « swap sur le rendement total
(ou « total return swap »). Il permet de
transférer à un tiers le rendement et le
risque rattachés à un actif de référence. Ce
swap permet d’échanger la performance
d’un actif contre une référence variable de
type Euribor. L’acheteur du contrat
cherche à se protéger contre le risque de
crédit en transférant ainsi intégralement le
risque de crédit et le risque de marché
engendrés par l’actif sous – jacent au
vendeur. Celui-ci verse à l’acheteur le taux
Euribor majoré ou minoré d’une marge
fixée par le pricing du swap.
89
On peut maintenant mesurer l’importance de la
mise en place d’un référentiel pour obtenir une
courbe de taux risqués, le pricing des produits
dérivés liés à cette courbe et la mesure des risques
encourus liés à la qualité des émetteurs.
Enfin la quatrième catégorie de dérivés de
crédit correspond au « titre lié à la valeur
du crédit (ou « credit linked notes »).
Prenant la forme d’emprunts obligataires
émis par un établissement bancaire
désireux de se protéger sur un actif conclu
avec
une
contrepartie,
dont
le
remboursement est conditionné par la non
défaillance
de
cette
contrepartie
(survenance d’un incident de crédit).
L’acheteur de la protection émet des titres,
reçoit le principal et paye périodiquement
des intérêts. A l’échéance, il rembourse à
l’investisseur le principal si aucun incident
de credit ne s’est pas produit. Dans le cas
contraire, le contrat est interrompu et il
paye la différence entre la valeur de
marché de l’actif et le principal.
Ces produits résultent finalement d’un
montage combinant un swap sur
défaillance et les caractéristiques d’un titre
à revenu fixe.
Ces quatre familles de dérivés de crédit
sont des instruments novateurs permettant
de transférer uniquement le risque de
crédit. A titre de comparaison, une
opération de titrisation transfert à la fois ce
risque mais également la propriété de la
créance sortie du bilan de l’établissement
bancaire titriseur. Sur le plan commercial,
ces nouveaux produits permettent de
maintenir la relation commerciale tout en
optimisant la gestion du portefeuille.
III. Enjeux des innovations financières
en matière de gestion du risque de crédit
Les innovations financières relatives à la
gestion du risque de crédit concernent les
dérivés de crédits et les techniques liées
aux ventes et achats de prêts bancaires sur
un marché secondaire.
A. Les opérations sur un marché
secondaire
Les établissements bancaires peuvent ainsi
échanger aussi bien des créances de
216
mauvais risque que des créances de
meilleurs risques à un prix convenu entre
le vendeur et l’acheteur.
L’utilisation de ce marché par les
établissements bancaires a pu être
initialement un moyen de faire face aux
coûts engendrés par des contraintes
réglementaires de fonds propres (L.
Benveniste et A. N. Berger (1987). Cela
correspondait au mécanisme de la
titrisation. La titrisation a également
constitué une source de financement des
établissements bancaires titriseurs. En
cédant des sous portefeuilles de prêts, les
établissements trouvaient par ce biais les
moyens de financer de nouveaux
investissements (C. T. Carlstrom et K. A.
Samolyk (1995), G. G. Pennacchi (1988)).
Au cours des années 1990, les
établissements ont commencé à considérer
ce marché secondaire des prêts comme
instrument de gestion des risques et des
coûts (G ; B. Gorton et G. G. Pennacchi
(1995) ) et comme un moyen de diversifier
les activités bancaires traditionnelles R. S.
Demsetz (2000).
A partir de cette période, les achats et
ventes de créances sur ce marché se sont
accrus, permettant aux établissements
bancaires de gérer activement leur risque
de crédit et de façon plus générale leurs
portefeuilles de prêts bancaires.
Le recourt à ce type d’instrument pour
gérer activement le risque de crédit permet
aux établissements bancaires de détenir
proportionnellement plus de prêts risqués
dans leur portefeuille. Ainsi, les achats et
ventes de prêts affectent la politique
d’investissement
des
établissements
bancaires.
Néanmoins, il semble important de
préciser selon les analyses menées par
Froot et Stein (1998) notamment, que cet
effet sur les investissements s’observe
essentiellement si l’objectif recherche par
les établissements bancaires est une gestion
active de leur risque de crédit.
Selon une étude plus récente menée par A.
Sinan Cebenoyan, Philip E. Strahan,
(2004), les implications concerneraient
également la structure financière des
établissements bancaires intervenant sur ce
marché secondaire.
Ainsi, les achats et cessions de prêts sur le
marché secondaire améliorent la gestion du
risque de crédit. Les établissements
financiers pourraient alors opérer sur leurs
secteurs d’activité avec plus d’endettement
et moins de capitaux propres.
Cet aspect peut apparaître ambigu au
regard des objectifs de refonte du ratio de
solvabilité. En effet, le ratio Mc Donough
vise à inciter les établissements bancaires
et financiers à s’engager dans une gestion
des risques plus active et plus sophistiquée
au travers un élargissement des règles de
calcul du niveau de fonds propres pondérés
des risques. Cette réglementation a pour
vocation un renforcement de la sécurité et
la stabilité financière. Ainsi, une meilleure
gestion des risques devrait, dans cette
perspective,
réduire
les
risques
systémiques et de solvabilité pvia une
réduction des risques de crédit notamment.
Mais l’amélioration des techniques de
gestion du risque de crédit pourrait ne pas
se traduire par une réduction du risque
contrairement à ce qu’anticipent les
autorités
de
régulation.
Si
les
établissements bancaires développent leur
aptitude à mieux gérer cette catégorie de
risque, ils peuvent davantage s’engager sur
des segments de clients plus risqués. C’est
d’ailleurs l’observation faite par l’étude
empirique de A. S. Cebenoyan et P. E.
Strahan (2004).
En outre dans cette analyse, la structure
financière des établissements, intervenant
sur le marché secondaire des prêts pour
gérer le risque de crédit, présente un point
commun : ils opèrent avec un niveau
d’endettement
supérieur
aux
établissements qui ne gèrent pas leur risque
de défaut sur ce marché.
217
Une gestion active du risque de crédit
permet aux établissements bancaires et
financiers de réaliser des « économies de
capitaux propres » (ils opèrent avec un
niveau d’endettement plus élevé) et
d’enregistrer des performances financières
plus importantes (ils détiennent des actifs
plus risqués et donc plus rentables dans
leur portefeuille).
B. Dérivés de crédit
Destinés initialement à des opérations de
couverture des risques de marché, ces
nouveaux instruments financiers sont
depuis peu utilisés à la couverture des
risques engendrés par les activités
traditionnelles d’intermédiation financière
et d’apporteur de liquidité.
Les établissements bancaires recourent à
ces marchés de produits dérivés à la fois
pour
compléter
leurs
activités
traditionnelles de prêts et pour couvrir les
risques engendrés par leurs activités de
prêts et de dépôts.
Selon une étude récente menée aux EtatsUnis par Brewer, Minton et Moser (2000),
les établissements de crédit ont tendance à
opérer une substitution entre ces
instruments dérivés et les actifs au bilan,
impliquant
des
changements
non
négligeables dans la composition des
portefeuilles bancaires.
Un tel phénomène de substitution tend à
accroître les risques bancaires, et par voie
de conséquence, renforce la confiance des
établissements
bancaires
dans
les
mécanismes de sécurité et de garantie des
dépôts et le système du refinancement et
du prêteur de dernier ressort.
En outre, ces instruments financiers, en
réduisant leur exposition au risque,
permettent aux établissements bancaires de
développer leurs services d’intermédiation,
comme ceux liés à la liquidité (Kashyap,
Rajan et Stein (2002))90. Dans cette
analyse, des synergies entre ces deux
activités s’expliquent par le fait que ces
activités exigent des établissements
bancaires de détenir d'importants soldes
d’actifs liquides. Leur détention tout en
répondant à cet impératif de liquidité, est
par ailleurs coûteuse pour la banque. Ainsi,
les synergies potentielles entre collecte de
dépôts et octroi de crédit correspondent en
fait à une réduction du coût unitaire du
portefeuille d’actifs liquides détenus et
peuvent s’assimiler à des économies
d’envergure, ou économies de gamme.
Aussi, la gestion du risque de crédit
constitue un avantage concurrentiel,
bénéfique à l’établissement bancaire si
celui-ci s’appuie sur un ensemble de
compétences
spécifiques
concernant
l’utilisation des instruments de gestion
d’un tel risque comme les dérivés de
crédits.
Le développement de l’activité de prêts,
favorisé par l’utilisation de ces instruments
financiers, s’accompagne également d’une
augmentation des ratios de capital d’une
part, et d’une baisse du total actifs d’autre
part. Cela signifie que, quelque soit la
forme de ces produits, ces instruments ont
un impact sur la gestion du risque
systémique91.
Néanmoins, toute politique visant à réduire
l’utilisation des ces instruments financiers
peuvent se traduire par une baisse de
l’activité de crédits des banques, et donc
par un moindre financement de l’activité
économique in fine.
90
B. Holmstrom et J. Tirole (1998) ont mis en
exergue cet aspect important de la fonction
d’intermédiation, même s’ils n’associent pas la
fonction d’engagement aux obligations de
l’intermédiaire. De même Kashyap, Rajan et Stein
(2002) supposent l’existence de synergies entre les
activités d’intermédiation traditionnelle pour
expliquer le rôle fondamental des établissements
bancaires dans l’approvisionnement en liquidité de
l’économie.
91
Le risque systémique correspond au risque lié à
l’environnement
dans
lequel
les
agents
interviennent.
218
Les nouveaux instruments financiers
semblent bien apporter une flexibilité à la
gestion du portefeuille de prêts des
établissements bancaires, mais aussi une
meilleure performance, une réponse à la
recherche d’une structure financière
optimale.
En effet, selon les accords de Bâles, les
banques sont tenues de conserver des fonds
propres correspondant à 8% de la valeur
comptable de la plupart des prêts qu’elles
accordent.
Comme
nous
l’avons
précédemment
noté,
les
grands
établissements bancaires recourent à des
modèles d’évaluation interne des risques
de crédit pour déterminer le niveau de
fonds propres à détenir selon la solvabilité
des emprunteurs. Ces établissements sont
incités à se défaire de prêts présentant un
risque de crédit relativement faible, dans la
mesure où ces prêts ont tendance à diluer
le rendement de leurs fonds propres.
Néanmoins, ces nouveaux instruments
financiers ne sont pas sans présenter
quelques inconvénients. Le principal réside
dans le fait que ces produits ne permettent
pas une couverture du portefeuille de prêts
global. En effet, dans la mesure où chaque
dérivé de crédit couvre le risque de crédit
d’une créance, la couverture du
portefeuille de prêts d’un établissement
bancaire supposerait de contracter autant
de dérivés de crédit que de crédits
composant le portefeuille.
Pour
résoudre
ce
problème,
les
établissements bancaires combinent une
opération de titrisation et les dérivés de
crédit, opération qualifiée de titrisation
synthétique. Dans ce cadre, la banque
contracte un dérivé de crédit auprès d’une
société ad hoc (SPV « Special Purpose
Vehicle ») qui émet des parts auprès des
investisseurs et achète des titres d’Etat92.
92
La dette émise par le SPV est généralement
subdivisée en une part senior avec la notation
maximale, des parts junior avec une notation
intermédiaire, et des parts résiduelles souscrites
dans certains cas par les établissements bancaires.
L’inconvénient majeur actuel du recours
aux dérivés de crédits réside dans
l’absence de la valorisation de ces produits.
En effet, il n’existe pas d’instrument qui
fournit le prix du risque de crédit. Pour une
option sur action, au contraire, le prix du
sous-jacent est déterminé par le marché.
Pour valoriser les dérivés de crédit, on
recourt généralement à plusieurs types de
modèles.
Le premier type de modèle se fonde sur les
travaux de Merton selon lesquels le défaut
survient quand la valeur de l’actif de
l’entreprise devient inférieure à la valeur
de sa dette. Dans cette approche, celui qui
détient une action détient également le
droit de racheter la dette en vendant l’actif
au prix du marché. L’actionnaire détient
donc un call sur l’actif de l’entreprise.
Les techniques de valorisation des options
de type Black et Scholes permettent d’en
déduire la probabilité de défaut de
l’entreprise.
D’autres modèles considèrent le défaut
comme un évènement ayant une
probabilité d’occurrence que l’on tente
d’estimer par des données historiques et
des notes de agences de notation.
Ces marchés de produits dérivés
permettent aux établissements de crédit de
compléter leurs activités traditionnelles de
prêts et de couvrir les risques engendrés
par leurs activités de prêts et de dépôts.
Conclusion
Etant donnés les multiples risques auxquels
les
établissements
bancaires
sont
confrontés, nous nous sommes focalisés
sur le risque de crédit ou encore risque de
défaut ou de contrepartie.
L’émergence de systèmes de mesure
sophistiqués du risque de crédit s’est
accompagnée
simultanément
d’un
développement d’instruments de gestion
d’un tel risque. Nous avons essayé de voir
219
les implications des nouvelles techniques
de gestion du risque de crédit.
Ces nouveaux instruments améliorent la
performance globale des établissements
qui les utilisent. En effet, les banques qui
recourent à ces outils sont plus à même de
profiter des opportunités d’investissement
à valeur actuelle nette positive. Elles
peuvent ainsi augmenter le volume de leur
portefeuille de prêts tout en détenant moins
de liquidité et de capital.
Ces
nouveaux
produits
financiers
permettent en outre aux établissements
bancaires de gérer leur portefeuille avec
plus de flexibilité (les établissements
peuvent opérer avec des structures
financières plus souples) et plus
« d’agressivité » (les titres en portefeuille
peuvent être plus risqués et donc plus
rentables).
Dans la réforme du ratio de fonds propres,
les autorités se sont clairement prononcées
en faveur de ces innovations. Pourtant, il
ne semble pas y avoir nécessairement
convergence entre les résultats attendus par
celles-ci et ceux constatés.
Quel que soit ce que nous montre l’avenir,
force est de constater ces nouvelles
techniques de gestion continuent de se
développer et de se propager. Aujourd’hui,
ces innovations touchent le continent
Européen. Il est encore trop tôt pour se
rendre compte de l’impact de ces éléments
mais l’expérience Anglo-saxonne en la
matière devrait nous aider à mieux
anticiper
leurs
implications
tant
individuelles
(au
niveau
d’un
établissement) que globales (an niveau du
système bancaire dans son ensemble).
Une dernière question reste posée : la
maîtrise
de
la
vulnérabilité
des
intermédiaires financiers à travers une
gestion du risque de crédit de plus en plus
performante suffit-elle aujourd’hui à
garantir et à gérer la stabilité financière ?
Bibliographie
Allen F. et Santomero A. M. (1998): The
theory of financial intermediation. Journal
of Banking and Finance. Vol 21, pp: 14611485.
Allen F. et Santomero A. M. (2001): What
do financial intermediaries do ? Journal of
Banking and Finance. Vol 25, pp: 271-294
Altman E.I. et Saunders A. (1997) : Credit
Risk Measurement : Developments over
the Last Twenty Years. Journal of Banking
and Finance, December, pp: 1721-1742.
Anderson R. et Sundaresan S. (2000): A
Comparative Study of Structural Models of
Corporate Bond Yields: An Exploratory
Investigation. Journal of Banking and
Finance, January, pp: 255-269.
Benveniste L. et Berger A. N. (1987):
Securitization
with
recourse:
An
investment that offers uninsured bank
depositors sequential claims. Journal of
Banking and Finance, Vol 11, pp: 403424.
Berger, Herring et Szegö (1995): The role
of capital in financial institutions. Journal
of Banking and Finance, Vol 19, pp: 393 –
430.
Bessis J. (1998): Risk Management in
Banking. John Wiley & Sons.
Bhattacharya S. et Thakor A. V. (1993):
Contemporary banking theory. Journal of
Financial Intermediation. Vol 3, pp: 2-50.
Black F. et Cox J. (1976): Valuing
Corporate Securities: Some Effects of
Bond Indenture Provisions. The Journal of
finance, Vol 31, pp: 351-367.
Carey M. (1998): Credit Risk in Private
Debt Portfolios. Journal of Finance,
August, pp: 1363-1387.
Carlstrom C. T. et Samolyk K. A. (1995):
Loan sales as a response to market-based
220
capital constraints. Journal of Banking and
Finance, Vol 19, pp: 627-646.
Cebenoyan A. S., Strahan P. E., (2004):
Risk management, capital structure and
lending at banks, Journal of Banking and
Finance, Vol 38, pp: 19-43.
Commission
Européenne
(2003) :
Révisions des exigences de fonds propres
applicables aux banques et aux entreprises
d’investissement » 3ème document de
consultation
des
services
de
la
commission.
Demsetz R. S. (2000): Bank loan sales: A
new look at the motivations for secondary
market activity. Journal of Financial
Research, Vol 23, n° 2, pp: 192-222.
Diamond
D.
(1984):
Financial
intermediation and delegated monitoring.
Review of Economics studies, Vol 51, pp:
393-414.
Diamond
D.
(1996):
Financial
intermediation and delegated monitoring:
A simple example. Economic Quaterly,
Federal Reserve Bank of Richmond. Vol
82, n°3 Summer, pp: 51-68.
Diamond D. et Rajan R. (2000) A theory
of Bank Capital. The Journal of Finance,
Vol 55, n°6, pp: 2431-2465.
Froot K. A. et Stein J. C. (1998): Risk
management: Capital budgeting, and
capital structure policy for financial
institutions: an integrated approach.
Journal of Financial Economics, Vol 47,
pp: 55-82
Gorton G. B. et Pennacchi G. G. (1995):
Banks and loan sales, marketing
nonmarketable assets. Journal of Monetary
Economics, Vol 35, pp: 389-411.
Holmstrom B. et Tirole J (1998): Public
and private supply of liquidity. Journal of
Political Economy. Vol 106. pp: 1-40.
explanation for the coexistence of lending
and deposit-taking. The Journal of
Finance, Vol 57, n°1, février, pp: 33 – 73.
Krahnen J.P. et Weber M. (2001) :
Generally Accepted Rating Principles : A
Primer. Journal of Banking and Finance,
Vol 25, n°1: pp: 3-23.
Liu J., Longstaff F. et Mandell R. (2000):
The Market Price if Credit Risk: An
Empirical Analysis of Interest Rate Swap
Spreads. Working Paper of The Anderson
School at UCLA. 49 pages.
Longstaff F. et Schwartz E. (1992):
Interest Rate Volatility and the Term
Structure:
A
Two-Factor
General
Equilibrium Model. The Journal of
Finance, Vol 47, pp: 1259-1282.
Longstaff F. et Schwartz E. (1995): A
Simple Approach to Valuing Risky Fixed
and Floating Rate Debt. Journal of
Finance, july, pp: 789-819.
Lopez J.A. et Saidenberg M.R. (2000)
Evaluating Credit Risk Models. Journal of
Banking and Finance, Vol 24, n°1/2,
January, pp: 151-165.
Merton R. (1974): On the Pricing of Risky
Debt: The Risk Structure of interest Rates.
The Journal of Finance, Vol 29, pp: 449470.
Merton R. (1995): Financial innovation
and the management and regulation of
financial institutions. Journal of Banking
and Finance. Vol 19, pp: 461-481.
Pennacchi G. G. (1988): Loan sales and the
cost of bank capital. The Journal of
Finance, vol 43, pp: 375-396.
Saunders A. (2002) : Credit Risk
Measurement : New Approaches to Value
at Risk ans Other Paradigms, Somerset,
NJ, john Wiley.
Kashyap A. K., Rajan R., et Stein J C.
(2002) Banks as liquidity providers: an
221
Les opérations à effet de levier
sous-valorisent-elles les entreprises cibles ?
Olivier LEVYNE93
(2006)
Abstract
The valuation of a company in a LBO context corresponds to the
total financing a dedicated holding can gather for the operation.
This financing includes the acquisition debt, which is granted by
a bank and the equity, which is invested by financial sponsors.
The banks structure their loans so that covenants are taken into
account, whereas the equity sponsors require a 20% IRR within 3
or 4 years. The free cash flows discount rate used for the
classical valuation of a firm is based on its weighted average cost
of capital which is lower than 20%; moreover, the long term
forecasts, including profits enhancements, are not included in the
IRR calculation. Therefore, the valuation of a company is lower
if it is the target of a LBO than if it is purchased by a competitor.
93
Olivier Levyne, Professeur Permanent de l’ISC Paris, Responsable du Département Finance ; 22, boulevard du
Fort de Vaux, 75017 Paris ; tél : 01 40 53 99 99, 06 13 69 70 27 ; mail : [email protected]
222
Dans le cadre d’une acquisition classique,
réalisée par voie d’OPA ou d’OPE pour
une cible cotée, la valorisation par les
approches précédemment décrites constitue
une hypothèse de négociation entre
l’acheteur et le vendeur, ou un ensemble de
références incontournables dans le cadre de
la présentation de l’offre au marché
boursier, via la note d’information visée
par l’AMF.
Lorsqu’un actionnaire, ou un groupe
d’actionnaires, souhaite sortir du capital
d’une société, il entreprend, généralement
via une banque-conseil, des négociations
avec une autre société, soit présente sur le
même secteur d’activité, soit sur un secteur
dont les produits sont complémentaires et
permettent à l’acquéreur éventuel de
dégager des synergies de développement.
Dans ce cas, l’acquéreur qui prend le
contrôle de la cible et l’intègre dans sa
stratégie globale accepte de payer une
prime de contrôle ; éventuellement, si
l’attractivité de la cible est forte et/ou si la
concurrence avec d’autres acquéreurs
pressentis est importante, il peut accepter
de payer une partie de la valorisation des
synergies anticipées.
Depuis l’explosion de la bulle Internet
(mars 2000) et la chute des marchés
boursiers (la remontée du CAC 40 à 4100
points en 2005 n’a pas permis de retrouver
les niveaux de 2000), il est courant de ne
pas trouver d’acquéreurs « industriels », y
compris pour des cibles qui permettraient à
des acquéreurs pressentis d’obtenir une
forte relution de leur BPA.
conserver que 40% du capital de la
Vivendi Universal Publishing (VUP) que
le groupe venait d’acquérir auprès de
Vivendi Universal.
Dans ce cas, le cédant se tourne vers des
fonds d’investissement qui prennent le
contrôle de la cible via une société holding
de reprise. La valeur de la cible n’est dès
lors plus une hypothèse mais une
résultante : c’est le montant maximum des
fonds qui peuvent être levés par le holding
de reprise sous forme de capital, souscrit
par le(s) fonds d’investissement et de dette
d’acquisition levée auprès des banques.
En d’autres termes, la détermination de la
valeur de la cible revient à structurer le
financement du holding.
I.
Principes généraux
Une opération de rachat à effet de levier ou
leverage buy out (LBO) consiste à faire
acquérir une société cible par un holding
de reprise ad hoc financé, pour une part
importante, par endettement.
L’acquisition des seuls capitaux propres du
holding par les investisseurs en fonds
propres se traduit par une mise de fonds
inférieure à celle qui serait nécessaire à
l’achat des actions de la cible, faisant ainsi
jouer à plein l ’effet de levier (rentabilité
financière de la cible supérieure au coût de
la dette)/
En outre, la concentration de la
concurrence qui résulte de la multiplication
des fusions et acquisitions réduit les
rapprochements nationaux. Ainsi, la
Commission
Européenne
de
la
Concurrence a contraint Schneider à
revendre la société Legrand qu’elle venait
d’acquérir. De même, Lagardère n’a pu
223
Graphique n°1 : schéma de principe d’une opération à effet de levier
Cible
Holding de reprise
100%
CP (H)
CP (cible)
Actifs de
la cible
Titres
de la cible
levier
financier
Dette
du holding
Dette de la cible
CP (H) : valeur comptable des capitaux propres du holding
CP (cible) : valeur économique des capitaux propres de la cible
La dette d ’acquisition du holding est
remboursée par les dividendes que lui
verse la cible et éventuellement par la
trésorerie procurée par la sortie du LBO.
Un LBO repose sur la capacité de la cible à
verser des dividendes au holding de
reprise. Il suppose que certaines conditions
soient préalablement réunies afin d ’assurer
la viabilité du montage et d ’engendrer un
niveau de risque acceptable. En particulier
il convient que la cible intervienne sur un
secteur
mature qui requiert des
investissements modérés, ce qui permet la
distribution de dividendes élevés. Son
endettement raisonnable afin d ’affecter
l ’essentiel de la trésorerie de la cible à la
distribution de dividendes au holding. Par
ailleurs, les menaces de l ’environnement
doivent être limitées afin de réduire les
aléas relatifs à la réalisation du plan
d ’affaires
en
termes
d ’intensité
concurrentielle, de risque de remise en
cause du positionnement de la cible par
une innovation technologique et de
cyclicité de l ’activité ;
En outre, la société cible doit disposer
d ’un plan d ’affaires fiable et réaliste sur
lequel reposent les simulations financières.
En outre, il convient de disposer d’une
bonne visibilité sur la sortie par mise en
bourse ou par cession à un industriel ou à
un autre fonds.
Le réinvestissement du cédant dans le
capital du holding de reprise est observé
fréquemment. Celui-ci sécurise alors
l’investissement du fonds dans la mesure
où le réinvestissement constitue un gage du
maintien du management en place et
crédibilise le plan d ’affaires qui lui a été
remis, les conditions du réinvestissement
du cédant étant les mêmes que celles de
l’entrée du fonds.
Il est également avantageux pour le cédant
du fait que son réinvestissement mobilise
alors seulement une partie de la trésorerie
perçue. De plus, il bénéficie du même TRI
que le fonds et d ’un potentiel d’upside lors
de sa sortie du LBO et peut alors bénéficier
de certains avantages fiscaux.
II.
Valorisation de la cible
Le prix de cession de la cible est plafonné
à hauteur du montant du financement
maximal susceptible d’être levé par le
holding de reprise.
Le montant de la dette d’acquisition est
directement
lié
à
la
rentabilité
prévisionnelle de la cible. Il est calibré en
intégrant 3 contraintes. La première est
d’intégrer un remboursement sur une
période de 7 à 9 ans à l ’aide des
dividendes distribués par la cible au
holding (le taux de distribution des
224
bénéfices de la cible étant supposé s’établir
à 100% dès la mise en place du LBO). La
seconde est d’être calibré de telle sorte que
le holding conserve une trésorerie
légèrement excédentaire afin de ne pas
engendrer de besoins de financement
complémentaires. La troisième est de
respecter
certains
ratios
financiers
qui
permettent
aux
(covenants)
établissements prêteurs et aux financiers de
bien contrôler le bon déroulement du LBO.
Les capitaux propres sont fixés à un niveau
assurant
aux
investisseurs
(fonds
d ’investissement) un taux de rendement
interne (TRI) de l’ordre de 20% à 30% en
3 ans dans une hypothèse de sortie du
fonds en bourse ou par cession à un
industriel (ou à un autre fonds) sur la base
d ’un
multiple
d’excédent
brut
d’exploitation ou de résultat d’exploitation,
lequel multiple doit être issu des conditions
de marché au moment de la mise en place
du LBO.
La valeur de la cible est en réalité
légèrement inférieure à la somme des
valeurs des capitaux propres et de la dette
du holding, celui-ci devant également
financer divers frais liés à l’acquisition (de
l’ordre de 3% à 4% de la valeur de la
transaction). Ces dépenses correspondent
en général aux frais d’avocats, de conseils,
d’audits juridique, comptable et fiscal et au
paiement
d’une
commission
d ’engagement sur la dette d ’acquisition.
III. Facteurs d’optimisation financière
L ’optimisation de la trésorerie du holding
au cours des premières années du LBO
conduit à différer une partie du
remboursement de la dette d ’acquisition.
La dette dite senior est ventilée en 2
tranches. La première, dite tranche A (80%
du montant total) est remboursable par
amortissements du capital en légère
progression sur 7 ans. Ses intérêts sont
calculés sur la base de l’Euribor 6 mois
majoré de 225 points de base dans les
conditions de marché actuelles. La
seconde, dite tranche B (20% du montant
total) est remboursable in fine au bout de 8
ans et portant intérêt au taux de l’Euribor 6
mois augmenté de 275 points de base dans
les conditions de marché actuelles.
Le financement peut être complété par une
dette mezzanine, en général remboursable
in fine au bout de 9 ans, ou à 50% au bout
de 8 ans et 50% au bout de 9 ans. Ses
intérêts sont calculés sur la base de
l’Euribor 6 mois majoré de 350 points de
base auxquels s ’ajoutent 250 points de
base capitalisés. Cette dette mezzanine est
assortie de bons de souscription d ’actions
(BSA) dont l ’exercice engendre une plusvalue qui améliore le rendement des
apporteurs de financement mezzanine
(souvent qualifiés de « mezzaners »). Au
total, dans les conditions de marché
actuelles, la rémunération annuelle de la
dette mezzanine augmentée de la plusvalue résultant de l ’exercice des BSA doit
assurer aux fonds spécialisés en mezzanine
un TRI de l’ordre de 17%.
Dans l ’hypothèse où la trésorerie du
holding est déficitaire uniquement la
première
année
du
LBO,
des
aménagements au cas par cas peuvent être
envisagés. Il peut notamment s’agir du
versement par la cible au holding d ’un
dividende exceptionnel, à condition de
disposer de réserves distribuables ou de la
négociation avec les banques d ’un
« surfinancement » du holding c’est-à-dire
d ’une augmentation de la dette
d ’acquisition qui permet de couvrir ses
besoins de trésorerie pendant un an.
Les opérations à effet de levier notamment
été abordées par la littérature sous l’angle
de l’analyse des performances financières
de la cible après la mise en place de
l’opération. Kaplan (1989)94 et Smith
94
Kaplan S., “Sources of Value in Management Buy
Outs”, in Leveraged Management Buyout : Causes
and Consequences, Y. Amihud (ed.), Homewood,
Dow Jones-Irwin, 1989, pp. 611-632
225
(1990)95 montrent notamment, sur la
période 1980-1985, que l’opération
améliore l’efficacité et la performance de
l’entreprise acquise. Summers (1990)96
observe la présence d’opérations plus
risquées sur la période 1986-1990 qui ne se
sont pas traduites par une amélioration des
performances financières. Une explication
de cette situation peut être le
renchérissement du coût du financement
inhérent à une augmentation de la part du
financement
de
l’opération
par
endettement.
IV.
Facteurs d’optimisation fiscale
Outre la présence de l’effet de levier,
l’optimisation de l ’opération passe par
une réduction de l ’impôt à payer par le
groupe constitué par le holding et la cible
grâce à l ’intégration fiscale.
Le groupe fiscal peut utiliser le déficit
fiscal créé par les charges financières et
l’amortissement des frais d’acquisition du
holding alors que ce dernier ne dispose pas
de produits imposables (les dividendes
remontent en franchise d’impôt au sein du
périmètre d’intégration fiscale). Les
résultats imposables de la cible sont ainsi
en partie neutralisés fiscalement par le
déficit du holding.
Il convient, en outre, de demander
l ’intégration fiscale au Service de
Législation Fiscale avant le 31/12/N pour
une intégration à partir de l ’exercice N+1.
D ’un point de vue pratique, le holding et
la cible signent une convention
d ’intégration fiscale qui formalise les
conditions de liquidation de l ’impôt du
groupe fiscal. Ainsi, la cible verse au
holding l’IS qu ’elle aurait versé au Trésor
Public en l’absence d ’intégration fiscale
l’impôt étant liquidé vis-à-vis du holding
selon
le
principe
des
acomptes
provisionnels vis-vis du Trésor Public. En
d’autres termes, au cours de l’année N,
sont payés des acomptes sur l’IS qui sera
dû au titre de l ’exercice N et une
régularisation du solde de liquidation
(différence entre l ’IS effectivement dû et
la somme des acomptes provisionnels déjà
payés).est réalisée en avril N+1. Par
ailleurs, le holding paie l ’impôt dont
l ’assiette correspond au résultat imposable
de la cible réduit du déficit fiscal du
holding,
Les conditions du réinvestissement des
actionnaires de la cible au capital du
holding de reprise peuvent être optimisées
selon trois axes. Le premier porte sur
l’apport d ’une partie des titres de la cible
au holding de reprise. Dans ce cas, la plusvalue de cession dégagée par l ’apporteur
est en sursis d’imposition jusqu’à la date
de cession des titres du holding ayant
rémunéré l ’apport. Le second concerne la
cession des titres au sein du périmètre
d ’intégration fiscale du cédant, ce qui
suppose que le holding de reprise fasse
partie du périmètre d ’intégration fiscale du
cédant avant le LBO et que l ’entrée des
investisseurs en capitaux propres soit
momentanément limitée à moins de 5%, ce
qui suppose que 95% de l’investissement
du fonds réside dans l’acquisition d’OC
(Obligations Convertibles en actions) ou
d’ORA (Obligations Remboursables en
Actions). Dans ce cas, la plus-value est
également en sursis d ’imposition. Le
troisième réside dans le réinvestissement
du cédant personne physique à hauteur de
plus de 25% du capital du holding. Dans ce
cas, le montant du réinvestissement est
déductible de l ’ISF, les actions détenues
étant assimilées à un outil de travail.
La place de la fiscalité dans le montage
d’une opération à effet de levier a été
abondamment traitée dans la littérature
financière. Ce point ressort notamment des
95
Smith AJ., “Capital Owenership Structure and
Performance: The Case of Management Buyouts”,
Journal of Financial Economics, 15, 1986
96
Summers L., “Discussion in LBO Conference”,
Journal of Applied Corporate Finance, 1990
226
études de Jarell, Brickley et Netter (1988)97
et Kaplan (1989)98.
V. Prolongation du plan d’affaires de
la cible
Sur la période du plan d ’affaires, les
hypothèses
financières
de
base
communiquées par la Direction Générale
de la cible ou issues de notes d ’analystes
peuvent être utilisées directement sans
retraitement (agrégats d ’exploitation).
En revanche, la distribution au holding de
la totalité - dans la mesure du possible - du
résultat de la cible (réalisé au cours de
l ’exercice précédent) conduit à recalculer
la dette financière et le résultat financier de
la cible
Au-delà de la période du plan d ’affaires,
les prévisions peuvent être prolongées sur
9 ans en utilisant par exemple les
hypothèses suivantes :
-
taux de croissance de l ’activité égal à
celui prévu pour la dernière année du
plan d ’affaires, ou convergence
linéaire (interpolation linéaire) vers un
taux de croissance de l’activité plus
normatif (de l’ordre de 2% à 3%) ;
-
principaux ratios constatés la dernière
année du plan d ’affaires maintenus au
delà :
o taux de marge d ’EBITDA
ou d ’EBIT ;
o ratio
dotations
aux
amortissements/chiffre
d’affaires;
o ratio investissements/CA.
Le
niveau
des
investissements
doit
toutefois être en rapport
avec la croissance observée
si celle-ci est variable ;
o BFR/CA.
97
Jarrel G., Brickley J. et Netter J., “The Market of
Corporate Control : The Empirical Evidence Since
1980”, Journal of Economic Perspectives, 1988
98
Kaplan S., op cit
En
l ’absence
d ’informations
complémentaires, les intérêts minoritaires
et les provisions pour risques et charges du
bilan d’ouverture sont supposés constants
sur toute la période retenue pour le LBO.
La construction du bilan de la cible
s ’appuie sur les cash flows prévisionnels
qui permettent de déterminer la dette
financière nette.
Résultat net de la cible N
+ Dotations aux amortissements N
– Investissements nets des cessions N
– Variation du BFR N
– Dividende versé au titre de l'exercice N-1
= Variation de la dette nette de la cible N,
assimilée au cash flow
Le bilan au 31/12/N s’obtient à partir de
celui au 31/12/N-1 :
Immobilisations N = Immobilisations (N-1)
+ Investissements N
– Dotations N
BFR N
= BFR (N-1)
+ Variation du BFR
______________
Total Actif N
= Total Actif (N-1)
+ Investissements N
– Dotations N
+ Variation du
BFR N
Capitaux propres N = Capitaux propres
(N-1) + Résultat N
– Dividendes
Provisions N
= Provisions (N-1)
Dette nette N
= Dette nette (N-1)
– Cash-flow N
______________
Total Passif N
= Total passif (N-1)
+ Résultat N
– Dividendes
– Cash-flow N
Cette présentation permet de démontrer,
par récurrence, l’équilibrage du bilan au
31/12/N, sous l’hypothèse d’un bilan
227
équilibré au 31/12/N-1, en remplaçant le
cash flow par sa valeur :
Total passif N = Total passif (N-1) +
Résultat N – Dividendes – (Résultat N +
Dotations N – Investissements N –
Variations du BFR N – Dividendes)
RCAI de la cible
– Dotation aux amortissements des
frais d'acquisition du holding
– Frais financiers sur la dette
d'acquisition
+
Produits financiers sur le placement
de la trésorerie du holding
= Résultat imposable du groupe fiscal
En simplifiant par Résultat N et
Dividendes N et en considérant le fait que :
Total passif (N-1) = Total actif (N-1),
on a donc, en effet :
Total passif N = Total actif (N-1)
– Dotations N
+ Investissements N
+ Variations du BFR N
= Total actif N.
VI.
Endettement du holding
L ’endettement maximal du holding doit
être fixé à un niveau tel que sa trésorerie
demeure toujours positive.
Le résultat net du holding sur lequel repose
la détermination de son cash flow et de sa
trésorerie suppose le calcul préalable de
l ’impôt dû dans le cadre de la convention
d ’intégration fiscale.
A. Calcul de l ’impôt dû par le
groupe fiscal intégré
L’impôt versé par le groupe fiscal intégré
est déterminé à partir du résultat imposable
de la cible, assimilé à son résultat courant
avant impôts (RCAI) dont sont déduits
d’une
part
les
dotations
aux
amortissements des frais d’acquisition,
d’autre part les frais financiers sur la dette
d’acquisition et auquel sont ajoutés, le cas
échéant, les produits financiers engendrés
par le placement de la trésorerie du holding
de reprise. Ainsi :
L’ IS reversé au Trésor Public correspond
alors au produit du résultat imposable du
groupe fiscal par le taux d’imposition.
B. Détermination du résultat net du
holding après impôt
Le résultat net du holding intègre les
dividendes reçus de la cible, l’impôt reçu
de la cible, les dotations aux
amortissements des frais d’acquisition, les
frais financiers engendrés par la dette
d’acquisition et le solde d’impôt à verser
au Trésor Public. Ainsi :
Dividendes reçus de la cible au titre de
(N-1)
+ Impôt reçu de la cible
– Dotations aux amortissements des
frais d'acquisition
– Frais financiers sur la dette
d'acquisition
+ Produits financiers sur le placement
de la trésorerie du holding
– IS reversé au Trésor Public
= Résultat net du Holding
Le bilan du holding s ’appuie sur son cashflow déterminé à partir du résultat net et de
l ’échéancier de remboursement de la dette
d’acquisition.
C. Détermination du flux de
trésorerie et du bilan du holding
Les flux de trésorerie du holding sont
déterminés à partir de son résultat net. Il
convient alors de réintégrer les dotations
aux amortissements des frais d’acquisition
et de déduire le montant du remboursement
du principal de la dette d’acquisition.
Ainsi :
228
Résultat net du holding
+ Dotations aux amortissements des
frais d'acquisition
– Remboursement du principal de la
dette d'acquisition
= Flux de trésorerie ou cash-flow du
holding
Le
remboursement
de
la
dette
d ’acquisition senior s’effectue par
amortissements constants ou, dans le cadre
d’un
profil
plus
agressif,
par
amortissements progressifs.
Le bilan du holding fait alors ressortir la
trésorerie à maintenir à un niveau positif :
Titres N
= Titres (N-1)
Frais d'acquisitions N = Frais d'acquisition
(N-1) - Dotations N
Trésorerie N
= Trésorerie (N-1) +
Cash-flow N
Total Actif N
= Total Actif (N-1)
+ Cash-flow N
– Dotations N
Capitaux propres N = Capitaux propres
(N-1) + Résultat N
Dette financière N = Dette financière
(N-1)
– Remboursement
dette N
Total Passif
= Total Passif (N-1)
+ Résultat net N
– Remboursement
dette N
Le remplacement du Cash flow N par sa
valeur permet d’établir, par récurrence,
comme pour la cible, l’équilibrage du bilan
du holding.
Le montant maximal des capitaux propres
du holding doit être fixé à un niveau tel
que le TRI des investisseurs en fonds
propres atteigne le niveau souhaité (de
l ’ordre de 30% en 3 ans). Il est déterminé
par itérations successives en simulant
différents niveaux d ’endettement.
Le TRI des investisseurs en capitaux
propres est déterminé en comparant la
valorisation du groupe (holding + cible) au
moment de leur sortie du capital du
holding à la valorisation retenue pour la
cible au moment de leur entrée :
Soit :
-
Vn = valeur des capitaux propres de
l’ensemble constitué du holding et de
la cible dans n années ; en d’autres
termes, Vn est la valeur de sortie des
investisseurs en capitaux propres
(fonds de capital investissement) ;
-
V = montant de l’investissement du
fonds ;
-
i = TRI exigé par le fonds.
Pendant toute la durée de l’investissement,
le fonds ne reçoit pas de dividendes afin
d’optimiser le service de la dette
d’acquisition. Par conséquent i vérifie :
V=
Vn
0
0
+
+ ... +
2
1 + i (1 + i )
(1 + i )n
[1]
En d’autres termes, V est la valeur
actualisée au TRI exigé de la valeur de
sortie.
La valeur Vn du groupe (holding + cible)
issue
de
comparaisons
boursières
(application d ’un multiple d ’EBIT ou
d’EBITDA) intègre sa dette financière
nette, issue du bilan consolidé :
VII. Capitaux propres du holding
229
-
Bilan consolidé d'ouverture au 31/12/N
Immobilisations cible N
BFR cible N
Frais holding N
Goodwill N
= Total Actif consolidé N
maintien à partir de 2007 des ratios
suivants observés en 2006 :
ƒ
ƒ
Marge opérationnelle de 7,9% ;
Ratio rapportant les dotations
aux amortissements au CA de
2,1%.
Capitaux propres holding N
Réserves consolidées N
Dette nette cible N
Dette nette holding N
= Total passif consolidé N
Bilan consolidé de clôture au 31/12/N+1
Immobilisations cible N+1
BFR cible N+1
Frais holding N+1
Goodwill N
= Total Actif consolidé N+1
Capitaux propres holding N+1
Réserves consolidées N + résultat cible
N+1
Dette nette cible N+1
Dette nette holding N+1
= Total passif consolidé N+1
VIII. Exemple : le cas Bricorama
Sur la base d’une note d’analyste récente,
le compte de résultat, CA au REX est
prolongé selon la même logique que celle
qui sous-tend la valorisation de M6 par
DCF :
-
convergence linéaire du taux de
croissance de l’activité de 7% en 2005
(dernière année des prévisions de
l’analyste financier ) vers 3% en 2011.
Ce taux de 3% est en ligne avec
l’hypothèse retenue pour déterminer la
prime de risque du marché retenue ;
230
Tableau 1 : prévision d’activité et de rentabilité opérationnelle de la société Bricorama
Compte de résultat de la cible
CA
2004
615
Taux de croissance
Excédent brut d'exploitation
Taux de marge d'EBITDA
2005
658
2006
700
2007
739
2008
776
2009
810
2010
839
2011
865
7,0%
6,3%
5,7%
5,0%
4,3%
3,7%
3,0%
48
52
55
58
61
64
66
68
7,8%
7,9%
7,9%
7,9%
7,9%
7,9%
7,9%
7,9%
(Dotations)
(14)
(14)
(15)
(16)
(17)
(17)
(18)
(18)
En % du CA
-2,3%
-2,1%
-2,1%
-2,1%
-2,1%
-2,1%
-2,1%
-2,1%
34
38
40
43
45
47
48
50
Résultat d'exploitation
Le bas du compte de résultat (RCAI, IS et résultat net) suppose la connaissance de
l’endettement financier net de la société. Son évolution à partir du dernier bilan publié (2003)
repose sur les cash flows prévisionnels.
Les cash flows intègrent :
-
les investissements qui convergent linéairement entre 2006 et 2011 vers le montant des
dotations aux amortissements ;
-
la variation du BFR dans l’hypothèse où le BFR 2003 égal à 38 jours de CA est
normatif ;
-
les dividendes dans le cadre d’un taux de distribution de 100% afin d’optimiser le service
de la dette d’acquisition du holding de reprise
Tableau 2 : prévision de flux de trésorerie de la société Bricorama
Cash flows de la cible
Résultat Net
Dotations
(Investissements)
(Dividendes)
(Variation du besoin en fonds de roulement)
Variation de dette nette
Taux de distribution
2004
21
14
(12)
0
(5)
____
17
2005
23
14
(12)
(21)
(5)
____
0
2006
25
15
(13)
(23)
(4)
____
(1)
2007
26
16
(14)
(25)
(4)
____
(1)
2008
28
17
(15)
(26)
(4)
____
(1)
2009
29
17
(16)
(28)
(4)
____
(1)
2010
30
18
(17)
(29)
(3)
____
(2)
2011
31
18
(18)
(30)
(3)
____
(2)
0%
100%
100%
100%
100%
100%
100%
100%
231
Le compte de résultat complet et le bilan de la cible sont alors les suivants :
Tableau 3 : compte de résultat prévisionnel de la société Bricorama
Compte de résultat de la cible
CA
2004
615
Taux de croissance
Excédent brut d'exploitation
Taux de marge d'EBITDA
2005
658
2006
700
2007
739
2008
776
2009
810
2010
839
2011
865
7,0%
6,3%
5,7%
5,0%
4,3%
3,7%
3,0%
48
52
55
58
61
64
66
68
7,8%
7,9%
7,9%
7,9%
7,9%
7,9%
7,9%
7,9%
(Dotations)
(14)
(14)
(15)
(16)
(17)
(17)
(18)
(18)
En % du CA
-2,3%
-2,1%
-2,1%
-2,1%
-2,1%
-2,1%
-2,1%
-2,1%
34
38
40
43
45
47
48
50
Résultat d'exploitation
Résultat financier
(3)
(2)
(2)
(2)
(2)
(2)
(3)
(3)
Résultat courant avant impôt
31
36
38
40
42
44
46
47
Impôt sur les sociétés
(11)
(12)
(13)
(14)
(15)
(15)
(16)
(16)
Taux d'imposition
34,43%
34,43%
34,43%
34,43%
34,43%
34,43%
34,43%
34,43%
Résultat Net
21
23
25
26
28
29
30
31
Tableau 4 : bilan prévisionnel de la société Bricorama
Bilan de la cible
Immobilisations
Besoin en fonds de roulement
2004
153
65
____
218
2005
151
69
____
221
2006
150
74
____
223
2007
148
78
____
226
2008
147
82
____
229
2009
146
85
____
231
2010
145
89
____
234
2011
145
91
____
236
Total Passif
166
6
46
____
218
169
6
45
____
221
171
6
46
____
223
172
6
47
____
226
174
6
49
____
229
175
6
50
____
231
176
6
52
____
234
177
6
53
____
236
Dette nette moyenne
Coût de la dette
54
5%
45
5%
46
5%
47
5%
48
5%
49
5%
51
5%
52
5%
10,6%
38
10,6%
38
10,6%
38
10,6%
38
10,6%
38
10,6%
38
10,6%
38
Total Actif
Capitaux Propres
Provisions
Dette Nette
Besoin en fonds de roulement en % du chiffre d'affaires 10,6%
Besoin en fonds de roulement en jours de chiffre d'affair 38
La détermination de la dette d’acquisition s’inscrit dans le cadre suivant :
-
amortissement linéaire sur 7 ans ;
-
coût de la dette issu de l’Euribor 6 mois et intégrant un coût de couverture (1%) avec une
marge de 2,25% ;
-
montant fixé de telle sorte que la trésorerie du holding soit toujours positive
Les documents prévisionnels (compte de résultat, cash flow, bilan) sont décrits par le tableau
n°5.
232
Tableau 5 : comptes prévisionnels du holding de reprise de la société Bricorama
Compte de résultat holding
Dividendes reçus de la cible
Impôt reçu de la cible
(Frais financiers)
(Impôt sur les sociétés au titre du groupe)
Résultat net holding
2004
2005
21
12
(6)
(10)
16
2006
23
13
(5)
(11)
20
2007
25
14
(4)
(12)
22
2008
26
15
(3)
(13)
24
2009
28
15
(2)
(14)
26
2010
29
16
(1)
(15)
28
2011
30
16
(0)
(16)
30
Impôt sur les sociétés du groupe fiscal
Résultat courant avant impôts
(Frais financiers holding)
Résultat du groupe fiscal
Impôt dû
2004
2005
36
(6)
30
10
2006
38
(5)
33
11
2007
40
(4)
36
12
2008
42
(3)
39
13
2009
44
(2)
42
14
2010
46
(1)
45
15
2011
47
(0)
47
16
Cash flow du holding
Résultat net holding
(Remboursement de la dette)
Variation de trésorerie du holding
2004
2005
16
(16)
0
2006
20
(16)
4
2007
22
(16)
6
2008
24
(16)
8
2009
26
(16)
10
2010
28
(16)
12
2011
30
(16)
13
Echéancier de la dette du holding
Reste à rembourser
Amortissement
En % du nominal
2004
115
2005
99
16
14,29%
2006
82
16
14,29%
2007
66
16
14,29%
2008
49
16
14,29%
2009
33
16
14,29%
2010
16
16
14,29%
2011
0
16
14,29%
Bilan du holding
Titres cible
Trésorerie
2004
265
0
____
265
2005
265
0
____
266
2006
265
4
____
269
2007
265
9
____
275
2008
265
17
____
283
2009
265
27
____
293
2010
265
39
____
304
2011
265
52
____
318
150
115
____
265
167
99
____
266
187
82
____
269
209
66
____
275
233
49
____
283
260
33
____
293
288
16
____
304
318
0
____
318
Total actif
Capitaux propres
Dette d'acquisition
Total passif
Le montant des capitaux propres du holding (150 M€) est déterminé de telle sorte que le taux
de rendement interne (TRI) sur 3 ans des investisseurs (fonds de private equity) soit de 20% :
Tableau n°6 : détermination du montant du capital du holding de reprise
Capitalisation boursière de Bricorama
Dette nette
Valeur d'entreprise
Résultat d'exploitation
Multiple de résultat d'exploitation
Valeur d'entreprise de sortie
Dette nette consolidée de sortie
Capitaux propres de sortie
TRI
Capitaux propres d'entrée
244
46
290
34
8,5
43
8,5
364
104
260
20%
150
Par conséquent, dans l’hypothèse d’un LBO, la société se valoriserait à 265 M€, soit 9% de
plus que sa capitalisation boursière.
233
Conclusion
Au total, le prix qui ressort de la
structuration d’un LBO intègre deux
données fondamentales dans le cadre d’une
valorisation qui s’inscrirait dans une
logique multicritères. En effet, la
détermination de la capitalisation (ou des
fonds propres d’ouverture, l’année de la
mise en place du LBO) du holding de
reprise s’appuie sur un multiple d’EBIT ou
d’EBITDA de marché applicable à la
société cible. De plus, la fixation d’un TRI
objectif revient à prendre en compte une
exigence de coût de la ressource financière.
Le niveau du TRI objectif est toutefois
généralement très supérieur au coût du
capital qui serait retenu dans une
valorisation par actualisation des flux
futurs. En outre, la volonté des fonds
d’investissement, qui assurent l’essentiel
de la capitalisation du holding de reprise,
de sortir du LBO à un horizon très court
(de l’ordre de trois à cinq ans), ne permet
pas de valoriser pleinement le potentiel de
développement et d’amélioration de la
rentabilité de la société cible. En tout état
de cause, ces éléments n’expliquent pas la
partie de la valeur de la cible financée par
endettement du holding. Cette valeur est
uniquement fonction de capacité de
distribution de dividendes compte tenu du
service de la dette d’acquisition. Celle-ci
doit pouvoir être remboursée par
amortissements constants ou en légère
progression, sur une période de 7 à 8 ans
sans rendre la trésorerie du holding
déficitaire.
La logique de structuration d’un LBO est
donc consubstantielle à la minimisation de
la valeur de la cible. C’est la raison pour
laquelle, le cédant d’une entité se tourne
prioritairement vers des acquéreurs
industriels avant de se tourner, seulement
le cas échéant, vers des fonds qui
investissent exclusivement au travers de
montages LBO.
Bibliographie
Kaplan S., “Sources of Value in
Management Buy Outs”, in Leveraged
Management Buyout : Causes and
Consequences,
Y.
Amihud
(ed.),
Homewood, Dow Jones-Irwin, 1989, pp.
611-632
Jarrel G., Brickley J. et Netter J., “The
Market of Corporate Control : The
Empirical Evidence Since 1980”, Journal
of Economic Perspectives, 1988
Smith AJ., “Capital Owenership Structure
and
Performance:
The
Case
of
Management Buyouts”, Journal of
Financial Economics, 15, 1986
Summers L.,
“Discussion in LBO
Journal
of
Applied
Conference”,
Corporate Finance, 1990
Par conséquent, si les résultats sont
significatifs seulement au bout de quelques
années, le montant de la dette d’acquisition
sera réduit de telle sorte que le paiement
des frais financiers de premières années
soient compatibles avec l’optimisation de
la trésorerie du holding. En d’autres
termes, le potentiel de croissance des
résultats n’est que très partiellement
intégré dans la valorisation.
234
Ratio Combinations
Slim MAHFOUD
Doctorant
FSEG Sfax, Tunisie
235
Using the definition of a standard or a
plain vanilla option, it is evident that the
higher the underlying asset prices the
greater the call's value. When the
underlying asset price is much greater than
the strike price, the current option value is
nearly equal to the difference between the
underlying asset price and the discounted
value of the strike price. The discounted
value of the strike price is given by the
price of a pure discount bond, maturing at
the same time as the option, with a face or
nominal value equal to the strike price.
Hence, if the maturity date is very near, the
call's value (put's value) is nearly equal to
the difference between the underlying asset
price and the strike price or zero. If the
maturity date is very far, then the call's
value is nearly equal to that of the
underlying asset since the bond's price will
be very low. The call's value can not be
negative and can not exceed the underlying
asset price. Options enable investors to
customize cash-flow patterns.
Buying a call gives the right to the option
holder to pay the strike price at maturity
and to receive the value of underlying
asset. Buying a put gives the right to the
option holder to sell at maturity the
underlying asset at the strike price. The
most frequent strategies consist in buying
and selling calls and puts with or without
using the underlying asset. Several other
strategies can be implemented as a
function of the risk-reward profile. An
investor
selling
a
straddle
sells
simultaneously a call and a put on the same
underlying asset with the same strike price
and maturity date.
A box spread
corresponds to a combination of a bull
spreads with calls and a bear spread with
puts. It is implemented using two spreads
with two strike prices. We can refer to
Bellalah and Simon (2003), Bellalah,
Briys et al., (2001), Hull (2000), Bellalah
(2003), etc.
We present some of the most common
used option strategies, which apply to
options on a spot asset, to options on a
futures contract and in general to options
with any particular pay-off. These
strategies are illustrated with respect to the
diagram pay-off or the expected return and
risk trade-off of standard options. In
particular, we recall the basic strategies
and synthetic positions. Then we present
some elaborated strategies.
I.
Put/Call ratio combinations
Options buyers
speculators.
are
often
seen
as
Since speculators are considered often as
being on the wrong side of the market, the
number of puts traded versus the number
of calls might be considered as a contrary
sentiment indicator. The Chicago Board
Options Exchange CBOE publishes two
put-call ratios. The first is the S&P 100
Put-call Ratio which is calculated by
dividing the number of puts traded on the
OEX options during a given period by the
number of traded calls. The CBOE uses an
Equity Put-Call Ratio on individual stocks
traded on the exchange.
A put-call ratio of 80: 100 for the S&P 100
(80 puts for every 100 calls) could be
viewed as a bullish reading in a contrarian
sentiment. For more details, we refer to
the options institute book (1990).
II.
Ratio spreads
A ratio spread is a strategy involving two
or more related options in a given
proportion. A trader can buy a call with a
lower strike price and sell a higher number
of calls with a higher strike price.
A 2:1 ratio spread corresponds for example
to a strategy in which the trader buys two
options and sells an option. It is possible to
use options with different maturities.
236
A spread based on options with
times to maturity is referred
calendar spread.
The investor can implement
combinations of options with
strikes and time to maturity in
construct a wide range of profit
profiles.
different
to as a
different
different
order to
and loss
This strategy shows a limited profit (a
loss).
A long a Bull Spread with Calls is
simulated and represented using the
following parameters: S = 102, r =5%,
volatility = 20%, T = 100 days (see the
annexe).
IV.
These strategies can also be implemented
in connection with the underlying assets
and in particular with stocks, bonds,
foreign currencies, commodities, etc.
Using simultaneously options and their
underlying assets allows to adjust payoff
patterns to fit the attitude of investors
toward the profile of risk and return.
A trader implements ratio spreads with
calls and puts in different contexts
according to his future expectations about
the underlying asset price and his riskreturn profile.
III. Long a call bull spread
Long a put bull spread
Buying a put spread is equivalent to buying
the higher strike price put and selling the
lower strike price put.
If the underlying asset is around the lower
strike price at maturity, the higher strike
price put is worth the intrinsic value and
the lower strike price is worthless. The
maximum profit is given by the difference
between the two option premiums. The
strategy is done with a debit.
The trader can sell the put spread by
selling the higher strike price put and
buying the lower strike price put. The
strategy is done with a credit. The strategy
is represented as follows. (See the
annexes).
A spread consists in buying an option and
selling another option.
V.
A bull spread corresponds to a
combination of options with the same
underlying asset and the same maturity, but
different strike prices.
A strategy can be implemented by buying a
call with a lower strike price and selling a
call with a higher strike price.
If the underlying asset price is below the
lower strike price at expiration, the
maximum loss is limited to the difference
between the two option premiums.
If the underlying asset price is above the
higher strike price at expiration, the lower
strike price call is worth the intrinsic value.
Short a call bear spread
A bear spread corresponds to a
combination of options with the same
underlying asset and the same maturity but
different strike prices.
When it is implemented with two calls, it is
designed to profit from falling underlying
asset prices. This strategy with calls
corresponds to the short
Position to the bull spread.
A strategy can be implemented by selling a
call with a lower strike price and buying a
call with a higher strike price. (See the
annexes).
237
VI.
Selling a put bear spread
Bibliography
Selling a put spread is equivalent to selling
the higher strike price put and buying the
lower strike price put. (See the annexes)
Summary
Since there are at least three maturity dates
and three to sometimes twelve strike
prices, the fundamental question is to
determine which option to trade. The most
well known strategies in portfolio
management involve combinations of
options as vertical spreads, calendar
spreads, ratio spreads, etc.
A vertical spread involves the purchase of
an option and the sale of another with the
same time to maturity and a different strike
price. When the strategy produces a cashout flow, we say that the investor is long
the spread. When the strategy generates a
cash-inflow, the investor is said short the
spread. The strategy can be implemented
by calls or puts using different strike
prices.
Bellalah M. and Simon Y., Options,
contrats à terme et gestion des risques
financiers, Mars 2003, Economica
Bellalah M., 2003, Gestion des risques et
Produits dérivés classiques et exotiques,
Dunod, Août
Bellalah M., E. Briys et al., 2001, Options,
Futures and exotic Derivatives, Second
Edition, John Wiley and Sons
Cox J, Ross S. and Rubinstein M., 1979,
“Option Pricing : a Simplified Approach”,
Journal of Financial Economics, 7, 229263
Hull J., 2000, “Options, Futures and Other
Derivatives”, Fourth Edition, Prentice-Hall
international
Options, 1990, Edited by The Options
Institute, The Educational Division of the
Chicago Board Options Exchange,
Homewood, Illinois
A vertical bull spread is implemented
when an money option is bought and an
out-of-the money option is sold. A
calendar-spread strategy represents a
position where the investor is long an
option with a longer term and short an
option with a short term for the same strike
price.
A diagonal spread involves the purchase of
an option with a longer term and the sale of
another with a short term where both
options have different strike prices.
A combination is a straddle for which the
options exercise prices are out-of-the
money. When the strategy implies a cashoutflow, the investor is long the strategy
and when it involves a cash-inflow, the
investor is short the strategy.
238
Annexe
Figure 1. Buying a Bull Spread with Calls
80
60
40
pr
o fi
t
20
11.1
0
-8 .9
-20
C a ll I N
-40
C a ll
OUT
S p re a d
-60
49 0
51 0
53 0
55 0
57 0
59 0
61 0
63 0
65 0
S
Figure 2. Buying a Bull Spread with Puts
80
60
40
11.0
20
pr
o fi
t
0
-20
-9 .0
-40
Put OU T
-60
P u t IN
S p re a d
-80
-10 0
49 0
51 0
53 0
55 0
57 0
59 0
61 0
63 0
65 0
S
239
Figure 3. Selling a Call Bear Spread
60
40
20
pr
o fi
t
8 .5
0
-11. 5
-20
-40
C a ll I N
C a ll
-60
S p re a d
-80
49 0
51 0
53 0
55 0
57 0
59 0
61 0
63 0
65 0
S
Figure 4. Selling a Put Bear Spread
10 0
Put OU T
80
P u t IN
S p re a d
60
40
pr
o fi
t
20
8 .7
0
-20
-11. 3
-40
-60
-80
49 0
51 0
53 0
55 0
57 0
59 0
61 0
63 0
65 0
S
240
Concentration des Places Boursières Européennes et
Stratégies de Diversification de Portefeuille
Anthony MILOUDI
EDC Paris - OCRE
[email protected]
Résumé
Ce travail s’inscrit dans une démarche exploratoire. Il a pour objet l’étude des structures des
rentabilités de 23 places boursières européennes. Notre stratégie consiste, en ayant recours à
des méthodes de classification, à rechercher des structures de groupes homogènes en terme de
risque systématique, respectivement sur trois sous-périodes autour de la date du passage à
l’euro. Tous les résultats vont dans le sens d’une augmentation de l’intégration des marchés
actions européens. Néanmoins, des opportunités d’investissements subsistent et des gains
potentiels de diversification existent. En outre, les gérants de fonds devront privilégier les
stratégies de diversification sectorielle au détriment d’une diversification géographique de
leur portefeuille.
Mots clés : Alliances entre places boursières européennes, PECO, Classification ascendante
hiérarchique, nuées dynamiques, diversification de portefeuille.
JEL Classification : G15 ; F36
Abstract
The main goal of this paper is to analyses the structure of 23 European equity markets returns.
Cluster analysis methods are used to explore changes in the structural relationships between
these stocks markets due to the recent political events, on three different sub-periods; before,
during and after the adoption of the single currency unit. All results indicate that European
equity markets are becoming increasingly integrated. Nevertheless, European investments
opportunities still exist for diversification benefits. Finally, fund managers should be
concentrate on cross-industry diversification rather than cross-country diversification. In other
words, industrial diversification dominates, in term of risk reduction, geographical
diversification.
Keywords : Mergers between European stock markets, PECO, Cluster analysis, Portfolio
diversification strategies.
JEL Classification codes : G15 ; F36
241
Introduction
Le paysage financier européen s’est
considérablement modifié au cours de ces
dix dernières années. Ces évolutions
s’inscrivant dans le processus de
mondialisation sont stimulées par la
volonté politique des législateurs de
libéraliser les marchés de capitaux. Cette
« Europe financière » trouve sa légitimité
dans ce que Faugère (1999) appelle le
« triptyque des libertés ». Outre la « liberté
d’établissement »
des
institutions
financières et de la « libre circulation des
capitaux », elle prévoit la « liberté des
prestations de services ». D’inspiration
anglo-saxonne, la Directive sur les
Services d’Investissement (DSI) adoptée
en 1993 et effective à partir de 1997, doit
veiller
à
l’adoption
de
l’acquis
communautaire par toutes les institutions
financières des pays membres de l’Union
Européenne (UE). Elle se fixe comme
principaux objectifs la mise en place d’un
cadre réglementaire commun en établissant
un système de « passeport européen » pour
les
prestataires
de
services
d’investissement. L’ensemble de ces
mesures doit conduire à une plus grande
concentration des places boursières
européennes. En outre, le passage à la
monnaie unique, dès le 1er janvier 1999 sur
les marchés de capitaux permet une
élimination du risque de change. Ce qui
peut raviver l’intérêt des investisseurs pour
les échanges de titres transfrontaliers. De
tels bouleversements mettent les marchés
actions sous le feu direct de la
concurrence, dans la mesure où l’ensemble
des barrières directes à l’investissement
étranger ont été levées. Ainsi, les places
boursières, dont les revenus sont constitués
essentiellement par les cotations des titres,
les introductions en bourse, les frais de
transactions et de règlement-livraison,
doivent
impérativement
attirer
de
nouveaux investisseurs. Pour faire face à
ce nouvel environnement, elles accordent
de plus en plus d’importance aux
infrastructures
technologiques
et
investissent
massivement
dans
l’élaboration
de
plates-formes
de
négociation électroniques performantes.
D’une manière générale, toutes les
stratégies de croissance externe visant à
déjouer cette concurrence sont envisagées.
La concentration boursière sous formes
d’alliances régionales et de fusion (création
d’Euronext en septembre 2000) de jouer
sur les « effets de réseau » et de réaliser
des économies d’échelle. Ce processus de
concentration est alimenté par le fait qu’un
certain nombre de pays ont rejoint l’Union
le 1er mai 2004. Il nous semble dès lors
naturel d’intégrer dans l’étude, les places
boursières les plus représentatives de ces
nouveaux participants. On distingue parmi
eux, quatre places boursières relatives aux
pays d’Europe Centrale (Pologne, Hongrie,
République Tchèque, Slovaquie) et deux
relatives aux pays baltes (Lettonie,
Lituanie). On regroupe l’ensemble de ces
pays sous la dénomination PECO (Pays
d’Europe Centrale et Orientale), dont
certains appartiennent aux pays baltes et
d’autres sont des anciennes « démocraties
populaires ».
L’effet conjugué de ces facteurs devrait
favoriser l’intégration des marchés de
capitaux européens. Ce dernier point
soulève une question fondamentale.
L’augmentation potentielle du degré
d’intégration des marchés actions va-t-elle
diminuer les avantages que l’on attribue
traditionnellement à la diversification
internationale ? Ce travail s’inscrit dans
une démarche exploratoire, et vise, à partir
d’un échantillon contenant des données
relatives à 23 indices de marché européens
à fournir des éléments de réponses à cette
question centrale qui touche les gérants de
fonds. L’objectif est d’élaborer des
structures de groupes correspondant à 3
sous-périodes distinctes sur une période
totale de plus de 8 ans (du 28/04/1995 au
26/09/2003). Notre méthodologie fondée
sur l’emploi de méthodes de classification
(hiérarchique et non hiérarchique), nous
permet d’une part d’exhiber des structures
242
de classes homogènes en terme de risque
systématique,
et
d’autre
part,
d’appréhender l’existence de déformations
des structures relativement à l’évolution du
contexte
politique
et
économique
européen.
Ces
méthodes
multidimensionnelles furent employées
pour la première fois en finance par Elton
et Gruber (1970), plus récemment par
Brown et Goetzmann (1997) afin de
classer les performances des fonds. Brown,
Goetzmann et Grinblatt (1997) les utilisent
comme
alternative
aux
méthodes
traditionnelles d’identification des facteurs
statistiques. Drummen et Zimmermann
(1992) et Kraus (2001), montrent que ces
méthodes peuvent être utilisées pour
représenter les structures de classes des
différents marchés d’actions européens.
Dans la section suivante, on revient
brièvement sur les principaux accords
conclus
entre
places
boursières
européennes. La section 3 est dédiée à la
présentation des données. La section 4
précise la méthodologie employée. La
section 5 détaille les résultats empiriques
obtenus et la section 6 s’intéresse à la
conclusion et à la mise en perspective de
nos principaux résultats.
I.
Concentration
des
boursières européennes
places
On ne peut considérer les places boursières
des PECO comme des marchés émergents
traditionnels, dans la mesure où les
gouvernements de ces pays sont déjà entrés
dans
le
processus
d’intégration
économique avec les membres de l’Union
Européenne depuis les années 1998 / 99.
La plupart des pays candidats à la
cinquième vague d’élargissement de
l’Union ont adopté de manière progressive
l’acquis communautaire. Un certain
nombre de réformes ont été engagé par les
législateurs des PECO. Au niveau
réglementaire, l’adoption d’organes de
commission des opérations de bourse met
en place une plus grande réglementation
financière (c’est le cas de la Pologne qui
est un exemple en la matière). Au niveau
technologique, l’adoption de nouveau
système de transaction et des conditions
d’admission sur le marché des titres doit
permettre d’améliorer les performances des
places boursières. Dans un tel contexte, les
gouvernements de ces pays se tournent
vers la possibilité d’intégrer leur marché
financier au sein d’alliances régionales. Le
23 avril 1999 les bourses des 3 pays baltes
(Estonie, Lituanie et Lettonie) se
regroupent pour former : « The Baltic
Stock Exchanges » (TBSE). Cette alliance
prévoit le lancement, le 3 janvier 2000
d’un indice de marché « The Baltic List »
dont les titres sont sélectionnés à partir des
bourses des pays signataires. L’indice
TBSE renferme les 15 plus grosses
capitalisations des trois places boursières
baltes. Chacun des titres peut-être
échangés sur l’un de ces trois marchés et
doivent impérativement représenter une
capitalisation boursière minimale de 15
millions d’euros. Ces trois places resteront
des entités indépendantes. En ce qui
concerne les marchés financiers des pays
d’Europe Centrale, on assiste à une
coopération technique qui voit le jour le 12
octobre 2000. Cette coopération permet la
création d’un indice de marché régional, le
CESI Central European Stock Index, coté à
la Bourse de Budapest.
Les places financières de l’Europe de
l’Ouest ne semblent pas indifférentes à ces
modifications du paysage financier
européen, comme en témoignent les
propositions d’alliances qui émanent du
London Stock Exchange en direction du
marché financier hongrois et celle
d’Euronext en direction de la bourse
polonaise. D’ailleurs, un accord entre la
bourse polonaise et Euronext est conclu le
8 février 2002. Cet accord prévoit la
reconnaissance mutuelle de leurs membres
ainsi que des négociations croisées pour les
segments de marché des produits au
comptant et dérivés. Cet accord industriel,
243
qui n’inclut pas d’opération capitalistique
entre les deux sociétés, renforce les liens
entre le « Warsaw Stock Exchange » et
Euronext. Il est le fruit d’une longue et
étroite collaboration entre WSE et la
Bourse de Paris initiée dès le début des
années 1990. En 1992 la Bourse de Paris a
accompagné WSE lors de l’informatisation
de sa négociation qui a migré vers le
système français NSC, et a contribué en
1993 à l’informatisation du dépositaire
polonais en coopération avec SICOVAM
(devenu Euroclear France). Dans le même
temps, la création d’Euronext Lisbonne
voit le jour le 6 février 2002. Ce marché
utilisera la plate-forme électronique
française NSC pour la négociation des
produits au comptant et dérivés qui seront
compensées et garanties par Clearnet
(chambre de compensation et de
contrepartie d’Euronext). De son côté,
l’alliance NOREX créée en juin 1997, qui
réunit les bourses suédoise, danoise,
islandaise et norvégienne ont conclu un
accord (1er janvier 2004) avec « HEX
integrated markets » qui comprend les
marchés finlandais, estonien et letton pour
former une grande alliance régionale
regroupant les zones nordique et balte.
Ce processus devrait se poursuivre, comme
en témoigne le projet de révision de la DSI,
adopté le 19 novembre 2002 par un collège
de commissaires européens. Ce projet
prévoit
la
création
d’un
cadre
réglementaire favorable à la mise en place
de
plates-formes
multilatérales
de
négociation (MTF), qui permettraient
l’internalisation de l’exécution des ordres
par
les
prestataires
en
services
d’investissement. Cette directive assouplit
les conditions de transparence qui
s’appliquaient jusqu’alors aux marchés
réglementés centralisés. Elle consacre la
place des systèmes informatiques au cœur
de ces industries, ce qui devrait stimuler
l’innovation. Les prochaines évolutions
importantes pourraient bien se situer dans
le domaine des systèmes de règlementlivraison, encore nombreux en Europe et
dont la concentration et l’harmonisation
permettraient de substantielles économies
aux utilisateurs finaux. On assiste donc à
une modification du paysage boursier
européen, et à l’émergence de zones
géographiques bien déterminées en terme
de marché des capitaux. : mêmes
infrastructures, système de cotation et de
règlement-livraison.
II.
Présentation des données
Notre échantillon est composé de 23
portefeuilles
domestiques
européens
pondérés
par
leurs
capitalisations
boursières, représentant un minimum de
80% de la capitalisation totale du marché
financier local, sur une période qui s’étale
du 28/04/1995 au 26/09/2003 (soit 440
observations par indice). Nous avons
privilégié
l’utilisation
des
indices
construits par la base de données
Datastream. Pour les autres, on a extrait les
indices « blue chip » qui renferment les
actions les plus importantes en terme de
capitalisation boursière afin de satisfaire la
contrainte de représentativité de l’indice.
En suivant notamment les travaux de
Huang et Jo (1995), nous optons pour une
fréquence hebdomadaire des données afin
d’amoindrir
les
problèmes
d’asynchronisme rencontrés avec des
données de plus basse fréquence. Toutes
nos données sont libellées en euro. On se
place ainsi du point de vue de
l’investisseur européen. En outre, le
processus d’intégration monétaire a réduit
significativement le risque de change entre
les pays de l’UEM et les pays nonmembres.
Nos indices de marché domestiques
correspondent à 23 pays européens dont 15
appartiennent à l’UE (les 12 pays de
l’UEM, plus le Royaume-Uni, la Suède et
le Danemark) auxquels viennent s’ajouter
les marchés financiers suisse et norvégien.
Les 6 derniers indices de marché
appartiennent aux PECO ; 4 pays d’Europe
244
Centrale, Pologne, Hongrie, Slovaquie et
République Tchèque et les 2 plus grosses
places financières Baltes (Lituanie et
Estonie). Il est en effet légitime d’intégrer
ces pays dans l’étude des structures de
groupes des marchés financiers européens,
dans la mesure où l’adoption d’une partie
de l’acquis communautaire est une
condition préalable à leur adhésion à l’UE
dès le 1er mai 2004. L’étude s’effectue sur
trois sous-périodes distinctes. La première
est relative à la période antérieure à l’euro
et s’étale du 28 avril 1995 au 24 juillet
1998. Cette sous-période contient 21 des
23 indices de notre échantillon car nous ne
disposons pas de données libellées en euro
concernant l’Estonie et la Lituanie. La
deuxième concerne la période dite de
convergence et correspond au passage à la
monnaie unique sur les marchés des
capitaux, du 31 juillet 1998 au 23 juin
2000. Et enfin, la troisième correspond à la
période postérieure à l’euro, du 30 juin
2000 au 26 septembre 2003.
<Insérer Tableau N°1>
Le tableau 1 renferme des informations
relatives à l’importance des places
financières européennes, en termes de
capitalisation boursière et du nombre
d’actifs domestiques et étrangers cotés en
leur sein. L’analyse de ces variables
permet de révéler aux investisseurs le
potentiel d’attractivité de chacune des
places boursières. Ces éléments rentrent en
compte dans les phases d’allocation
stratégique et tactique du processus de
gestion de portefeuille. On distingue ainsi
deux principaux facteurs d’attractivité. Le
premier est relatif à l’accroissement de la
taille du marché qui assure une liquidité
accrue aux investisseurs. A l’instar de
Biais (1999) selon lequel « la liquidité
attire la liquidité », on comprend mieux
l’importance du nombre d’actifs cotés sur
un marché financier. Le second facteur est
relatif au nombre de titres dits « crosslistés » qui permet aux sociétés étrangères
d’être présentes sur d’autres places
boursières. L’augmentation de ce nombre
accroît le processus d’internationalisation
des entreprises en permettant l’accès du
marché
national
aux
investisseurs
étrangers ; généralement peut enclin à
investir hors de leur frontière. Ainsi, le
Royaume-Uni, la France, l’Allemagne,
l’Espagne, la Suisse et l’Italie font partie
des marchés financiers les plus attractifs.
D’une manière générale, l’accroissement
de la taille des places boursières
européennes, due notamment à la
recrudescence des alliances, permet
d’accroître
les
opportunités
d’investissement. Ces effets conjugués à la
réduction voire à l’élimination du risque de
change pour les pays de l’UEM doivent
renforcer l’attrait des investisseurs pour les
échanges
transfrontaliers.
Or,
l’augmentation de ces échanges pourrait, à
terme, réduire les gains potentiels de
diversification des portefeuilles. Qu’en estil en réalité ? La méthodologie mise en
place doit nous permettre de répondre à
cette question qui reste une des
préoccupations centrales des gestionnaires
de fonds.
III. Méthodes de classification et
structures de groupes des marchés
européens99
L’expérimentateur voulant recourir aux
méthodes de classification doit faire face à
un problème majeur, celui du choix de la
technique de regroupement des variables.
Devant l’abondance des approches, la
première difficulté est de choisir la classe
des modèles, en fonction de la capacité de
ceux-ci à former des groupes homogènes.
Un préalable à l’utilisation des méthodes
hiérarchiques passe par la définition d’une
99
Pour une description complète des différentes
techniques de classification, des différentes mesures
de ressemblance et des critères d’agrégation des
données à utiliser se référer à Johnson et Wichern
(1992), Chapitre 12 pages 573-602, à Saporta
(1990), Chapitre 12 pages 241-260 et à Aldenderfer
et Blashfield (1984).
245
mesure de similarité ou de ressemblance
adéquate. Or le choix de ces mesures est lié
à la nature des variables à regrouper.
Contrairement
aux
techniques
hiérarchiques,
les
méthodes
non
hiérarchiques s’affranchissent de la
détermination ex ante de mesure de
distance de similarité. Ce dernier point
peut constituer un avantage comparatif
dans la mesure où on ne fait aucune
hypothèse sur la forme de similarité à
employer afin de transformer les données
brutes. En revanche, l’utilisation d’une
méthode non hiérarchique s’effectue après
avoir spécifié le nombre de classes que les
données sont supposées former. A ce titre,
Johnson et Wichern (1992) recommandent
de procéder à plusieurs types de
classification sur le même ensemble de
données. La stratégie employée dans notre
étude suit ces recommandations puisque
l’on a recours à la méthode de Ward
(classification hiérarchique), afin de
déterminer le nombre optimal de groupes
composant la structure, et l’algorithme kmeans (nuées dynamiques) pour valider les
résultats obtenus précédemment.
A. Classification hiérarchique
Cette famille de méthodes fournit un
ensemble de partitions des individus en
classes de moins en moins fines obtenues
par regroupements successifs des données.
Une
classification
hiérarchique
se
représente par un « dendrogramme » ou
arbre de classification100. Dans la plupart
des méthodes de classification cet arbre est
obtenu de manière ascendante. La première
100
Un dendrogramme représente une hiérarchie de
partitions. Une partition est obtenue par troncature
du dendrogramme à un certain niveau de
ressemblance. La partition comporte alors d'autant
moins de classes que la troncature s'effectue vers la
gauche du dendrogrammme (c'est-à-dire vers la
racine). Une troncature effectuée à gauche du
premier nœud de l'arbre conduit à ce que chaque
classe ne contienne qu'un individu. Une troncature
effectuée au-delà du niveau de la racine du
dendrogramme conduit à une seule classe contenant
tous les individus.
étape consiste à définir une mesure de
ressemblance entre parties. La méthode la
plus souvent utilisée est celle de Ward
(1963) qui se base sur des mesures de
distances euclidiennes. Elle constitue selon
Saporta (1990) la meilleure méthode de
classification hiérarchique sur données
quantitatives, puisque d’une part, elle est
complémentaire à l’analyse en composante
principale et d’autre part, elle repose sur un
critère d’optimisation assez naturel. Cette
méthode consiste à regrouper les deux
individus les plus proches. Ces individus
forment un sommet. On réitère ce
processus jusqu’à former un regroupement
complet.
Dans
une
classification
ascendante on part des J classes
élémentaires et on agrège les deux classes
qui se ressemblent le plus. La
caractérisation de cette partition dépend de
l’indice de proximité entre classes utilisé
comme
indice
d’agrégation.
Pour
construire des classes homogènes il faut
définir la mesure de ressemblance
(similarité versus dissimilarité) que l’on
utilise pour former des groupes. Selon
Sneath et Sokal (1973) les mesures de
ressemblance peuvent être divisées en deux
catégories, les mesures de similarité et les
mesures de dissimilarité. Il existe trois
types de mesures de similarité : les
coefficients de corrélation (Pearson,
Kendall et Spearman), les coefficients
d’association et les mesures similaires
probabilistes. En outre, les mesures de
sont
uniquement
« dissimilarité »
représentées par les « mesures de
distances ». Le choix d’une mesure de
ressemblance doit satisfaire les exigences
imposées par la nature des données pour
permettre un regroupement pertinent des
variables mises en jeu. Or les mesures de
similarité s’appuyant sur les « coefficients
d’association » et sur les mesures dites
probabilistes »
sont
« similaires
uniquement
exploitables sur un
échantillon de données qui répond à un
codage (variables qualitatives). Par
ailleurs, l’utilisation des « coefficients de
corrélation », conduit à des résultats
246
fallacieux dans la mesure où les matrices
de corrélation sont instables au cours du
temps101. Il nous reste donc à considérer
l’emploi d’une mesure de distance
adéquate.
Une
des
mesures
de
« dissimilarité » les plus employées
s’appuie sur la notion de distance
euclidienne. Considérons deux vecteurs de
′
x = x1 , x 2 ,..., x p
et
dimension
p,
′
y = y1 , y 2 ,..., y p , à partir desquels on
peut exprimer la distance euclidienne
suivante :
[
[
d (x, y) =
]
]
(x1 − y1 )2 + (x2 − y2 )2 + ... + (x p − y p )2
′
= (X − Y ) (X − Y )
(1)
En dépit de leur importance, les « mesures
de distances » souffrent de certaines
limitations.
L’estimation
des
« dissimilarités » entre variables est
fortement influencée par l’importance des
co-variations de certaines d’entres-elles.
C’est-à-dire par des différentiels de
variabilités qui découlent des effets tailles
de la variance. Afin de réduire ces effets, il
est possible de normaliser les variables afin
qu’elles aient des variances unitaires et des
espérances nulles. Or l’utilisation de
rentabilités logarithmiques nous permet de
nous affranchir de la phase de
normalisation des variables représentées ici
par des indices boursiers. Les mesures de
« dissimilarité » entre les deux vecteurs x
101
Longin et solnik (1995) montrent que
l'utilisation des corrélations comme mesure du
degré de diversification potentielle est inadaptée
dans la mesure où il existe une relation intime entre
les niveaux de volatilité et les niveaux de
corrélation. En période de forte volatilité des
marchés les niveaux de corrélation entre indices
augmentent très fortement. Cette méprise peut
conduire l'investisseur à sous-estimer l'exposition
au risque de son portefeuille car l'existence de ces
liens réduit les bénéfices de la diversification. Le
gérant doit donc modifier les poids relatifs de
chacun des actifs (ou des classes d'actifs) en
fonction de l'impact des niveaux de volatilité sur les
mesures de corrélation.
et y peuvent être calculées selon différents
critères d'agrégation, chaque critère
conditionnant la structure de la hiérarchie
binaire produite par l'algorithme de
classification hiérarchique ascendante
(CAH). La méthode de classification
hiérarchique de Ward ou critère de l'inertie
consiste à rechercher la paire d’indices de
marché dont l’agrégation entraîne une
diminution minimale de la variance pour
les remplacer par leur indice moyen (point
moyen). On réitère cette procédure jusqu’à
ne former qu’un seul point (le point moyen
du nuage). Cette approche consiste à
agréger deux groupes de variables, x et
y de sorte que l'augmentation de l'inertie
intra-classe soit la plus petite possible,
pour que les classes restent homogènes.
L’indice de dissimilarité entre ces deux
classes (ou niveau d’agrégation de ces
deux classes) est alors égal à la perte
d’inertie interclasse résultant de leur
regroupement. Ainsi chercher un groupe
qui
maximise
l’inertie
interclasse
(disperser au mieux les groupes) est
équivalent à chercher un groupe
minimisant l’inertie intra-classes car
l’inertie totale est égale à la somme des
deux inerties inter et intra-classes
(Théorème de König-Huyghens). Ce
critère, proposé notamment par Ward
(1963), ne peut s'utiliser que dans le cas
des distances quadratiques. Elle s’applique
donc à la distance euclidienne. D’après
Saporta (1990), elle constitue une bonne
stratégie d’agrégation à partir des mesures
de distances.
B. Classification non hiérarchique
Les méthodes de classification non
hiérarchiques conduisent à une partition de
l'ensemble de départ en un nombre n de
classes de même niveau. Elles permettent
de traiter des ensembles d'effectifs assez
élevés en optimisant des critères pertinents.
Comme les méthodes précédentes, elles
supposent la définition d’un critère global
qui mesure la proximité des individus
d’une classe et par la même définie la
247
qualité de la partition. La méthode de
« partitionnement » la plus utilisée est celle
des « nuées dynamiques », généralisation
de la méthode des centres mobiles dont
l’objectif est de minimiser l’inertie intraclasse (même critère que celui de la
méthode de Ward) afin d’obtenir une
partition de k classes où k est un nombre
fixé a priori, déduit des résultats de la
classification hiérarchique (voir figure 1).
Le principe général de la méthode est de
disposer de trois fonctions. La première
calcule la distance d’un individu à un
centre de classe. La deuxième associe les
k centres à une partition. La troisième
mesure la qualité de la partition obtenue.
Or la partition finale dépend du choix
initial des centres de classes. Il convient
par conséquent d’effectuer plusieurs choix
de centres pour tester la stabilité des
partitions obtenues car des choix initiaux
différents ne donneront pas les mêmes
résultats. Les individus qui ont toujours été
classés ensemble définissent ce que l’on
appelle des « formes fortes102 », qui
représentent les parties homogènes de
l’ensemble des individus puisqu’elles sont
indépendantes de l’aléa des tirages
aléatoires. Finalement les méthodes de
partitionnement permettent d’obtenir une
structure de groupes non hiérarchique plus
ou moins homogènes à partir d’un grand
nombre d’individus en supposant que le
nombre k de classes est fixé a priori.
Cette dernière contrainte rend nécessaire la
réalisation de plusieurs tirages pour des
valeurs différentes de k . Notre stratégie
consiste à utiliser des méthodes de
classification hiérarchiques sur le même
échantillon afin de déterminer le nombre
optimal de classes de la partition.
Gavrilov et al (2000) démontrent que la
qualité du regroupement en classes
homogènes dépend à la fois de la mesure
102
Une forme forte d’une multipartition (ensemble
de partitions définies sur le même ensemble
d’individus) représente un ensemble d’individus
rangés dans une même classe de chaque partition de
la multipartition.
de ressemblance et de l’algorithme de
classification utilisés. L’objet de leurs
travaux est de rechercher la mesure de
similarité
adéquate
afin
d’étudier
l’existence d’une structure de groupes à
partir de données financières. L’utilisation
d’une
méthode
de
classification
hiérarchique, avec distance euclidienne et
critère d’agrégation de Ward semble être
une bonne stratégie de modélisation des
actifs financiers. Par ailleurs, Brown et al
(1997) suivent l’approche, développée par
MacQueen (1967), utilisée notamment par
Elton et Gruber (1970). Cette méthode de
classification non hiérarchique utilise un
algorithme assez proche de la méthode des
nuées dynamiques (algorithme k-means),
avec une distance euclidienne comme
mesure de ressemblance des individus.
Notre
méthodologie
s’inspire
de
l’ensemble de ces considérations et semble
être adéquate pour la recherche des
structures de groupes des marchés
financiers européens.
<Insérer Figure N°1>
IV. Structures
de
groupes
diversification de portefeuille
A. Classification hiérarchique
structures de groupes
et
et
Pour chacune des 3 sous-périodes on
obtient une structure de groupes
hiérarchique contenant 4 classes plus ou
moins homogènes au regard de la valeur
prise par la troncature. Cette troncature,
visible sur chacun des dendogrammes, est
représentée par une ligne en pointillée
parallèle à l’axe des ordonnées. Elle
indique le niveau à partir duquel la notion
de classe n’a plus aucune signification car
l’inertie interclasses n’est pas maximiser.
La partition obtenue au-delà de cette ligne
est par conséquent très hétérogène. Elle ne
peut donc former des classes cohérentes.
Le « dendrogramme » de la Figure 2,
relatif à la période antérieure à l’euro met
en évidence l’existence de 2 groupes
248
principaux relativement homogènes. Le
premier groupe est composé des places
boursières prépondérantes de l’Europe
continentale : Royaume-Uni, Allemagne,
France, Suisse, Pays-Bas, Espagne ; alors
que le second renferme les représentants
des petites capitalisations, (Portugal,
Norvège, Danemark, Irlande…). Les deux
autres classes contiennent les couples :
Finlande-Suède et Slovaquie-République
Tchèque. Ce qui est cohérent au regard des
relations historiques et culturelles étroites
qu’entretiennent ces pays. On peut
également noter que la Hongrie, la
Pologne, la Grèce ne font pas partie de
cette structure, puisqu’il forme un
regroupement au-delà du niveau de la
troncature. Cette période est marquée par
un certain nombre de crises boursières,
principalement
dues
aux
marchés
financiers émergents (asiatiques, russe,
argentin, brésilien) dont les répercutions
sur les places boursières européennes ne
sont pas négligeables, puisque ces
dernières, ont pour la plupart connus des
corrections boursières importantes. Les
effets de propagation de la crise asiatique
de l’été 1997 entraînant avec elle la Russie
durant l’été 1998, sont ressentis plus
durement par les places boursières des
PECO encore fragiles, qui viennent à peine
de s’engager dans une série de réformes de
leur marché financier afin de préparer
l’adhésion à l’Union. La bourse Tchèque,
en retard dans le développement de sa
place financière, fut la plus durement
touchée par ces crises, ce qui forcèrent les
autorités à une restructuration du marché
financier103. Ces effets de contagion
généralisés à des degrés divers à
l’ensemble
des
places
boursières
européennes génèrent une tendance
baissière créant ainsi une forte volatilité.
103
La bourse de Prague a adopté toute une série de
réformes structurelles visant à augmenter la
crédibilité da sa place financière ; création d’une
commission pour les valeurs mobilières équivalent
de l’AMF en France (Autorité des Marchés
Financiers), adoption d’un nouveau système de
transaction, le SPAD.
Ce contexte explique en partie la
déconnexion des places boursières des
PECO de la structure de groupes.
<Insérer Figure N°2>
La structure de classes relative à la période
dite de convergence (Figure 3) n’est pas
très
éloignée
de
celle
obtenue
précédemment. On observe le même
clivage
petites
versus
grandes
capitalisations, où l’Italie a repris sa place
parmi l’Allemagne, le Royaume-Uni, la
France, les Pays-Bas et l’Espagne. Leur
regroupement s’établit à un niveau de
dissimilarité inférieur à celui de la période
précédente,
ce
qui
montre
un
accroissement de l’homogénéité des
membres de cette classe. Ces résultats
semblent cohérents avec les travaux de
Lombard et al (1999) et Diermeier et
Solnik (2001). Les auteurs ont montré que
les rentabilités des actions évoluent en
fonction de facteurs régionaux et
domestiques. En outre, la sensibilité des
actifs d’une société aux facteurs
internationaux est directement reliée à
l’importance
de
ses
activités
internationales. C’est le cas des grands
marchés financiers européens qui sont
composés d’un nombre important de
firmes multinationales, et tendent par
conséquent, à réagir de la même manière à
des facteurs de risque globaux. Les deux
autres classes sont composées des couples
Hongrie-Pologne et Finlande-Suède, tandis
que les nouveaux entrants représentant les
pays baltes (Estonie et Lituanie) ainsi que
la Grèce sont en dehors de cette structure.
<Insérer Figure N°3>
En ce qui concerne la période postérieure à
l’euro (figure 4), plusieurs faits marquants
sont mis en évidence. On observe une
modification de la structure de groupes due
à l’évolution et aux développements des
places financières des PECO. Néanmoins,
on peut noter une nouvelle fois,
l’opposition entre les représentants des
grandes places financières et celles
renfermant essentiellement des entreprises
249
de plus petites tailles en terme de
capitalisation boursière. Ce dernier groupe
est rejoint par la République Tchèque. Par
ailleurs, les couples Lituanie-Estonie et
Grèce-Luxembourg composent chacun une
classe ; tandis que la Pologne, la Slovaquie
et plus surprenant la Finlande sont écartés
de la structure de groupes. Comment
expliquer la déconnexion du marché
finlandais de cette structure ? L’origine de
ce phénomène peut s’expliquer par les
différences de compositions industrielles
entre les places boursières européennes.
Les marchés financiers « étroits » (peu
d’entreprises cotées) sont plus sensibles
aux évolutions d’un ou plusieurs secteurs
d’activité qui dominent leur indice. C’est le
cas du marché finlandais dont l’entreprise
Nokia, du secteur des technologies,
représente une grande part de la
capitalisation boursière du pays. La
domination du marché domestique par
certaines multinationales peut générer
l’existence d’une composante de risque
spécifique au pays ou spécifique à une
région. Ces considérations rejoignent les
résultats d’études empiriques récentes
(Baca, Garbe et Weiss, 2000, Heckman et
al 2001, L’Her et al 2002). Ces auteurs
montrent que la simple prise en compte des
pays pour diversifier et gérer son
portefeuille serait de moins en moins
efficace au regard des faibles niveaux de
corrélation obtenus à partir d’indices
sectoriels. Ainsi, des stratégies de
diversification basées sur une classification
sectorielle devraient être plus profitables
dans la mesure où elles devraient permettre
de mieux contrôler les risques inhérents à
la gestion de portefeuille.
<Insérer Figure N°4>
B. Classification non hiérarchique
et structures de groupes
Afin d’obtenir un classement optimal, on a
opté pour un nombre de 50 répétitions de
l’algorithme qui correspond à la réalisation
de 50 multipartitions. Pour chacune des
sous-périodes on obtient ainsi une partition
finale optimale composée de 4 classes
(résultat de la classification hiérarchique)
homogène au regard de la minimisation du
critère de l’inertie. Les formes fortes mises
en exergue par l’algorithme correspondent
à un ensemble d’indices de marché rangés
dans une même classe dans chaque
partition de la multipartition. L’ensemble
des résultats relatif à l’exploitation des
nuées dynamiques est contenu à l’intérieur
du tableau 2. Ces investigations viennent
globalement corroborer les précédentes,
avec néanmoins quelques différences
notoires. Le couple Hongrie-Pologne,
représentants de l’alliance CESI, constitue
une classe sur les deux premières souspériodes. En ce qui concerne la période
dite de convergence, on observe un
regroupement entre les 3 principales places
boursières de l’alliance NOREX, la
Finlande, la Suède et la Norvège. On peut
d’ailleurs noter que le couple FinlandeSuède constitue une forme forte. On peut
expliquer ce regroupement par la
concomitance de facteurs géographique et
culturel qui ont été démontré par une
littérature récente. La proximité des
investissements peut, en effet, procurer des
avantages
informationnels
non
négligeables aux investisseurs locaux par
rapport à des investissements potentiels
plus éloignés (Portes et Rey, 2003, Hau,
2001). Huberman (2001) montre que ce
facteur
géographique
favorise
les
connaissances des entreprises (facteur
informationnel) et l’accès aux médias qui
diffusent l’information. L’aspect culturel et
géographique de l’intégration financière
participe donc à l’explication de la
préférence domestique par le biais de
l’affect
et
des
considérations
psychologiques des investisseurs.
<Insérer Tableau N°2>
Le groupe des petites capitalisations et
rejoint par 2 membres des PECO, la
Slovaquie et l’Estonie, démontrant ainsi la
capacité de leur gouvernement à adopter
l’acquis communautaire. A ce titre,
Schroder (2001) montre que les
250
négociations engagées entre les dirigeants
des places financières des marchés dits
« émergents » et leurs homologues des
pays développés pour former des alliances,
est un moyen rapide de parvenir à la
modernisation de leur système de
transaction. Ce qui leur permet, à terme, de
rattraper leur retard technologique. En ce
qui concerne la période postérieure à
l’euro, on observe que les pays fondateurs
de
la
Communauté
Européenne
(Allemagne, France, Benelux, Italie…)
forment une classe homogène, ce qui
confirme les résultats obtenus notamment
par Kraus (2001) et Berdot et al (2001).
D’une manière générale, la classification
hiérarchique à un pouvoir discriminant
supérieur à l’utilisation des nuées
dynamiques comme en témoigne la
présence d’un grand nombre d’individus au
sein des classes 3 et 4. Néanmoins, la
classification non hiérarchique révèle
l’existence de formes fortes. Ainsi, les
marchés boursiers allemand et français,
hongrois et polonais, finlandais et suédois
forment des couples homogènes en terme
de risque systématique pour les raisons
évoquées précédemment. En ce qui
concerne les marchés financiers des PECO,
les résultats sont différenciés. Certaines
places boursières comme la République
Tchèque, l’Estonie et la Lituanie sont
associés
au
groupe
des
petites
capitalisations, comme en témoignent les
résultats obtenus par la classification
hiérarchique sur la période postérieure à
l’euro. Tandis que la classification non
hiérarchique montre que la Pologne et la
Hongrie s’insèrent dans la classe des
grands marchés financiers européens. Ces
résultats contrastés peuvent s’expliquer par
le fait que les marchés financiers des
PECO n’ont pas suivi les mêmes
développements. Pour la Pologne et la
Hongrie le processus de transition s’est mis
en marche beaucoup plus tôt que ceux
engagés par la Slovaquie ou la République
Tchèque. A l’instar de Schroder (2001)
seules les places boursières de certains
pays de l’Europe de l’Ouest peuvent être
considérés comme évoluant dans la phase
de « maturité et de consolidation
boursière ». Dès lors, cette convergence
boursière des PECO avec les pays de
l’Union semble être liée à l’état
d’avancement des réformes structurelles de
leur place boursière. En outre, les alliances
conclues entre ces marchés « émergents »
et certains marchés de l’Union devraient
renforcer ce phénomène.
Conclusion
L’objet de ce papier est de réaliser une
étude exploratoire de l’impact de
l’évolution du contexte politique et
économique européen sur la structure des
rentabilités de 23 places boursières. La
méthodologie employée permet de révéler,
sur une période récente de plus de 8 ans,
des modifications majeures dans la
structure
des
rentabilités
des
« benchmark » européens. Les résultats
traduisent l’existence de deux aspects de
l’intégration financière. L’intégration
géographique et culturelle à travers les
liens qui unissent les représentants de la
zone scandinave, la Finlande, la Norvège
et la Suède, à travers les liens du couple
Hongrie-Pologne. Quant à l’intégration
économique, force est de constater que les
relations les plus fortes concernent les pays
fondateurs de l’Europe. Entrés depuis
longtemps dans un processus commun de
réformes structurelles, ces pays semblent
avoir atteint un haut degré d’intégration de
leur marché financier. Néanmoins,
l’appartenance à une zone de libre échange
ne serait constituer une condition suffisante
à l’explication de ce niveau d’intégration.
Suivant la période étudiée, des pays
comme l’Italie ou encore la Finlande
peuvent être écartés des structures de
classes. Ce qui laisse supposer l’existence
de facteurs locaux. Or des études récentes
ont montré que ces facteurs naissaient des
différentiels de composition industrielle
entre les différentes places boursières. A
251
l’instar de Berdot et al (2001), les
investisseurs sont progressivement passés
d’une logique de place, favorisant la
diversification géographique de leur
portefeuille, à une logique sectorielle.
Même si des facteurs régionaux semblent
jouer un rôle important dans l’explication
des co-mouvements des rentabilités des
actifs européens. Ce constat est
fondamental pour le gérant dans la mesure
où il existe encore des opportunités
d’investissement visant à tirer partie des
avantages
de
la
diversification
internationale.
Au final, les gestionnaires soucieux de
prendre en considération les évolutions de
l’environnement européen devront avoir
Aldenderfer M.S et Blashfield R.K, (1984),
Cluster Analysis, Sage University paper
44.
Brown S.J et Goetzmann W.N, (1997),
Mutual Fund Styles, Journal of Financial
Economics, 12, p. 263-278.
conscience de l’existence de composantes
régionales et sectorielles du risque
systématique. Ces dernières sont marquées
par des liens géographiques et culturels
forts, par l’intégration de nouveaux pays
dans l’Union, par la constitution d’une
zone monétaire stable et par le clivage
entre petites et grandes capitalisations. Les
investisseurs confrontés à cette nouvelle
donne doivent nécessairement adapter leur
mode de gestion à la redistribution des
risques à l'échelle de l'Union Européenne
et prendre en considération l'impact de ces
bouleversements
sur
les
niveaux
d'intégration inter et intra-communautaires.
Bibliographie
Drummen M et Zimmermann H, (1992),
The Structure of European Stock Returns,
Financial Analysts Journal, 48, p.15-26.
Elton, E et Gruber M, (1970), Improved
Forecasting Through The Design of
Homogeneous Groupings, Journal of
Business, 44, p.432-450.
Baca S.P, Garbe B.L et Weiss R, (2000),
The Rise of Sector Effects in Major Equity
Markets, Financial Analysts Journal, 56,
p.34-40.
Faugère,
J.P
(1999),
Economie
Européenne, Presses de Sciences Po et
Dalloz, 1999.
Berdot, J-P, Goyeau D et Léonard J,
(2001) Diversification et Valorisation des
Actifs Financiers : Logique sectorielle
contre
logique
de
place,
Revue
d’Economie Financière, 61, p.173-192.
Gavrilov, M, Dragomir, A, Indyk, P et
Motwami R, (2000), Mining the Stock
Market : Which Measure Is Best ?, in actes
de la 6ième conférence internationale ACM,
487-496.
Biais B, (1999), European Stock Markets
and European Unification, in Dermine J et
P. Hillion (Eds), Chapitre 8, Oxford
University Press.
Hau H, (2001), Location Matters : An
Examination of Trading Profits, Journal of
Finance, 56, p.1959-1983.
Brown S.J, Goetzmann W.N et Grinblatt
M, (1997), Positive Portfolio Factors,
Papier de recherche, NBER N°6412.
Huang R.D et Jo H, (1995), Data
Frequency and the Number of Factors in
the Stock Returns, Journal of Banking and
Finance, 19, p.987-1003.
Diermeier J et Solnik B, (2001), Global
Pricing of Equity, Financial Analyst
Journal, 57, p.37-47.
Huberman, G. (2001), Familiarity Breeds
Investment, Review of Financial Studies,
14, p.659-680.
252
Johnson R.A et Wichern D.W, (1992),
Applied Multivariate Statistical Analysis,
3ième édition, Prentice-Hall.
Ward J, (1963), Hierarchical Grouping to
Optimize an Objective Function, Journal of
the American Statistical Association, 58,
p.236-244.
Kraus T, (2001), The Impact of the EMU
on the Structure of European Equity
Returns: An Empirical Analysis of the
First 21 Months, papier de recherche, FMI,
N°84.
L’Her J.F, Sy, O et Tnani M.Y, (2002),
Country, Industry and Risk Factor
Loadings in Portfolio Management,
Journal of Portfolio Management, 28, p.7079.
Lombard T, Roulet. J et Solnik B, (1999),
Pricing of Domestic versus Multinational
Companies, Financial Analysts Journal, 55,
p.35-49.
Longin F et Solnik B, (1995), Is the
International Correlation of Equity Returns
Constant : 1960-1990 ?, Journal of
International Money and Finance, 14, p.327.
MacQueen J.B, (1967), Some Methods for
Classification and Analysis of Multivariate
Observations, Proceedings du 5ième
symposium on Mathematical Statistics and
Probability, 1, University of california,
Berkeley Press, p.281-297.
Portes, R et Rey H, (2003), The
Determinants of Cross-border Equity
Flows, papier de recherche, NBER
N°7336.
Saporta G (1990), Probabilités, Analyse
des Données et Statistiques, Tecnip 1990.
Sneath, P et Sokal R, (1973), Numerical
Taxonomy, San Fransico. W.H Freeman.
Schroder M, (2001), The New Capital
Markets in Central and Eastern Europe,
ECMI, Springer.
253
Tableau 1 Importance des Places Boursières Européennes
Places boursières
Capitalisations
boursières
(millions d’euros)
Nombre d’actifs cotés
Domestique
Etranger
Total
864.097
679
182
861
Allemagne
50.356
104
21
125
Autriche
nd
nd
nd
229
Belgique (Euronext)**
608.899
nd
nd
nd
Espagne
3.478
18
0
18
Estonie
106.341
186
7
193
Danemark
157.069
140
3
143
Finlande
1.119.000
684
121
805
France (Euronext)**
90.181
342
1
343
Grèce
14.343
49
1
50
Hongrie
68.386
54
11
65
Irlande
507.942
270
9
279
Italie
3.294
44
0
44
Lituanie
31.566
43
195
238
Luxembourg
84.465
156
20
176
Norvège
nd
nd
nd
236
Pays-Bas (Euronext)**
31.738
189
1
190
Pologne
nd
nd
nd
66
Portugal (Euronext)
16.093
62
1
63
République Tchèque
2.061.904
2300
373
2673
Royaume-Uni
2.198
358
0
358
Slovaquie
247.031
261
17
278
Suède
598.368
289
130
419
Suisse
Sources : Fédération Européenne des Bourses de Valeurs : http://www.fese.org et Euronext
http://www.euronext.com
Les capitalisations boursières sont toutes exprimées en millions d’euros à partir des actifs domestiques
exclusivement (sont exclus les actions étrangères, cross-listings). Elles incluent les actions avec ou sans
droit de vote des marchés financiers primaire, secondaire et du nouveau marché pour chacun des pays.
** Places boursières Euronext : elles regroupent 1554 actions cotées dont 339 étrangères pour une
capitalisation boursières totales de 1.721.912 millions d’euros.
254
Figure 1 Les différentes étapes méthodologiques pour la recherche des structures de classes
homogènes
Représentation de la matrice des données
- individus : rentabilités
- variables : indices boursiers
Réduction de la dimension de la matrice des données
- résumer un ensemble d'informations
- mettre en évidence une structure de groupes homogènes
CAH
méthode de Ward [1963]
- distance euclidienne
- critère de l'inertie
CAH
obtention d'une structure de classes emboîtées
dendrogramme
k classes mises en évidence et utilisées dans la méthode non hiérarchique
Classification non hiérarchique
Nuées dynamiques
- distance euclidienne
- algorithme de MacQueen [1967]
Solutions optimales
k classes homogènes
classifications stables mises en évidence par des formes fortes
255
Figure 2 Structure de groupes des portefeuilles Européens sur la période antérieure à l’euro (du
28/04/1995 au 24/07/1998)
Dendrogramme
Hongrie
Pologne
Finlande
Suède
Italie
Portugal
Luxembourg
Irlande
Danemark
Norvège
France
Espagne
Allemagne
Pays-Bas
Suisse
Autriche
Belgique
Royaume-Uni
Grèce
Slovaquie
Répub-Tchèque
0,07
0,06
0,05
0,04
0,03
0,02
0,01
0,00
Dissimilarité
Figure 3 Structure de groupes des portefeuilles européens sur la période « euro » (du 31/07/1998
au 23/06/2000)
Dendrogramme
Hongrie
Pologne
Finlande
Suède
Grèce
Slovaquie
Luxembourg
Norvège
Portugal
Italie
France
Allemagne
Pays-Bas
Espagne
Royaume-Uni
Irlande
Danemark
Autriche
Belgique
Suisse
Répub-Tchèque
Lituanie
Estonie
0,07
0,06
0,05
0,04
0,03
0,02
0,01
0,00
Dissimilarité
256
Figure 4 Structure de groupes des portefeuilles européens sur la période postérieure à l’euro
(du 30/06/2000 au 26/09/2003)
Dendrogramme
Finlande
Suède
Italie
Allemagne
France
Pays-Bas
Espagne
Belgique
Suisse
Royaume-Uni
Pologne
Slovaquie
Grèce
Luxembourg
Irlande
Danemark
Norvège
Hongrie
Autriche
Portugal
Répub-Tchèque
Lituanie
Estonie
0,08
0,07
0,06
0,05
0,04
0,03
0,02
0,01
0,00
Dissimilarité
Tableau 2 Structure de classes non hiérarchiques des marchés financiers Européens
Composition des classes sur la période antérieure à l’euro
Classe 1
Classe 2
Classe 3
Classe 4 Formes fortes
France et
Effectif
2
1
17
1
Allemagne,
Hongrie Luxembourg
Autres
Grèce
France et
Pologne
Espagne
Composition des classes sur la période de passage à l’euro
Classe 1
Classe 2
Classe 3
Classe 4 Formes fortes
Finlande et
Effectif
6
3
2
12
Suède
Autriche
Finlande
Hongrie
Autres
Hongrie et
Belgique
Norvège
Pologne
Pologne
Irlande
Suède
France et
Allemagne
Suisse
Slovaquie
Estonie
Composition des classes sur la période postérieure à l’euro
Classe 1
Classe 2
Classe 3
Classe 4 Formes fortes
France et
Effectif
1
1
7
14
Allemagne
Finlande
Suisse
Belgique
Autres
France
Allemagne
Italie
Pays-Bas
Espagne
On a opté pour 50 répétitions de l’algorithme afin d’obtenir plusieurs partitions finales et
de retenir la solution optimale. La convergence est atteinte lorsque l’écart absolu entre 2
valeurs successives, rapporté à l’inertie intra-classe courante, est inférieur ou égal au seuil
critique de convergence de l’algorithme qui est de 1.10-4.
257
Architecture organisationnelle et performance
des décisions des gérants de portefeuilles
boursiers
Jean MOUSSAVOU
Docteur en Sciences de gestion
Enseignant-chercheur
ESC BRETAGNE BREST
2, avenue de Provence
CS 23812
29238 Brest cedex 3
Tél.: (33) 02 98 34 44 64
Fax: (33) 02 98 34 44 69
E-mail: [email protected]
Résumé
Si l’essentiel des travaux au sein de l’industrie de la gestion d’actifs porte sur la mesure des
performances des gérants de portefeuille, l’analyse du contexte dans lequel les décisions
d’investissement sont prises est rarement abordée. Or, la théorie de l'architecture
organisationnelle permet d’accorder une place notable aux structures organisationnelles et au
contexte qui entoure les décisions financières au sein des firmes. La présente étude propose
d'examiner l'impact de l'architecture organisationnelle des sociétés de gestion de portefeuille
(SGP) sur la performance des décisions d'investissement des gérants évoluant sous leur
tutelle. L'étude s'appuie sur une série d’entretiens exploratoires organisés avec des
responsables de SGP, et d’une analyse de données qualitatives et quantitatives collectées
auprès d'un échantillon de SGP et de fonds d’investissement français (SICAV et FCP). Les
résultats de l’étude causale (PLS) montrent un pouvoir explicatif des variables
organisationnelles et contextuelles sur la performance.
Mots clés : Architecture organisationnelle, Marchés financiers, Gestion de portefeuille,
Société de gestion de portefeuille, Performance de gestion de portefeuille, OPCVM.
258
Introduction
Dans un contexte de marchés financiers
devenus de plus en plus complexes et
particulièrement risqués pour l'investisseur
non initié, nombreux sont les épargnants
qui ont recours aux gérants de portefeuille
professionnels104 pour effectuer leurs
placements sur ces marchés. Pour aider les
investisseurs à choisir parmi l'ensemble
des véhicules de placement proposés, une
industrie de la mesure des performances
s'est développée. Or, si la littérature
consacrée à la mesure des performances est
abondante, rares sont les études essayant
d'intégrer les phénomènes se situant en
amont. En outre, si de nombreux ouvrages
proposent des outils censés permettre
d'effectuer des choix d'investissement
optimaux – l'optimum correspondant à la
maximisation
de
la
richesse
de
l'investisseur – ils présentent très rarement
des éléments permettant d'expliquer le
contexte organisationnel dans lequel les
décisions sont prises (Charreaux, 2001).
Pourtant, les portes ouvertes par la théorie
de l'architecture organisationnelle [Jensen
et Meckling (1992); Brickley, Smith et
Zimmerman (1997)] permettent d’accorder
une place notable aux structures
organisationnelles et au contexte qui
entoure les décisions financières. La
théorie de l'architecture organisationnelle
apparaît en cela comme le cadre
unificateur
de
l’explication
du
comportement d’investissement au sein
d’une firme, dans une vision globale. Dans
104
En France, la loi du 2 juillet 1996 sur la
modernisation des activités financières attribue
l'activité de gestion de portefeuille pour le compte
de tiers aux "entreprises d'investissement" agréées,
plus communément dénommées sociétés de gestion
de portefeuille (SGP). Pour adapter la législation
aux évolutions des produits et des métiers, la
directive « services» (2001/107 /CE) et la directive
« produits» (200l/108/CE), adoptées le 21 janvier
2002, modifient la réglementation des produits et
des sociétés de gestion et rend exportables de
nombreux fonds qui ne l'étaient pas. La
transposition s'est traduite en France par la loi de
sécurité financière du 2 août 2003, puis des décrets
d'application et des règlements de l'Autorité des
Marchés Financiers (AMF) du 13 février 2004.
cette perspective, le comportement des
firmes s'expliquerait au travers de la
recherche
d'une
architecture
organisationnelle optimale.
Cet article s'intéresse à l’impact de
l'architecture organisationnelle des sociétés
de gestion de portefeuille (SGP) sur la
performance des décisions des gérants.
Situer l’analyse des décisions des gérants
dans cette optique se justifie dans la
mesure où celles-ci sont souvent guidées
par
de
multiples
préoccupations
dépendantes du contexte organisationnel
dans
lequel
s’opèrent
les
choix
d’investissement. En cela et, en toute
rigueur, les SGP possédant une
architecture organisationnelle optimale
devraient obtenir des performances
financières meilleures que celles de leurs
concurrentes. Les fonds gérés par les
gérants de portefeuille évoluant dans ces
sociétés devraient donc être plus
performants que les autres. Cette
hypothèse s'oppose a priori à la théorie de
l'efficience des marchés financiers qui
prévoit
implicitement
qu'aucun
gestionnaire de portefeuille (donc aucune
sociétés de gestion) ne peut de façon
durable faire mieux que le marché. En
effet, les conclusions que l’on peut tirer de
la théorie des marchés efficients semblent
impliquer que l’existence de ce type
d’acteurs serait sans objet. Or, les gérants
de portefeuille professionnels prospèrent
malgré leur "inutilité" théorique. Nous
sommes donc en présence de deux réalités
pour le moins conflictuelles entre les
conclusions de la théorie des marchés
efficients et la présence des gérants de
portefeuille professionnels sur les marchés
financiers. L'un des objectifs de ce travail
est de tenter d'expliquer ce paradoxe.
Ainsi, si les marchés financiers sont
efficients,
les
résultats
de
nos
investigations devraient aboutir à une
absence
de
relations
entre
les
caractéristiques
de
l’architecture
organisationnelle et la performance. Dans
le cas inverse, on pourrait admettre que
l'information mettrait un certain temps à
259
être "digérée" par le marché et à se
répercuter sur les cours de titres. En cela,
les gérants de portefeuille disposant de
puissants moyens de recherche et de
traitement d'informations, seraient dans
une situation privilégiée (Gallais-Hamonno
et Grandin, 1999) et profiteraient de
périodes d'"inefficience" passagère.
Le développement de l'étude s'appuie sur
deux socles : d'abord une quinzaine
d’entretiens exploratoires organisés avec
des responsables de SGP et un
questionnaire adressé à 59 SGP françaises.
Cette démarche a permis d'identifier,
mesurer et collecter les données
organisationnelles des différentes SGP de
l'étude. Ensuite une collecte de données
quantitatives
relatives
aux
valeurs
liquidatives de SICAV et FCP des SGP
ayant répondu au questionnaire. Les
données recueillies ont permis de mesurer
la performance des fonds. Les méthodes
financières modernes de mesure de
performance de fonds d'investissement ont
été ici mises en application. Celles-ci
permettent en effet de séparer la part de la
rentabilité imputable à la gestion de celle
due aux fluctuations du marché et au risque
du portefeuille. La combinaison des
données recueillies à partir des entretiens
et du questionnaire d'une part, et des
valeurs liquidatives de SICAV et FCP
d’autre part, a permis d'aboutir à la
conclusion de l'étude.
Les propos qui vont suivre présentent dans
un premier temps les éléments constitutifs
du cadre d'analyse qui sous-tend le modèle
et les hypothèses de travail présentés dans
un deuxième temps. La méthodologie de
collecte de données et les résultats obtenus
seront ensuite présentés successivement.
I.
Cadre d'analyse
Une série d'entretiens réalisés avec les
dirigeants de SGP a permis de cerner
l'environnement de ces entités et de mettre
en lumière trois facteurs clefs dans leur
architecture
organisationnelle
:
le
nécessaire contrôle des risques pris par les
gérants et les outils de contrôle formel mis
en place dans l'organisation ; la gestion de
l'information et les outils mis en place afin
que l'information puisse être recueillie,
analysée, partagée et utilisée le plus
rapidement possible ; enfin, les facteurs
contextuels immédiats de la SGP (effectif
salarié, nombre de fonds gérés, montant
des fonds gérés, affiliation à une maisonmère, etc.) à même d'influer sur les
comportements organisationnels de la
SGP.
A. La maîtrise des risques et le
degré de formalisation
Le fonctionnement quotidien des SGP est
soumis aux exigences de l'environnement
institutionnel. Les autorités de marché,
notamment l'Autorité des Marchés
Financiers (AMF) encouragent une
démarche de formalisation et de contrôle
des activités en imposant un cadre
réglementaire strict visant à protéger
l'épargne des investisseurs. Ce cadre
conduit
à
la
formalisation
des
comportements organisationnels des SGP
et influe par là même sur le processus de
création de valeur des gérants de
portefeuille.
La nature même de la technologie
financière des SGP basée sur la
manipulation
d'importantes
sommes
d'argent justifie pleinement la mise en
place d'un cadre minimum de contrôle. Les
enjeux sont particulièrement importants.
En effet, des exemples ont montré à quel
point un opérateur mal surveillé est à
même de dissimuler des pertes105. Les SGP
doivent apporter la preuve que tout est mis
en œuvre pour assurer la sécurité des fonds
des investisseurs avant d'obtenir un
agrément de gestion. En cela, la loi du 2
juillet 1996 sur la modernisation des
105
Souvenons-nous de quelques uns des scandales
qui ont, il y a quelques années, défrayé la chronique
(Daiwa, Barings).
260
activités financières, transposant la
directive européenne n°93/2 relative aux
services d'investissement dans le domaine
des valeurs mobilières, exige que soient
mises en place des procédures de contrôle
interne permettant le respect des règles de
"bonne conduite". L'objectif de la
réglementation vise ainsi à assurer une plus
grande sécurité des fonds des investisseurs
par une meilleure maîtrise des processus
internes. Les dirigeants de SGP sont alors
enclins à développer un système
d'information interne très formalisé étendu
à l'ensemble des processus de l'entreprise.
Ainsi, à des degrés divers, les gérants de
portefeuille évoluant au sein des SGP
voient leur rôle souvent circonscrit par des
règles
(choix
des
couples
rendement/risque;
horizons
des
placements; choix des portefeuilles de
référence auxquels sont adossés les
politiques
de
gestion;
contraintes
particulières assignées à la gestion, etc.).
Cette conception de l'organisation trouve
naturellement un terrain de prédilection
dans les formes d'organisation de type
mécanique ou bureaucratique. Selon
Mintzberg (1982), «les organisations
formalisent le comportement pour en
réduire la variabilité, et en fin de compte
pour le prédire et le contrôler». On peut
alors s'interroger sur l’impact de tels
comportements organisationnels sur la
performance dans le cadre particulier des
SGP. Cela permet d’énoncer notre
première proposition théorique :
Proposition
1
:
Les
comportements
structurels
formels des SGP possèdent une
influence sur la performance
des fonds gérés.
Alors que nous venons d’insister sur le rôle
joué par la réglementation dans la
structuration
des
comportements
organisationnels des SGP, il est aussi
important d'admettre que les SGP sont
avant tout des centres de décision basés sur
l'information. Cela nécessite la mise en
place de structures faisant intervenir des
mécanismes de circulation transversale de
l’information qui est censée également
conditionner le processus de création de
valeur des gérants de portefeuille.
B. L’information :
prépondérant
un
facteur
L'observation empirique montre qu’au sein
des SGP, les acteurs et notamment les
gérants de portefeuille possèdent une
interactivité naturelle avec l'ensemble des
secteurs
économiques,
sources
d'incertitude permanente. Pour y faire face,
l'appartenance à un réseau de partenaires
renforce souvent la capacité d'action de
ceux qui peuvent mobiliser cette ressource.
Ainsi, dans le cadre de l'activité
quotidienne des gérants, des échanges
permanents d'informations, d'anticipations
ou de points de vue sur les conditions des
marchés sont nombreux et viennent
continuellement interagir sur les décisions
individuelles.
Aucune
disposition
réglementaire ne fixe en effet d'exigences
relatives à la collecte et à la gestion
d'informations d'origine externe106. De fait,
il s'agit là d'une complémentarité aux
comportements de type bureaucratique
qu'imposent les normes réglementaires
évoquées plus haut. En effet, même si des
règles formelles sont définies, il existe des
possibilités de réajustements permanents
au sein du collectif de travail. Ces relations
constituent le plus souvent une source
précieuse d'interprétation d’informations
sur l'évolution et l'état des marchés de plus
en plus internationalisés. Ces relations
prennent souvent la forme de contacts
formels dans les différentes instances
collégiales de prise de décisions (comités
d'investissement, comités de gestion,
106
Afin d'éviter à la fois les délits d'initié et les
conflits d'intérêts entre les SGP et les
établissements
financiers
promoteurs,
qui,
généralement, en sont les maisons-mères, la
législation instaure néanmoins des dispositions
réglementaires faisant essentiellement référence à la
notion de "muraille de chine ". Ces dernières
limitent les échanges d'informations entre les SGP
proprement dites et leurs maisons-mères.
261
comités stratégiques, etc.) présents dans la
majorité de SGP et dans lesquels les
stratégies d'investissement sont souvent
élaborées. On les retrouve également dans
les échanges spontanés, entre collègues ou
acteurs – internes et/ou externes – à
l'organisation. Le type de comportements
organisationnels qui se profile ici n'est pas
sans rappeler le modèle adhocratique de
Mintzberg (1982) défini par l'ajustement
mutuel, le travail en "constellations de
travaux", ou groupes de projets. Powel
(1990) évoque la notion de réseau lorsqu'il
parle de telles formes d’échanges se
déroulant dans un cadre social et des
modes de "relations" qui s'y développent.
Pour
Powel,
les
réseaux
sont
particulièrement
efficaces
dans
le
traitement de l’information. Les variations
des prix sur les marchés, pas plus que les
procédures formelles de l’organisation, ne
véhiculent les informations les plus
pertinentes. Se pose alors la question de
savoir si l'existence de telles relations au
sein des SGP contribue ou non à expliquer
la performance des gérants de portefeuille.
Ce qui permet d’énoncer notre deuxième
proposition théorique :
Proposition
2
:
Les
comportements d’interaction
entre acteurs (internes ou
externes à la SGP) possèdent
une
influence
sur
la
performance des fonds gérés.
C. Les facteurs de contexte
Sur le terrain, même si les SGP évoluent
dans un même secteur d’activité, de
nombreux facteurs contextuels immédiats
(effectif salarié, nombre de fonds gérés,
montant des fonds gérés, affiliation à une
maison-mère, etc.) peuvent influer sur les
comportements
organisationnels
qu'adoptera telle ou telle SGP. De plus,
plusieurs études ont montré que les
facteurs de contexte apparaissent comme
un déterminant des comportements
organisationnels adoptés par l'organisation
(Pugh et al. 1963; Stinchcombre; 1965;
Hall 1974, Kalika 1984). Il semble alors
possible de supposer que la relation entre
les
comportements
organisationnels
(formels et d'interaction entre acteurs) et la
performance pourrait être d’intensité
variable selon le contexte immédiat de la
SGP. D’où l’élargissement de notre
analyse à la troisième proposition
théorique suivante:
Proposition 3 : Le contexte des
SGP possède une influence sur les
comportements organisationnels
(structurels formels et d'interaction
entre acteurs).
Après avoir mis en évidence nos
propositions théoriques de travail, il est
nécessaire de choisir et d'établir un
système de données observables et
pertinentes
pour
répondre
à
la
problématique de l'étude. En cela, un
modèle d'analyse sera présenté ci-dessous,
puis les hypothèses à valider ou à infirmer
empiriquement seront déduites de ce
modèle.
II. Les
d'analyse
variables
et
le
modèle
A. Les variables du modèle
Le modèle d'analyse s'appuie sur quatre
groupes de variables aptes à fournir une
représentation de l'organisation des SGP et
sa relation avec la performance des gérants
de portefeuille. Chaque groupe de
variables résulte de l'agrégation de
plusieurs variables de mesure. Deux
groupes de variables concernent les
comportements organisationnels formels et
les comportements d'interaction entre
acteurs et s'inspirent de la dialectique bien
connue
d'organisation
formelle
/
organisation
informelle.
Ce
sont
précisément ces deux groupes de variables
qui vont nous permettre de vérifier l'impact
positif ou négatif de l'organisation des SGP
sur la performance des gérants.
262
L'intégration d'un troisième groupe de
variables au modèle, les variables de
contexte, en amont des variables de
comportements organisationnels formels et
d'interaction entre acteurs,
va nous
permettre de regarder l'effet des facteurs de
contexte sur ces deux types de
comportements organisationnels. Enfin,
nous avons complété notre modèle
d’analyse par une variable relative à la
performance des fonds gérés (couple
rentabilité/risque). Les modalités des
différentes
variables
vont
être
successivement présentées ci-dessous.
1. Le groupe de variables des
comportements
structurels
formels
Ce groupe de variables intègre l'ensemble
des dispositions prises par les responsables
de sociétés de gestion pour structurer
l'espace des comportements des gérants.
Pour formaliser celles-ci, nous nous
sommes appuyés essentiellement sur les
travaux du groupe d’Aston qui, malgré leur
ancienneté, constituent encore aujourd’hui
le modèle de référence. Les travaux de
Kalika (1984, 1995, 1998) sur les
structures
organisationnelles
des
entreprises françaises ont également
constitué une référence essentielle. Parmi
les caractéristiques répertoriées, nous en
avons retenu six.
Le degré de structuration (Kalika et al.,
1998) qui permet de tenir compte du poids
de la structure de décision. En effet, il est
possible de distinguer au sein des SGP, les
grandes entités où les processus de gestion
peuvent
apparaître
beaucoup
plus
complexes des petites entités, où les
structures sont plus allégées. Le degré de
structuration est appréhendé à travers le
degré de spécialisation horizontale ou
fonctionnelle
(«largeur
de
l’organigramme ») qui indique le nombre
de services, et à travers le degré de
spécialisation verticale (ou «hauteur de
l’organigramme ») qui mesure le nombre
de niveaux hiérarchiques, c'est-à-dire la
longueur
de
commandement ».
la
«chaîne
de
Les degrés de standardisation et de
formalisation
permettant
d'évaluer
respectivement le degré d’existence de
règles ou de normes écrites et non écrites
qui s’imposent aux membres de
l’organisation, et permettant de créer une
zone de stabilité de leurs comportements.
Le degré de contrôle qui est souvent
analysé conjointement avec le concept de
planification stratégique. En effet, il ne
peut y avoir de contrôle sans planification
préalable et les plans perdent toute leur
efficacité s’il n’y a pas de suivi, c’est-àdire de contrôle. Ainsi, selon la définition
qu'en donne Mintzberg (1982): « on peut
distinguer deux types de système de
planification et de contrôle : le système de
"contrôle des performances" (ou des
résultats) qui est de nature générale et
s'intéresse aux résultats des actions, et la
"planification des actions" qui intervient
avant les faits ». Dans le cadre de notre
travail, nous analysons uniquement le
contrôle des performances des gérants de
portefeuille au travers notamment de la
fréquence de ces contrôles.
A coté de ces caractéristiques quelque peu
classiques en analyse des organisations,
nous en avons adjoint une autre
appréhendant le degré de concertation
caractérisé par le nombre d’organes
collégiaux de prise de décisions (comités
d'investissement, comités de gestion, etc.).
Ces instances collégiales regroupent
souvent les éminences grises de la SGP.
C'est dans ces instances que sont souvent
adoptées
les
grandes
orientations
d'allocation d'actifs auxquelles les gérants
devraient formellement se conformer. La
mise en place de cette variable permet ainsi
d’évaluer le degré d’intégration des gérants
de
portefeuille
aux
politiques
d’investissement de la SGP.
Enfin, le type de leadership pratiqué dans
les différents organes de concertation
263
permet de tenir compte du degré avec
lequel les gérants de portefeuille sont
associés ou non à la définition des grandes
orientations stratégiques. C’est en effet au
sein des différents organes de concertation
que les gérants de portefeuille peuvent
exprimer leur point de vue vis-à-vis de la
hiérarchie. Les situations peuvent être
divergentes d’une SGP à une autre.
Certaines adopteront un style ascendant et
participatif, d’autre plutôt un style
descendant et directif. Enfin, d'autres
accorderont une autonomie totale aux
gérants de portefeuille. C'est notamment le
cas dans les petites structures de gestion.
2. Le groupe de variables
d'interaction entre acteurs
Contrairement au groupe de variables des
comportements structurels formels qui était
essentiellement inspiré de concepts issus
d'études antérieures, les modalités du
groupe des variables d’interaction entre
acteurs relèvent essentiellement de
l'observation du terrain. Pour formaliser ce
groupe de variables, nous avons distingué
deux niveaux d’analyse :
- le premier niveau concerne les
interactions entre acteurs internes, c'est-àdire l’intensité des communications
interpersonnelles dans l’organisation, les
échanges
d’informations
et
de
compétences entre opérateurs au sein de la
SGP ;
- le deuxième niveau est celui des
interactions avec les acteurs externes,
appréhendées à travers l'intensité des
échanges avec l’extérieur de l’organisation.
En effet, les relations avec les autres
intermédiaires spécialisés, les échanges
d’informations avec les confrères externes,
sont autant de relations pouvant apporter
d'évidentes complémentarités dans la prise
de décision des gérants de portefeuille.
3. Le groupe des variables de
contexte
Pour formaliser le contexte des SGP, nous
nous sommes largement inspirés des
travaux issus des analyses de la théorie de
la contingence, et des travaux de Kalika
(1984, 1995, 1998). Les variables de
contexte retenues sont :
La taille qui est censée jouer un rôle dans
les comportements organisationnels des
entreprises. Plusieurs études empiriques
ont en effet mis en évidence une
corrélation positive, par exemple entre la
taille et le degré de structuration de
l’entreprise (Kalika et al., 1998). Trois
critères de taille sont pris en compte:
l'effectif salarié, le nombre et le montant
des fonds gérés ;
Le type de propriété (organisation filiale
ou organisation indépendante), c'est-à-dire
la dépendance ou non de la SGP vis-à-vis
d'une entité extérieure est également
reconnu comme pouvant influencer les
comportements de l'entreprise. Certaines
études ont montré que l’entreprise
dépendante et contrôlée de l’extérieur aura
tendance à formaliser en grande partie ses
comportements car les responsables
devraient justifier les résultats de leurs
actions auprès des tiers. Ce qui pourrait
être le cas de certaines SGP ne pouvant
s’affranchir des recommandations de
gestion émanant des sociétés-mères ou des
promoteurs des fonds sous gestion.
4. La variable relative à la
performance des fonds gérés
Depuis le modèle moyenne-variance
proposé par Markowitz (1952), le couple
Rentabilité/Risque est au cœur de
l'évaluation des performances en gestion
de portefeuille. Plusieurs méthodologies
principalement
issues
des
travaux
classiques de Treynor (1965), Sharpe
(1966) et Jensen (1968), permettent de
représenter très concrètement les deux
paramètres de rentabilité et de risque. Le
choix d'une méthodologie est cependant
délicat face aux multiples possibilités
existantes. Dans le cadre de cette étude, la
264
méthode de Treynor et ses dérivés ont été
écartés car utilisant le coefficient β comme
mesure de risque, ce qui ne semble
approprié que pour les fonds entièrement
investis en actions et sur un même marché.
La méthode de Jensen et ses dérivés (issues
du modèle de l' « Arbitrage Price Theory »
ou APT)107 ont également été écartés de
l'étude, du fait de la difficulté inhérente au
choix et à la détermination du nombre de
facteurs à intégrer dans la méthode. Le
ratio de Sharpe a, dans un premier temps,
retenu notre attention à cause de son
universalité. En effet, la mesure du risque
est effectuée à l'aide de l'écart-type qui
convient pour les fonds investis sur
n'importe quelle catégorie d'actifs (actions,
obligations) et sur n'importe quel marché.
Toutefois, nous avons choisi de l'écarter de
l'étude du fait de l'utilisation du taux sans
risque dans la méthode. En effet, la
comparaison entre la rentabilité du fonds et
le taux sans risque n'est censée intéresser,
en théorie, que le souscripteur individuel
qui fait un arbitrage entre un
investissement risqué et un investissement
sans risque. Or, dans un cadre
professionnel, bon nombre de gérants de
portefeuille adoptent une gestion dite
"active" dont l’objectif et de suivre et de
battre un indice (ou benchmark) défini à
l’avance. En cela, le ratio d'information a
été retenu pour l'étude. Le ratio
d'information consiste à comparer, en
tenant compte du différentiel éventuel de
risque, la rentabilité d'un portefeuille de
référence à la rentabilité du fonds étudié.
Si l’on considère un portefeuille p et un
portefeuille de référence m, le ratio
d'information est le rapport entre l'excès de
rentabilité du portefeuille p par rapport au
107
Afin de contourner le problème lié au choix d'un
seul indice de référence, de nombreuses méthodes
dites «multifacteurs » ont été développées pour
tenir compte notamment de la multiplicité des
catégories de facteurs (exogènes et endogènes)
pouvant avoir une influence sur les prix et les
rentabilités des portefeuilles ou des actifs observés.
Ces méthodes, proches du modèle de Jensen, sont
issues du cadre théorique de l'APT ou MEA
(Modèle d'Evaluation par Arbitrage).
marché m, compte tenu de l'excès de risque
pris par le gestionnaire par rapport à son
portefeuille de référence. Il constitue ainsi
une mesure du succès d'une gestion active
autour d'une référence avec, au
numérateur, l'écart de rentabilité obtenu
qui peut être positif ou négatif, et, au
dénominateur, le risque pris à s'être écarté
du portefeuille de référence. Cela donne:
IP = (RP – Rm) / σ (RP – Rm)
Avec Ip l’indice d’information du
portefeuille indiquant le succès d’une
gestion active autour du portefeuille de
marché; (Rp – Rm) l’excès ou le déficit de
la rentabilité du portefeuille (Rp) sur la
rentabilité du portefeuille de marché (Rm);
σ(Rp–Rm) le degré de risque pris à s’être
écarté du portefeuille de référence. Ce
dernier argument s'appelle écart de suivi
(Tracking error). On peut écrire :
Ecart de suivi =
[
(
1 T
∑ (Rp − Rm) − Rp − Rm
T −1 1
)]
2
avec T, le nombre d’observations.
En outre, à cause des différentes critiques
évoquées par la littérature à l'encontre de
l'écart-type, les moments partiels inférieurs
d'ordre 2 (MPI2) ont été utilisés comme
mesure de risque. Les MPI2 sont fondés
sur l’attitude de l’investisseur face au
risque d’avoir une rentabilité inférieure à
un seuil. Il est donc important de contrôler
le risque d’obtenir des rentabilités
inférieures à ce seuil. Le problème consiste
ainsi à remplacer la variance par les MPI2
qui ne tiennent compte que des fluctuations
de risque inférieures au seuil fixé. De
manière générale, le moment partiel
inférieur d’ordre n des rentabilités d’un
portefeuille Rp par rapport à une cible m
(généralement la moyenne des rentabilités,
à défaut d’une rentabilité requise fixée au
départ ou de la rentabilité du portefeuille
de marché) se calcule par la formule :
265
MPI n =
m
K
∑ Pp (m − R p ) =∑ Pp [min( 0, Rp − m )]
R p = −∞
n
n
p =1
Avec Pp la probabilité d’obtenir la
rentabilité p et Rp une variable aléatoire
représentant les rentabilités du portefeuille.
L’expression [min(0,Rp-m)] signifie que si
une rentabilité donnée est supérieure à la
cible, l’écart entre la rentabilité et la cible
est remplacé par 0, sinon l’écart est pris en
compte pour sa valeur dans la somme. Le
moment partiel d’ordre 2 qui nous
intéresse est le carré des écarts négatifs à la
moyenne également appelé semi-variance.
B. Le modèle et les hypothèses de
travail
La figure 1 résume le modèle de recherche
après introduction des hypothèses retenues
dont la formulation est présentée plus bas.
Selon ce modèle de recherche, deux
groupes de variables indépendantes, les
variables de comportements structurels
formels et les variables d’interaction entre
acteurs, et une variable modératrice, la
variable de contexte, vont influer sur la
performance des fonds gérés. A partir du
modèle, les hypothèses de recherche qui
reprennent les propositions théoriques
présentées plus haut, sont les suivantes :
Hypothèse 1 : Le contexte des SGP
possède
une
influence
sur
les
comportements structurels formels (H1.1.)
et d'interaction entre acteurs (H1.2.).
Hypothèse 2 : Les comportements
structurels formels des SGP possèdent une
influence sur la performance des fonds
gérés.
Hypothèse 3 : Les comportements
d’interaction entre acteurs (internes ou
externes à la SGP) possèdent une influence
sur la performance des fonds gérés.
Afin de tester les hypothèses, une collecte
de données qualitatives et quantitatives a
été effectuée sur le terrain. Les hypothèses
ont ensuite été testées à partir d'une
analyse de données causale par l'approche
statistique PLS. Les modalités de la
collecte de données ainsi que celles
relatives au test des hypothèses sont
présentées ci-dessous.
III. Données et échantillons
A. La collecte de données et les
échantillons
La collecte de données et les échantillons
sont fondés sur des informations
qualitatives et quantitatives, portant
respectivement
sur
les
variables
organisationnelles et sur la variable relative
à la mesure des performances des fonds.
1. Les données organisationnelles
Les données organisationnelles ont été
collectées à travers une enquête postale
accompagnée d'appels téléphoniques qui
ont annoncé et suivi l'envoi des
questionnaires aux répondants. Les
questionnaires ont été soumis aux gérants
de portefeuille, acteurs clés au sein des
SGP. Le processus global de collecte de
données organisationnelles a permis de
constituer un échantillon de 59 SGP, soit
un taux de près de 20% par rapport à la
population de SGP de la place de Paris au
moment de l'étude. Sur les 59 SGP, 23 sont
de SGP indépendantes (38%). Sur ces 23
SGP se trouvent 6 banques, 2 compagnies
d’assurance, 2 sociétés de bourse et 5
maisons de titres (nouvellement qualifiées
de sociétés financières) possédant en fait
un service ou un département de gestion
intégré à leur activité principale. Les 16
SGP indépendantes restantes concernent
des SGP constituées par les anciens
remisiers gérants de portefeuille. 36 SGP
de l’échantillon sont des filiales (62%)
constituées par des institutions financières
ayant accordé une autonomie à leur activité
de
gestion
en
réponse
aux
recommandations de l'Autorité des
Marchés Financiers. En dehors des
montants non communiqués, les SGP de
l'échantillon géraient environ
500
266
milliards d’Euros, soit plus de 76% du total
de l'actif des OPCVM gérés sur la place
boursière parisienne au moment de l'étude.
Ainsi, l'échantillon de l’étude représentait
plus des 2/3 du montant total des fonds
gérés en France au moment de l'étude, ce
qui était très représentatif de la population
totale. En outre, la gestion pour compte de
tiers comptait 5797 OPCVM, dont 4628
FCP et 1169 SICAV108. Les SGP de
l’échantillon géraient environ 3253
OPCVM, soit 56% de la population totale.
2.
Les mesures de performance
La société Europerformance a bien voulu
nous fournir l'ensemble des valeurs
liquidatives hebdomadaires. Les données
portent sur les fonds commercialisés (FCP
et SICAV), c'est-à-dire ceux dont les parts
de portefeuilles peuvent être librement
acquis par les souscripteurs. Pour intégrer
un fonds dans l'étude, il fallait disposer de
toutes
ses
valeurs
liquidatives
hebdomadaires durant la période de l'étude
(5 ans). Certains fonds ont été
délibérément exclus de l'étude du fait de
leur nature. C'est ainsi que les fonds à
rentabilité garantie ou assortis d’une
protection sont exclus car l'utilisation de
ces deux critères de gestion ne nous a pas
semblé
pertinente pour juger de la
performance réalisée sur tel ou tel fonds.
De même, les fonds monétaires ont été
exclus de l'étude. En effet, les
performances de ces fonds sont quasiment
indexées sur l'évolution des taux à court
terme, et les performances intrinsèques des
gérants de portefeuille sont parfois sans
rapport avec les performances obtenues sur
ces fonds. Enfin, les fonds issus des
techniques de gestion "multigérants", les
« Fonds de Fonds », ont également été
exclus de l'étude. En effet, ces produits ne
sont pas investis directement en valeurs
mobilières sur les marchés financiers, mais
constitués de parts d'autres fonds choisis
parmi ceux gérés par d'autres SGP. Les
108
Source Banque de France.
performances réalisées ne sont donc pas en
rapport avec la SGP qui détient ce type de
fonds. Finalement, compte tenu de
l'ensemble des critères de sélection, un
total de 324 OPCVM (126 FCP et 198
SICAV) est intégré dans l'analyse. Pour
effectuer l’étude causale dont les résultats
sont présentés plus bas, les OPCVM ont
été regroupés en trois catégories
principales:
les
OPCVM
actions
(françaises et internationales); les OPCVM
diversifiés (français et internationaux) et,
enfin, les OPCVM obligations (françaises
et internationales).
B. Le test des hypothèses : une
approche PLS
Pour valider les hypothèses de travail,
l'utilisation des méthodes d'analyse dites de
deuxième génération (ou méthodes
avancées selon Evrard et al., 1997), a
semblé la plus appropriée. L'intérêt majeur
de ces méthodes réside dans l'introduction
de la notion de variable latente (ou
construit). Par définition, cette dernière
n'est pas directement observable mais
déduite de une ou plusieurs variables
observables (ou indicateurs). En outre, ces
méthodes permettent de tester directement
la structure des relations entre les groupes
de variables, alors que les méthodes
d’analyse de données traditionnelles dites
de première génération, adaptées au
traitement d’un seul groupe de variables,
sont moins efficaces pour aborder les
liaisons entre groupes de variables
(Croutsche, 1997). Parmi les méthodes
d'analyse de deuxième génération, notre
choix s’est orienté vers un arbitrage entre
l’analyse selon les moindres carrés partiels
(PLS) et l’analyse des structures de
covariances (LISREL) qui sont de loin, les
deux méthodes les plus utilisées. Compte
tenu des contraintes liées notamment à la
taille de l’échantillon et à la nature des
données (absence de normalité), nous
avons opté pour PLS à cause de sa
flexibilité d'utilisation au regard des
contraintes citées.
267
L’approche PLS appliquée au modèle
théorique présenté précédemment a fait
ressortir les résultats chiffrés du tableau 1.
Il s'agit des coefficients de corrélation
multiple entre construits, c’est-à-dire les
résultats des régressions entre variables
explicatives et variables expliquées qui
mesurent l'importance du lien de
dépendance entre les deux types de
variables. Les chiffres entre parenthèses
indiquent les carrés des coefficients de
corrélation multiples qui mesurent les
pourcentages de variabilité des variables
expliquées dus aux variables explicatives.
Ces deux derniers critères apportent les
réponses
aux
tests
d'hypothèses
initialement formulées.
IV.
Analyse des résultats
Deux remarques essentielles viennent à la
lecture des résultats du tableau 1. La
première est que l'ensemble des hypothèses
est validé. Le contexte de travail des SGP
(critères de taille, d'appartenance à un
groupe, d'âge, etc.) déteint sur les
caractéristiques
de
l'architecture
organisationnelle des firmes étudiées
(degré de structuration, de formalisation,
de contrôle, etc.). Le contexte influencerait
les politiques organisationnelles formelles
mises en place (H1.1.) à hauteur de 48%.
De plus, ce même contexte influencerait
également les caractéristiques informelles
de l'organisation (H1.2.) : les interactions,
spontanées ou non entre les acteurs; qu'il
s'agisse des interactions entre les acteurs
internes entre eux ou avec leurs partenaires
externes. Cet ascendant est toutefois
moindre, puisque seulement 2,34% des
comportements d'interaction entre acteurs
dépendraient du contexte.
Ces résultats étaient prévisibles, et ne font
que confirmer d'autres nombreuses études
réalisées dans le domaine organisationnel.
Il est naturel et largement admis que
l'environnement ou le contexte de travail
d'une firme influence son architecture
organisationnelle.
Plus intéressants sont les résultats
concernant
la
relation
architecture
organisationnelle/performance.
Les
hypothèses de l'impact des comportements
structurels formels sur la performance (H2)
et des comportements d'interaction entre
acteurs sur cette même performance (H3)
sont vérifiées. Cependant, la relation entre
les comportements d'interaction entre
acteurs et la performance est plus
importante (14%) que celle observée entre
les comportements structurels formels et
cette même performance (0,4%). La
performance pourrait ainsi être expliquée
principalement
par
l'intensité
des
interactions entre acteurs internes et
externes à la SGP. L'équipe de gestion,
ainsi que les réseaux de relations que les
gérants de portefeuille entretiendraient
avec l’extérieur, semblent constituer deux
facteurs importants d’explication de la
performance. La performance des fonds
croîtrait donc avec le degré d'échange
d'informations109. Ce résultat n'est pas
étonnant dans la mesure où la gestion de
portefeuille est une activité fondée
essentiellement sur l'information. Une SGP
est avant tout un centre de décision portant
sur l'information détenue par les acteurs et,
c’est
souvent
à
l’occasion
de
communications
et
d'échanges
d'informations que l'on pallie les
incertitudes des marchés. En outre, ce
résultat semble démontrer que les
politiques
organisationnelles formelles
mises en place par les responsables des
SGP ne seraient qu'un moyen permettant
de structurer l'espace des comportements
des acteurs, cette considération pouvant
expliquer que finalement, le pouvoir
explicatif
des
comportements
organisationnels formels n’apparaisse
qu'indirectement pour expliquer la
performance. En effet, quand on analyse
l’influence indirecte des comportements
structurels formels sur la performance, à
partir du degré d'interaction entre acteurs,
109
Si l'on accepte que celui-ci puisse être mesuré
par le degré d'interaction entre acteurs.
268
on constate un impact élevé, soit 33%110.
D'une
part,
les
politiques
organisationnelles formelles jouent souvent
le rôle intégrateur des actions des gérants
de
portefeuille
aux
politiques
d'investissement propres à la SGP ; d'autre
part, elles devraient répondre aux
nécessités de contrôle exigées par les
autorités de tutelle visant à limiter les
« dérapages » éventuels de la part des
gérants de portefeuilles.
La portée de nos résultats semble
confirmer
l'importance
du
facteur
"information" sur les marchés financiers.
La valorisation des titres sur les marchés
financiers est liée à la détention et au
traitement des informations relatives aux
sociétés cotées et celles relatives à
l’environnement économique globale. Il est
donc logique que les sociétés de gestion de
portefeuille ayant les plus grandes
capacités organisationnelles pour recueillir,
traiter, analyser, valoriser les informations
obtiennent des performances supérieures à
celle des autres. La capacité de traitement
ne peut qu'être d'origine organisationnelle.
L'architecture organisationnelle trouve
donc bien sa place dans le lien fondamental
« Information
–
Organisation »
et
« Gestion de l'information – Performance
financière du fonds ».
Les résultats du test permettent également
de réconcilier les théories de l'efficacité
organisationnelle et celles de l'efficience
des marchés financiers. En effet, une
approche simpliste de la théorie de
l'efficience peut laisser penser que l'utilité
des sociétés de gestion de portefeuille est
nulle, puisqu'il n'est pas possible de prévoir
à l'avance l'évolution des cours des titres et
que la gestion de portefeuille optimale
consiste à investir dans l'ensemble des
titres présents sur le marché. L'utilité des
110
Les modèles d'équations structurelles permettent
d'évaluer à la fois les effets directs et les effets
indirects entre variables, l'effet total de deux ou
plusieurs variables étant alors la somme des effets
précédents.
SGP est donc précisée. Leur rôle ne
consiste pas à tenter de déterminer
l'évolution future du prix des titres, mais de
permettre aux gérants de portefeuilles de
mieux utiliser l'information dont ils ont
besoin. Dans ce cadre, l'organisation est
fondamentale. Les SGP ayant la meilleure
architecture organisationnelle auraient
également la meilleure performance. La
concurrence importante existant entre les
différentes SGP devrait pousser celles-ci à
recomposer sans cesse leur architecture
organisationnelle.
Conclusion
Cet article avait pour but de tenter
d’expliquer la performance des décisions
des gérants de portefeuille professionnels
en matière d’investissement. Pour cela, elle
met en évidence le rôle et l’influence de
l’architecture
organisationnelle
des
sociétés de gestion de portefeuille en tant
que facteur explicatif de la performance
des gérants. Les caractéristiques de
l'architecture organisationnelle ont été
identifiées et mesurées à partir des
variables structurelles formelles et des
variables d'interaction entre acteurs. La
performance est mesurée à partir du couple
rendement/risque. Les résultats de l’étude
causale (PLS) montrent un pouvoir
explicatif plus important des variables
d'interaction entre acteurs sur la
performance. La performance des gérants
de portefeuille pourrait ainsi être expliquée
principalement par l'intensité des relations
d'échanges d'informations, de compétences
et de savoirs entre acteurs au sein et en
dehors de l'organisation. Ainsi, les
politiques organisationnelles formelles
mises en place par les responsables des
SGP ne constitueraient qu'un moyen
permettant de structurer l'espace des
comportements des gérants de portefeuille,
en réponse notamment à la prévention des
risques de déontologie et aux nécessités de
contrôle exigées par l’Autorité des
Marchés
Financiers.
La
relation
organisation/performance des gérants de
269
portefeuille est donc vérifiée. En cela, les
études relatives à la mesure des
performances et aux outils d’aide à la
décision d’investissement devraient être
complétées par des approches de nature
plus qualitative analysant les stratégies de
placement s’effectuant en amont, au sein
desquelles se jouent souvent des facteurs
tels que les arbitrages et les discussions
entre acteurs. De tels travaux viendraient
certainement enrichir la compréhension du
rôle
des
gérants
de
portefeuille
professionnels et des déterminants de leurs
performances.
Bibliographie
Brickley J.A., Smith C.W. et Zimmerman
J.L. (1997), Management Economics and
Organizational Architecture, The Mc
Graw-Hill Companies Inc, Irvin.
Charreaux G. (2001), « L’approche
économico-financière
de
Image
de
l’investissement »,
in
l’investissement, Vuibert/Fnege, pp.13-60.
Fama E.F. (1970), « Efficient Capital
Markets: a Review of Theory and
Empirical Work », The Journal of Finance,
Vol. 25, pp. 383-417.
Gallais-Hamonno G. et Grandin P. (1999),
« Les mesures de performances », Banques
& Marchés, n°42, semptembre-octobre,
pp.56-62.
Moussavou J. et Gillet P., (2000),
« L’importance du choix du benchmark et
du taux sans risque dans la mesure des
performances
des
fonds
The
European
d’investissement »,
Investment Review, http//www.theeir.com.
Jensen M.C. et Meckling W.H. (1992),
« Specific and General Knowledge and
Organizational Structure», in Werin L. et
Wijkander H., Contracts Economics,
Blackwell, pp.275-281.
Kalika M. (1995), Structures d’entreprises,
réalités, déterminants, performances, 2ème
éd., Economica.
Kalika M. (2000), « L’émergence du emanagement », Cahier de recherche n°57,
CREPA, Université Paris Dauphine.
Moussavou J. et Lamarque E. (2000),
« Les sociétés de gestion de portefeuille au
cœur
d’un
triple
problème
de
gouvernance », Banque Stratégie, n°174,
septembre, pp.34-35.
Markowitz H. (1952), «Portfolio Selection
», Journal of Finance, March 1952, PP.
77-91.
Mintzberg H. (1982), Structure et
dynamique des organisations, Editions
d’Organisation.
Moussavou J. (2000), Lien entre
l’organisation des sociétés de gestion de
portefeuille et la performance financière
des fonds gérés, Thèse de doctorat en
Sciences de Gestion, CREPA, Université
de Paris Dauphine.
Powel W.W. (1990), « Neither Market Nor
Hierarchy :
network
forms
of
organization», Research in Organizational
behavior, vol. 12, pp. 295-336.
Serret V. (2003), «Influence du gérant sur
le processus de gestion et la performance
finale dans le cas des OPCVM actions »,
Working paper n°632, CEROG-IAE
d’AIX-en-Provence.
Moussavou J. (2000), « L’impact des
comportements
organisationnels
des
sociétés de gestion de portefeuille sur la
performance
des
fonds
gérés»,
communication au congrès international
de l'AFFI, juin, Paris.
270
H1.1
Facteurs
Contextuels
Comportements
structurels
formels
H2
Performance
H1.2
Comportements
d'interaction
entre acteurs
H3
Figure 1 - Le modèle et les hypothèses
Hypothèses
Intitulés des hypothèses
Résultats
Conclusions
H1.1. : Le contexte des SGP possède
une influence sur les comportements
structurels formels
γ1 = 0,691 (48%)
Validée
γ2 = 0,153 (2,4%)
Validée
β2 = 0,066 (0,4%)
Validée : malgré la faiblesse du
H1
H1.2. : Le contexte des SGP possède
une influence sur les comportements
d’interaction entre acteurs
H2
Les comportements structurels
formels possèdent une influence sur
la performance des fonds gérés
lien,
l'influence
des
comportements structurels formels
sur la performance est positive et
significative.
H3
Les comportements d’interaction
entre acteurs (internes et externes)
possèdent une influence sur la
performance des fonds gérés
β3 = 0,371 (14%)
Validée : l'influence des
comportements d'interaction entre
acteurs sur la performance est plus
importante que l'influence des
comportements structurels formels
sur cette même performance
Tableau 1 - Résultats du test d'hypothèses par l'approche PLS
271
The Challenges of Basel 2 implementation in the
US
Professor Dr. John RYAN
European Business School London
[email protected]
Abstract
In June 2004, The Basel Committee on Banking Supervision published the new minimum
capital requirements rules for banks, called Basel 2. The Basel 2 allows different countries to
implement in accordance with their jurisdictions. Thus in the United States banks will be
allowed to adopt only advanced approaches of Basel 2 which is called Basel 1A. This will
cause challenges for globally operated banks. At the same time the recent announcement of
US treasury agencies of a one year delay in Basel 2 implementation adds even more
uncertainty in cross border issue.
272
Introduction
The importance of the Basel 2 topic is that
it proposes significant improvement in risk
management practices for banks, although
it has to overcome many of obstacles on
the way of its implementation. This paper
focuses on particular area of Basel 2
framework – credit risk and examines the
implementation of new rules with regards
to US. The paper aims to identify key
challenges that global banks face while
implementing the new framework. The
paper is structured in the following way.
Part 1 gives a general overview of the
Basel 2 Framework and focuses on credit
risk, examining two approaches for
calculating
capital
requirements
–
Standardized and Internal Rating Based
approaches. This section examines
implementation issues in order to show the
impact on international banks will have
difficulties with implementation of Basel
1A.
Part 2 deals with the US Basel 1A
implementation issue, outlining the
distinguishing features and comparing
them with European and UK approaches.
The paper concludes with a critical review
which
outlines
the
necessity
of
consolidation
between
banks
and
supervisors for effective implementation of
new rules.
As for methodology, firstly, it was
important to scan The New Capital
Accord111 itself as it outlines all elements in
detail underlying the scope of application
as well as methods of calculating minimum
capital requirement. Secondly related
reports and articles were critically
reviewed in order to identify the most
controversial topic to focus on in the Basel
2 area.
In structuring this paper the following
literature was used.
European Central Bank paper No. 42
gives a clear overview of Basel 2
explaining differences between current
and new frameworks.
Also Basel
Committee of Banking Supervision
presentations about The New Capital
Accord are important as key points about
Basel 2 are summarized. As for credit risk,
there are has been written lots of technical
materials, but for the purpose of this paper
expository literature was used. A report,
written by Stephanou C & Mendoza J C
gives a very descriptive picture of credit
risk under the Basel 2 framework. An
explanatory note on the Basel 2 IRB Risk
Weight Functions issued by BIS in July
2005 is also important to look at while
structuring this section. The Basel Accord
itself is of great use especially when it
comes to descriptions of key elements (PD,
LGD, EAD and M).
The second section of this paper deals with
US implementation and key challenges. It
based to a large extent on practical
literature. In this case an article written by
Sullivan M (Kanbay) gives a solid base of
the Basel 2 Implementation Framework.
BIS publications such as “High-level
principles for cross-border implementation
of the New Accord” and “Home-host
information sharing for effective Basel 2
implementation” as well as FSA “Use of
non-EEA regulators’ requirements in
group capital calculations” were useful.
I.
Basel 2 with regards to Credit risk
111
The paper based on The New Basel Capital
Accord issued in April 2003, however some
sections were reviewed using the recent updated
version of the Accord (November 2005)
A. Basel 2 framework
273
“A key objective of Basel II is to
encourage improved risk management
through the use of three mutually
reinforcing Pillars” (BIS Implementation of
Basel II: Practical Considerations, 2004).
Chart 1 summarizes the 3 Pillars
framework.
Chart 1 Overview of the Basel 2 Framework
(ECB Occasional paper No. 42, 2005)
The dark boxes refer to the components
that have been introduced or to which there
are major changes as a result of new rules,
while the bright boxes refer to the
unchanged components. Thus, while Basel
1 covered only Minimum Capital
Requirements, the new Capital Accords are
based on three pillars: Minimum Capital
Requirements (Pillar 1), Supervisory
Review Process (Pillar 2) and Market
Discipline (Pillar 3).
With regards to Capital Requirements, the
definitions of capital remains unchanged,
that is Core Capital (Tier 1) and
Supplementary Capital (Tier 2). Minimum
Capital Ratio (Capital divided on RiskWeighted Assets) is also unaffected and
stands at 8%. However risk categories
were added to the Operational risk. (ECB,
December 2005). The new formula for
calculating minimum capital requirements
is now as follows:
Chart 2 Formula of minimum
capital requirements
Erreur
Eligible
capital !
=8%
ON-BALANCE-SHEET CREDIT
RISK
+
Off-balance-sheet credit risk
+
Market risk
+
OPERATIONAL RISK
(BIS, Freeland C., Basel 2 Update, 2004)
Capital letters from this formula indicate
elements that have been changed in the
new framework. On-Balance Sheet Credit
Risk was modified and now for both Credit
274
Risk and Operational Risk there are
different approaches from Standardized to
Advanced for calculating Risk-Weighted
assets. This paper will be focused on OnBalance Sheet Credit Risk (as part of Pillar
1) explaining the key elements there.
B. Credit risk
Credit risk could be generally defined as
default risk, in other words it is risk of
losses from borrower/counterparty’s failure
to repay for his obligations on time
(Stephanou C. & Mendoza JC., 2005).
Initially Basel Capital Accords (1988)
were issued in order to protect banks and
their counterparties from credit risk, thus
minimum capital requirements for Banks
were introduced determining the amount of
capital banks should hold and therefore
establishing the minimum Capital Ratio of
8%. Current Basel Accord (updated in
1998) and The New Basel Accord (Basel
2) include other categories of Risk, as
mentioned above, however Credit Risk
remains to be of great importance for
banks.
Basel 2 introduces more risk sensitive and
therefore more sophisticated approaches
for calculating capital requirements for
Credit Risk. Basel 2 determines two
different methodologies. First is the
standardized Approach which “will be to
measure credit risk in a standardized
manner, supported by external credit
assessments” and second is the Advanced
Approach, “which is subject to the explicit
approval of the bank’s supervisor, would
allow banks to use their internal rating
system” (paragraphs 24, 25 The New Basel
Capital Accord, 2003).
1. Standardized approach
The Standardized approach is similar to the
current Accord rules. “The main changes
compare to Basel 1 relate to the use of
external credit ratings as the basis for
determining the risk weights and the
greater differentiation in the possible risk
weights” (ECB, Occasional Paper, 2005).
Chart 3 summarizes risk weights
corresponding to credit ratings and types of
counterparties. Banks can use credit ratings
only from approved Rating Agencies or
External Credit Assessment Institutions
(ECAIs) as defined by the New
Framework.
Chart 3 Standardized approach Risk-Weights
275
(Stephanou C. & Mendoza JC., Credit Risk Measurement Under Basel II: An Overview and
Implementation Issues for Developing Countries, 2005)
Once risk weights are determined in
accordance with the Basel 2 rules which
are summarized above, Risk-Weighted
Assets are calculated by multiplying those
risk weights by value of corresponding
assets.
Then using the Risk-Weighted Assets the
bank can determine the Capital Charge
which will be equal to Risk-Weighted
Assets multiplied by 8%.
2. Internal Ratings-Based (IRB)
approaches
The IRB approach for calculating Credit
Risk is one of the most innovative aspects
of the Basel 2 Accord. It differs
substantially from the standardized
approach as it allows banks themselves to
estimate key elements in the calculation of
their capital requirements. These elements
are:
1) PD – the probability of default of
counterparty over one-year horizon.
2) EAD – Exposure at Default (an
amount not a percentage)
3) LGD – Loss Given Default (or 1 –
recovery) Recovery are usually
recognized as collateral.
4) M – Maturity
Chart 4 depicts of how this components are
used in order to estimate Risk Weighted
Assets. Capital Charge can be thereafter
found as 8% multiplied by RWA
Chart 4 Estimation of Risk Weighted Assets
In the IRB approach (the same as in the Standardized approach) all banking books should be
categorized into broad asset classes using specific definitions provided by the New
Framework. For each of these classes the above described key elements should be estimated
and formula for calculating RWA should be used. For example for Corporate, Sovereign and
Bank exposures, Basel accord identifies the following formulas112:
112
Explanations of each component in these formulas are beyond the scope of this paper. However the
description of the formula can be found in An Explanatory note on the Basel 2 IRB Risk-Weight Functions, BIS
2005
276
(Stephanou C. & Mendoza JC. Credit Risk Measurement Under Basel II: An Overview and
Implementation Issues for Developing Countries, 2005)
Once risk-Weighted Assets are calculated, it is easy to find capital charge using the following
formula:
3. Differences in Capital Charge
It was described in the previous sections how capital charges are calculated in two different
methods: Standardized and IRB approach. Chart 5 depicts differences in Capital Charge (%)
for corporate borrowers with different credit ratings/PD using these different methods –
Standardized and IRB. The chart also has the Basel 1 framework where there was no credit
ratings components, but only 8% Capital Charge for all Assets (Risk Weights were
differentiated only by Assets Classes).
Chart 5 Differences in Capital Charge
(Stephanou C. & Mendoza JC., Credit Risk Measurement Under Basel II: An Overview and
Implementation Issues for Developing Countries, 2005)
277
From this chart it could be seen how sensitive the IRB approach is. Using this approach
Corporates with high ratings are expected to benefit from Basel 2, while low rating borrowers
will be significantly penalized. In this case the Standardized approach is closer to the current
framework.
4. Foundation and Advanced IRB approaches
Basel 2 distinguishes between two different methods in the Internal Rating-Based approach:
1. – Foundation IRB approach and 2. – Advanced IRB approach.
The main differences between them are the key elements for which a bank can use its own
estimates. Both approaches allow banks themselves to estimate the Probability of Default
(PD), while a bank’s internal estimates of other risk components such as Loss Given Default,
Exposure at Default and Maturity can only be applied in the Advanced approach.
Chart 6 summarizes risk components under two approaches for Corporate, Sovereign and
Bank exposure113. It shows which of the 5 components banks are allowed to estimate
themselves under these approaches.
Chart 6 Foundation and Advanced IRB approaches (risk components estimation)
Roberts E. FSI, The New Capital Adequacy Framework – Basel 2, 2004
113
Appendix 1 shows overall differences of estimating key components (PD, LGD, EAD, M and Correlation) in
Advanced IRB, Foundation IRB, Standardized approach and 1988 Accord.
278
Probability of default (PD)
PD is the parameter which banks should
estimate by themselves under both
Foundation IRB and Advanced IRB
approaches. The measurement of PD presupposes the use of definition of default
that usually varies from country to country
as well as it across financial institutions114.
Basel 2 denotes the definition of default in
order to facilitate comparability of capital
results. So in the Basel 2 Framework
default has occurred when either one or
both of the two following events have
taken place: 1. “The bank considers that
the obligator is unlikely to pay its credit
obligations to the banking group in full”; 2.
“The obligator is past due more than 90
days on any material credit obligation to
the banking group” (paragraph 414 The
New Basel Capital Accord, 2003).
banks which meet certain minimum
requirements
(for
Advanced
IRB
approach) can use their own estimates of
exposure (paragraph 286 The New Basel
Capital Accord, 2003).
As for calculating PD, there are two broad
approaches: empirical and market-based
models. The former uses historical data for
identifying the PD (Appendix 2) while the
latter uses counterparty market data (e.g.
bond or credit default swap spreads,
volatility of the equity market value) to
infer the likelihood of default (Stephanou
C. & Mendoza JC., Credit Risk
Measurement Under Basel II: An Overview
and Implementation Issues for Developing
Countries, 2005).
Eligible financial collateral
Receivables
CRE/RRE
Other Collateral
Exposure at Default (EAD)
EAD refers to the outstanding amount at
the time of default. Under Foundation IRB
approach type of instrument (for example
Credit Conversion Factor (CCF) for offbalance-sheet items) are the same as for
Standardized approach. The exposure is
not subject to CCF provides 100% EAD
under the foundation approach, while
114
The practical examples and problems with
default definitions will be described in sections
below.
Loss Given Default (LGD)
LGD is the percentage of the EAD that is
lost in the event of a default.
Under the foundation IRB approach,
different LGD for different types of loans
are determined under the Basel 2
framework, such as unsecured senior and
subordinate claims on corporate, sovereign
and banks account 45% and 75%
respectively. While fore secured loans
LGD determines in accordance to their
collateral and summarized below:
Minimum LGD
0%
35%
35%
40%
“While the remaining part of the exposure
is regarded as unsecured and receives an
LGD of 45%” (paragraphs 255-264, The
New Basel Capital Accord, 2003).
Banks that meet certain requirement to use
Advanced IRB approach can use their own
internal estimates of LGD and it must be
measured as a percentage of the exposure
at default (The New Basel Capital Accord,
2003).
Maturity
For banks using the Foundation IRB
approach for corporate exposure, effective
maturity will be 2.5 years except for repostyle transactions where it is 6 months. As
for Advanced IRB approach, banks should
measure effective maturity for each facility
in accordance to guidelines provided by
279
the Accord (paragraphs 288-295, The New
Capital Accord, 2003).
C. Implementation issue
border consideration)
(cross
Basel 2 outlines the approaches explained
above, however the fact that countries may
apply them differently raises the home/host
issue.
According to the High Level Principles of
The Cross Border Implementation of New
Accord “the home country supervisor is
responsible for the oversight of the
implementation of the New Accord for a
banking group on a consolidated basis”
(Principle 2, BIS 2003), while “Host
country supervisors, particularly where
banks operate in subsidiary form, have
requirements that need to be understood
and recognized” (Principle 3, BIS 2003).
Thus, “banks operating in subsidiary form
must satisfy the supervisory and legal
requirements of the host jurisdiction”
(paragraph 10, principle 3 BIS 2003). This
means that globally operated banking
group will apply credit risk models with
accordance to jurisdiction of different
countries.
Take for example HSBC Banking Group,
which operates, in more then 90 countries
around the world. Implementation of Basel
2 is much more complicated for HSBC as
they have to comply with all different
jurisdictions where they operate, bearing
additional costs, thus their “internal
estimate Group-wide total expenses of
implementing Basel 2 is US $250 million”
(DRAFT Speech by Mr Warner Manning,
January 2006). One of the examples of
implementation schemes that HSBC might
face is shown in the Chart 7.
Chart 7 Globally operated banking group
Roberts E. FSI, The New Capital Adequacy Framework – Basel 2, 2004
HSBC, as a globally operated bank, will face lots of obstacles with different countries’
jurisdictions and delays with implementations (such as emerging markets). However the
280
situation around implementation Basel 2 in the US remains to be the most important issue for
them because of their significant presence there. The percentage of HSBC US assets
accounted nearly 30% of all Banking Group assets (Chart 8).
Chart 8 European banking groups with a significant presence in the US
(ECB, Occasional paper No.42, 2005)
As it could be seen from the graph, HSBC is on the first place among European Banks for
percentage in the US market. However other banks such as ABN Amro, Deutsche Bank, RBS
etc. also have a solid share of the US assets. There are also lots of US banks that have
significant market share in Europe.
The announcement of a US delay of implementation the Basel 2 accord and certain features
such as adopting only Advanced IRB approach make international banks become more
concerned about their implementation strategy. Thus the next part of this paper is examining
the situation around the US in particular.
II.
US implementation of Basel 2 and challenges for international banks
A. US implementation Framework
The US approach for implementation of Basel 2 seems to be the most complicated. T a certain
extent differs from other countries’ approaches towards implementing Basel 2. Chart 9
summarizes the US implementation framework and its differences from EU/UK approach.
281
Chart 9 US implementation of Basel 2 with comparisons to UK/EU
Basel 2
UK and
Europe
Basel 2 US
Banking regulators
US Treasury Agencies (commercial banks)
SEC
(securities firms,
broker-dealers)
FED
Board of
Governors
FDIC
Federal
Deposit
Insurance
Corporation
OCC
Office of the
Comptroller
of the
Currency
FSA/European
regulators
OTS
Office of
Thrift
Supervision
Implementing rules
CSE rules
(Consolidated
Supervised
Entity)
Basel 1A
Basel 2
(Advanced notice
of proposed
rulemaking,2003)
(Notice of proposed
rulemaking, March
2006)
Basel 1
CRD
Basel 2
Timetables
Current
From
January 2006
Current
Presumably
January 2009
1. Regulatory systems
Due to historical reasons there are different
regulators in the US for securities firms the
(investment banks and broker-dealers) and
credit institutions. Thus the Securities and
Exchange
Commission
(SEC)
implemented Consolidated Supervised
Entity (CSE) rules for securities firms
which are similar to Basel 2 and which
were implemented as response to the EU’s
Financial Group Directive (Matthew
Sullivan, Effective Dates for Basel IIrelated Regulations in the US and UK,
January 2009
Advanced IRB
approach
(parallel running
from January 2008)
Current
January 2007
Standardized
and
Foundation
IRB approach
January 2008
Advanced IRB
approach
(parallel
running from
January 2007)
2005). While Treasury agencies (FED,
FDIC, OCC and OTS), which are
responsible for regulation of commercial
banking activity will implement Basel 2.
By contrast in most European Union
countries there are no such differences
among banking regulatory responsibilities
and for instance in the UK Financial
Service Authority (FSA) is responsible to
regulate both commercial banks and
securities firms.
282
2. The Basel 2 Implementation
Under the Basel 2 regime US banks will be
allowed to apply only the “advanced
approach”, that is Advanced Internal
Rating Based (A-IRB) approach for credit
risk
calculation
and
Advanced
Management Approach (AMA) for
operational risk.
Only such US banks which have
“consolidated assets over $ 250 billion and
foreign exposure of at least $10 billion),
including subsidiaries of foreign banks”
will be required to implement the advanced
Occasional
Paper
rules
(ECB,
No.42/December 2005). Other US Banks
that meet the infrastructure requirement of
using advised approach will be allowed to
opt into Basel 2. It is now expected that
only 24 Americans banks will apply for
Basel 2 advanced approach rules (US
Comptroller,
March
9
2006,
http://www.globalriskregulator.com/grrne
ws15.htm). Other banks (approximately
6,500) will remain under Basel 1 approach
that is going to be revised for a more risk
sensitive regime called Basel 1A (ECB,
Occasional Paper No.42/December 2005).
As for the rest implementing Basel 2
countries, the whole spectrum of
approaches will be available for calculating
credit and operational risk. In Europe Basel
2 will be implemented through CRD in
2007.
3. Timetable
The US Treasury Agencies announce on
30 September 2005 that they will delay the
implementation of Basel 2 by one year.
The decision was based on the results of
the Fourth Quantitative Impact Study
(QIS4). This survey was held among 28
US banks and showed that as an effect of
Basel 2 there would be a huge decline in
required capital for big banks that will give
them a competitive advantage over small
ones.
Hence, in the US Basel 2 (Advanced IRB
for credit risk) will be implemented from
January 2009 with one year parallel
running from 2008. Basel 1A is considered
to be implemented from the same time.
While in Europe and UK the new
framework will be implemented from 2007
through
CRD
(Standardized
and
Foundation IRB for credit risk) with one
year parallel running in 2006. Then Basel 2
will be implemented from 2008 (adding
Advanced IRB approach to the framework)
and also with one year parallel running
before.
B. Key
challenges
in
Implementation with regards to
credit
risk
(cross-border
consideration)
The differences of Basel 2 interpretation in
US and Europe lead to certain challenges
especially for globally operated banking
groups.
1. US
implementation
Advanced IRB
of
As it was covered in the previous section
US banks will adopt only Advanced IRB
approach under Basel 2 for approximately
24 banks and the rest will stay under the
Basel 1 framework – Basel 1A. While the
other implementing countries will be
having a choice from the whole spectrum
of approaches available under Basel 2. The
survey conducted by KPMG in 2003
among 303 institutions in 39 countries
reveals that 27% of interviewed banks will
use Advanced IRB approach in calculating
credit risk, 33% - Foundation IRB and
35% - Standardized approach (Chart 10).
Chart 10 Implementation of Credit risk
approaches
283
(KPMG “Ready for Basel 2 – How prepared are
banks?” 2004)
This shows that there will be quite a lot of
cases where banks will adopt different
approaches in US and European countries,
preventing them to achieve integrity
among the whole group in implementing a
new framework. For example if a bank
wanted to use Foundation IRB approach
for its parent bank outside the US it could
have to adopt only Advanced IRB
approach for its US subsidiary (for “core”
US banks), thus bearing additional cost and
difficulties of identifying credit risk
models and calculating LGD and EAD.
There are lots of other confusing cases
depending on the situation.
2. Timetable differences
The situation with the timetable will add
much more concerns around this issue.
Because even if a bank is planning to adopt
Advanced IRB approach across all its
global operation, it will face the problem
of the one year gap with US and other
implementing countries, thus bearing
additional costs and facing “regulation
arbitrage”. Most banks are still unsure
about the current situation. For example
the head of risk management of one of
international bank says: “We have a large
US subsidiary and we’re still looking into
how this will affect us” (BaselAlert.com,
Hann Ho, February 2006). In the situation
when for example European subsidiaries of
US banks will want to adopt Basel 2 from
2007 or Advanced IRB approach from
2008 (probably because of competitive
pressure) the “regulatory arbitrage” does
accrue. Because of this, US regulators
want their banks that operate outside the
US to use a Standardized approach which
is as most close to the current framework
for this “gap year”. This also will cause
additional costs.
3. Different
default
definitions
of
Apart from the timetable issue and
different approaches that international
banks will have to deal with, the practical
problems with implementing credit risk
models can occur. As described in the
previous section, under both Foundation
and Advanced IRB approaches banks will
have to estimate Probability of Default
(PD) by themselves. This element based on
default definition is the big challenge for
international banks as its definition varies
significantly from country to country.
Definition of default under the Basel 2
accord was given in section 1.2.4.
(Probability of default) of this paper and it
defines default after 90 days of borrower’s
failure to pay his obligations. Chart 11
compares these conditions for some
countries.
284
Chart 11 The definition of default
US
Basel 2
UK
France
Germany
Italy
Credit
obligation
default
90 days
credit
obligation
default
Debt
restructuring
Bankruptcy
(S&P, Aidan O’Mahony, How to Build an Internal Rating System for Basel II, 2006)
In the US, treasury agencies in their draft
of Notice of Proposed Rulemaking (NPR)
issued on 31 March 2006 define the
definition of default differently than it is in
The New Basel Accord. US NPR
distinguishes between wholesale and retail
portfolios. For the wholesale portfolio
definition of default is similar with Basel
Accord’s (90 days), while for retail it
defines as follows: “revolving retail
exposures and residential mortgages would
be in default at 180 days past due; other
retail exposures would be in default at 120
days past due. In addition, a retail exposure
would be in default if the bank has taken a
full or partial charge-off or write-down of
principal on the exposure for credit-related
reasons” (page 111, FED, FDIC, OCC,
OTS Draft Basel 2 NPR, March 2006).
As a result of different default definitions,
discrepancies may occur when an
international bank structures the credit risk
models.
4. Challenges in data collection
Another practical challenge that banks
could face on the way of building their
credit risk models is data collection.
“Availability of the data has a direct
impact of how well banks can model their
risk”(Basel
2
special
report,
http://www.gtnews.com/feature/84.cfm,
2004). Whether banks use Foundation or
Advanced IRB they should estimate
Probability of Default (PD) element by
themselves. Thus using PD empirical
models banks should collect credit risk
data for 3 year periods. Appendix 2 shows
the data which banks have to collect. For
those banks which will choose Advanced
IRB approach the challenge is even grater
as they have to use their own models for
estimating LGD, EAD and M (section
1.2.4. in this paper), thus collecting more
sophisticated data.
For globally operating banks credit risk
modeling is a great challenge because they
have to conform to the rules of different
jurisdictions, adopting its credit risk
models accordingly and gathering different
information for building their models.
III. Critical review
Different challenges that are identified in
this paper and many others which are
beyond the scope of this paper raise serious
obstacles on the way of implementation of
285
The New Capital Adequacy framework
across the globe. It is clear that for
effective implementation of Basel 2
consolidated efforts should be made. First
of all the challenges should be addressed
by banks themselves in order to
consolidate their global operation, find the
compromise in deferent jurisdictions
pursuing the common goal of efficiency
within the whole banking group. However
for banks it is almost impossible to
overcome these obstacles without help of
regulators.
Several steps have already been made by
some regulators. For example with regards
to differences in timetable and approaches
in the US and the UK, the Financial
Services Authority issued Use of non-EEA
regulators’ requirements in group capital
calculations. FSA underlines options
available for the global operating banks,
which it tries to make as flexible as
possible in order to enhance effectiveness
of Basel 2 implementation in the UK
through CRD in 2007. The options cover
costs, issue of “advanced approach” and
technical
guidelines
for
waivers
application. The FSA states that a “UK
firm that is part of a US banking group can
apply to use advanced approach in the UK,
even though its home regulator will not
have approved those approaches” (FSA,
Use of non-EEA regulators’ requirements
in group capital calculations, 7th
December 2005).
Also, the Basel Committee on Banking
Supervision (BCBS) is doing lots of work
in order to enhance the implementation
process. It has been issuing relevant
papers, such as “Home-host information
sharing
for
effective
Basel
2
implementation”, which draws an outline
and gives examples of the information that
supervisors might need for effective Basel
2 implementation. The great effort of
BCBS is to establish working groups
which deal with particular issues. Thus
Accord Implementation Group (AIG) was
established 4 years ago and it is dealing
with banks implementation issues on a
case by case basis. According to its
chairmen Nicholas Le Pan AIG is
operating efficiently, solving problems and
enhancing the implementation process for
international banks (Nicholas Le Pan
speech, implementation of Basel 2,
November 2005).
In spite of all good efforts of enhancing the
Basel 2 implementation process, there are
still lots of uncertainties and needs for
improvement. Thus a more consolidated
efforts should be done in the future.
Conclusion
This paper focused on credit risk
approaches for calculating minimum
capital requirements under this category of
risk. The paper has argued that advanced
IRB approach is only one option available
in US under Basel 2 framework. From this
basis logically followed the main
challenges for globally operated banking
groups.
1. Uncertainty for international banks
about the approaches that they have
to adopt for their Banking Group,
as in US it is certain restriction to
use other than Advanced IRB
approach under Basel 2 framework,
or Basel 1A, while in the rest of
implementing Basel 2 countries the
whole spectrum of approaches are
available.
2. Differences in timetable for
implementing new framework add
more concern in this area, as even
if a bank chooses to implement
Advanced IRB approach for the
whole banking group, it will be
unable to do so at once.
3. Practical issues of calculating key
elements under advanced IRB
approach raise worries of different
default definition, as in US the
definition is not the same as in
Basel Accord which could effect
286
the Global Banking Group credit
models.
capital framework, Basel Committee on
Banking Supervision, Basel
4. Finally data for building efficient
credit models is not always
available especially if banks are
using Advanced IRB approach.
BIS Bank of International Settlements
(2005) Home-host information sharing for
effective Basel 2 implementation Basel
Committee on Banking Supervision, Basel
In conclusion, this paper reached an initial
aim of identifying key challenges in the
examined area. It was summed up in the
critical review section that despite of
certain policies have been carried out by
the regulatory authorities to enhance
effective implementation of Basel 2. There
is still plenty of work still to be done.
BIS, presentation by Freeland C (2004),
Basel 2 Update, Basel Committee on
Banking Supervision, Basel
Bibliography
Basel Alert (December 2005) US Tackles
home-host issues caused by Basel 2 delay,
baselalert.com
BIS Bank of International Settlements
(2003) High-level principles for crossborder implementation of the New Accord
Basel Committee on Banking Supervision,
Basel
BIS Bank of International Settlements
(2003) The New Basel Capital Accord,
Basel Committee on Banking Supervision,
Basel
BIS Bank of International Settlements
(2004) Implementation of Basel II:
Practical
Considerations,
Basel
Committee on Banking Supervision, Basel
BIS Bank of International Settlements
(2004) presentation by Roberts E. FSI, The
New Capital Adequacy Framework – Basel
2, Basel Committee on Banking
Supervision, Basel
BIS Bank of International Settlements
(2005) An Explanatory note on the Basel 2
IRB Risk-Weight Functions, Basel
Committee on Banking Supervision, Basel
BIS Bank of International Settlements
(2005) Basel II: Revised international
Bouton M (March 2006) Capital accord or
capital discord? www.thebanker.com
Corporation (FDIC), and the Office of
Thrift Supervision (OTS) (March 2006)
Draft Basel 2 Notice of Proposed
Rulemaking
Dierick F, Pires F, Scheicher M and
Spitzer KG (December 2005) The New
Basel Capital Framework and its
implementation in the European Union,
European Central Bank occasional paper
No.42
Eldon D (2005) Basel 2 Back to Future,
HKMA Seventh Distinguished Lecture,
discussant comments, online
FSA Use of non-EEA regulators’
requirements in group capital calculations,
7th December2005
GT News (2004) Basel 2 Special report
http://www.gtnews.com/feature/84.cfm
GT News Gnevko S & Nostrum A (March
2006) Comparison of Global Approach to
Basel II
http://www.gtnews.com/article/6301.cfm
Hann Ho (February 2006) Timetable
Chaos,
Basel
Alert
http://www.baselalert.com/public/showPag
e.html?page=317557
HSBC North America Holdings Inc.
(2006) Basel 1A ANPR – Comment Letter
KPMG Financial service (2004) Basel 2: A
worldwide Challenge for the Banking
Business
287
KPMG Financial service, survey (2004)
Ready for Basel 2 – how prepared are
banks
Manning W, (January 2006) Risk
management Forum Speech DRAFT,
online
Pan N Chairman of Basel Accord
Implementation Group speech (2005)
Implementation of Basel II
S&P presentation by O’Mahony A (2006)
How to Build an Internal Rating System for
Basel II
Schuermann T Federal Reserve Bank of
New York (2204) What Do we know about
default JEL Codes: G21, G28
Stephanou C. & Mendoza JC., (2005)
Credit Risk Measurement Under Basel II:
An Overview and Implementation Issues
for Developing Countries, World Bank
Policy Research Working Paper 3556
Sullivan M (2005), Effective Dates for
Basel II-related Regulations in the US and
UK,
http://www.kanbay.com/executive_connecti
ons14.asp
US Comptroller (2006) Strengthening
global capital rules important for all
banks,
Global
Risk
Regulator
http://www.globalriskregulator.com/grrne
ws15.htm
288
Appendix 1
Risk components under different approaches
(BIS, Roberts E. FSI, The New Capital Adequacy Framework – Basel 2, 2004)
289
Appendix 2
Typical Factors Used in Building Empirical PD Models
(Stephanou C. & Mendoza JC., Credit Risk Measurement Under Basel II: An Overview and
Implementation Issues for Developing Countries, 2005)
290
INFLUENCE DU MARCHÉ ET DE LA CLIENTÈLE
DESSERVIS SUR LES FACTEURS DE CROISSANCE DES
PME MANUFACTURIÈRESΨ
Josée ST-PIERRE, Frank JANSSEN, Pierre-André JULIEN et
Catherine THERRIEN
Biographie des auteurs
Josée St-Pierre est professeure de finance à l’Université du Québec à Trois-Rivières,
Titulaire de la Chaire J.A.Bombardier sur les relations interentreprises et la gestion du risque;
ses recherches portent sur les déterminants de la performance et de la vulnérabilité des PME,
sur le financement des sociétés fermées, ainsi que sur les éléments créateurs et destructeurs de
valeur.
Frank Janssen est professeur d'entrepreneuriat à l'Institut d'administration et de gestion de
l'Université catholique de Louvain (Belgique), Titulaire de la Chaire Brederode en
développement de l'esprit d'entreprise; ses recherches portent sur la croissance des PME, la
pédagogie entrepreneuriale et l'entrepreneuriat social.
Pierre-André Julien est professeur d’économie à l’Université du Québec à Trois-Rivières,
Titulaire de la Chaire Bell pour des PME de classe mondiale; ses recherches portent sur
l’innovation, la veille stratégique et le réseautage.
Catherine Therrien est professionnelle de recherche à l’Institut de recherche sur les PME;
elle participe aux recherches sur la performance, le risque et le développement des PME.
La croissance des PME est un sujet de recherche qui a entraîné un grand nombre de travaux
depuis plusieurs années étant donné, surtout, l’importance de ce phénomène sur la création
d’emplois et le dynamisme économique. Or, malgré cet intérêt, il semble qu’on comprenne
encore mal les déterminants de la croissance et les conditions dans lesquelles une
augmentation de l’activité peut se réaliser efficacement, si l’on en juge par la diversité des
résultats et l’incohérence parfois de certaines conclusions. Les PME sont très hétérogènes et
leur croissance peut s’expliquer par des objectifs stratégiques fort différents. C’est ce que
nous explorons dans cette étude où nous mettons en évidence que les entreprises qui
desservent un marché local ou international, ou qui ont une clientèle concentrée plutôt que
diversifiée, ont une organisation différente et ne font pas appel aux mêmes pratiques
d’affaires. Ces résultats suggèrent ainsi que les déterminants de la croissance dépendent
directement de l’orientation stratégique de marché et de clientèle de l’entreprise.
Ψ
Les auteurs aimeraient remercier le Programme des chaires de recherche du Canada et la Fondation J.Armand
Bombardier qui ont contribué au financement de cette recherche, ainsi que Développement économique Canada
et la Fondation canadienne pour l’innovation qui ont contribué à la création de la base de données utilisée. Des
remerciements sont aussi adressés à Martin Morin pour le travail statistique et aux deux évaluateurs anonymes
qui, par leurs commentaires judicieux, ont permis d’enrichir cette étude.
291
Introduction
Dans le vaste domaine d’étude que
constitue l’entrepreneuriat, une large part
des recherches réalisées ont tenté de
comprendre le phénomène de la croissance
des entreprises. En effet, de nombreux
chercheurs ont voulu identifier les
particularités des PME en croissance,
notamment dans le but de mieux cerner le
processus et ses conséquences, de mettre
en évidence certaines caractéristiques
révélant le potentiel de croissance des
PME ou de déterminer les variables tant
endogènes qu’exogènes qui permettraient
de choisir ex-ante les grandes entreprises
de demain.
Pour Gibb et Davies (1990), il est illusoire
de penser qu’il serait possible de détecter
les entreprises ayant le meilleur potentiel
de croissance ou de produire un modèle
théorique complet devant mener à cette
identification; une entreprise en croissance
type n’existe pas (OCDE, 2002).
Toutefois, il reste possible de progresser
vers une meilleure compréhension des
facteurs influençant le processus de
croissance et, partant, de mieux assister les
agents économiques qui cherchent à
améliorer leur soutien au développement
des entreprises. Une intervention demande
une compréhension très large et non étroite
des facteurs susceptibles de stimuler le
croissance et ceux pouvant la contraindre.
C’est
donc
vers
une
meilleure
compréhension de ce processus que la
recherche devrait être orientée afin
d’améliorer l’efficacité des politiques et
diverses mesures d’aide (OCDE, 2002).
Les études qui ont tenté de comprendre le
processus de croissance peuvent être
classées selon quatre approches principales
(Gibb et Davies, 1990). Il y a d’abord les
approches liées au propriétaire-dirigeant.
Par exemple, certaines études ont lié la
croissance aux caractéristiques du dirigeant
(Woywode et Lessat, 2001; Delmar, 1997),
à son éducation et son type de formation
(Woywode et Lessat, 2001; Julien, 2000),
de même qu’à son expérience et ses
compétences (Littunen et Tohmo, 2003;
Julien, 2000).
On retrouve ensuite les approches du
développement organisationnel qui sont
surtout théoriques et qui cherchent à
expliquer la croissance à partir de divers
modèles de stades de développement. On
peut classer dans ces approches les études
portant sur les objectifs personnels du
propriétaire-dirigeant
(OCDE,
2002;
Julien, 2000; Kolvereid, 1992), les divers
modèles illustrant les stades de croissance
des entreprises (Mitra et Pingali, 1999;
Churchill et Lewis, 1983) et les recherches
traitant de l’influence des réseaux
(Littunen et Tohmo, 2003; OCDE, 2002;
Mustar, 2001; Julien, 2000). Les approches
centrées sur la gestion de l’entreprise
constituent une troisième classe. Elles
regroupent, entres autres, les travaux
portant sur l’impact de la disponibilité des
ressources (Becchetti et Trovato, 2002;
Mustar, 2001; Julien, 2000) et l’influence
de la planification opérationnelle et
stratégique (Julien, 2000) sur la croissance
de l’entreprise. Il y a aussi un intérêt
grandissant pour des sujets tels que
l’impact des orientations stratégiques du
dirigeant (Littunen et Tohmo, 2003;
OCDE, 2002; Calvo et Lorenzo, 2001;
Mustar, 2001; Woywode et Lessat, 2001;
Julien, 2000) et du niveau de flexibilité de
l’entreprise (Julien, 2000) sur la
croissance. Enfin, on retrouve les
approches sectorielles et orientées vers le
marché. Certaines études relevant de ces
approches portent sur les contraintes et les
problèmes liés à la croissance pour un
secteur en particulier ou étudient l’impact
de la structure de l’industrie sur la
croissance des PME (Calvo et Lorenzo,
2001; Woywode et Lessat, 2001; Almus et
Nerlinger, 1999). D’autres ont tenté
d’identifier le potentiel de croissance
associé à différents types d’entreprise en
différenciant, par exemple, les artisans
opérant sur certains marchés limités, les
292
sous-traitants dépendant de leur donneur
d’ordres et les petites entreprises flexibles
(Delmar, Davidsson et Gartner, 2003;
Littunen et Tohmo, 2003).
Il existe des chevauchements évidents
entre ces approches et l’étude d’un seul
facteur ou l’utilisation d’une approche
unique peut devenir rapidement réductrice
et limiter la compréhension du phénomène
de la croissance (Gibb et Davies, 1990). En
conséquence, la présente recherche tentera
de tenir compte de ces quatre approches
afin de mieux cerner les caractéristiques
des entreprises qui ont connu une
croissance significative de leur volume
d’activités.
L’objectif de cette étude sera de tracer le
profil des PME manufacturières qui ont
connu une croissance soutenue dans les
cinq dernières années en analysant le
propriétaire-dirigeant, les caractéristiques
et ressources de l’entreprise ainsi que
certaines variables stratégiques (approches
1 à 3) en fonction de l’orientation de
marché ou de clientèle de ces entreprises
(approche 4) et ce, de façon indépendante.
Notre recherche s’inscrit dans la suite des
travaux de Delmar, Davidsson et Gartner
(2003) qui ont démontré que la croissance
peut être réalisée de différentes façons. Si
les entreprises croissent selon des manières
distinctes, nous pouvons supposer que
chacune de ces façons a ses propres
caractéristiques (Delmar, Davidsson et
Gartner, 2003). Aucune relation causale
entre ces caractéristiques et le taux de
croissance des entreprises ne sera toutefois
établie. Par contre, nos observations sur les
caractéristiques de même que sur les
ressources et pratiques mises en place par
ces PME au profil différent qui ont su
croître à leur façon pourront orienter
certaines politiques économiques de
soutien adaptées aux entreprises.
relevées dans la littérature de même que les
différentes orientations de marchés et de
clientèles que nous avons choisi
d’explorer. Nous exposerons par la suite la
méthodologie privilégiée pour vérifier
l’hypothèse de recherche. Enfin, nous
analyserons les résultats obtenus et
conclurons avec quelques avenues de
recherche.
I.
Les caractéristiques de la direction
des PME et la croissance
La croissance est un phénomène qui
présente certains risques et qui bouleverse
les activités quotidiennes de l’entreprise.
Produire régulièrement un volume d’unités
supérieur pour vendre à une clientèle plus
importante ou plus exigeante demandera à
l’entreprise une organisation flexible qui
peut s’ajuster rapidement aux tensions
suscitées
par
ces
bouleversements
fréquents. On aura ainsi besoin d’investir
dans les équipements et la structure de
production, de mettre à jour les
compétences du personnel et de s’assurer
continuellement de leur appui et de leur
motivation, de trouver des ressources
financières en quantité suffisante, etc.
(Mustar, 2001). De plus, à cause des
risques
et
des
changements
organisationnels induits par la croissance,
cette situation ne pourra généralement se
réaliser sans le consentement du
propriétaire-dirigeant qui devra l’endosser
totalement. Il est reconnu dans la littérature
en entrepreneuriat que le développement
de l’entreprise ne peut se faire sans son
dirigeant, l’entreprise étant souvent
considérée comme le prolongement de sa
personnalité (LeCornu, McMahon et
Forsaith, 1996). Dans ces conditions, il est
essentiel de considérer l’influence du
capital humain du dirigeant et de ses
objectifs personnels sur la stratégie de
croissance de son entreprise.
Dans les sections qui suivent, nous
présenterons d’abord les principaux
facteurs liés à la croissance des activités
293
A. Capital humain du propriétairedirigeant
Pour Woywode et Lessat (2001), le capital
humain peut se résumer à l’âge du
dirigeant, sa formation, son expérience
ainsi que sa capacité à partager les défis
sinon son enthousiasme. Le jeune
propriétaire-dirigeant est plus susceptible
de poursuivre une stratégie de croissance
que celui qui est plus âgé, l’âge étant
généralement associé à un comportement
plus conservateur (Hambrick et Mason,
1984). Un dirigeant plus âgé est en
principe moins enclin à adopter un
comportement novateur ou à adhérer à une
idée nouvelle, étant plutôt attaché à un
certain statu quo organisationnel. Plusieurs
études observent effectivement un impact
négatif de l’âge du dirigeant ou de l’âge
moyen de l’équipe de dirigeants sur la
croissance de l’entreprise (Woywode et
Lessat, 2001; Delmar, 1997).
D’autres recherches constatent que le
niveau d’éducation du dirigeant a un
impact positif sur la croissance (Woywode
et Lessat, 2001; Julien, 2000) alors que le
lien entre le type de formation et l’activité
de l’entreprise s’est avéré significatif dans
certaines études. St-Pierre et Mathieu
(2003) montrent que les dirigeants ayant
une formation technique sont plus souvent
à la tête des entreprises manufacturières
qui affichent les plus hauts taux de
croissance et d’innovation, ce qui est
confirmé par Almus et Nerlinger (1999)
sur un échantillon de nouvelles entreprises
de haute technologie. Leurs connaissances
du domaine permettent à ses dirigeants de
mieux connaître les besoins et défis de
l’entreprise ainsi que les difficultés du
secteur et de gérer adéquatement les
risques liés au développement de leur
organisation.
En complément au domaine de formation
du propriétaire-dirigeant, son expérience
sectorielle peut aussi être un facteur
réducteur d’incertitude grâce à une bonne
connaissance du marché, des technologies
requises et des facteurs de risque pouvant
nuire au développement de l’entreprise
(Woywode et Lessat, 2001).
La croissance ne repose toutefois pas
seulement sur le dirigeant; les affaires-clés
de l’entreprise sont souvent gérées par un
groupe de personnes (Littunen et Tohmo,
2003). En conséquence, il faudrait aussi
tenir compte de l’éducation et de
l’expérience des personnes composant
l’équipe de direction. Cette variété de
disciplines et d’expériences apportée par
les cadres est un facteur important dans la
croissance de l’entreprise puisqu’elle vient
compléter les compétences du dirigeant
d’une part et assure, d’autre part, une
pluralité de connaissances et de vécus
utiles à la gestion de situations nouvelles.
B. Objectifs
personnels
propriétaire-dirigeant
du
Outre son capital humain, les aspirations
du propriétaire-dirigeant et ses objectifs
personnels auront également une influence
sur le développement de son entreprise.
Comme le souligne Kolvereid (1992), si la
décision de créer une entreprise relève du
choix du fondateur, on peut supposer que
la décision de croître est aussi son choix,
sauf peut-être en contexte de dépendance
commerciale
où
les
projets
de
développement peuvent être imposés par
un donneur d’ordres (St-Pierre et
Raymond, 2003). Dans la mesure où la
volonté d’autonomie est un des principaux
objectifs
de
nombreux
dirigeants
d’entreprises, la survie sera fréquemment
préférée à la croissance puisque cette
dernière peut être synonyme de risque et de
dilution de la propriété. En outre, la
croissance
implique
une
certaine
délégation de pouvoirs et une modification
du processus décisionnel. LeCornu et al.
(1996), dans le cadre d’une étude
exploratoire sur les fonctions-objectifs de
PME du sud de l’Australie, observent que
les dirigeants de ces entreprises ne
294
recherchent et ne planifient une certaine
croissance que dans la mesure où celle-ci
n’entre pas en conflit avec leurs autres
objectifs, tels que l’indépendance, la
pérennité
de
l’entreprise,
l’autofinancement ou le maintien d’un
niveau faible d’endettement. Ces deux
derniers objectifs ne sont d’ailleurs qu’une
expression financière de la volonté
d’autonomie. On pourrait alors considérer
que le propriétaire-dirigeant qui est prêt à
céder une partie du contrôle de son
entreprise à d’autres actionnaires est plus
susceptible de privilégier une stratégie de
croissance (St-Pierre et Mathieu, 2003).
II. Les dimensions de l’entreprise liées
à la croissance
Parce que la croissance est associée à une
certaine instabilité de l’entreprise et au
désordre occasionné par le changement,
elle ne peut être assurée que dans des
conditions d’engagement de l’organisation
et de flexibilité, bien illustrée par la
métaphore du jazz d’improvisation utilisée
par Julien (2001). De même, la
disponibilité de ressources en quantité et
en qualité suffisantes, que celles-ci soient
physiques, humaines ou monétaires,
devrait faciliter la croissance des
entreprises.
A. Caractéristiques de l’entreprise
Parmi les caractéristiques de l’entreprise
ayant un impact sur la croissance, la taille
est celle qui a le plus retenu l’attention des
chercheurs en raison de son importance
pour la détermination de politiques
économiques nationales adaptées. De
nombreux chercheurs ont conclu à une
relation négative entre la taille et la
croissance (Davidsson et al., 2002; Almus
et Nerlinger, 1999; Delmar, 1997), alors
que, plus rarement, certaines études
réalisées dans des contextes très variés
observent un lien positif entre la taille et la
croissance (Roper, 1999; Wijewardena et
Tibbits, 1999) ou ne trouvent aucun lien
entre ces deux concepts (Delmar, 1999;
Wiklund, 1999). Si on ne peut déterminer
avec certitude dans quelle direction la taille
de l’entreprise affecte sa croissance, on
peut tout de même supposer que la taille
peut avoir un effet sur la croissance
(Delmar, Davidsson et Gartner, 2003).
Les diverses études sur la croissance
portent sur des populations d’entreprises de
tailles très différentes. Les contradictions
dans les conclusions des auteurs pourraient
alors résulter de différences en termes
d’âge au sein des populations étudiées. En
effet, les études qui se sont penchées sur le
lien entre l’âge des entreprises et leur
croissance
font
apparaître
quasi
unanimement un lien négatif (Davidsson et
al., 2002; OCDE, 2002; Julien, 2000;
Almus et Nerlinger, 1999). Les entreprises
jeunes sont donc plus susceptibles de
croître de manière significative que les
entreprises plus âgées ou, à tout le moins,
d’adopter des trajectoires de croissance
différentes (Delmar et al., 2003; Mustar,
2001; Bramanti, 2001). Il est donc possible
que ce soit l’âge, plutôt que la taille, qui
exerce une influence significative sur la
croissance. À cet effet, Davidsson et al.
(2002) ont d’ailleurs montré que, parmi les
21 variables composant leur indice du taux
de croissance des entreprises suédoises,
l’âge était de loin la variable la plus
influente.
B. Les ressources de l’entreprise
Les PME sont reconnues pour être des
entreprises « organiques » qui peuvent
s’adapter
rapidement
à
différentes
situations, à condition que leurs ressources
et leur mode d’organisation le permettent.
1. Les ressources humaines
Parce que la croissance rapide oblige
l’entreprise à se réorganiser constamment,
celle-ci doit compter sur des ressources
humaines
qualifiées,
compétentes,
295
motivées et intéressées à participer à son
développement. Tout comme le soulignent
St-Pierre et Mathieu (2003) et Mustar
(2001), la croissance de la petite et
moyenne
entreprise,
tout
comme
l’innovation, est un phénomène collectif
qui ne saurait se réaliser sans un
environnement adéquat. Le personnel de
l’entreprise joue alors un rôle majeur que
l’on reconnaît d’ailleurs de plus en plus.
L’implantation
d’une
politique
de
recrutement permettra de sélectionner les
meilleurs employés, des activités de
formation continues et sur mesure auront
pour effet d’accroître leur degré de
qualification et un programme de
rémunération axé sur les profits ou
permettant d’accéder à la propriété pourra
assurer la rétention du personnel le plus
compétent (St-Pierre et Mathieu, 2003;
OCDE, 2002). Concernant la formation
continue de l’ensemble du personnel,
l’OCDE (2002) souligne qu’il s’agit d’une
pratique capitale pour la réussite de
l’entreprise. Par ailleurs, les entreprises à
forte croissance intéressent et motivent
aussi leur personnel par la diffusion de
l’information au plus grand nombre
d’employés possible, de même que par la
participation des employés à la prise de
décisions (OCDE, 2002).
2. Les ressources financière
Étant donné les difficultés de financement
auxquelles font face bon nombre de PME à
cause de l’asymétrie de l’information qui
caractérise leur environnement, on peut
supposer que celles qui subissent un
rationnement de crédit de la part des
institutions financières pourraient croître à
un rythme moindre que les autres
(Becchetti et Trovato, 2002). Dans ces
conditions, il est à prévoir que les
entreprises qui affichent les plus forts taux
de croissance sont celles qui sont aptes à
auto-financer leur développement grâce à
leur rentabilité historique ou à la capacité
financière des dirigeants. Ces suppositions
ont été confirmées par Mustar (2001) pour
le cas des entreprises françaises où les
dirigeants ont affirmé que le système
bancaire français était incapable de
supporter la croissance des PME et que
celles-ci devaient céder une partie de leur
indépendance pour pouvoir assurer leurs
besoins monétaires à partir des ressources
externes.
III. Stratégies d’adaptation et de
flexibilité liées à la croissance :
innovation, partenariats, information et
technologies
Tout comme l’innovation, la croissance
exige des PME qu’elles soient relativement
flexibles et qu’elles aient les capacités
nécessaires pour s’adapter aux turbulences
entraînées par ce développement. Parmi les
conditions favorisant la croissance, on
notera l’importance de l’innovation, des
partenariats, notamment avec des sources
d’information riche, et du recours aux
nouvelles technologies matérielles et
immatérielles.
A. R-D et Innovation
La croissance d’une entreprise est
étroitement liée à sa capacité à innover.
Plusieurs études montrent que l’innovation
stimule la croissance grâce à la possession
d’un produit ou d’un avantage distinctif
(St-Pierre et Mathieu, 2003; Calvo et
Lorenzo, 2001; Julien, 2001). Roper
(1997) a trouvé que la croissance des
ventes des petites entreprises ayant
introduit un produit nouveau ou modifié
est beaucoup plus rapide que celles des
entreprises
non-innovantes.
D’autres
études observent que l’intensité de la R-D
est positivement associée à la croissance
(St-Pierre et Mathieu, 2003; OCDE, 2002;
Julien, 2000).
B. Partenariats et information
Dans les entreprises à forte croissance, les
alliances et les partenariats jouent un rôle
296
essentiel
(OCDE,
2002).
Ces
collaborations peuvent servir à compléter
les ressources de l’entreprise ou à obtenir
des informations stratégiques et ainsi
réduire
l’incertitude
dans
leur
développement.
1. Partenariats pour compléter
les ressources
Pour pallier à un manque de ressources lié
à leur taille réduite, les petites entreprises
peuvent s’allier à des partenaires externes.
Pour Julien (2000), le développement de
partenariats
avec
des
institutions
d’enseignement et des centres de recherche
stimule la croissance. La croissance sera
d’autant plus forte que ce partenariat sera
formalisé sous forme d’alliances, de coentreprises ou de consortiums de
recherche. De même, les partenariats avec
d’autres entreprises sont aussi associés à
un taux de croissance plus élevé puisqu’ils
permettent de développer des synergies et
de répartir les coûts et les risques associés
à un projet particulier (Littunen et Tohmo,
2003; Almus et Nerlinger, 1999). Des
conseillers externes peuvent également
aider les entreprises à résoudre différents
problèmes (OCDE, 2002), compenser
certaines déficiences managériales du
dirigeant ou suppléer à une déficience
informationnelle.
Plusieurs
études
constatent que les PME ayant recours à des
conseillers externes publics croissent plus
rapidement que les entreprises ne faisant
pas appel à ces organismes (Julien 2001;
Chrisman et McMullan, 2000).
2. Recherche
commerciale
d’information
Quelques auteurs se sont intéressés au lien
entre la stratégie de communication
externe de l’entreprise et la croissance. Ces
études montrent que les entreprises qui ont
une forte orientation de marché et qui
communiquent régulièrement avec leurs
clients seront plus enclines à croître
(Julien, 2000). Les entreprises en
croissance ont de plus fréquemment
recours aux études de marché et aux
enquêtes de satisfaction (OCDE, 2002).
Selon l’OCDE (2002), le partenariat le plus
important est celui constitué par les
entreprises à forte croissance avec leurs
clients, et dans une moindre mesure celui
avec les fournisseurs. Des collaborations
avec les clients et les fournisseurs pourront
assurer une meilleure connaissance du
marché d’une part, accroître la capacité de
l’entreprise à les satisfaire correctement
d’autre part et finalement réduire
l’incertitude commerciale (St-Pierre et
Mathieu, 2003). Mustar (2001) observe
que, parmi les entreprises françaises en
forte croissance, 80% affirment avoir
développé des partenariats avec leurs
clients.
3. Recherche
d’information
concurrentielle et stratégique
Pour soutenir une croissance importante
sur plusieurs années, les entreprises
doivent être continuellement mises au fait
des réactions des concurrents potentiels. À
cet effet, Mustar (2001) observe
effectivement que plus des deux tiers des
entreprises à forte croissance françaises ont
des activités organisées de veille
concurrentielle leur permettant d’être au
courant des réactions et actions potentielles
de leurs concurrents. Ce sont donc des
entreprises «averties» qui reconnaissent le
besoin d’être tenues au courant et flexibles
pour pouvoir s’ajuster rapidement à ces
nouvelles informations. En ce sens,
l’établissement d’un réseau de relations au
travers de la participation à des séminaires
ou à des foires, ou de contacts avec
d’autres
entreprises
est
également
susceptible de stimuler la croissance
(Donckels et Lambrechts, 1995).
C. Technologies
production
et
systèmes
de
Le recours à certains systèmes automatisés,
à l’intranet et à l’extranet stimulent la
297
croissance grâce à une meilleure utilisation
des ressources, une organisation plus
efficace de la production et une diffusion
plus étendue des informations (St-Pierre et
Mathieu, 2003; Julien, 2000). Pour leur
part, Calvo et Lorenzo (2001) ont trouvé
que l’utilisation des machines-outils à
contrôle numérique, de la robotique, de la
conception assistée par ordinateur et des
nouvelles technologies dans les processus
de production est un facteur distinctif des
PME à forte croissance. Janssen (2002)
constate également que le recours à de
nouvelles technologies, en dehors de
l’utilisation
normale
du
système
informatique, telles que l’intranet, un
système de contrôle de gestion ou de
contrôle des stocks informatisé, la vente ou
la promotion via un site web, a un impact
positif sur la croissance.
autre dirigeant pourrait être vite insatisfait
de cette situation et souhaiter prendre de
l’expansion sur des marchés internationaux
où les opportunités, de même que les défis,
sont plus conformes à ses objectifs.
1. Le marché local
La PME qui œuvre strictement sur un
marché local s’apparente à ce que Jacob et
Ouellet (2001) appellent la PME
entrepreneuriale. Elle se développe selon
une stratégie de proximité et opère
essentiellement dans un marché où
l’incertitude est faible et où les besoins
sont peu sophistiqués. On pourrait alors
s’attendre à y voir un plus faible degré
d’innovation et une utilisation moins
répandue
des
meilleures
pratiques
d’affaires (Jacob et Ouellet, 2001).
2. Le marché international
IV. Le type de marché et de clientèle
comme source de croissance
Selon Littunen et Tohmo (2003),
l’orientation de marché choisie par une
entreprise influence son parcours et ses
opportunités de croissance. En fonction de
ses objectifs personnels, un propriétairedirigeant peut faire croître son entreprise
sur des marchés éloignés ou de proximité
ou avec une clientèle concentrée ou
diversifiée.
La
littérature
dédiée
spécifiquement à l’influence de ces
facteurs sur la croissance des PME étant
relativement rare, nous avons dû emprunter
à divers domaines les éléments de
réflexion que nous présentons ci-après.
Cette démarche est tout à fait conforme
avec le fait que notre recherche se veut
avant tout exploratoire.
A. Développement des marchés
Une entreprise peut se développer et
croître de façon satisfaisante, selon les
objectifs de son dirigeant, sur un marché
local et dans un environnement où
l’incertitude est relativement faible. Un
Les ventes à l’étranger présentent plusieurs
difficultés que les entreprises ne
rencontrent pas sur le plan local. En effet,
se développer par l’exportation constitue
pour des petites entreprises un saut
qualitatif important qui remet en cause
nombre de procédures, d’habitudes et de
structures qui avaient fait leurs preuves sur
le marché strictement local ou national
(Léo, 2000). Concernant l’organisation et
la production, De Toni et Nassimbeni
(2001) soutiennent que pour réussir à
l’exportation, les entreprises doivent avoir
une structure organisationnelle bien
développée et posséder un système de
production relativement sophistiqué afin de
pouvoir satisfaire aux exigences des
importateurs. Du côté statistique, plusieurs
études montrent que les PME exportatrices
sont plus orientées vers l’innovation
accordant
plus
d’importance
au
développement de nouveaux produits sur
une base continue ainsi qu’à l’amélioration
des méthodes de production existantes
(Sharmistha, 1999). Ceci est rendu possible
grâce entre autres à des investissements
significatifs en R-D (St-Pierre, 2003) et à
298
des activités de veille concurrentielle et
technologique soutenues.
B. Développement de la clientèle
Un autre défi pour les PME est celui de
développer leur clientèle. Certains
dirigeants vont préférer se développer avec
un ou quelques clients majeurs en sachant
que cette situation est risquée, alors que
d’autres vont choisir de réduire ce risque
en diversifiant leur clientèle afin de
conserver leur autonomie dans leurs
décisions et sur leurs choix stratégiques.
1. Une clientèle concentrée
Il est bien connu que la concentration de la
clientèle est un facteur de risque non
négligeable qui place l’entreprise dans une
position de dépendance plus ou moins
grande face à ses clients. On peut
considérer qu’il s’agit d’une stratégie de
développement pour certains propriétairesdirigeants qui préfèreraient démarrer leur
affaire avec un nombre réduit de clients, se
concentrant
ainsi
davantage
sur
l’organisation et la maîtrise de la
production que sur les autres fonctions de
l’entreprise (Wilson et Gorb, 1983).
L’investissement dans les technologies de
production et l’utilisation de certaines
pratiques jugées exemplaires pourraient
alors être imposés ou fortement
recommandés
vu
l’environnement
complexe dans lequel ces PME évoluent.
L’étude de St-Pierre et Raymond (2003)
montre d’ailleurs que les investissements
dans les technologies de production sont
supérieurs chez les PME dépendantes et
qu’elles ont un plus fort degré
d’immobilisations.
En
contrepartie,
l’entreprise dépendante a des besoins
moins importants en ce qui concerne le
recrutement, la formation et la gestion
d’une force de ventes, ainsi que le
développement d’activités de marketing
telles que la communication, la promotion
et la distribution.
2. Une clientèle diversifiée
À l’opposé de la PME dépendante, on aura
la PME qui a une clientèle diversifiée et
qui doit donc s’organiser pour opérer dans
un environnement plus complexe où
l’incertitude est plus grande. Ayant moins
de contacts privilégiés avec quelques
clients, cette entreprise devra mettre en
place des activités de veille commerciale et
utiliser davantage des pratiques de
recherche et de planification marketing (StPierre et Raymond, 2003).
En résumé, nous supposons que le profil
des PME en croissance varie selon le
marché principal qu’elles desservent ou
selon la diversité de leur clientèle :
H : Les PME en croissance affichent des
profils différents selon leur marché ou la
diversité de leur clientèle.
V.
Méthodologie
A. Provenance des données
description de l’échantillon
et
Pour vérifier notre hypothèse de recherche,
nous avons utilisé la base de données du
PDG® qui contient des informations sur
plus de 370 PME manufacturières
québécoises au profil très varié. On y
retrouve plus de 850 variables générales et
financières recueillies directement auprès
des entreprises par le biais d’un
questionnaire de 18 pages que le dirigeant
et les responsables fonctionnels complètent
et retournent accompagné des états
financiers des cinq dernières années. En
échange de ces informations, un diagnostic
comparatif de la situation générale de leur
entreprise est fourni.
À partir de cette base de données, nous
avons retenu les 280 entreprises en
croissance afin de constituer notre
échantillon. Celles-ci sont âgées, en
moyenne, de 25 ans, embauchent 65
299
employés, réalisent un chiffre d’affaires de
8,61 M$ CDN et ont connu une croissance
annuelle de leurs ventes de 21,86% aux
cours des cinq dernières années.
Le tableau 1 présente quelques-unes des
caractéristiques de l’échantillon lorsque
celui-ci est scindé selon les deux
dimensions qui nous intéressent, soit le
marché ou la clientèle. Pour les fins de la
présente étude, la PME locale est celle qui
écoule 100% de sa production au Canada ;
la PME internationale est celle qui exporte
de façon organisée, c’est-à-dire qu’elle
sollicite ses clients à l’étranger ; la PME
ayant une clientèle concentrée est celle
dont au moins 60% des ventes sont dues à
ses trois principaux clients, alors que celle
pour qui ce pourcentage est inférieur à
60% est considérée avoir une clientèle
diversifiée. Notons que ces groupes ne sont
pas mutuellement exclusifs puisque
certaines entreprises opèrent à la fois sur
un marché local et ont une clientèle
diversifiée ou d’autres exportent et
dépendent d’un petit nombre de client.
Tableau 1
Variables descriptives de l’échantillon selon le marché et la clientèle privilégiés
Valeurs moyennes sauf pour les variables dichotomiques
où le % d’entreprises ayant répondu « oui » est présenté
Marché
local
N = 69
Clientèle
Marché
international diversifiée
N =206
N = 101
Clientèle
concentrée
N = 74
26,9
48,0
7,4 M$
0,0%
22,9
70,1
8,7 M$
30,9%
25,4
64,3
8,7 M$
20,3%
22,0
65,0
8,5 M$
20,0%
42,7%
43,4%
29,9%
76,0%
1,3%
3,2%
2,4%
2,8%
30,4%
42,4%
37,7%
40,2%
30,5%
21,6%
4,4%
33,3%
26,1%
4,8%
31,9%
24,9%
4,5%
33,2%
22,3%
4,9%
0,93
1,40
1,11
1,36
46,4
63,3%
52,2%
62,5%
19,1
45,8
69,0%
53,0%
55,0%
17,1
46,8
68,3%
49,3%
58,6%
17,4
46,3
74,3%
60,2%
49,5%
18,6
52,0%
96,0%
73,0%
72,0%
CARACTÉRISTIQUES DES ENTREPRISES
Âge de l’entreprise (années)
Taille (nombre d’employés)
Taille (ventes)
% des exportations
% des ventes attribuables aux trois premiers clients
(dépendance)
Budget total de RD en % des ventes (intensité de la RD)
% des ventes attribuables à des produits nouveaux ou
modifiés (taux d’innovation)
Taux d’endettement bancaire
Marge bénéficiaire brute
Marge bénéficiaire nette
Variation des ventes des 5 dernières années (nombre de
fois)
CARACTÉRISTIQUES DES PROPRIÉTAIRES-DIRIGEANTS
Âge du propriétaire-dirigeant (années)
Détenteur d’une scolarité post-secondaire (oui/non)
Possède une formation technique (oui/non)
Possède une formation en gestion (oui/non)
Expérience sectorielle (années)
Taux de croissance souhaité dans les deux prochaines
années
300
Les deux dimensions choisies pour
mesurer l’influence sur la stratégie de
croissance, soit l’orientation de marché ou
la diversité de la clientèle, semblent jouer
un rôle sur l’organisation des entreprises
comme le montre le tableau 1. Les PME
internationales sont plus grandes et plus
jeunes que les PME locales, font plus de RD, ont une plus grande proportion de leur
chiffre d’affaires attribuable à de nouveaux
produits ou des produits modifiés et ont
connu la plus forte progression ce qui
semble correspondre à des objectifs de
croissance souhaités par le principal
dirigeant. La croissance plus modeste
réalisée par les firmes locales ne les a pas
empêchées de réaliser en moyenne une
marge nette comparable à celle des PME
internationales. Par ailleurs, on notera que
les PME ayant une clientèle concentrée
sont plus jeunes et plus innovantes que
celles ayant une clientèle diversifiée, et ont
plus souvent à leur tête un dirigeant
détenant une formation technique. Ces
résultats préliminaires supportent ainsi
notre hypothèse de recherche, que nous
allons maintenant vérifier.
B. Définition des variables et des
tests statistiques utilisé
La croissance des ventes est la mesure de
croissance que Delmar et al. (2003) jugent
la plus pertinente compte tenu de sa
simplicité, du fait qu’elle puisse être
utilisée par tous les types d’entreprises et
qu’elle soit relativement peu sensible à
l’intensité capitalistique et au degré
d’intégration des entreprises. Nous
mesurerons ainsi la croissance en
comparant le chiffre d’affaires des
entreprises le plus récent à celui qu’elles
avaient atteint il y a cinq ans.
Pour ce qui est des autres variables, que
nous décrivons dans les prochains
paragraphes, elles sont issues du
questionnaire complété directement par les
dirigeants.
1. Le propriétaire-dirigeant
Les variables liées au dirigeant sont, pour
la plupart, des informations factuelles qu’il
doit fournir (âge, scolarité, domaine de
formation, expérience, taux de croissance
souhaité d’ici deux ans). Il est également
questionné afin de mesurer à quel point il
est réactif ou pro-actif en ce qui concerne
le développement de son entreprise, à
partir de quatre énoncés concernant
l’introduction de nouvelles technologies (1
= attend qu’elles soient utilisées par
plusieurs entreprises, 4 = introduit
continuellement de nouvelles technologies)
et l’introduction de nouveaux produits (1 =
satisfait de la situation actuelle, 4 = innove
continuellement et introduit régulièrement
de nouveaux produits/services). Pour
mesurer son désir d’autonomie, il indique
s’il consentirait, si ce n’est déjà fait, à
partager le capital-actions de son entreprise
avec un autre actionnaire à plus de 50%
(oui/non). Finalement, afin de voir s’il
délègue ou non à certaines personnes des
responsabilités importantes, il indique,
pour les principales fonctions dans
l’entreprise, celles pour lesquelles il a
nommé un responsable désigné. Cette
variable est ensuite transformée en
pourcentage (délégation de responsabilité).
2. Les
caractéristiques
ressources de l’entreprise
et
La taille de l’entreprise est mesurée par le
nombre d’employés et son âge en années.
Les pratiques de gestion des ressources
humaines sont identifiées à partir de leur
présence dans l’entreprise (oui/non), peu
importe le nombre de catégories
d’employés qu’elles visent. La formation
et l’autonomie financière sont mesurées
par deux ratios, soit le budget de formation
de la dernière année divisé par le nombre
d’employés et le ratio des flux monétaires
générés par l’exploitation divisé par les
ventes. Finalement, la diffusion de
l’information est mesurée sur une échelle
de 1 (faible) à 4 (élevée) pour plusieurs
301
catégories d’information
niveaux stratégiques.
de
différents
3. Stratégies d’adaptation et de
flexibilité
Les activités de R-D sont exprimées en
pourcentage des ventes alors que la
formalisation est mesurée par la présence
d’un responsable désigné (oui/non). Les
collaborations sont mesurées par une
variable binaire (oui/non) pour divers
domaines et avec différents partenaires.
Finalement, les entreprises indiquent si
elles
consultent
des
associations
sectorielles ou des conseillers externes
pour des activités de veille concernant le
développement technologique ou de
produits/marchés.
4. Technologies et systèmes de
production
L’utilisation
d’un
réseau
de
communication interne ou externe est
mesurée par une variable binaire (oui/non),
des
alors
que
la
conformité
systèmes/équipements est mesurée selon le
type de production de l’entreprise (sur
commande, en petits lots, de masse ou
continue). Une entreprise bien organisée
devrait avoir un système ou utiliser des
équipements d’une façon particulière tel
que prescrit par les experts en génie
industriel. C’est cette conformité qui est
mesurée ici sur un indice de 1 (faible) à 3
(élevée). Quant à l’investissement dans les
systèmes/équipements de production, il est
mesuré par le montant global investi au
cours de la dernière année en pourcentage
des ventes.
Notre hypothèse prévoit que les facteurs
liés à la croissance des activités diffèrent
selon l’orientation de marché ou de
clientèle choisie par l’entreprise. Afin de la
vérifier, nous avons testé un modèle
contenant 37 variables liées à la croissance,
tel que présenté dans les pages
précédentes, ce qui permettra d’explorer le
plus de relations possibles. Le logiciel
statistique SAS a été utilisé pour produire
les résultats.
Dans un premier temps, nous avons testé le
modèle de régression sur toutes les
observations, afin de confirmer le rôle
supposé de certaines variables115. Dans un
deuxième temps, nous avons repris
l’ensemble des observations en ajoutant
trois variables dichotomiques permettant
d’associer chaque entreprise à une
orientation stratégique en terme de marché
et en terme de clientèle, afin de mesurer
leur influence. Seule la variable associée à
la concentration de la clientèle est
significative. Pour des raisons d’espace,
ces résultats ne sont pas présentés ici.
Finalement, pour vérifier le fait que les
PME en croissance affichent des profils
différents selon leur orientation de
marché/clientèle, nous avons réalisé des
régressions séparées sur chacun des
groupes identifiés afin de montrer que
certaines
variables
pouvaient
être
influentes dans un contexte et pas dans un
autre. C’est ce que nous analysons dans la
prochaine section.
VI.
Analyse des résultats
Une lecture rapide du tableau 2 montre,
selon le coefficient de régression (R2
ajusté), les faibles niveaux d’explication du
taux de croissance des entreprises à partir
du modèle défini. Compte tenu que notre
objectif est de montrer que les facteurs
influençant la croissance sont différents
selon la stratégie poursuivie, nous nous
intéressons plutôt à comparer les modèles
entre eux. Dans cette perspective, nous
pouvons considérer que les résultats
supportent notre hypothèse de recherche
comme le montrent le tableau 2 où l’on
constate que les variables significatives
115
Pour éviter des problèmes de multicolinéarité,
nous avons effectué les tests nécessaires, ce qui
nous a amené à retirer un certain nombre de
variables de l’étude.
302
sont différentes pour chacun des groupes
identifiés. Ceci signifie notamment qu’un
modèle unique de croissance ne convient
pas à toutes les PME. Ainsi, l’analyse qui
suit sera plutôt générale afin de faire
ressortir les principaux éléments des
résultats de cette recherche exploratoire, et
aider à orienter les prochains travaux de
recherche.
Que l’on s’intéresse soit au marché, soit à
la clientèle, le rôle du propriétairedirigeant est mis en évidence dans tous les
cas, mais à des degrés divers. Ainsi, les
jeunes dirigeants sont plus souvent
associés à la croissance des entreprises qui
ont une clientèle concentrée, alors que le
fait qu’ils aient une formation technique
n’a aucun impact si la clientèle est
diversifiée. Comme il a été dit plus haut,
un propriétaire-dirigeant peut décider de
démarrer son entreprise avec quelques
clients stratégiques avant d’étendre ses
activités à une clientèle plus diversifiée.
Les dirigeants plutôt réactifs en matière de
technologie privilégient un marché local
alors que ceux qui sont pro-actifs en
matière d’introduction de nouveaux
produits/services sur le marché visent des
marchés internationaux. Finalement, les
dirigeants moins expérimentés contribuent
plus à la croissance des entreprises visant
un marché international alors qu’ils sont
aussi les moins susceptibles de déléguer
certains postes de responsabilité. Ce
dernier résultat, contredit ceux de Littunen
et Tohmo (2003) et renforce le rôle
dominant du principal dirigeant sur le
développement de son entreprise.
Alors que les ressources des entreprises tel
que nous les avons définies n’influencent
pas le rythme de croissance des PME ayant
une clientèle concentrée, elles jouent un
rôle très important pour les entreprises
locales. La diffusion des informations
commerciales concernant la clientèle et le
marché au plus grand nombre d’employés
possibles favorise la croissance alors que
c’est le contraire lorsqu’il s’agit
d’information sur la concurrence, le
dirigeant
retenant
ainsi
certaines
informations qu’il pourrait juger plus
stratégiques. Finalement, conformément
aux résultats de Davidsson et al. (2002),
OCDE (2002) et Julien (2000) on notera
que l’âge est lié négativement à la
croissance des PME sauf pour les PME
locales qui, comme nous l’avons vu au
tableau 1, sont plus matures que les autres
et ont des objectifs de croissance plus
modestes.
Les variables mesurant l’adaptation et la
flexibilité sont très faiblement liées à la
croissance des PME, peu importe leur
stratégie. Ces résultats sont étonnants étant
donné, notamment, la place qu’occupent
les collaborations dans la littérature récente
sur les PME innovantes ou les PME en
forte croissance que l’on qualifie parfois de
gazelles. Il est possible que certaines
variables jouent un rôle significatif
seulement pour des entreprises qui ont des
rythmes élevés de croissance, ce qui n’était
pas l’objet de notre étude, celle-ci ayant été
mesurée de façon continue. Ceci serait
toutefois à vérifier dans les travaux futurs.
Finalement, les technologies et systèmes
de production peuvent être associés à la
croissance des PME mais pas de façon
identique. L’utilisation d’un système de
communication interne est associée à la
croissance des PME locales, alors que
l’utilisation d’un réseau de communication
externe favorise la croissance des PME
oeuvrant dans un environnement plus
complexe et incertain (internationale ou à
clientèle diversifiée). Par contre, aucune
des variables sélectionnées ne contribue à
expliquer la croissance des PME dont la
clientèle est concentrée, ce qui, encore ici,
peut s’expliquer par des besoins plus précis
que ce que nous avons mesuré.
303
Conclusions et avenues de recherche
La diversité des résultats que l’on trouve
dans la littérature concernant les facteurs
stimulant la croissance des PME pourrait
s’expliquer par l’absence de considération
de l’orientation de marché ou de clientèle
poursuivie par le dirigeant. Malgré que les
coefficients de régression ne soient pas très
élevés, les résultats présentés ici suggèrent
que des entreprises qui poursuivent
différentes stratégies pour assurer leur
croissance ne sont pas structurées de la
même façon et n’utilisent pas les mêmes
pratiques d’affaires. Le partage de
l’échantillon en sous-groupes plus
homogènes selon leur marché ou leur
clientèle n’a pas permis de confirmer le
rôle de plusieurs variables qui se sont
avérées influentes dans d’autres études.
Malgré que notre recherche, qui se veut
exploratoire, ait une portée limitée à cause
de la taille de l’échantillon, il nous apparaît
tout de même important de considérer,
dans les prochains travaux sur la
croissance, que le marché ou la clientèle
desservis influent sur l’organisation et les
stratégies de développement des PME.
Aussi, il apparaît intéressant d’analyser à
quel rythme de croissance l’influence de
certaines variables se fait réellement sentir
sur l’entreprise. La littérature récente sur le
phénomène des gazelles a mis en lumière
le rôle des collaborations avec divers
partenaires, ce qui n’a pas été aussi
important ici. Prendre en compte le type de
marché et de clientèle paraît important,
mais travailler sur des échantillons ayant
des rythmes semblables de croissance
pourrait aussi révéler des comportements
instructifs.
304
Tableau 2
Explication de la croissance des PME en fonction de leur marché ou de leur clientèle
Marché local = 1 ; Marché international = 2 ; Toutes
Clientèle diversifiée = 3 ; Clientèle concentrée = 4 (N= 280)
Le propriétaire-dirigeant
Âge du dirigeant
Possède une scolarité post-secondaire
Formation technique
Formation en gestion
Nombre d’années d’expérience sectorielle
Délégation de responsabilité
Taux de croissance souhaité d’ici deux ans
Volonté de partager le capital-actions de l’entreprise
Stratégie en terme d’introduction de nouvelles technologies
Stratégie en terme d’introduction de nouveaux produits
Les ressources de l’entreprise
Nombre d’employés
Âge de l’entreprise
Présence d’une politique d’évaluation du rendement
Présence d’une description de tâches
Budget de formation par employé
Diffusion des résultats de productivité
Diffusion d’informations sur l’évolution de la clientèle
Diffusion d’informations sur l’évolution de la concurrence
Diffusion d’informations sur la situation du marché
Diffusion d’informations sur les changements organisationnels
Diffusion d’informations sur les changements technologiques
Autonomie financière
Stratégies d’adaptation et de flexibilité
Budget de R-D total en pourcentage des ventes
Présence d’un responsable désigné en R-D
Collaboration avec un maison d’enseignement pour la R-D
Recours à des conseillers externes pour la veille
Évaluation de la satisfaction de la clientèle
Collaboration avec un donneur d’ordres pour la R-D
Collaboration avec un fournisseur pour la production
Recours à des associations sectorielles pour la veille
Technologies et système de production
Utilisation d’un réseau de communication interne
Utilisation d’un réseau de communication externe
Conformité des systèmes informatiques de conception/fabrication
Conformité des équipements de production et de manutention
Conformité des systèmes de gestion de la production
Conformité des systèmes de maintenance et de contrôle
Investissement dans les systèmes et équipements de production
R2 Ajusté
Pr > F
a : 0,10 *p<0,05 **p<0,01 ***p<0,001
1
(N=69)
-0,11
-0,03
0,12*
0,00
0,04
-0,17*
0,09
0,02
0,05
0,10a
0,21
0,07
0,39*
-0,21
-0,25
0,15
0,29a
-0,04
2
3
(N=101) (N= 206)
-0,11
-0,14
0,22a
-0,01
-0,31*
-0,32*
0,05
0,09
-0,12
-0,06
-0,04
-0,09
-0,03
-0,13
0,06
0,00
4
(N=74)
-0,29a
-0,05
0,37**
0,34*
0,19
-0,09
0,38*
-0,09
-0,43*
-0,10
0,10
0,27*
-0,03
0,09
0,13
0,15
-0,05
-0,16
-0,18**
0,25
-0,06
-0,34*
0,11*
0,34*
0,01
0,01
0,08
0,24
-0,03
0,56**
0,06 -0,75***
0,07
0,51**
0,00
-0,05
-0,08
-0,27
-0,06
0,06
-0,01
-0,29**
0,00
0,04
0,07
0,06
-0,13
0,20
0,18
-0,00
-0,16
-0,04
-0,03
-0,20**
-0,12a
0,16*
0,03
0,19**
-0,13
0,03
0,03
0,04
-0,12
-0,08
0,03
-0,15
0,00
0,14
-0,15
-0,14
0,23
-0.00
0,19
-0,04
0,02
-0,06
-0,00
0,14a
0,04
0,01
-0,02
-0,02
0,04
0,11*
0,01
0,02
-0,28
0,13
0,00
-0,02
-0,45**
-0,10
-0,14
0,21
0,04
0,09
-0,09
-0,14
0,14
0,14
0,14a
0,14
-0,07
0,00
-0,01
-0,03
0,06
0,02
-0,18
-0,15
0,19
0,11
-0,00
-0,03
0,09
0,24*
-0,01
0,17**
0,08
-0,06
-0,02
-0,00
0,11a
0,19
<,0001
0,31*
0,13
0,23
-0,44*
-0,05
0,26a
0,25
0,29
0,0517
-0,05
0,24*
-0,07
-0,13
0,10
-0,02
0,15
0,17
0,0535
-0,01
0,21**
0,16*
0,00
0,03
-0,06
0,13a
0,20
<,0001
-0,02
0,06
-0,04
-0,12
-0,09
0,00
0,17
0,39
0,0077
305
Références
Almus, M. et E.A. Nerlinger (1999).
“Growth of new technology-based firms:
which factors matter? ”, Small Business
Economics, 13, 141-154.
Barringer, B.R., F.F. Jones et P.S. Lewis
(1998). “A qualitative study of the
management practices of rapid-growth
firms and hot rapid-growth firms mitigate
the managerial capacity problem”, Journal
of Developmental Entrepreneurship, 3(2),
97-122.
Becchetti, L. et Trovato, G. (2002), “The
determinants of growth for small and
medium sized firms. The role of the
availability of external finance”, Small
Business Economics, 19, 291-306.
Bramanti, A. (2001). «Les PME à forte
croissance en Italie : succès étonnants et
Revue
désagréables
surprises”,
Internationale PME, 14(3-4), 91-127.
Calvo, J. et M.J. Lorenzo (2001). “Une
caractérisation
des
entreprises
manufacturières espagnoles à forte
Revue
croissance :
1994-1998”,
Internationale PME, 14(3-4), 45-66.
Chrisman, J.J. et W.E. McMullan (2000).
“A preliminary assessment of outsider
assistance as a knowledge resource: the
longer-term impact of new venture
counseling”, Entrepreneurship Theory and
Practice, 24(3), 37-53.
Churchill, N.C. et V.L. Lewis (1983). “The
five stages of small business growth”,
Havard Business review, 6(3), 43-54.
Davidsson, P., B. Kirchhoff, A. Hatemi-J
et H. Gustavsson (2002). “Empirical
analysis of business growth factors using
Swedish data”, Journal of Small Business
Management, 40, 332-349.
Delmar, F. (1997). “Measuring growth:
methodological
considerations
and
empirical results”, dans Entrepreneurship
and SME research: on its way to the next
millennium. Ed. par R.Donckels et A.
Miettinen.
Aldershot,
Royaume-Uni:
Ashgate, 199-216.
Delmar, F. (1999). “Entrepreneurial
growth motivation and actual growth–A
longitudinal study”, RENT XIII–Research
in Entrepreneurship, Londres, 25-26
novembre.
Delmar, F., P. Davidsson et W.B. Gartner
(2003). “Arriving at the high-growth firm”,
Journal of Business Venturing, 18, 189216.
De Toni, A. et G. Nassimbeni (2001). “The
export propensity of small firms: a
comparison
of
organisational
and
operational
management
levers
in
exporting and non-exporting units”,
International Journal of Entrepreneurial
Behaviour & Research, 7(4), 132-147.
Donckels, R. et J. Lambrechts (1995).
“Networks and small business growth: an
explanatory model”, Small Business
Economics, 7, 273-289.
Gibb A. et L. Davies (1990). “In Pursuit of
Frameworks for the Development of
Growth Models of the Small Business”,
International Small Business Journal, 9(1),
15-31.
Hambrick, D.C. et P.A. Mason (1984).
“Upper-echelons: the organization as a
reflection of its top managers”, Academy of
Management Review, 9(2), 193-206.
Jacob, R. et P. Ouellet (2001).
“Globalisation, économie du savoir et
compétitivité : une synthèse des tendances
et des enjeux stratégiques pour la PME
québécoise”, Rapport synthèse présenté à
Développement économique Canada.
Disponible sur Internet : http://www.decced.gc.ca/Complements/Publications/Obse
rvatoire-FR/pme
rapp_synth.pdf?action=click&pid=PDF&u
id=SiteWeb
Janssen, F. (2002). “Les déterminants de le
croissance des P.M.E. : analyse théorique
306
et empirique auprès d’un échantillon de
P.M.E. belges.” Thèse de doctorat,
Université Jean Moulin Lyon 3.
Roper, S. (1999). “Modelling small
business growth and profitability”, Small
Business Economics, 13, 235-252.
Julien, P.-A. (2000). “Les PME à forte
croissance : les facteurs explicatifs”, IXe
Conférence Internationale de Management
Stratégique, Montpellier, 24-26 mai.
Sharmistha, B.-S. (1999). “The small and
medium sized exporters’ problems: an
empirical
analysis
of
Canadian
manufacturers”, Regional Studies, 33(3),
231-245.
Julien, P.-A. (2001), “Les PME à forte
croissance et la métaphore du jazz.
Comment gérer l’improvisation de façon
cohérente”, Revue Internationale PME, 14,
3-4, 129-161.
Kolvereid, L. (1992). “Growth aspirations
among Norwegian entrepreneurs”, Journal
of Business Venturing, 7, 209-222.
LeCornu, M.R., R.G.P. McMahon et D.M.
Forsaith (1996). “The small enterprise
financial
objective
function:
An
exploratory study”, Journal of Small
Buisness Management, 34, 1-14.
Léo, P.Y. (2000). “Les PME et les couples
produits-services à l’exportation”, Revue
internationale PME, 13(2), 45-73.
Littunen H. et T. Tohmo (2003). “The high
growth in new metal-based manufacturing
and business service firms in Finland”,
Small Business Economics, 21(2), 187-200.
Mitra, R. et V. Pingali (1999). “Analysis of
growth stages in small firms: a case study
of automobile ancillaries in India”, Journal
of Small Business Management, 37(3), 6275.
Mustar, P. (2001). “Diversité et unité des
entreprises à forte croissance du secteur
Revue
manufacturier
en
France”,
Internationale PME, 14(3-4), 66-89.
O.C.D.E. (2002). “Les PME à forte
croissance et l’emploi”, Disponible sur
Internet :
http://www.oecd.org/dataoecd/18/29/2493
085.pdf
St-Pierre, J. (2003). “Relations entre
l’exportation,
le
développement
organisationnel et la situation financière
des PME”, Revue internationale PME,
16(2), 61-82.
St-Pierre, J. et C. Mathieu (2003).
“Innovation in Canadian SMEs : The
process, characteristics of firms and their
48th
ICSB
World
environment”,
Conference, Belfast, 15-18 juin.
St-Pierre, J. et L. Raymond (2003).
“L’impact de la dépendance commerciale
sur
la
performance
des
PME
manufacturières”, dans L’entreprise-réseau
: concepts et applications; Dix ans
d’expérience de la Chaire Bombardier
Produits Récréatifs. Ed par P.-A. Julien,
L.Raymond, R. Jacob et G. Abdul-Nour.
Sainte-Foy: Presses de l’Université du
Québec, 333-356.
Wijewardena, H. et G.E. Tibbits (1999).
“Factors contributing to the growth of
small manufacturing firms: data from
Australia”, Journal of Small Business
Management, 37(2), 38-45.
Wiklund, J. (1999). “The sustainability of
the
entrepreneurial
orientationperformance
relationship”,
Entrepreneurship Theory and Practice,
24(1), 37-48.
Wilson, P. et P. Gorb (1983). “How large
and small firms can grow together”. Long
Range Planning, 16(2), 19-27.
Woywode, M. Et V. Lessat (2001). “Les
facteurs de succès des entreprises à
croissance rapide en Allemagne”, Revue
Internationale PME, 14(3-4), 17-43.
307
308