24. Hétérogénéité et analyse en sous

Transcription

24. Hétérogénéité et analyse en sous
24.
Hétérogénéité et analyse en sous-groupes
24.1. Hétérogénéité
A) Définition
L’hétérogénéité se définit par le rejet de l’hypothèse d’homogénéité des effets traitement. Le test de cette hypothèse est appelé test d’hétérogénéité ou test d’homogénéité,
ce qui induit quelques confusions36 . Quel que soit son nom, l’hypothèse testée est
la même et l’obtention d’un test significatif témoigne d’une hétérogénéité : l’effet
d’un essai au moins ne peut pas être considéré comme étant identique à celui des
autres essais. L’hypothèse du modèle fixe ne tient pas et la combinaison de tous ces
essais devient litigieuse. En effet, la méta-analyse cherche à estimer une valeur qui,
par hypothèse, est considérée comme commune à tous les essais.
Le test d’hétérogénéité possède une faible puissance avec le nombre d’essais habituellement rencontré dans les méta-analyses (en général inférieur à une trentaine).
A contrario, avec un grand nombre d’essais, une faible hétérogénéité sans pertinence
clinique est détectable.
Une hétérogénéité peut être le témoin d’une interaction entre une covariable et
l’effet du traitement. Elle peut aussi provenir d’une forte variabilité aléatoire de l’effet sans qu’il soit possible de rattacher ces fluctuations à un ou des facteurs bien précis. L’effet est alors insconstant d’un essai à l’autre et pose la question du bien-fondé
du regroupement de ces essais.
36
Cette ambiguïté dans les termes se retrouve dans beaucoup de tests statistiques. Par exemple le
test de comparaison de deux moyennes est aussi appelé test d’égalité de deux moyennes ou test de
la différence de deux moyennes. Néanmoins l’hypothèse nulle est l’égalité des deux moyennes et
un test significatif témoigne d’une différence entre les deux moyennes.
254
Hétérogénéité et analyse en sous-groupes
B) Statut de l’hétérogénéité
L’hétérogénéité peut être considérée comme une nuisance que l’on cherchera à éliminer en prenant une méthode adaptée (méthode à effet aléatoire, méthode de Peto).
Ces techniques prennent en compte l’hétérogénéité sans chercher à l’expliquer.
A l’opposé, l’hétérogénéité peut être considérée comme informative, témoignant
de changement dans l’effet du traitement en fonction des circonstances de sa mesure
(profil des patients ou utilisation du traitement).
Statut de l’hétérogénéité Approche
Nuisance
Prise en compte de l’hétérogénéité (sans l’expliquer) avec un modèle aléatoire
Information
Explication de l’hétérogénéité en fonction de
covariables
C) Que faire devant une hétérogénéité
Recherche des essais induisant l’hétérogénéité
La première chose à faire devant une hétérogénéité est de rechercher le ou les essais qui l’induisent, en s’aidant d’un graphique (cf. chapitre 22) [184]. Pour confirmer les indications apportées par l’analyse graphique, l’hétérogénéité est recalculée,
après suppression des essais suspects, pour s’assurer de sa disparition effective.
Après avoir identifié les essais qui induisent l’hétérogénéité, il convient de chercher
s’ils diffèrent des autres par l’une de leurs caractéristiques (populations, intervention, qualité méthodologique). Ensuite, si un facteur d’hétérogénéité est suspecté,
non seulement le ou les essais induisant l’hétérogénéité devront être exclus de la
méta-analyse, mais aussi tous les essais dans lesquels ce facteur est présent [185].
Recherche d’interaction
Une approche complémentaire consiste à rechercher systématiquement s’il existe
une interaction avec une ou plusieurs covariables. Cette recherche d’interaction a
pour but de montrer que la taille de l’effet varie en fonction des valeurs prises par
une ou plusieurs covariables. Cette démonstration peut être obtenue par plusieurs
moyens :
– les analyses en sous-groupes,
– la modélisation de l’effet sur les données résumées par des techniques uni- ou
multi-variées,
Analyses en sous-groupes
255
– l’utilisation de modèles uni- ou multi-variés sur les données individuelles
(ces techniques sont abordées dans le chapitre consacré aux méta-analyses sur
données individuelles, chapitre 28).
L’existence d’une hétérogénéité n’est pas une condition nécessaire à la recherche
des interactions. Celle-ci peut être effectuée de manière systématique, lorsqu’elle
correspond, par exemple, à l’un des objectifs de la méta-analyse. Dans ce cas les
modalités de la recherche des interactions et les facteurs étudiés sont prévus d’emblée dans le protocole.
Modèle aléatoire
Si l’hétérogénéité observée ne s’explique pas par une interaction37 , il est possible de
recourir à un modèle aléatoire. Ce modèle prend en compte une certaine variabilité
aléatoire de l’effet traitement d’un essai à l’autre.
L’estimation obtenue tiendra compte de cette variabilité, l’intervalle de confiance
de l’effet combiné sera plus large qu’avec le modèle fixe, et la variance du vrai effet
traitement sera estimée (¿ 2). Les intervalles de confiance sont plus larges car, en
plus des f luctuations aléatoires, ils prennent en compte la variabilité du vrai effet
traitement.
L’utilisation d’un modèle aléatoire s’accompagne d’un risque de méconnaître
l’existence d’une interaction et d’arriver à une conclusion réductrice qui perd une
partie de l’information apportée par les essais.
24.2. Analyses en sous-groupes
Les analyses en sous-groupes effectuent une recherche de l’interaction de façon univariée, en comparant les résultats obtenus entre deux ou un petit nombre de sousgroupes d’essais. Une interaction est détectée si les résultats des sous-groupes se
révèlent statistiquement différents les uns des autres par l’application du test d’hétérogénéité entre les strates (24.1). Les sous-groupes sont créés en fonction de la covariable étudiée. Nous avons vu aussi que les analyses en sous-groupes étaient utiles
dans les analyses de la qualité des essais, chapitre 11. Les analyses en sous-groupes
interviennent aussi dans les comparaisons indirectes de plusieurs traitements.
A) Hétérogénéité entre les sous-groupes
Une interaction entre l’effet du traitement et le facteur définissant les sous-groupes
peut être recherchée par une analyse de l’hétérogénéité entre les sous-groupes. Cette
37
Ce qui ne veut pas dire qu’aucune interaction existe, mais qu’il n’a pas été possible de la mettre
en évidence, par exemple, du fait de l’absence du recueil du facteur d’interaction.
256
Hétérogénéité et analyse en sous-groupes
analyse consiste en la réalisation de méta-analyses dans chacun des sous-groupes.
L’hétérogénéité au sein de chaque sous-groupe est recherchée ainsi que l’hétérogénéité entre les résultats des sous-groupes. Une interaction se manifestera par des
essais homogènes au sein de chaque sous-groupe, mais conduisant à une hétérogénéité
entre les sous-groupes. L’effet du traitement est alors significativement différent d’un
sous-groupe à l’autre (voir par exemple le cas du délai depuis les symptômes dans
la figure 24.3)
Le test d’hétérogénéité des résultats dans chaque sous-groupe utilise la classique
statistique Q :
à k
!2 , k
k
X
X
X
Q=
wi (di)2 ¡
w idi
wi
i=1
i=1
i=1
qui suit une loi du chi-deux à k ¡ 1 ddl (k étant le nombre d’essais du sous-groupe).
Le test d’hétérogénéité des résultats entre les sous-groupes est obtenu en remplaçant les di et wi obtenus au niveau de chaque essai par les estimations calculées
au niveau de chaque sous-groupe. Soit ^µ j et w
¹j l’estimation de l’effet commun et de
l’inverse de sa variance (voir (18.3) et (18.5)) obtenues au niveau du sous-groupe j.
Le test s’écrit :
à s
!2 , s
s
³ ´2
X
X
X
Qs =
w
¹j ^µ j ¡
w
¹j ^µ j
w¹j
(24.1)
j=1
j=1
j =1
avec w
¹j = 1= var(^µ j ) et Qs suit une loi du chi-deux à s ¡ 1 ddl où s est le nombre
de sous-groupes.
B) Constitution des sous-groupes
Les sous-groupes pourront être définis de diverses façons :
1. par le type de traitement. Par exemple, dans la méta-analyse des hypocholestérolémiants (cf. chapitre 2 et 34) il est possible de regrouper les essais en fonction
des classes pharmacologiques (fibrates, inhibiteur de l’HMGCoA réductase,
résines); en fonction de la molécule (simvastatine, lovastatine, pravastatine);
en fonction de la nature de l’intervention (régime, médicaments, chirurgie). Des
sous-groupes en fonction de la dose sont aussi envisageables ou en fonction du
moment du traitement (par exemple avec les traitements fibrinolytiques dans
l’infarctus du myocarde en fonction du délai d’administration par rapport au
début des symptômes),
2. par le type de mesure du critère de jugement, lorsque plusieurs moyens
existent pour mesurer le même critère de jugement. Par exemple, dans les
essais de prévention du risque thrombo-embolique par les héparines, différents
Analyses en sous-groupes
257
moyens diagnostiques sont utilisables pour rechercher les phlébites (clinique
uniquement, phlébographie, Doppler, fibrinogène marqué),
3. par des caractéristiques propres aux patients. Par exemple, en fonction de la
tranche d’âge, du sexe, en fonction du pronostic ou du risque de base,
4. par les conditions de réalisation des essais : essais hospitaliers versus
ambulatoires, en fonction de la région ou du pays de réalisation, etc...
5. par le type d’essais : essais en double aveugle, en simple aveugle.
Dans le premier cas, l’opération revient à comparer différents traitements par
des comparaisons indirectes. Par contre, dans les autres cas, le but est de rechercher
une modification de la taille de l’effet en fonction de facteurs divers, correspondant
soit à des caractéristiques des patients, soit à des caractéristiques des essais. Il s’agit
alors d’une véritable recherche d’interaction.
La définition des sous-groupes est fixée a priori dans le protocole (cf. infra),
sauf dans le cas où le problème se pose après mise en évidence d’une hétérogénéité.
Suivant les cas, les sous-groupes peuvent être constitués de deux façons :
1. Les essais sont répartis entre les différents sous-groupes car au sein d’un essai
tous les patients sont identiques vis à vis de la caractéristique définissant les
sous-groupes. Cette situation est schématisée par la figure 24.1.
2. Chaque essai regroupe des patients qui correspondent aux différents sousgroupes. Ces patients doivent donc être répartis entre les différents sous-groupes.
Cette situation exige que les données correspondant à chaque type de patients
soient rapportées séparément dans le compte rendu de l’essai, c’est à dire que
la même analyse en sous-groupe ait été réalisée dans l’essai. Si cette condition
n’est pas remplie, seules les données individuelles permettront de recréer les
sous-groupes. La figure 24.2 représente cette situation.
C) Risque des analyses en sous-groupes
En méta-analyse, les analyses en sous-groupes (aussi appelées stratifiées) font courir, comme dans un essai clinique, le risque de l’inflation non contrôlée de l’erreur de
première espèce ®. La multiplication des tests statistiques (un par sous-groupe) augmente la probabilité d’obtenir un test significatif uniquement par hasard. Un résultat
de sous-groupe significatif devient suspect car il est impossible de savoir si ce test
révèle une interaction réelle ou s’il s’agit simplement d’un artefact lié à la répétition
des tests. Par exemple, dans l’essai ISIS-2, l’aspirine administrée à la phase aiguë
de l’infarctus du myocarde produit une réduction significative très importante de la
mortalité à 1 mois. Mais, lors de l’analyse en sous-groupe en fonction des signes astrologiques, l’aspirine apparaît inefficace pour les sujets du signe de la vierge ou des
258
Hétérogénéité et analyse en sous-groupes
Fig. 24.1. — Constitution des sous-groupes, 1 : chaque essai n’appartient qu’à un
seul sous-groupe.
gémeaux et plus efficace que la moyenne pour le signe du capricorne [55]. Dans
les paradigmes scientifiques actuels, aucune théorie ne permet de penser que ces
différences sont réelles !
En effet, il est toujours possible d’obtenir un résultat significatif en multipliant
les sous-groupes. Un résultat significatif obtenu dans ces conditions n’a aucune valeur. La réalisation d’analyse en sous-groupes à partir de données issues de plusieurs
essais dans une méta-analyse ne résoud pas ce problème (qui est uniquement lié à la
répétition des tests).
D) Génération des hypothèses des sous-groupes
Pour minimiser le risque de résultats significatifs par hasard dans les analyses en
sous-groupes, il convient de définir a priori un petit nombre de sous-groupes. Ces
analyses s’apparenteront alors à la démarche hypothético-déductive.
Les sous-groupes définis a priori sont retenus de deux manières différentes.
1. certaines interactions peuvent être recherchées systématiquement avec, par
exemple, l’âge, le sexe, la dose, la durée. Ces interactions sont suspectées de façon
systématique ou à partir d’un modèle physiopathologique, pharmacologique ou
thérapeutique.
Analyses en sous-groupes
259
Fig. 24.2. — Constitution des sous-groupes, 2 : les sous-groupes de la
méta-analyse sont constitués à partir de sous-groupes des essais.
2. des interactions peuvent être suspectées à partir de résultats obtenus dans un
des essais du domaine. L’hypothèse est générée par les données et il convient
d’éviter tous risques de tautologie dans sa confirmation.
Dans cette dernière situation, la méta-analyse permet de confronter cette hypothèse à d’autres données externes à son processus de génération. Ainsi, il est possible
de vérifier si un résultat initialement observé dans un essai se retrouve dans d’autres
essais. Dans l’affirmative, les chances que ce résultat soit uniquement le fait du hasard s’amenuisent. A ce niveau, il est possible de discuter l’attitude qui consiste à
exclure ou à maintenir l’essai (ou les essais) à l’origine de l’hypothèse dans la métaanalyse. En effet, si le poids de celui-ci est prépondérant dans la méta-analyse (car il
comporte à lui tout seul autant de sujets que les autres réunis) le résultat de la métaanalyse ne dépendra presque exclusivement que du résultat de cet essai, conduisant
à une confirmation tautologique de l’hypothèse. Une analyse de sensibilité confrontant les résultats obtenus avec et sans les essais à l’origine de l’hypothèse semble
être la meilleure solution pour éprouver ce problème potentiel.
A contrario, la pratique de la méta-analyse a fourni des exemples du caractère
fallacieux des analyses en sous-groupes dans les essais. Des relations statistiques
apparemment fortes, quoique fortuites, entre les variables de base des patients et le
résultat observé dans un essai ont été infirmées par la méta-analyse. C’est le cas de
260
Hétérogénéité et analyse en sous-groupes
la relation entre la topographie de l’infarctus et l’effet des béta-bloquants dans le
post-infarctus [186].
E) Apport de la méta-analyse par rapport aux analyses en sous-groupes
dans les essais
La division de l’échantillon de patients en deux ou plusieurs sous-groupes entraîne
une baisse de puissance des comparaisons réalisées dans chaque groupe et du test
interaction. La méta-analyse apporte plus de patients et augmente la puissance par
rapport à un seul essai.
Dans un essai isolé, le nombre de sujets inclus a été calculé pour assurer une puissance suffisante à la comparaison principale. Par rapport à cette comparaison, une
recherche d’interaction nécessite plus de patients. Un seul essai est donc en général
insuffisant pour garantir une puissance suffisante à une analyse en sous-groupes. La
méta-analyse permettra de renforcer les effectifs et d’augmenter la puissance des
comparaisons en sous-groupes.
Cependant, même dans le meilleur des cas, la mise en évidence d’une interaction reste du domaine de l’association statistique et ne permet pas de conclure à la
relation causale entre le facteur étudié et la variation de la taille de l’effet. En effet,
les différentes modalités du facteur étudié ne peuvent pas être contrôlées38 , ce qui
empêche de se prémunir contre l’existence de facteur de confusion.
La méta-analyse classique ne permet que des analyses univariées en sous-groupes.
L’ajustement de la recherche d’une interaction, sur d’éventuels facteurs de confusion
est donc impossible sans le recours à des techniques multivariées. Les possibilités
et les limites de ces techniques sont étudiées dans la section 24.3.
Exemple 24.1 La méta-analyse du « Fibrinolytic Therapy Trialists’ Collaborative
Group » regroupe 9 essais de grande taille (>1000 patients) de la fibrinolyse à la
phase aiguë du myocarde [56]. Plusieurs sous-groupes ont été étudiés, où une différence d’efficacité de la fibrinolyse était recherchée en fonction de caractéristiques
des patients comme les signes ECG, le temps écoulé entre le début des symptômes et
la fibrinolyse, l’âge, le sexe, l’existence d’un diabète ou d’antécédents d’infarctus
du myocarde.
La figure 24.3 représente les résultats de ces différents sous-groupes.
38
Au sens où l’expérimentateur ne choisit pas la modalité prise par une unité statistique donnée.
261
Modélisation de l’effet
Fig. 24.3. — Exemple d’analyse en sous groupes (reproduit avec autorisation
d’après la réf. [56])
24.3. Modélisation de l’effet
La modélisation de l’effet consiste à modéliser la taille de l’effet en fonction d’une
ou plusieurs covariables, en employant les techniques de régression. Cette approche
est parfois désignée par le terme de « méta-régression ».
Une autre approche, l’ajustement d’un modèle d’effet présente des points communs avec la modélisation de l’effet. Elle sera envisagée plus loin.
Par rapport aux analyses en sous-groupes, la modélisation de l’effet permet une
analyse plus fine dans le cas d’une covariable continue (là où l’analyse en sousgroupes découpe cette variable en classes). De plus, la prise en compte simultanée
de plusieurs covariables devient possible.
Cependant, des hypothèses plus fortes sur la structure des données sont imposées
par les techniques de régression, qui peuvent parfois ne pas être vérifiées.
262
Hétérogénéité et analyse en sous-groupes
A) Utilisation de la régression linéaire
Le modèle le plus simple qui permet de chercher une relation entre la taille de l’effet
et des covariables est le modèle linéaire du type :
Y = ¯ 0 + ¯ 1 X1 + ¯ j Xj + : : :
La variable Y à expliquer (dépendante) représente la taille de l’effet, exprimée
par une mesure d’effet, logarithme du risque relatif ou du rapport des cotes, différence des risques, et, dans le cas d’un critère de jugement continu, effet standardisé.
La ou les variables Xj explicatives sont les covariables envisagées représentant
diverses caractéristiques des patients ou des traitements.
Exemple 24.2 Dans le domaine du traitement de l’hypertension artérielle, une
relation entre le logarithme du risque relatif et l’importance de la baisse de pression artérielle induite par les traitements pourra être recherchée. En cancérologie,
il pourra s’agir de la relation entre la différence de risque et plusieurs facteurs pronostiques tels que la présence ou non de métastases, d’adénopathies, etc.
Les données sont réprésentées par les résultats des essais. Chaque essai fourni
une valeur de Y qui est la taille de l’effet observée dans cet essai et une ou des valeurs
de X qui sont les valeurs moyennes de ces variables observées dans cet essai.
Avec les données résumées, l’unité statistique est l’essai. Les interactions sont
recherchées entre les effets traitement moyens observés dans l’essai et les moyennes
des caractéristiques des sujets. Seul le recours aux données individuelles permet de
prendre le patient comme unité statistique.
Le recours aux données résumées transforme aussi les variables binaires en variables continues. Par exemple pour le sexe, l’information disponible est la proportion d’hommes ou de femmes, assimilable à une variable continue.
A partir des données, les techniques de régression par les moindres carrés permettent d’estimer les coefficients ¯ j et de tester l’influence des variables explicatives sur la valeur de l’effet (test des coefficients ¯ j à zéro).
Le test de tendance de Breslow et Day (cf. 20.3) permet de rechercher une tendance entre rapport des cotes et une unique variable continue x. En fait, il s’agit du
test de ¯ = 0 dans le modèle log (Ã) = ® + ¯x.
Exemple 24.3 La figure 24.4 représente le résutat de la recherche d’une interaction entre une covariable x et la taille de l’effet à partir des résultats de 30 essais.
La relation entre le logarithme du risque relatif log(RR) et la covariable x a été
récherchée en utilisant la régression linéaire pondérée par l’inverse de la variance
263
Modélisation de l’effet
du logarithme du risque relatif. Les résultats de cette régression sont les suivants :
Coefficient
Valeur
p
ordonnée à l’origine -0,12
pente
-0,36 0.04
Ces résultats sont en faveur d’une relation entre la taille de l’effet traitement
et la covariable x. Une interaction existe donc très certainement, visualisée sur le
graphique par la pente décroissante de la droite de régression.
Fig. 24.4. — Exemple d’interaction entre une covariable x et la taille de l’effet
traitement mesurée par le logarithme du risque relatif. La droite de régression a été
obtenue par une régression linéaire pondérée.
B) Problèmes statistiques
L’utilisation des techniques de régression des moindres carrés sur des données de ce
type pose un certain nombre de problèmes statistiques.
Homoscédasticité
La régression linéaire fait l’hypothèse de l’homoscédasticité, c’est-à-dire de la constance de la variance de la variable dépendante :
¾ 2Y jX = cte = ¾2
264
Hétérogénéité et analyse en sous-groupes
Avec la nature des variables ici considérées cette hypothèse n’est pas vérifiée. En
effet, la variance d’un rapport des cotes ou de son logarithme dépend du rapport des
cotes lui-même, entrainant une variation de cette variance en fonction de la valeur de
la variable indépendante qui conditionne, d’après le modèle, la valeur de la variable
indépendante. Ce phénomène se retrouve avec le risque relatif (et son logarithme)
et avec la différence des risques.
Cette difficulté peut être contournée par les techniques de régression par les
moindres carrés pondérés. Les poids utilisés sont les inverses de la variance de la
variable dépendante.
Distribution de la variable dépendante
Une autre hypothèse statistique faite par la régression linéaire par les moindres carrés
est celle de la distribution gaussienne de la variable dépendante. La différence des
risques suit une distribution gaussienne (à condition que les effectifs soient grands)
et son utilisation ne pose donc pas de problème. Parmi les mesures multiplicatives,
seuls les logarithmes de le rapport des cotes et du risque relatif suivent une distribution gaussienne. Il convient donc d’utiliser ces logarithmes et non pas le rapport des
cotes ou le risque relatif comme variable dépendante. Cette hypothèse concernant
la distribution de la variable dépendante est nécessaire pour les calculs d’inférence
statistique (distribution des paramètres et tests statistiques), mais elle est sans importance pour l’estimation ponctuelle des paramètres.
Variables explicatives aléatoires
La régression nécessite que les variables explicatives soient des variables contrôlées,
non aléatoires. Dans ces problèmes de méta-régression, il arrive que certaines des
variables potentiellement interagissantes avec l’effet soient des variables aléatoires.
Exemple 24.4 Dans un essai d’un traitement antihypertenseur, la baisse de la pression artérielle (PA) sous traitement est une variable aléatoire. En effet, la réplication
de l’essai avec exactement les mêmes patients conduira à d’autres valeurs de baisse
de la PA.
Par contre, la proportion de femmes dans un essai est une variable non aléatoire,
constante.
Ce caractère alétoire provient la plupart du temps d’une erreur de mesure (cf.
la baisse de PA), nécessitant de recourir à des techniques spécifiques (réf. [139],
p.288).
Etendue des valeurs
La précision et la puissance d’une régression sont d’autant plus importantes que
les valeurs des variables X couvrent l’ensemble de leur domaine de variation. En
Modélisation de l’effet
265
pratique, les caractéristiques moyennes des patients sont souvent très similaires d’un
essai à l’autre. Les valeurs des X sont donc regroupées et donnent lieu à un nuage
de points de faible étendue. Il devient alors difficile d’identifier une relation dans ce
nuage de points.
Une instabilité des différents résultats obtenus après retrait d’un point est un
argument en faveur de cette situation.
Faible nombre de points
Une autre limite de cette approche est représentée par le faible nombre de points
disponibles. Chaque point représentant un essai, le nombre d’unités statistiques est
le plus souvent de l’ordre de la dizaine. Ce faible nombre de points entraîne une
puissance assez faible et limite le nombre de variables explicatives que l’on peut introduire dans le modèle. En effet, prendre en considération un nombre de variables
explicatives supérieur au tiers du nombre de points disponibles aboutit à une surparamétrisation du modèle, débouchant sur une perte de performance du processus
d’estimation.
En pratique, des analyses univariées envisageant successivement les covariables
seront préférables à des analyses plus globales prenant en compte simultanément ces
covariables.
C) Régression avec modèle aléatoire
Une autre approche basée sur un modèle aléatoire a été récemment proposée [187].
Ce modèle introduit une ou plusieurs covariables dans le modèle aléatoire simple
(cf. 21.7). Ainsi, le vrai effet traitement du i-ème essai µi est distribué suivant une
loi gaussienne, dont la moyenne ¹ i dépend des covariables :
¡
¢
µ i » N ¹i ; ¿ 2
avec : ¹i = ¯ 0 + ¯1 Xi1 + ¢ ¢ ¢ + ¯j Xi j
(Xi1; ¢ ¢ ¢ ; Xij ) représente le vecteur des valeurs des covariables rattaché à l’essai
i. Contrairement au modèle aléatoire simple, ¹i n’est plus constant.
L’observation obtenue au niveau de ce i-ème essai, yi est, elle aussi, distribuée
suivant une loi gaussienne de moyenne µ i et de variance ¾2i qui est la variance intraessai :
¡
¢
yi » N µi ; ¾2i
En terme de modèle structurel, la valeur de l’effet traitement observée dans l’essai i peut s’écrire :
yi = ¯ 0 + ¯1 Xi1 + ¢ ¢ ¢ + ¯j Xij + ±i + ei
266
avec :
Méthodes non quantitatives de méta-analyse
¡
¢
¡
¢
± i » N 0; ¿ 2 et ei » N 0; ¾2i
± i représente la part d’hétérogénéité entre essais non expliquée par les covariables et ei l’erreur de mesure.
Les paramètres de ce modèle (¯ 0; ¯ 1; ¢ ¢ ¢ ; ¯ j ; ¿ 2 ) peuvent être estimés par une
procédure itérative.
En résumé, bien que séduisante, l’approche par méta-régression se heurte à plusieurs limitations principalement liées à la nature des données résumées. Les résultats de son application sont souvent décevants, ne permettant pas de conclure. Bien
souvent, la méta-régression n’apporte pas plus de renseignements qu’une analyse
en sous-groupes bien conduite, moins exigeante au niveau des hypothèses statistiques faites sur les données. Et finalement, une recherche multivariée d’interaction
efficace doit se baser sur les données individuelles.