24. Hétérogénéité et analyse en sous
Transcription
24. Hétérogénéité et analyse en sous
24. Hétérogénéité et analyse en sous-groupes 24.1. Hétérogénéité A) Définition L’hétérogénéité se définit par le rejet de l’hypothèse d’homogénéité des effets traitement. Le test de cette hypothèse est appelé test d’hétérogénéité ou test d’homogénéité, ce qui induit quelques confusions36 . Quel que soit son nom, l’hypothèse testée est la même et l’obtention d’un test significatif témoigne d’une hétérogénéité : l’effet d’un essai au moins ne peut pas être considéré comme étant identique à celui des autres essais. L’hypothèse du modèle fixe ne tient pas et la combinaison de tous ces essais devient litigieuse. En effet, la méta-analyse cherche à estimer une valeur qui, par hypothèse, est considérée comme commune à tous les essais. Le test d’hétérogénéité possède une faible puissance avec le nombre d’essais habituellement rencontré dans les méta-analyses (en général inférieur à une trentaine). A contrario, avec un grand nombre d’essais, une faible hétérogénéité sans pertinence clinique est détectable. Une hétérogénéité peut être le témoin d’une interaction entre une covariable et l’effet du traitement. Elle peut aussi provenir d’une forte variabilité aléatoire de l’effet sans qu’il soit possible de rattacher ces fluctuations à un ou des facteurs bien précis. L’effet est alors insconstant d’un essai à l’autre et pose la question du bien-fondé du regroupement de ces essais. 36 Cette ambiguïté dans les termes se retrouve dans beaucoup de tests statistiques. Par exemple le test de comparaison de deux moyennes est aussi appelé test d’égalité de deux moyennes ou test de la différence de deux moyennes. Néanmoins l’hypothèse nulle est l’égalité des deux moyennes et un test significatif témoigne d’une différence entre les deux moyennes. 254 Hétérogénéité et analyse en sous-groupes B) Statut de l’hétérogénéité L’hétérogénéité peut être considérée comme une nuisance que l’on cherchera à éliminer en prenant une méthode adaptée (méthode à effet aléatoire, méthode de Peto). Ces techniques prennent en compte l’hétérogénéité sans chercher à l’expliquer. A l’opposé, l’hétérogénéité peut être considérée comme informative, témoignant de changement dans l’effet du traitement en fonction des circonstances de sa mesure (profil des patients ou utilisation du traitement). Statut de l’hétérogénéité Approche Nuisance Prise en compte de l’hétérogénéité (sans l’expliquer) avec un modèle aléatoire Information Explication de l’hétérogénéité en fonction de covariables C) Que faire devant une hétérogénéité Recherche des essais induisant l’hétérogénéité La première chose à faire devant une hétérogénéité est de rechercher le ou les essais qui l’induisent, en s’aidant d’un graphique (cf. chapitre 22) [184]. Pour confirmer les indications apportées par l’analyse graphique, l’hétérogénéité est recalculée, après suppression des essais suspects, pour s’assurer de sa disparition effective. Après avoir identifié les essais qui induisent l’hétérogénéité, il convient de chercher s’ils diffèrent des autres par l’une de leurs caractéristiques (populations, intervention, qualité méthodologique). Ensuite, si un facteur d’hétérogénéité est suspecté, non seulement le ou les essais induisant l’hétérogénéité devront être exclus de la méta-analyse, mais aussi tous les essais dans lesquels ce facteur est présent [185]. Recherche d’interaction Une approche complémentaire consiste à rechercher systématiquement s’il existe une interaction avec une ou plusieurs covariables. Cette recherche d’interaction a pour but de montrer que la taille de l’effet varie en fonction des valeurs prises par une ou plusieurs covariables. Cette démonstration peut être obtenue par plusieurs moyens : – les analyses en sous-groupes, – la modélisation de l’effet sur les données résumées par des techniques uni- ou multi-variées, Analyses en sous-groupes 255 – l’utilisation de modèles uni- ou multi-variés sur les données individuelles (ces techniques sont abordées dans le chapitre consacré aux méta-analyses sur données individuelles, chapitre 28). L’existence d’une hétérogénéité n’est pas une condition nécessaire à la recherche des interactions. Celle-ci peut être effectuée de manière systématique, lorsqu’elle correspond, par exemple, à l’un des objectifs de la méta-analyse. Dans ce cas les modalités de la recherche des interactions et les facteurs étudiés sont prévus d’emblée dans le protocole. Modèle aléatoire Si l’hétérogénéité observée ne s’explique pas par une interaction37 , il est possible de recourir à un modèle aléatoire. Ce modèle prend en compte une certaine variabilité aléatoire de l’effet traitement d’un essai à l’autre. L’estimation obtenue tiendra compte de cette variabilité, l’intervalle de confiance de l’effet combiné sera plus large qu’avec le modèle fixe, et la variance du vrai effet traitement sera estimée (¿ 2). Les intervalles de confiance sont plus larges car, en plus des f luctuations aléatoires, ils prennent en compte la variabilité du vrai effet traitement. L’utilisation d’un modèle aléatoire s’accompagne d’un risque de méconnaître l’existence d’une interaction et d’arriver à une conclusion réductrice qui perd une partie de l’information apportée par les essais. 24.2. Analyses en sous-groupes Les analyses en sous-groupes effectuent une recherche de l’interaction de façon univariée, en comparant les résultats obtenus entre deux ou un petit nombre de sousgroupes d’essais. Une interaction est détectée si les résultats des sous-groupes se révèlent statistiquement différents les uns des autres par l’application du test d’hétérogénéité entre les strates (24.1). Les sous-groupes sont créés en fonction de la covariable étudiée. Nous avons vu aussi que les analyses en sous-groupes étaient utiles dans les analyses de la qualité des essais, chapitre 11. Les analyses en sous-groupes interviennent aussi dans les comparaisons indirectes de plusieurs traitements. A) Hétérogénéité entre les sous-groupes Une interaction entre l’effet du traitement et le facteur définissant les sous-groupes peut être recherchée par une analyse de l’hétérogénéité entre les sous-groupes. Cette 37 Ce qui ne veut pas dire qu’aucune interaction existe, mais qu’il n’a pas été possible de la mettre en évidence, par exemple, du fait de l’absence du recueil du facteur d’interaction. 256 Hétérogénéité et analyse en sous-groupes analyse consiste en la réalisation de méta-analyses dans chacun des sous-groupes. L’hétérogénéité au sein de chaque sous-groupe est recherchée ainsi que l’hétérogénéité entre les résultats des sous-groupes. Une interaction se manifestera par des essais homogènes au sein de chaque sous-groupe, mais conduisant à une hétérogénéité entre les sous-groupes. L’effet du traitement est alors significativement différent d’un sous-groupe à l’autre (voir par exemple le cas du délai depuis les symptômes dans la figure 24.3) Le test d’hétérogénéité des résultats dans chaque sous-groupe utilise la classique statistique Q : Ã k !2 , k k X X X Q= wi (di)2 ¡ w idi wi i=1 i=1 i=1 qui suit une loi du chi-deux à k ¡ 1 ddl (k étant le nombre d’essais du sous-groupe). Le test d’hétérogénéité des résultats entre les sous-groupes est obtenu en remplaçant les di et wi obtenus au niveau de chaque essai par les estimations calculées au niveau de chaque sous-groupe. Soit ^µ j et w ¹j l’estimation de l’effet commun et de l’inverse de sa variance (voir (18.3) et (18.5)) obtenues au niveau du sous-groupe j. Le test s’écrit : Ã s !2 , s s ³ ´2 X X X Qs = w ¹j ^µ j ¡ w ¹j ^µ j w¹j (24.1) j=1 j=1 j =1 avec w ¹j = 1= var(^µ j ) et Qs suit une loi du chi-deux à s ¡ 1 ddl où s est le nombre de sous-groupes. B) Constitution des sous-groupes Les sous-groupes pourront être définis de diverses façons : 1. par le type de traitement. Par exemple, dans la méta-analyse des hypocholestérolémiants (cf. chapitre 2 et 34) il est possible de regrouper les essais en fonction des classes pharmacologiques (fibrates, inhibiteur de l’HMGCoA réductase, résines); en fonction de la molécule (simvastatine, lovastatine, pravastatine); en fonction de la nature de l’intervention (régime, médicaments, chirurgie). Des sous-groupes en fonction de la dose sont aussi envisageables ou en fonction du moment du traitement (par exemple avec les traitements fibrinolytiques dans l’infarctus du myocarde en fonction du délai d’administration par rapport au début des symptômes), 2. par le type de mesure du critère de jugement, lorsque plusieurs moyens existent pour mesurer le même critère de jugement. Par exemple, dans les essais de prévention du risque thrombo-embolique par les héparines, différents Analyses en sous-groupes 257 moyens diagnostiques sont utilisables pour rechercher les phlébites (clinique uniquement, phlébographie, Doppler, fibrinogène marqué), 3. par des caractéristiques propres aux patients. Par exemple, en fonction de la tranche d’âge, du sexe, en fonction du pronostic ou du risque de base, 4. par les conditions de réalisation des essais : essais hospitaliers versus ambulatoires, en fonction de la région ou du pays de réalisation, etc... 5. par le type d’essais : essais en double aveugle, en simple aveugle. Dans le premier cas, l’opération revient à comparer différents traitements par des comparaisons indirectes. Par contre, dans les autres cas, le but est de rechercher une modification de la taille de l’effet en fonction de facteurs divers, correspondant soit à des caractéristiques des patients, soit à des caractéristiques des essais. Il s’agit alors d’une véritable recherche d’interaction. La définition des sous-groupes est fixée a priori dans le protocole (cf. infra), sauf dans le cas où le problème se pose après mise en évidence d’une hétérogénéité. Suivant les cas, les sous-groupes peuvent être constitués de deux façons : 1. Les essais sont répartis entre les différents sous-groupes car au sein d’un essai tous les patients sont identiques vis à vis de la caractéristique définissant les sous-groupes. Cette situation est schématisée par la figure 24.1. 2. Chaque essai regroupe des patients qui correspondent aux différents sousgroupes. Ces patients doivent donc être répartis entre les différents sous-groupes. Cette situation exige que les données correspondant à chaque type de patients soient rapportées séparément dans le compte rendu de l’essai, c’est à dire que la même analyse en sous-groupe ait été réalisée dans l’essai. Si cette condition n’est pas remplie, seules les données individuelles permettront de recréer les sous-groupes. La figure 24.2 représente cette situation. C) Risque des analyses en sous-groupes En méta-analyse, les analyses en sous-groupes (aussi appelées stratifiées) font courir, comme dans un essai clinique, le risque de l’inflation non contrôlée de l’erreur de première espèce ®. La multiplication des tests statistiques (un par sous-groupe) augmente la probabilité d’obtenir un test significatif uniquement par hasard. Un résultat de sous-groupe significatif devient suspect car il est impossible de savoir si ce test révèle une interaction réelle ou s’il s’agit simplement d’un artefact lié à la répétition des tests. Par exemple, dans l’essai ISIS-2, l’aspirine administrée à la phase aiguë de l’infarctus du myocarde produit une réduction significative très importante de la mortalité à 1 mois. Mais, lors de l’analyse en sous-groupe en fonction des signes astrologiques, l’aspirine apparaît inefficace pour les sujets du signe de la vierge ou des 258 Hétérogénéité et analyse en sous-groupes Fig. 24.1. — Constitution des sous-groupes, 1 : chaque essai n’appartient qu’à un seul sous-groupe. gémeaux et plus efficace que la moyenne pour le signe du capricorne [55]. Dans les paradigmes scientifiques actuels, aucune théorie ne permet de penser que ces différences sont réelles ! En effet, il est toujours possible d’obtenir un résultat significatif en multipliant les sous-groupes. Un résultat significatif obtenu dans ces conditions n’a aucune valeur. La réalisation d’analyse en sous-groupes à partir de données issues de plusieurs essais dans une méta-analyse ne résoud pas ce problème (qui est uniquement lié à la répétition des tests). D) Génération des hypothèses des sous-groupes Pour minimiser le risque de résultats significatifs par hasard dans les analyses en sous-groupes, il convient de définir a priori un petit nombre de sous-groupes. Ces analyses s’apparenteront alors à la démarche hypothético-déductive. Les sous-groupes définis a priori sont retenus de deux manières différentes. 1. certaines interactions peuvent être recherchées systématiquement avec, par exemple, l’âge, le sexe, la dose, la durée. Ces interactions sont suspectées de façon systématique ou à partir d’un modèle physiopathologique, pharmacologique ou thérapeutique. Analyses en sous-groupes 259 Fig. 24.2. — Constitution des sous-groupes, 2 : les sous-groupes de la méta-analyse sont constitués à partir de sous-groupes des essais. 2. des interactions peuvent être suspectées à partir de résultats obtenus dans un des essais du domaine. L’hypothèse est générée par les données et il convient d’éviter tous risques de tautologie dans sa confirmation. Dans cette dernière situation, la méta-analyse permet de confronter cette hypothèse à d’autres données externes à son processus de génération. Ainsi, il est possible de vérifier si un résultat initialement observé dans un essai se retrouve dans d’autres essais. Dans l’affirmative, les chances que ce résultat soit uniquement le fait du hasard s’amenuisent. A ce niveau, il est possible de discuter l’attitude qui consiste à exclure ou à maintenir l’essai (ou les essais) à l’origine de l’hypothèse dans la métaanalyse. En effet, si le poids de celui-ci est prépondérant dans la méta-analyse (car il comporte à lui tout seul autant de sujets que les autres réunis) le résultat de la métaanalyse ne dépendra presque exclusivement que du résultat de cet essai, conduisant à une confirmation tautologique de l’hypothèse. Une analyse de sensibilité confrontant les résultats obtenus avec et sans les essais à l’origine de l’hypothèse semble être la meilleure solution pour éprouver ce problème potentiel. A contrario, la pratique de la méta-analyse a fourni des exemples du caractère fallacieux des analyses en sous-groupes dans les essais. Des relations statistiques apparemment fortes, quoique fortuites, entre les variables de base des patients et le résultat observé dans un essai ont été infirmées par la méta-analyse. C’est le cas de 260 Hétérogénéité et analyse en sous-groupes la relation entre la topographie de l’infarctus et l’effet des béta-bloquants dans le post-infarctus [186]. E) Apport de la méta-analyse par rapport aux analyses en sous-groupes dans les essais La division de l’échantillon de patients en deux ou plusieurs sous-groupes entraîne une baisse de puissance des comparaisons réalisées dans chaque groupe et du test interaction. La méta-analyse apporte plus de patients et augmente la puissance par rapport à un seul essai. Dans un essai isolé, le nombre de sujets inclus a été calculé pour assurer une puissance suffisante à la comparaison principale. Par rapport à cette comparaison, une recherche d’interaction nécessite plus de patients. Un seul essai est donc en général insuffisant pour garantir une puissance suffisante à une analyse en sous-groupes. La méta-analyse permettra de renforcer les effectifs et d’augmenter la puissance des comparaisons en sous-groupes. Cependant, même dans le meilleur des cas, la mise en évidence d’une interaction reste du domaine de l’association statistique et ne permet pas de conclure à la relation causale entre le facteur étudié et la variation de la taille de l’effet. En effet, les différentes modalités du facteur étudié ne peuvent pas être contrôlées38 , ce qui empêche de se prémunir contre l’existence de facteur de confusion. La méta-analyse classique ne permet que des analyses univariées en sous-groupes. L’ajustement de la recherche d’une interaction, sur d’éventuels facteurs de confusion est donc impossible sans le recours à des techniques multivariées. Les possibilités et les limites de ces techniques sont étudiées dans la section 24.3. Exemple 24.1 La méta-analyse du « Fibrinolytic Therapy Trialists’ Collaborative Group » regroupe 9 essais de grande taille (>1000 patients) de la fibrinolyse à la phase aiguë du myocarde [56]. Plusieurs sous-groupes ont été étudiés, où une différence d’efficacité de la fibrinolyse était recherchée en fonction de caractéristiques des patients comme les signes ECG, le temps écoulé entre le début des symptômes et la fibrinolyse, l’âge, le sexe, l’existence d’un diabète ou d’antécédents d’infarctus du myocarde. La figure 24.3 représente les résultats de ces différents sous-groupes. 38 Au sens où l’expérimentateur ne choisit pas la modalité prise par une unité statistique donnée. 261 Modélisation de l’effet Fig. 24.3. — Exemple d’analyse en sous groupes (reproduit avec autorisation d’après la réf. [56]) 24.3. Modélisation de l’effet La modélisation de l’effet consiste à modéliser la taille de l’effet en fonction d’une ou plusieurs covariables, en employant les techniques de régression. Cette approche est parfois désignée par le terme de « méta-régression ». Une autre approche, l’ajustement d’un modèle d’effet présente des points communs avec la modélisation de l’effet. Elle sera envisagée plus loin. Par rapport aux analyses en sous-groupes, la modélisation de l’effet permet une analyse plus fine dans le cas d’une covariable continue (là où l’analyse en sousgroupes découpe cette variable en classes). De plus, la prise en compte simultanée de plusieurs covariables devient possible. Cependant, des hypothèses plus fortes sur la structure des données sont imposées par les techniques de régression, qui peuvent parfois ne pas être vérifiées. 262 Hétérogénéité et analyse en sous-groupes A) Utilisation de la régression linéaire Le modèle le plus simple qui permet de chercher une relation entre la taille de l’effet et des covariables est le modèle linéaire du type : Y = ¯ 0 + ¯ 1 X1 + ¯ j Xj + : : : La variable Y à expliquer (dépendante) représente la taille de l’effet, exprimée par une mesure d’effet, logarithme du risque relatif ou du rapport des cotes, différence des risques, et, dans le cas d’un critère de jugement continu, effet standardisé. La ou les variables Xj explicatives sont les covariables envisagées représentant diverses caractéristiques des patients ou des traitements. Exemple 24.2 Dans le domaine du traitement de l’hypertension artérielle, une relation entre le logarithme du risque relatif et l’importance de la baisse de pression artérielle induite par les traitements pourra être recherchée. En cancérologie, il pourra s’agir de la relation entre la différence de risque et plusieurs facteurs pronostiques tels que la présence ou non de métastases, d’adénopathies, etc. Les données sont réprésentées par les résultats des essais. Chaque essai fourni une valeur de Y qui est la taille de l’effet observée dans cet essai et une ou des valeurs de X qui sont les valeurs moyennes de ces variables observées dans cet essai. Avec les données résumées, l’unité statistique est l’essai. Les interactions sont recherchées entre les effets traitement moyens observés dans l’essai et les moyennes des caractéristiques des sujets. Seul le recours aux données individuelles permet de prendre le patient comme unité statistique. Le recours aux données résumées transforme aussi les variables binaires en variables continues. Par exemple pour le sexe, l’information disponible est la proportion d’hommes ou de femmes, assimilable à une variable continue. A partir des données, les techniques de régression par les moindres carrés permettent d’estimer les coefficients ¯ j et de tester l’influence des variables explicatives sur la valeur de l’effet (test des coefficients ¯ j à zéro). Le test de tendance de Breslow et Day (cf. 20.3) permet de rechercher une tendance entre rapport des cotes et une unique variable continue x. En fait, il s’agit du test de ¯ = 0 dans le modèle log (Ã) = ® + ¯x. Exemple 24.3 La figure 24.4 représente le résutat de la recherche d’une interaction entre une covariable x et la taille de l’effet à partir des résultats de 30 essais. La relation entre le logarithme du risque relatif log(RR) et la covariable x a été récherchée en utilisant la régression linéaire pondérée par l’inverse de la variance 263 Modélisation de l’effet du logarithme du risque relatif. Les résultats de cette régression sont les suivants : Coefficient Valeur p ordonnée à l’origine -0,12 pente -0,36 0.04 Ces résultats sont en faveur d’une relation entre la taille de l’effet traitement et la covariable x. Une interaction existe donc très certainement, visualisée sur le graphique par la pente décroissante de la droite de régression. Fig. 24.4. — Exemple d’interaction entre une covariable x et la taille de l’effet traitement mesurée par le logarithme du risque relatif. La droite de régression a été obtenue par une régression linéaire pondérée. B) Problèmes statistiques L’utilisation des techniques de régression des moindres carrés sur des données de ce type pose un certain nombre de problèmes statistiques. Homoscédasticité La régression linéaire fait l’hypothèse de l’homoscédasticité, c’est-à-dire de la constance de la variance de la variable dépendante : ¾ 2Y jX = cte = ¾2 264 Hétérogénéité et analyse en sous-groupes Avec la nature des variables ici considérées cette hypothèse n’est pas vérifiée. En effet, la variance d’un rapport des cotes ou de son logarithme dépend du rapport des cotes lui-même, entrainant une variation de cette variance en fonction de la valeur de la variable indépendante qui conditionne, d’après le modèle, la valeur de la variable indépendante. Ce phénomène se retrouve avec le risque relatif (et son logarithme) et avec la différence des risques. Cette difficulté peut être contournée par les techniques de régression par les moindres carrés pondérés. Les poids utilisés sont les inverses de la variance de la variable dépendante. Distribution de la variable dépendante Une autre hypothèse statistique faite par la régression linéaire par les moindres carrés est celle de la distribution gaussienne de la variable dépendante. La différence des risques suit une distribution gaussienne (à condition que les effectifs soient grands) et son utilisation ne pose donc pas de problème. Parmi les mesures multiplicatives, seuls les logarithmes de le rapport des cotes et du risque relatif suivent une distribution gaussienne. Il convient donc d’utiliser ces logarithmes et non pas le rapport des cotes ou le risque relatif comme variable dépendante. Cette hypothèse concernant la distribution de la variable dépendante est nécessaire pour les calculs d’inférence statistique (distribution des paramètres et tests statistiques), mais elle est sans importance pour l’estimation ponctuelle des paramètres. Variables explicatives aléatoires La régression nécessite que les variables explicatives soient des variables contrôlées, non aléatoires. Dans ces problèmes de méta-régression, il arrive que certaines des variables potentiellement interagissantes avec l’effet soient des variables aléatoires. Exemple 24.4 Dans un essai d’un traitement antihypertenseur, la baisse de la pression artérielle (PA) sous traitement est une variable aléatoire. En effet, la réplication de l’essai avec exactement les mêmes patients conduira à d’autres valeurs de baisse de la PA. Par contre, la proportion de femmes dans un essai est une variable non aléatoire, constante. Ce caractère alétoire provient la plupart du temps d’une erreur de mesure (cf. la baisse de PA), nécessitant de recourir à des techniques spécifiques (réf. [139], p.288). Etendue des valeurs La précision et la puissance d’une régression sont d’autant plus importantes que les valeurs des variables X couvrent l’ensemble de leur domaine de variation. En Modélisation de l’effet 265 pratique, les caractéristiques moyennes des patients sont souvent très similaires d’un essai à l’autre. Les valeurs des X sont donc regroupées et donnent lieu à un nuage de points de faible étendue. Il devient alors difficile d’identifier une relation dans ce nuage de points. Une instabilité des différents résultats obtenus après retrait d’un point est un argument en faveur de cette situation. Faible nombre de points Une autre limite de cette approche est représentée par le faible nombre de points disponibles. Chaque point représentant un essai, le nombre d’unités statistiques est le plus souvent de l’ordre de la dizaine. Ce faible nombre de points entraîne une puissance assez faible et limite le nombre de variables explicatives que l’on peut introduire dans le modèle. En effet, prendre en considération un nombre de variables explicatives supérieur au tiers du nombre de points disponibles aboutit à une surparamétrisation du modèle, débouchant sur une perte de performance du processus d’estimation. En pratique, des analyses univariées envisageant successivement les covariables seront préférables à des analyses plus globales prenant en compte simultanément ces covariables. C) Régression avec modèle aléatoire Une autre approche basée sur un modèle aléatoire a été récemment proposée [187]. Ce modèle introduit une ou plusieurs covariables dans le modèle aléatoire simple (cf. 21.7). Ainsi, le vrai effet traitement du i-ème essai µi est distribué suivant une loi gaussienne, dont la moyenne ¹ i dépend des covariables : ¡ ¢ µ i » N ¹i ; ¿ 2 avec : ¹i = ¯ 0 + ¯1 Xi1 + ¢ ¢ ¢ + ¯j Xi j (Xi1; ¢ ¢ ¢ ; Xij ) représente le vecteur des valeurs des covariables rattaché à l’essai i. Contrairement au modèle aléatoire simple, ¹i n’est plus constant. L’observation obtenue au niveau de ce i-ème essai, yi est, elle aussi, distribuée suivant une loi gaussienne de moyenne µ i et de variance ¾2i qui est la variance intraessai : ¡ ¢ yi » N µi ; ¾2i En terme de modèle structurel, la valeur de l’effet traitement observée dans l’essai i peut s’écrire : yi = ¯ 0 + ¯1 Xi1 + ¢ ¢ ¢ + ¯j Xij + ±i + ei 266 avec : Méthodes non quantitatives de méta-analyse ¡ ¢ ¡ ¢ ± i » N 0; ¿ 2 et ei » N 0; ¾2i ± i représente la part d’hétérogénéité entre essais non expliquée par les covariables et ei l’erreur de mesure. Les paramètres de ce modèle (¯ 0; ¯ 1; ¢ ¢ ¢ ; ¯ j ; ¿ 2 ) peuvent être estimés par une procédure itérative. En résumé, bien que séduisante, l’approche par méta-régression se heurte à plusieurs limitations principalement liées à la nature des données résumées. Les résultats de son application sont souvent décevants, ne permettant pas de conclure. Bien souvent, la méta-régression n’apporte pas plus de renseignements qu’une analyse en sous-groupes bien conduite, moins exigeante au niveau des hypothèses statistiques faites sur les données. Et finalement, une recherche multivariée d’interaction efficace doit se baser sur les données individuelles.