Auteur : Nicolas Stefaniak

Niveau : Licence - master - doctorat - chercheurs confirmés

Prérequis

  • Avoir installé R, RStudio et le package ‘effectsize’ (Ben-Shachar et al., 2020). Pour rappel, on peut installer ce package et le charger de la manière suivante :
 install.packages("metafor")
 library("metafor")
  • Etre capable d’extraire les tailles d’effets à partir des informations disponibles dans un article

  • Connaître les différentes sortes de tailles d’effet.

Introduction

Lorsque nous réalisons une méta-analyse, avoir une une intervention qui améliore les symptômes d’un écart-type en moyenne peut révéler des réalités très différentes. Si toutes les études tendenvet vers une différence d’un écart-type, cela ne revient pas au même que si certaines études montrent une amélioration de 2.5 écart-types alors que d’autres montrent une détérioration de 0.5 écart-type. C’est donc une information qu’il est important de connaître.

Le problème est que les variations observées dans l’estimation des tailles d’effet entre les études peut s’expliquer par des variations aléatoires (des erreurs dans l’estimation de la mesure) ou par des variations dans la vraie estimation des tailles d’effet entre les études. Il est donc nécesaire de pouvoir quantifier l’hétérogénéité entre ces vraies tailles d’effets.

Ce chapitre permettra d’identifier s’il y a une hétérogénéité dans les vraies mesures de tailles d’effet (au pluriel), la variance associée à cette hétérogénéité. Nous aborderons les implications de cette hétérogéniété.

Encart 1. On ne choisit pas le type de modèle en fonction de l’hétérogénéité.

Nous avons évoqué au chapitre précédent qu’il existait des modèles à effets fixes et des modèles à effets aléatoires. Certains chercheurs ont pour pratique de choisir le type de modèle en fonction de la statitique d’hétérogénéité : si c’est significatif, on choisit un modèle à effets aléatoires, sinon un modèle à effets fixes. Cette pratique doit être découragée (Borenstein et al., 2009) parce que la pratique consistant à choisir entre les deux requiert de comprendre si les études partagent ou non une taille d’effet commune, et aucun test statistique ne peut remplacer la compréhension que vous avez de ma question que vous vous posez.

Cette pratique doit d’autant plus être découragée car l’absence d’effet significatif peut s’expliquer par une puissance statistique trop faible, en particulier si le nombre d’études inclues dans la méta-analyse est petit.

Quantifier l’hétérogénéité

Il existe plusieurs mesures pour quantifier l’hétérogénéité. Dans cette partie, nous aborderons la statitique Q (Cochran, 1954), le \(\tau^2\) et le \(I^2\).

Identifier ce qui relève des variations entre les tailles d’effet et ce qui relève des variations aléatoires va s’appuyer sur le même principe que celui de la décomposition de la variance dans l’analyse de variance. Cependant, le processus est quelque peu plus compliqué dans la mesure où les estimations des tailles d’effet de chacune des études à la fois des informations sur la vraie taille d’effet qu’elles mesurent et des variations aléatoires

Le mécanisme par lequel on sépare les variations entre les vrais effets et les variations aléatoires consiste à :

  1. calculer la variance totale entre les tailles d’effet observées dans les différentes études ;
  2. estimer à quel point on s’attendrait à ce que les tailles d’effet observées varient d’une étude à l’autre si la taille d’effet était la même pour l’ensemble des études ;
  3. identifier s’il y a un excès de variation qui reflèterait les différences réelles entre les tailles d’effet.

Comparez les graphiques en forêt de la Figure 1. Dans la partie A, on imagine assez aisément que les tailles d’effets entre les études puissent s’expliquer par des variations aléatoires étant donné que l’intervalle de confiance entre les études englobe les tailles d’effets des autres études, ce qui n’est pas dans la partie B de la Figure 1.

Figure 1. Tailles d’effet avec des intervalles de confiance assez larges pour deux conditions des situations où la taille d’effet varie (haut vs bas) et où l’intervalle de confiance varie (gauche vs droite)

Calculer la statistique Q

Il faut donc commencer par partionner les variations, ce qui est possible en calculant Q (Borenstein et al., 2009; Cochran, 1954).

\[ Q =\displaystyle \sum^k_{i=1} W_i \times (Y_i-M)^2= \displaystyle \sum^k_{i=1} W_iY_i^2-\frac{\left(\displaystyle \sum^k_{i=1} W_iY_i\right)^2}{\displaystyle \sum^k_{i=1} W_i}\text{ (1)}\]

\(W_i\) est le poids de chacune de études, \(Y_i\) est la taille d’effet de l’étude et M est la moyenne pondérée des tailles d’effet.

En d’autres termes, on calculer la variance des tailles d’effet en pondérant par l’inverse de la variance à l’intérieur de chacune des études.

Q est donc une mesure standardisée.

La valeur attendue de Q se base sur l’idée que les variations dans les estimations des tailles d’effet n’excède pas la dispersion observée au sein de chacune des études. L’hypothèse nulle de Q est que toutes les études partagent une taille d’effet commune, et que la variabilité dans les estimations s’explique par des variations aléatoires. Comme Q est une mesure standardisée, sa valeur dépend de degrés de liberté, qui valent \(k-1\) où k est le nombre d’études.

LSi Q reflète la dispersion totale entre les tailles d’effet, la différence entre Q et les degrés de liberté \(Q-ddl\) reflète l’excès de variation qu’on peut attribuer à des vraies différences de taille d’effet. Concrètement, si nous avons 6 études, comme dans la Figure 1, la valeur attendue de Q est 5 (6-1). Cela signifie qu’il y a un excès de variation observée si Q est supérieur à 5 et qu’il y a moins de variations qu’attendue si Q est inférieur à 5.

Borenstein et al. (2009) soulignent que cette statistique peut paraître peu intuitive pour deux raisons:

  • Q est une mesure standardisée et il peut être souhaitable d’exprimer la dispersion sous la forme d’un rapport ou sur la même échelle que les tailles d’effet.
  • Comme Q est une somme, cette valeur dépend du nombre d’études, ce qui signifie qu’on ne peut pas avoir de balises pour savoir si la valeur de Q est élevée ou non puisque une même valeur peut être considérée comme élevée dans une méta-analyse mais pas dans une autre.

On peut néanmoins utiliser cette valeur pour construire des mesures qui répondent aux besoins que nous venons d’évoquer. C’est ce qui est représenté dans la Figure 2 (inspirée de Borenstein et al. (2009))

Figure 2. Représentation grpahique des relations qui existent entre les différentes mesures d’hétérogénéité.

Pour tester l’hypothèse d’homogénéité, nous pouvons utiliser directement la statistique Q. Q suit une distribution \(\chi^2\) ayant \(k-1\) degrés de liberté. Il faut néanmoins être conscient que ce test d’hétérogénéité est sensible à l’ampleur de l’hétérogénéité mais également à la précision de sa mesure, ce qui dépend grandement du nombre d’études inclues dans la méta-analyse. Ainsi, s’il n’y a que quelques études, ne pas rejeter l’hypothèse nulle ne sera pas très informatif. L’absence de preuves n’est pas la preuve de l’absence. De même, si les variances de chacune des études est importante (due à des petits échantillons), les différences entre les vraies tailles d’effet peuvent être masquées. Par ailleurs, ce test permet d’évaluer la viabilité de l’hypothèse nulle mais pas pour estimer l’ampleur de la vraie dispersion (Borenstein et al., 2009).

Estimer \(\tau^2\)

La valeur de \(\tau^2\) est définie comme la variance des vraies tailles d’effet. Étant donné que nous ne pouvons accéder directement aux vraies tailles d’effet, nous ne pouvons calculer directement cette variance. On doit donc en faire une estimation, \(T^2\). on obtient cette mesure par l’équation 2:

\[T^2=\frac{Q-ddl}{C} \text{ (2)}\]

où C vaut :

\[T^2=\sum W_i - \frac{\sum W^2_i}{\sum W_i} \text{ (3)}\] Une point sensible est que, bien qu’une variance ne puisse pas être négative, la valuer de \(T^2\) peut être inférieur à 0 si Q est inférieur aux degrés de liberté. Dans ce cas, \(T^2\) vaut simplement 0. Á l’inverse, lorsque la valeur est positive, cela signifie qu’il y a un excès de variation et plus cet excès est important et plus \(T^2\) sera élevé.

Encart 2. Le rôle de \(T^2\) dans les effets aléatoires.

Nous avons vu au chapitre précédent que les modèles à effets aléatoires accordaient plus de poids aux petites études et moins de poids aux plus grandes études que les modèles à effets fixes.

Ceci s’explique par la manière dont la pondération est faite dans les modèles aléatoires où la pondération vaut :

\[W^*_i = \frac{1}{V^*_{y_i}} = \frac{1}{V_{y_i}+T^2}\]

ce qui signifie que la variance totale d’une étude est la somme de sa variance propre et de la variance entre les études, augmentant de facto la variance des études avec un gros échantillon, entraînant donc un moindre poids, et consécutivement plus de poids aux plu petites études.

Cette méthode est appelée la méthode DerSimonian et Laird (Borenstein & Hedges, 2019; DerSimonian & Laird, 1986) et est la méthode la plus populaire. Néanmoins, cette méthode ne serait plus considérée comme étant la meilleure à l’heure actuelle où les contraintes computationnelles ne représentent plus une limite, et la methode GENQ (DerSimonian & Kacker, 2007) ou le maximum de vraisemblance restreint pourrait être une meilleure alternative (Borenstein et al., 2009; Veroniki et al., 2015). Dans tous les cas, les différences entre les différentes méthodes sont suffisamment faibles pour que le choix d’un algorithme ou d’un autre soit anecdotique.

Lorsqu’on fait la racine carrée de \(\tau^2\) (\(\sqrt\tau^2\)), on obtient \(\tau\), l’écart-type de la distribution des effets réels. Cette valeur peut alors être utilisée pour décrirer la distribution des tailles d’effet autour de la moyenne pondérée des tailles d’effet réelles. On peut donc calculer l’intervalle de confiance de cette moyenne pondérée pour identifier les limites entre lesquelles se situe la vraie moyenne pondérée des tailles d’effets réelles. On obtient respectivement les limites inférieures et supérieures pour un intervalle à 95% par

\[lim_{inf_{95}}= M-1.96 \times T \text{ (4)}\]

\[lim_{sup_{95}}= M+1.96 \times T \text{ (5)}\]

Ces limites sont importantes pour pouvoir interpréter correctement les tailles d’effet. Imaginez que vous vous intéressiez à l’efficacité d’une intervention psychothérapeutique dans le cadre d’un trouble donné. Vous envisagez deux interventions possibles pour vos patients. Dans les deux cas, les méta-analyses indiquent une taille d’effet pondérée moyenne de 0.5, cela signifie que la taille d’effet permet d’améliorer d’un demi écart-type les symptômes des patients. A priori, les deux approches sont plutôt satisfaisantes. Cependant, l’interprétation sera grandement différente si l’intervalle de confiance s’étend de 0.4 à 0.6 pour l’une des interventions et de -.10 à 1.10 pour l’autre. Dans le premier cas, l’intervention examinée est toujours efficace mais certains facteurs peuvent légèrement moduler cette efficacité. Quoiqu’il en soit, a minima, elle améliorera l’état des patients en moyenne d’environ 0.4 écart-types, même dans les conditions défavorables. Á l’inverse, dans les conditions favorables, l’efficacité n’excèdera pas une amélioration 0.6 écart-type. Dans le second cas, dans les conditions défavorables, l’intervention pourrait avoir un impact négatif sur l’état des patients, alors que dans les conditions favorables, elle pourrait avoir un efficacité supérieure à 1 écart-type. Pour choisir entre les deux approches et prendre une décision éclairée, il devient alors indispensable d’être en mesure d’identifier les conditions favorables et défavorables, et de savoir si les patients à qui sont destinés l’intervention ont des caractéristiques qui sont favorables à la seconde intervention, qu’il faudra choisir si c’est le cas, ou non, ce qui devrait nous amener à devoir privilégier la première.

Encart 3. Comment évaluer les facteurs qui influencent la taille d’effet.

Lorsque nous avons identifié qu’il y aviat une très forte hétérogénéité dans l’estimation des tailles d’effet, nous pouvons émettre des hypothèse quant aux facteurs à l’origine de cette hétérogénéité. Pour tester la pertinence de ces facteurs, nous pouvons réaliser des méta-analyses par sous-groupe ou des méta-régressions.

Encart 4. Les intervalles de prédiction.

Nous avons déjà évoqué la différence entre l’intervalle de confiance et l’intervalle de prédiction au chapitre précédent. Nous y revenons (et le développerons dans un prochain chapitre) pour indiquer l’intervalle de prédiction serait une meilleure alternative que l’intervalle de confiance pour se faire une opinion de la dispersion possible des tailles d’effet, en particulier pour de futures études (IntHout et al., 2014).

Le \(I^2\)

Le \(I^2\) dans la méta-analyse correspond sensiblement au R² dans les régressions. Il s’agit d’appliquer le principe de décomposition de la variance et d’identifier la part de variance qu’on peut attribuer à la distribution des vrais effets par rapport à la variance totale des tailles d’effet. Proposée par Higgins et ses collaborateurs (2002; 2003), cette valeur est obtenue par :

\[$I^2=\left(\frac{Q-ddl}{Q}\right)\times 100 = \left(\frac{\tau^2}{tau^2+V_y}\right)\times 100 \text{ (6)}\]

C’est donc le rapport entre l’excès de variance sur la variance totale.

Il faut néanmoins noter que ce n’est pas la vraie définition de I² car la variance spécifique à chacune des études varie d’une étude à l’autre. Il faut donc comprendre cette valeur comme une statistique descriptive et non comme une estimation réelle. Cette valeur reflète le pourcentage de superposition entre les intervalles de confiance, ce quine dépend en aucune manière de la vraie localisation ou de l’étendue des effets réels (Borenstein et al., 2009).On peut donc voir le I² conmme une mesure d’inconsistance entre les résultats des différentes études.

Un intérêt de I² est que sa valeur n’est pas dépendante du nombre d’études dans l’analyse (Harrer et al., 2021).

Tout comme interpréter l’intervalle de confiance de la statistique \(\tau\) doit amener à se questionner sur les raisons de ces variations, plus la valeur du I² est élevée, et plus on doit se demander quels sont les facteurs qui sont à l’origine de ces variations. Higgins et al. (2002; 2003) propose les valeurs 25%, 50% et 75% pour considérer que les variations sont faibles, moyennes et élevées respectivement. D’après Borenstein et al. (2009), la moitié des méta-analyses ont un I² qui vaut 0, et pour l’autre moitié, cela se répartit de manière assez homogène entre 0 et 100%.

Pour terminer, il faut comprendre que cette valeur est un indicateur de la dispersion des effets réels. Les effets peuvent être très proches avec un I² élevé si l’estimation des tailles d’effet de chacune de études est précise. L’inverse est tout aussi vrai : on peut avoir des tailles d’effet largement dispersées mais qui ont un I² faible car l’intervalle de confiance autour de chaque estimation est large.

Un des points qui contraste I² et T² est que T² étant sur la même échelle de mesure que les tailles d’effet, on ne peut pas comparer les T² entre des méta-analyses qui utilisent des tailles d’effet différentes alors qu’on peut comparer le I² puisque cette valeur est à la fois indépendante du nombre d’études (contrairement à la statistique Q) et de l’échelle de mesure.

Comme la précision du \(I^2\) dépend de la précision des études inclues (Rücker et al., 2008), on ne peut pas s’appuyer que cette statistique (Harrer et al., 2021).

Astuce

Il existe une recommandation selon laquelle une valeur supérieur à 50% est le seuil qu’il faut atteindre pour aller explorer la présence de valeurs influentes et/ou de faire des analyses par sous-groupe ou faire de méta-régressions.

Cette règle est une règle d’usage et présente un certain nombre de limites mais a pour avantage de pouvoir être fixée a priori. Ce qu’il faudra éviter, c’est d’enlever les tailles d’effet sans avoir une bonne raison de le faire, simplement parce que les résultats ne nous plaisent pas. Cela pourrait fortement biaiser la méta-analyse.

le \(H^2\)

On obtient également le \(H^2\) (Harrer et al., 2021; J. Higgins et al., 2002) à partir de la statistique Q et est une mesure proche du \(I^2\). Il s’agit du rapport de la variance observée et de la variance attendue en raison de l’erreur d’échantillonnage.

\[$H^2=\frac{Q}{k-1} \text{ (7)}\]

D’après Harrer et al. (2021), cette mesure est plus élégante que le \(I^2\) étant qu’il n’est pas nécessaire de corriger de manière artificielle la valeur de Q quand Q est inférieur à K-1.

Lorsqu’il n’y a pas de variabilité entre les études, \(H^2\) vaudra 1 (ou moins) alors que les valeurs supérieures à 1 indiquent la présence d’une hétérogénéité entre les études.

Cette statistique, bien que plus élégante, est bien moins souvent présentée dans les résultats des méta-analyses.

Conclusions

Quand on examine l’hétérogénéité, il faut l’apprécier en contexte en prenant en compte les trois indicateurs qui apportent des informations différentes. Etant donné que ces différentes mesures apportent des informations différentes et complémentaires, il est important de reporter chacune des valeurs.

Borenstein et al. (Borenstein et al., 2009) recommande de reporter la taille d’effet moyenne et le T plutôt que de reporter le T² qui est moins facilement interprétable. Cette recommandation prend sens dû au fait qu’il est habituel de reporter la moyenne et l’écart-type dans les études primaires. C’est le même principe qui prévaut ici.

Une présentation informative de l’hétérogénéité nécessite à la fois une mesure de l’ampleur et de l’incertitude. Une erreur à ne pas commettre serait d’interpréter des valeur de T² ou de I² ayant une valeur de 0 comme révélant une grande consistance entre les études sans s’être assuré que l’intervalle de confiance de ces valeurs exclue les grandes valeurs. En effet, à nouveau, I² et T² peuvent être très faibles si l’estimation des tailles d’effet de chaque étude individuelle est imprécise.

Obtenir ces différentes valeurs

Dans R (R Core Team, 2023), le package ‘metafor’ (Viechtbauer, 2010) permet d’obtenir ces différentes valeurs avec la fonction print ou avec la fonction summary.

Des chercheurs se sont intéressés à l’efficacité du vaccin BCG contre la tuberculose. Treize études ont été inclues. Les données peuvent être chargées dans la mémoire de R en utilisant la commande

Pour l’illustrer, reprenons l’exercice sur l’efficacité du vaccin BCG pour lutter contre la tuberculose. Pour rappel, les données sont directement dans la mémoire de R et s’appellent “dat.bcg”. Vous pouvez charger les données de la manière suivante :

data(dat.bcg)

Les données sont présentées ci-dessous.

Données de l'efficacité du vaccin BCG contre la tuberculose

trial

author

year

tpos

tneg

cpos

cneg

ablat

alloc

1

Aronson

1,948

4

119

11

128

44

random

2

Ferguson & Simes

1,949

6

300

29

274

55

random

3

Rosenthal et al

1,960

3

228

11

209

42

random

4

Hart & Sutherland

1,977

62

13,536

248

12,619

52

random

5

Frimodt-Moller et al

1,973

33

5,036

47

5,761

13

alternate

6

Stein & Aronson

1,953

180

1,361

372

1,079

44

alternate

7

Vandiviere et al

1,973

8

2,537

10

619

19

random

8

TPT Madras

1,980

505

87,886

499

87,892

13

random

9

Coetzee & Berjak

1,968

29

7,470

45

7,232

27

random

10

Rosenthal et al

1,961

17

1,699

65

1,600

42

systematic

11

Comstock et al

1,974

186

50,448

141

27,197

18

systematic

12

Comstock & Webster

1,969

5

2,493

3

2,338

33

systematic

13

Comstock et al

1,976

27

16,886

29

17,825

33

systematic

Dans ce tableau, les variables correspondent à :

  • trial : le numéro de l’essai
  • author : le auteurs de l’étude
  • year : l’année de réalisation de l’étude
  • tpos : le nombre de personnes positives à tuberculose chez les personnes vaccinées
  • tneg : le nombre de personnes négatives à tuberculose chez les personnes vaccinées
  • cpos : le nombre de personnes positives à tuberculose dans le groupe de contrôle
  • cneg : le nombre de personnes négatives à tuberculose dans le groupe de contrôle

Nous n’avons pas besoin des autres variables pour le moment.

Exercice 1

Faites la méta-analyse sur ces données (sans faire le forest plot).

Pour rappel : cet exercice a déjà été réalisé dans le chapitre précédent et le lecteur s’y référera pour une description plus pédagogique des différentes étapes.

Cliquez pour la solution

Nous commençons par calculer les tailles d’effet et leur variance avec la fonction escalc.

dat <- escalc(measure="OR", ai=tpos, bi=tneg, ci=cpos, di=cneg, data=dat.bcg)
rma.out <- rma(yi = yi, # la colonne dans le jeu de données où on trouve la taille d'effet 
                vi = vi, # la colonne où on trouve l'erreur de mesure  
                data=dat, # le nom du jeu de données 
                method="PM", # utiliser la méthode de Paule-Mandel
                digits=2) # le nombre de décimale à imprimer dans la sortie de résultats
summary(rma.out)
## 
## Random-Effects Model (k = 13; tau^2 estimator: PM)
## 
##   logLik  deviance       AIC       BIC      AICc   
##   -13.10     37.31     30.20     31.33     31.40   
## 
## tau^2 (estimated amount of total heterogeneity): 0.34 (SE = 0.19)
## tau (square root of estimated tau^2 value):      0.58
## I^2 (total heterogeneity / total variability):   92.15%
## H^2 (total variability / sampling variability):  12.73
## 
## Test for Heterogeneity:
## Q(df = 12) = 163.16, p-val < .01
## 
## Model Results:
## 
## estimate    se   zval  pval  ci.lb  ci.ub      
##    -0.75  0.19  -3.99  <.01  -1.11  -0.38  *** 
## 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

On constate que la statistique Q est asocciée à une probabilité qu’on interprète comme révélant la présence d’un effet significatif, ce qui amène à rejeter la viabilité de l’hypothèse d’une taille d’effet commune. Ceci est également étayé par la valeur du \(I^2\) puisque 92.15% de la variance totale serait due à de l’hétérogénéité entre les études.

Si nous transformons les valeur en rapports de cote

predict(object = rma.out, transf=exp)  
## 
##  pred ci.lb ci.ub pi.lb pi.ub 
##  0.47  0.33  0.68  0.14  1.58

On peut observer que la moyenne pondérérée des taille d’effet vaut 0.47, ce qui signifie que nous avons 2.1276596 moins de personnes qui vont avoir la tuberculose quand elles ont reçu le vaccin. Cependant, cette valeur varie entre 1.4705882 et 3.030303, ce qui change grande l’interprétation qu’on peut faire de l’efficacité des vaccins.

Nous pourrions vouloir ajouter ces informations au forest plot que nous avions réalisé. On va commencer par refaire le forest plot que nous avions déjà réalisé :

par(mar=c(4,4,2,2))

dat$weights <- paste0(round(weights(rma.out)), "%") # weights in % (rounded)

forest(rma.out, xlim=c(-4,4.5), header=TRUE, top=2, mlab="Summary",
       slab=dat$author,
       ilab=dat$weights, ilab.xpos=2.6, ilab.pos=2.6)
text(2.6, -1, "100%", pos=2)
text(2.6, 15 , "Weight", pos=2, font=2)

En s’appuyant sur le même principe que celui que nous avions utilisé pour ajouter du texte précédémment, nous allons commencer par récupérer les informations qui nous sont utiles (l’idée est de le faire automatiquement plutôt que manuellement) et en faire du texte.

hetéro.text<-paste0("I² =",  # zone de texte où on dit I² = 
                    round(rma.out$I2,3), # le résultat de I² est dans notre objet à l'adresse I2
                    ", Q=", round(rma.out$QE,1), # même ^principe pour les autres valeurs 
                    ", p ", 
                    ifelse(round(rma.out$QEp, 3)==0, "< .001", paste0("= ",round(rma.out$QEp, 3) )), # on fait attention à arrondir la probabilité 
                    ", tau = ", 
                    round(rma.out$tau2,2))
hetéro.text
## [1] "I² =92.146, Q=163.2, p < .001, tau = 0.34"

Et on ajoute ce texte à notre graphique. La difficulté étant de le placer au bon endroit.

text(-2.5, -1.5, hetéro.text, pos=2)

Exercice 1

Le Syndrome d’Apnées Obstructives du Sommeil (SAOS) occasionne, par ses mécanismes de pression thoracique et de désaturation en oxygène, de plus grands efforts de la part du cœur pour maintenir les fonctions vitales lors des différentes phases du sommeil. Cette charge mécanique entraine une plus grande fragilité de cet organe. À long terme, on peut s’attendre à une augmentation significative des risques cardiovasculaires chez les personnes souffrant de SAOS.

Les auteurs se sont demandés si la propagation des marqueurs de l’inflammation immunitaire au sein de l’organisme était un facteur de risque d’un trouble cardiovasculaire. Les auteurs se demandent si la réaction inflammatoire était significativement réduite chez les personnes qui ont bénéficié d’un traitement par Pression Positive Continue (PPC) puisque cette thérapeutique réduit le risque de trouble cardiovasculaire.

Les données sont disponibles sur la feuille ‘ex4’. Importez les données, calculez les tailles d’effet, réaliser la méta-analyse et présentez les résultats sous la forme d’un forest plot. Réalisez une méta-analyse avec un effet aléatoire, calculez les mesures d’hétérogénéité et interprétez les résultats.

Cliquez pour la solution
dat <- read_excel("Exercices.xlsx", sheet="ex4")  

Les données sont présentées ci-dessous.

Données SAOS - différences de moyennes standardisées

study

inf_index_baseline

sd_baseline

n_baseline

inf_index_ttmt

sd_ttmt

n_ttmt

Blue et al., 2020

80.2

5.21

136

83.0

3.85

136

Gulia et al., 2018

79.5

7.32

103

74.6

6.24

100

Jackson et al., 2019

87.6

2.01

128

85.7

2.05

126

Jonas et al., 2017

85.1

5.11

34

81.0

4.16

34

Leng et al., 2022

82.0

6.58

92

79.2

6.50

87

Schroeder et al., 2019

70.6

2.30

76

72.4

6.49

74

Thompson et al., 2022

73.9

7.69

120

70.3

5.60

119

Wolf et al., 2019

70.1

2.35

100

72.5

2.14

98

Zhunik et al., 2017

76.9

3.08

87

73.2

4.02

87

dat <- escalc("SMD", m1i=inf_index_baseline, sd1i=sd_baseline, n1i=n_baseline, 
              m2i=inf_index_ttmt, sd2i=sd_ttmt, n2i=n_ttmt,
              slab=study, data=dat)
dat
## 
##                    study inf_index_baseline sd_baseline n_baseline 
## 1      Blue et al., 2020               80.2        5.21        136 
## 2     Gulia et al., 2018               79.5        7.32        103 
## 3   Jackson et al., 2019               87.6        2.01        128 
## 4     Jonas et al., 2017               85.1        5.11         34 
## 5      Leng et al., 2022               82.0        6.58         92 
## 6 Schroeder et al., 2019               70.6        2.30         76 
## 7  Thompson et al., 2022               73.9        7.69        120 
## 8      Wolf et al., 2019               70.1        2.35        100 
## 9    Zhunik et al., 2017               76.9        3.08         87 
##   inf_index_ttmt sd_ttmt n_ttmt      yi     vi 
## 1           83.0    3.85    136 -0.6096 0.0154 
## 2           74.6    6.24    100  0.7169 0.0210 
## 3           85.7    2.05    126  0.9332 0.0175 
## 4           81.0    4.16     34  0.8699 0.0644 
## 5           79.2    6.50     87  0.4262 0.0229 
## 6           72.4    6.49     74 -0.3698 0.0271 
## 7           70.3    5.60    119  0.5331 0.0173 
## 8           72.5    2.14     98 -1.0633 0.0231 
## 9           73.2    4.02     87  1.0287 0.0260
model_RE <- rma(yi, vi, data=dat, method="PM", digits=2)
model_RE
## 
## Random-Effects Model (k = 9; tau^2 estimator: PM)
## 
## tau^2 (estimated amount of total heterogeneity): 0.55 (SE = 0.29)
## tau (square root of estimated tau^2 value):      0.74
## I^2 (total heterogeneity / total variability):   96.10%
## H^2 (total variability / sampling variability):  25.67
## 
## Test for Heterogeneity:
## Q(df = 8) = 209.05, p-val < .01
## 
## Model Results:
## 
## estimate    se  zval  pval  ci.lb  ci.ub    
##     0.27  0.25  1.06  0.29  -0.23   0.77    
## 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
predict(model_RE)
## 
##  pred   se ci.lb ci.ub pi.lb pi.ub 
##  0.27 0.25 -0.23  0.77 -1.27  1.81
## Traduction des résultats en un "forestplot", incluant le poids ("weights")
## de chaque article dans les résultats
par(mar=c(4,4,2,2))

dat$weights <- paste0(round(weights(model_RE)), "%") # weights en % (arrondis)

forest(model_RE, xlim=c(-4,4), header=TRUE, top=2, mlab="Summary",
       ilab=dat$weights, ilab.xpos=2.2, ilab.pos=2)
text(2.2, -1, "100%", pos=2)
text(2.2,  11, "Weight", pos=2, font=2)
hetéro.text<-paste0("I² =",  # zone de texte où on dit I² = 
                    round(model_RE$I2,3), # le résultat de I² est dans notre objet à l'adresse I2
                    ", Q=", round(model_RE$QE,1), # même ^principe pour les autres valeurs 
                    ", p ", 
                    ifelse(round(model_RE$QEp, 3)==0, "< .001", paste0("= ",round(model_RE$QEp, 3) )), # on fait attention à arrondir la probabilité 
                    ", tau = ", 
                    round(model_RE$tau2,2))
hetéro.text
## [1] "I² =96.104, Q=209.1, p < .001, tau = 0.55"
text(-0.5, -1.7, hetéro.text, pos=2)

La probabilité associée à la statistique Q nous amène rajeter l’hypothèse d’homogénéité des tailles d’effet. En effet, 96.10% de la variance totale s’explique par les variations des tailles d’effets entre les études. Avec une taille d’effet moyenne à .27, on constate que l’estimation peut s’entendre entre -0.23 et 0.77, ce que nous pouvons interpréter de deux manières différentes :

  1. la propagation des marqueurs de l’inflammation immunitaire n’est pas clairement un facteur de risque d’un trouble cardiovasculaire ;

  2. les études ont utilisé des méthodologies très différentes ce qui nous amenez à examiner pourquoi il y a de telles divergences qui amènent certaines études à obtenir une diminution en termes de facteurs de risques d’un trouble cardiovasculaire alors que d’autres indiquent qu’il s’agit d’un marqueur ayant une taille d’effet importante.

Ces résultats peuvent être présentés de la manière suivante dans une méa-analyse

On estime que la variance d’hétérogénéité entre les études \(\tau^2\) = .55, avec une valeur \(I^2\) = 96.10%. L’intervalle de prédiction s’étendant de -1.27 à 1.81, indiquant qu’un effet positif de la réaction inflammatoire puisse exister.

Les valeurs influentes

Références

Ben-Shachar, M. S., Lüdecke, D., & Makowski, D. (2020). effectsize: Estimation of effect size indices and standardized parameters. Journal of Open Source Software, 5(56), 2815. https://doi.org/10.21105/joss.02815
Borenstein, M., & Hedges, L. V. (2019). Effect sizes for meta-analysis. In H. Cooper, L. V. Hedges, & J. C. Valentine (Eds.), The handbook of research synthesis and meta-analysis, 3rd ed. (pp. 207–244). Russell Sage Foundation.
Borenstein, M., Hedges, L. V., Higgins, J. P. T., & Rothstein, H. R. (2009). Introduction to meta‐analysis. Wiley. https://doi.org/10.1002/9780470743386
Cochran, W. G. (1954). Some methods for strengthening the common χ 2 tests. Biometrics, 10(4), 417. https://doi.org/10.2307/3001616
DerSimonian, R., & Kacker, R. (2007). Random-effects model for meta-analysis of clinical trials: An update. Contemporary Clinical Trials, 28(2), 105–114. https://doi.org/10.1016/j.cct.2006.04.004
DerSimonian, R., & Laird, N. (1986). Meta-analysis in clinical trials. Controlled Clinical Trials, 7(3), 177–188. https://doi.org/10.1016/0197-2456(86)90046-2
Harrer, M., Cuijpers, P., A, F. T., & Ebert, D. D. (2021). Doing meta-analysis with R: A hands-on guide (1st ed.). Chapman & Hall/CRC Press.
Higgins, J. P. T. (2003). Measuring inconsistency in meta-analyses. BMJ, 327(7414), 557–560. https://doi.org/10.1136/bmj.327.7414.557
Higgins, J., Thompson, S., Deeks, J., & Altman, D. (2002). Statistical heterogeneity in systematic reviews of clinical trials: A critical appraisal of guidelines and practice. Journal of Health Services Research &Amp; Policy, 7(1), 51–61. https://doi.org/10.1258/1355819021927674
IntHout, J., Ioannidis, J. P., & Borm, G. F. (2014). The hartung-knapp-sidik-jonkman method for random effects meta-analysis is straightforward and considerably outperforms the standard DerSimonian-laird method. BMC Medical Research Methodology, 14(1). https://doi.org/10.1186/1471-2288-14-25
R Core Team. (2023). R: A language and environment for statistical computing. R Foundation for Statistical Computing. https://www.R-project.org/
Rücker, G., Schwarzer, G., Carpenter, J. R., & Schumacher, M. (2008). Undue reliance on i 2 in assessing heterogeneity may mislead. BMC Medical Research Methodology, 8(1). https://doi.org/10.1186/1471-2288-8-79
Veroniki, A. A., Jackson, D., Viechtbauer, W., Bender, R., Bowden, J., Knapp, G., Kuss, O., Higgins, J. P., Langan, D., & Salanti, G. (2015). Methods to estimate the between‐study variance and its uncertainty in meta‐analysis. Research Synthesis Methods, 7(1), 55–79. https://doi.org/10.1002/jrsm.1164
Viechtbauer, W. (2010). Conducting meta-analyses in R with the metafor package. Journal of Statistical Software, 36(3), 1–48. https://doi.org/10.18637/jss.v036.i03