install.packages("metafor")
library("metafor")
Etre capable d’extraire les tailles d’effets à partir des informations disponibles dans un article
Connaître les différentes sortes de tailles d’effet.
Lorsque nous réalisons une méta-analyse, avoir une une intervention qui améliore les symptômes d’un écart-type en moyenne peut révéler des réalités très différentes. Si toutes les études tendenvet vers une différence d’un écart-type, cela ne revient pas au même que si certaines études montrent une amélioration de 2.5 écart-types alors que d’autres montrent une détérioration de 0.5 écart-type. C’est donc une information qu’il est important de connaître.
Le problème est que les variations observées dans l’estimation des tailles d’effet entre les études peut s’expliquer par des variations aléatoires (des erreurs dans l’estimation de la mesure) ou par des variations dans la vraie estimation des tailles d’effet entre les études. Il est donc nécesaire de pouvoir quantifier l’hétérogénéité entre ces vraies tailles d’effets.
Ce chapitre permettra d’identifier s’il y a une hétérogénéité dans les vraies mesures de tailles d’effet (au pluriel), la variance associée à cette hétérogénéité. Nous aborderons les implications de cette hétérogéniété.
Nous avons évoqué au chapitre précédent qu’il existait des modèles à effets fixes et des modèles à effets aléatoires. Certains chercheurs ont pour pratique de choisir le type de modèle en fonction de la statitique d’hétérogénéité : si c’est significatif, on choisit un modèle à effets aléatoires, sinon un modèle à effets fixes. Cette pratique doit être découragée (Borenstein et al., 2009) parce que la pratique consistant à choisir entre les deux requiert de comprendre si les études partagent ou non une taille d’effet commune, et aucun test statistique ne peut remplacer la compréhension que vous avez de ma question que vous vous posez.
Cette pratique doit d’autant plus être découragée car l’absence d’effet significatif peut s’expliquer par une puissance statistique trop faible, en particulier si le nombre d’études inclues dans la méta-analyse est petit.
Il existe plusieurs mesures pour quantifier l’hétérogénéité. Dans cette partie, nous aborderons la statitique Q (Cochran, 1954), le \(\tau^2\) et le \(I^2\).
Identifier ce qui relève des variations entre les tailles d’effet et ce qui relève des variations aléatoires va s’appuyer sur le même principe que celui de la décomposition de la variance dans l’analyse de variance. Cependant, le processus est quelque peu plus compliqué dans la mesure où les estimations des tailles d’effet de chacune des études à la fois des informations sur la vraie taille d’effet qu’elles mesurent et des variations aléatoires
Le mécanisme par lequel on sépare les variations entre les vrais effets et les variations aléatoires consiste à :
Comparez les graphiques en forêt de la Figure 1. Dans la partie A, on imagine assez aisément que les tailles d’effets entre les études puissent s’expliquer par des variations aléatoires étant donné que l’intervalle de confiance entre les études englobe les tailles d’effets des autres études, ce qui n’est pas dans la partie B de la Figure 1.
Figure 1. Tailles d’effet avec des intervalles de confiance assez
larges pour deux conditions des situations où la taille d’effet varie
(haut vs bas) et où l’intervalle de confiance varie (gauche vs
droite)
Il faut donc commencer par partionner les variations, ce qui est possible en calculant Q (Borenstein et al., 2009; Cochran, 1954).
\[ Q =\displaystyle \sum^k_{i=1} W_i \times (Y_i-M)^2= \displaystyle \sum^k_{i=1} W_iY_i^2-\frac{\left(\displaystyle \sum^k_{i=1} W_iY_i\right)^2}{\displaystyle \sum^k_{i=1} W_i}\text{ (1)}\]
où \(W_i\) est le poids de chacune de études, \(Y_i\) est la taille d’effet de l’étude et M est la moyenne pondérée des tailles d’effet.
En d’autres termes, on calculer la variance des tailles d’effet en pondérant par l’inverse de la variance à l’intérieur de chacune des études.
Q est donc une mesure standardisée.
La valeur attendue de Q se base sur l’idée que les variations dans les estimations des tailles d’effet n’excède pas la dispersion observée au sein de chacune des études. L’hypothèse nulle de Q est que toutes les études partagent une taille d’effet commune, et que la variabilité dans les estimations s’explique par des variations aléatoires. Comme Q est une mesure standardisée, sa valeur dépend de degrés de liberté, qui valent \(k-1\) où k est le nombre d’études.
LSi Q reflète la dispersion totale entre les tailles d’effet, la différence entre Q et les degrés de liberté \(Q-ddl\) reflète l’excès de variation qu’on peut attribuer à des vraies différences de taille d’effet. Concrètement, si nous avons 6 études, comme dans la Figure 1, la valeur attendue de Q est 5 (6-1). Cela signifie qu’il y a un excès de variation observée si Q est supérieur à 5 et qu’il y a moins de variations qu’attendue si Q est inférieur à 5.
Borenstein et al. (2009) soulignent que cette statistique peut paraître peu intuitive pour deux raisons:
On peut néanmoins utiliser cette valeur pour construire des mesures qui répondent aux besoins que nous venons d’évoquer. C’est ce qui est représenté dans la Figure 2 (inspirée de Borenstein et al. (2009))
Figure 2. Représentation grpahique des relations qui existent entre les différentes mesures d’hétérogénéité.
Pour tester l’hypothèse d’homogénéité, nous pouvons utiliser directement la statistique Q. Q suit une distribution \(\chi^2\) ayant \(k-1\) degrés de liberté. Il faut néanmoins être conscient que ce test d’hétérogénéité est sensible à l’ampleur de l’hétérogénéité mais également à la précision de sa mesure, ce qui dépend grandement du nombre d’études inclues dans la méta-analyse. Ainsi, s’il n’y a que quelques études, ne pas rejeter l’hypothèse nulle ne sera pas très informatif. L’absence de preuves n’est pas la preuve de l’absence. De même, si les variances de chacune des études est importante (due à des petits échantillons), les différences entre les vraies tailles d’effet peuvent être masquées. Par ailleurs, ce test permet d’évaluer la viabilité de l’hypothèse nulle mais pas pour estimer l’ampleur de la vraie dispersion (Borenstein et al., 2009).
La valeur de \(\tau^2\) est définie comme la variance des vraies tailles d’effet. Étant donné que nous ne pouvons accéder directement aux vraies tailles d’effet, nous ne pouvons calculer directement cette variance. On doit donc en faire une estimation, \(T^2\). on obtient cette mesure par l’équation 2:
\[T^2=\frac{Q-ddl}{C} \text{ (2)}\]
où C vaut :
\[T^2=\sum W_i - \frac{\sum W^2_i}{\sum W_i} \text{ (3)}\] Une point sensible est que, bien qu’une variance ne puisse pas être négative, la valuer de \(T^2\) peut être inférieur à 0 si Q est inférieur aux degrés de liberté. Dans ce cas, \(T^2\) vaut simplement 0. Á l’inverse, lorsque la valeur est positive, cela signifie qu’il y a un excès de variation et plus cet excès est important et plus \(T^2\) sera élevé.
Nous avons vu au chapitre précédent que les modèles à effets aléatoires accordaient plus de poids aux petites études et moins de poids aux plus grandes études que les modèles à effets fixes.
Ceci s’explique par la manière dont la pondération est faite dans les modèles aléatoires où la pondération vaut :
\[W^*_i = \frac{1}{V^*_{y_i}} = \frac{1}{V_{y_i}+T^2}\]
ce qui signifie que la variance totale d’une étude est la somme de sa variance propre et de la variance entre les études, augmentant de facto la variance des études avec un gros échantillon, entraînant donc un moindre poids, et consécutivement plus de poids aux plu petites études.
Cette méthode est appelée la méthode DerSimonian et Laird (Borenstein & Hedges, 2019; DerSimonian & Laird, 1986) et est la méthode la plus populaire. Néanmoins, cette méthode ne serait plus considérée comme étant la meilleure à l’heure actuelle où les contraintes computationnelles ne représentent plus une limite, et la methode GENQ (DerSimonian & Kacker, 2007) ou le maximum de vraisemblance restreint pourrait être une meilleure alternative (Borenstein et al., 2009; Veroniki et al., 2015). Dans tous les cas, les différences entre les différentes méthodes sont suffisamment faibles pour que le choix d’un algorithme ou d’un autre soit anecdotique.
Lorsqu’on fait la racine carrée de \(\tau^2\) (\(\sqrt\tau^2\)), on obtient \(\tau\), l’écart-type de la distribution des effets réels. Cette valeur peut alors être utilisée pour décrirer la distribution des tailles d’effet autour de la moyenne pondérée des tailles d’effet réelles. On peut donc calculer l’intervalle de confiance de cette moyenne pondérée pour identifier les limites entre lesquelles se situe la vraie moyenne pondérée des tailles d’effets réelles. On obtient respectivement les limites inférieures et supérieures pour un intervalle à 95% par
\[lim_{inf_{95}}= M-1.96 \times T \text{ (4)}\]
\[lim_{sup_{95}}= M+1.96 \times T \text{ (5)}\]
Ces limites sont importantes pour pouvoir interpréter correctement les tailles d’effet. Imaginez que vous vous intéressiez à l’efficacité d’une intervention psychothérapeutique dans le cadre d’un trouble donné. Vous envisagez deux interventions possibles pour vos patients. Dans les deux cas, les méta-analyses indiquent une taille d’effet pondérée moyenne de 0.5, cela signifie que la taille d’effet permet d’améliorer d’un demi écart-type les symptômes des patients. A priori, les deux approches sont plutôt satisfaisantes. Cependant, l’interprétation sera grandement différente si l’intervalle de confiance s’étend de 0.4 à 0.6 pour l’une des interventions et de -.10 à 1.10 pour l’autre. Dans le premier cas, l’intervention examinée est toujours efficace mais certains facteurs peuvent légèrement moduler cette efficacité. Quoiqu’il en soit, a minima, elle améliorera l’état des patients en moyenne d’environ 0.4 écart-types, même dans les conditions défavorables. Á l’inverse, dans les conditions favorables, l’efficacité n’excèdera pas une amélioration 0.6 écart-type. Dans le second cas, dans les conditions défavorables, l’intervention pourrait avoir un impact négatif sur l’état des patients, alors que dans les conditions favorables, elle pourrait avoir un efficacité supérieure à 1 écart-type. Pour choisir entre les deux approches et prendre une décision éclairée, il devient alors indispensable d’être en mesure d’identifier les conditions favorables et défavorables, et de savoir si les patients à qui sont destinés l’intervention ont des caractéristiques qui sont favorables à la seconde intervention, qu’il faudra choisir si c’est le cas, ou non, ce qui devrait nous amener à devoir privilégier la première.
Lorsque nous avons identifié qu’il y aviat une très forte hétérogénéité dans l’estimation des tailles d’effet, nous pouvons émettre des hypothèse quant aux facteurs à l’origine de cette hétérogénéité. Pour tester la pertinence de ces facteurs, nous pouvons réaliser des méta-analyses par sous-groupe ou des méta-régressions.
Nous avons déjà évoqué la différence entre l’intervalle de confiance et l’intervalle de prédiction au chapitre précédent. Nous y revenons (et le développerons dans un prochain chapitre) pour indiquer l’intervalle de prédiction serait une meilleure alternative que l’intervalle de confiance pour se faire une opinion de la dispersion possible des tailles d’effet, en particulier pour de futures études (IntHout et al., 2014).
Le \(I^2\) dans la méta-analyse correspond sensiblement au R² dans les régressions. Il s’agit d’appliquer le principe de décomposition de la variance et d’identifier la part de variance qu’on peut attribuer à la distribution des vrais effets par rapport à la variance totale des tailles d’effet. Proposée par Higgins et ses collaborateurs (2002; 2003), cette valeur est obtenue par :
\[$I^2=\left(\frac{Q-ddl}{Q}\right)\times 100 = \left(\frac{\tau^2}{tau^2+V_y}\right)\times 100 \text{ (6)}\]
C’est donc le rapport entre l’excès de variance sur la variance totale.
Il faut néanmoins noter que ce n’est pas la vraie définition de I² car la variance spécifique à chacune des études varie d’une étude à l’autre. Il faut donc comprendre cette valeur comme une statistique descriptive et non comme une estimation réelle. Cette valeur reflète le pourcentage de superposition entre les intervalles de confiance, ce quine dépend en aucune manière de la vraie localisation ou de l’étendue des effets réels (Borenstein et al., 2009).On peut donc voir le I² conmme une mesure d’inconsistance entre les résultats des différentes études.
Un intérêt de I² est que sa valeur n’est pas dépendante du nombre d’études dans l’analyse (Harrer et al., 2021).
Tout comme interpréter l’intervalle de confiance de la statistique \(\tau\) doit amener à se questionner sur les raisons de ces variations, plus la valeur du I² est élevée, et plus on doit se demander quels sont les facteurs qui sont à l’origine de ces variations. Higgins et al. (2002; 2003) propose les valeurs 25%, 50% et 75% pour considérer que les variations sont faibles, moyennes et élevées respectivement. D’après Borenstein et al. (2009), la moitié des méta-analyses ont un I² qui vaut 0, et pour l’autre moitié, cela se répartit de manière assez homogène entre 0 et 100%.
Pour terminer, il faut comprendre que cette valeur est un indicateur de la dispersion des effets réels. Les effets peuvent être très proches avec un I² élevé si l’estimation des tailles d’effet de chacune de études est précise. L’inverse est tout aussi vrai : on peut avoir des tailles d’effet largement dispersées mais qui ont un I² faible car l’intervalle de confiance autour de chaque estimation est large.
Un des points qui contraste I² et T² est que T² étant sur la même échelle de mesure que les tailles d’effet, on ne peut pas comparer les T² entre des méta-analyses qui utilisent des tailles d’effet différentes alors qu’on peut comparer le I² puisque cette valeur est à la fois indépendante du nombre d’études (contrairement à la statistique Q) et de l’échelle de mesure.
Comme la précision du \(I^2\) dépend de la précision des études inclues (Rücker et al., 2008), on ne peut pas s’appuyer que cette statistique (Harrer et al., 2021).
Il existe une recommandation selon laquelle une valeur supérieur à 50% est le seuil qu’il faut atteindre pour aller explorer la présence de valeurs influentes et/ou de faire des analyses par sous-groupe ou faire de méta-régressions.
Cette règle est une règle d’usage et présente un certain nombre de limites mais a pour avantage de pouvoir être fixée a priori. Ce qu’il faudra éviter, c’est d’enlever les tailles d’effet sans avoir une bonne raison de le faire, simplement parce que les résultats ne nous plaisent pas. Cela pourrait fortement biaiser la méta-analyse.
On obtient également le \(H^2\) (Harrer et al., 2021; J. Higgins et al., 2002) à partir de la statistique Q et est une mesure proche du \(I^2\). Il s’agit du rapport de la variance observée et de la variance attendue en raison de l’erreur d’échantillonnage.
\[$H^2=\frac{Q}{k-1} \text{ (7)}\]
D’après Harrer et al. (2021), cette mesure est plus élégante que le \(I^2\) étant qu’il n’est pas nécessaire de corriger de manière artificielle la valeur de Q quand Q est inférieur à K-1.
Lorsqu’il n’y a pas de variabilité entre les études, \(H^2\) vaudra 1 (ou moins) alors que les valeurs supérieures à 1 indiquent la présence d’une hétérogénéité entre les études.
Cette statistique, bien que plus élégante, est bien moins souvent présentée dans les résultats des méta-analyses.
Quand on examine l’hétérogénéité, il faut l’apprécier en contexte en prenant en compte les trois indicateurs qui apportent des informations différentes. Etant donné que ces différentes mesures apportent des informations différentes et complémentaires, il est important de reporter chacune des valeurs.
Borenstein et al. (Borenstein et al., 2009) recommande de reporter la taille d’effet moyenne et le T plutôt que de reporter le T² qui est moins facilement interprétable. Cette recommandation prend sens dû au fait qu’il est habituel de reporter la moyenne et l’écart-type dans les études primaires. C’est le même principe qui prévaut ici.
Une présentation informative de l’hétérogénéité nécessite à la fois une mesure de l’ampleur et de l’incertitude. Une erreur à ne pas commettre serait d’interpréter des valeur de T² ou de I² ayant une valeur de 0 comme révélant une grande consistance entre les études sans s’être assuré que l’intervalle de confiance de ces valeurs exclue les grandes valeurs. En effet, à nouveau, I² et T² peuvent être très faibles si l’estimation des tailles d’effet de chaque étude individuelle est imprécise.
Dans R (R Core Team,
2023), le package ‘metafor’ (Viechtbauer, 2010) permet
d’obtenir ces différentes valeurs avec la fonction print ou
avec la fonction summary.
Des chercheurs se sont intéressés à l’efficacité du vaccin BCG contre la tuberculose. Treize études ont été inclues. Les données peuvent être chargées dans la mémoire de R en utilisant la commande
Pour l’illustrer, reprenons l’exercice sur l’efficacité du vaccin BCG pour lutter contre la tuberculose. Pour rappel, les données sont directement dans la mémoire de R et s’appellent “dat.bcg”. Vous pouvez charger les données de la manière suivante :
data(dat.bcg)
Les données sont présentées ci-dessous.
trial | author | year | tpos | tneg | cpos | cneg | ablat | alloc |
|---|---|---|---|---|---|---|---|---|
1 | Aronson | 1,948 | 4 | 119 | 11 | 128 | 44 | random |
2 | Ferguson & Simes | 1,949 | 6 | 300 | 29 | 274 | 55 | random |
3 | Rosenthal et al | 1,960 | 3 | 228 | 11 | 209 | 42 | random |
4 | Hart & Sutherland | 1,977 | 62 | 13,536 | 248 | 12,619 | 52 | random |
5 | Frimodt-Moller et al | 1,973 | 33 | 5,036 | 47 | 5,761 | 13 | alternate |
6 | Stein & Aronson | 1,953 | 180 | 1,361 | 372 | 1,079 | 44 | alternate |
7 | Vandiviere et al | 1,973 | 8 | 2,537 | 10 | 619 | 19 | random |
8 | TPT Madras | 1,980 | 505 | 87,886 | 499 | 87,892 | 13 | random |
9 | Coetzee & Berjak | 1,968 | 29 | 7,470 | 45 | 7,232 | 27 | random |
10 | Rosenthal et al | 1,961 | 17 | 1,699 | 65 | 1,600 | 42 | systematic |
11 | Comstock et al | 1,974 | 186 | 50,448 | 141 | 27,197 | 18 | systematic |
12 | Comstock & Webster | 1,969 | 5 | 2,493 | 3 | 2,338 | 33 | systematic |
13 | Comstock et al | 1,976 | 27 | 16,886 | 29 | 17,825 | 33 | systematic |
Dans ce tableau, les variables correspondent à :
Nous n’avons pas besoin des autres variables pour le moment.
Exercice 1
Faites la méta-analyse sur ces données (sans faire le forest plot).
Pour rappel : cet exercice a déjà été réalisé dans le chapitre précédent et le lecteur s’y référera pour une description plus pédagogique des différentes étapes.
Nous commençons par calculer les tailles d’effet et leur variance
avec la fonction escalc.
dat <- escalc(measure="OR", ai=tpos, bi=tneg, ci=cpos, di=cneg, data=dat.bcg)
rma.out <- rma(yi = yi, # la colonne dans le jeu de données où on trouve la taille d'effet
vi = vi, # la colonne où on trouve l'erreur de mesure
data=dat, # le nom du jeu de données
method="PM", # utiliser la méthode de Paule-Mandel
digits=2) # le nombre de décimale à imprimer dans la sortie de résultats
summary(rma.out)
##
## Random-Effects Model (k = 13; tau^2 estimator: PM)
##
## logLik deviance AIC BIC AICc
## -13.10 37.31 30.20 31.33 31.40
##
## tau^2 (estimated amount of total heterogeneity): 0.34 (SE = 0.19)
## tau (square root of estimated tau^2 value): 0.58
## I^2 (total heterogeneity / total variability): 92.15%
## H^2 (total variability / sampling variability): 12.73
##
## Test for Heterogeneity:
## Q(df = 12) = 163.16, p-val < .01
##
## Model Results:
##
## estimate se zval pval ci.lb ci.ub
## -0.75 0.19 -3.99 <.01 -1.11 -0.38 ***
##
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
On constate que la statistique Q est asocciée à une probabilité qu’on interprète comme révélant la présence d’un effet significatif, ce qui amène à rejeter la viabilité de l’hypothèse d’une taille d’effet commune. Ceci est également étayé par la valeur du \(I^2\) puisque 92.15% de la variance totale serait due à de l’hétérogénéité entre les études.
Si nous transformons les valeur en rapports de cote
predict(object = rma.out, transf=exp)
##
## pred ci.lb ci.ub pi.lb pi.ub
## 0.47 0.33 0.68 0.14 1.58
On peut observer que la moyenne pondérérée des taille d’effet vaut 0.47, ce qui signifie que nous avons 2.1276596 moins de personnes qui vont avoir la tuberculose quand elles ont reçu le vaccin. Cependant, cette valeur varie entre 1.4705882 et 3.030303, ce qui change grande l’interprétation qu’on peut faire de l’efficacité des vaccins.
Nous pourrions vouloir ajouter ces informations au forest plot que nous avions réalisé. On va commencer par refaire le forest plot que nous avions déjà réalisé :
par(mar=c(4,4,2,2))
dat$weights <- paste0(round(weights(rma.out)), "%") # weights in % (rounded)
forest(rma.out, xlim=c(-4,4.5), header=TRUE, top=2, mlab="Summary",
slab=dat$author,
ilab=dat$weights, ilab.xpos=2.6, ilab.pos=2.6)
text(2.6, -1, "100%", pos=2)
text(2.6, 15 , "Weight", pos=2, font=2)
En s’appuyant sur le même principe que celui que nous avions utilisé pour ajouter du texte précédémment, nous allons commencer par récupérer les informations qui nous sont utiles (l’idée est de le faire automatiquement plutôt que manuellement) et en faire du texte.
hetéro.text<-paste0("I² =", # zone de texte où on dit I² =
round(rma.out$I2,3), # le résultat de I² est dans notre objet à l'adresse I2
", Q=", round(rma.out$QE,1), # même ^principe pour les autres valeurs
", p ",
ifelse(round(rma.out$QEp, 3)==0, "< .001", paste0("= ",round(rma.out$QEp, 3) )), # on fait attention à arrondir la probabilité
", tau = ",
round(rma.out$tau2,2))
hetéro.text
## [1] "I² =92.146, Q=163.2, p < .001, tau = 0.34"
Et on ajoute ce texte à notre graphique. La difficulté étant de le placer au bon endroit.
text(-2.5, -1.5, hetéro.text, pos=2)
Exercice 1
Le Syndrome d’Apnées Obstructives du Sommeil (SAOS) occasionne, par ses mécanismes de pression thoracique et de désaturation en oxygène, de plus grands efforts de la part du cœur pour maintenir les fonctions vitales lors des différentes phases du sommeil. Cette charge mécanique entraine une plus grande fragilité de cet organe. À long terme, on peut s’attendre à une augmentation significative des risques cardiovasculaires chez les personnes souffrant de SAOS.
Les auteurs se sont demandés si la propagation des marqueurs de l’inflammation immunitaire au sein de l’organisme était un facteur de risque d’un trouble cardiovasculaire. Les auteurs se demandent si la réaction inflammatoire était significativement réduite chez les personnes qui ont bénéficié d’un traitement par Pression Positive Continue (PPC) puisque cette thérapeutique réduit le risque de trouble cardiovasculaire.
Les données sont disponibles sur la feuille ‘ex4’. Importez les données, calculez les tailles d’effet, réaliser la méta-analyse et présentez les résultats sous la forme d’un forest plot. Réalisez une méta-analyse avec un effet aléatoire, calculez les mesures d’hétérogénéité et interprétez les résultats.
dat <- read_excel("Exercices.xlsx", sheet="ex4")
Les données sont présentées ci-dessous.
study | inf_index_baseline | sd_baseline | n_baseline | inf_index_ttmt | sd_ttmt | n_ttmt |
|---|---|---|---|---|---|---|
Blue et al., 2020 | 80.2 | 5.21 | 136 | 83.0 | 3.85 | 136 |
Gulia et al., 2018 | 79.5 | 7.32 | 103 | 74.6 | 6.24 | 100 |
Jackson et al., 2019 | 87.6 | 2.01 | 128 | 85.7 | 2.05 | 126 |
Jonas et al., 2017 | 85.1 | 5.11 | 34 | 81.0 | 4.16 | 34 |
Leng et al., 2022 | 82.0 | 6.58 | 92 | 79.2 | 6.50 | 87 |
Schroeder et al., 2019 | 70.6 | 2.30 | 76 | 72.4 | 6.49 | 74 |
Thompson et al., 2022 | 73.9 | 7.69 | 120 | 70.3 | 5.60 | 119 |
Wolf et al., 2019 | 70.1 | 2.35 | 100 | 72.5 | 2.14 | 98 |
Zhunik et al., 2017 | 76.9 | 3.08 | 87 | 73.2 | 4.02 | 87 |
dat <- escalc("SMD", m1i=inf_index_baseline, sd1i=sd_baseline, n1i=n_baseline,
m2i=inf_index_ttmt, sd2i=sd_ttmt, n2i=n_ttmt,
slab=study, data=dat)
dat
##
## study inf_index_baseline sd_baseline n_baseline
## 1 Blue et al., 2020 80.2 5.21 136
## 2 Gulia et al., 2018 79.5 7.32 103
## 3 Jackson et al., 2019 87.6 2.01 128
## 4 Jonas et al., 2017 85.1 5.11 34
## 5 Leng et al., 2022 82.0 6.58 92
## 6 Schroeder et al., 2019 70.6 2.30 76
## 7 Thompson et al., 2022 73.9 7.69 120
## 8 Wolf et al., 2019 70.1 2.35 100
## 9 Zhunik et al., 2017 76.9 3.08 87
## inf_index_ttmt sd_ttmt n_ttmt yi vi
## 1 83.0 3.85 136 -0.6096 0.0154
## 2 74.6 6.24 100 0.7169 0.0210
## 3 85.7 2.05 126 0.9332 0.0175
## 4 81.0 4.16 34 0.8699 0.0644
## 5 79.2 6.50 87 0.4262 0.0229
## 6 72.4 6.49 74 -0.3698 0.0271
## 7 70.3 5.60 119 0.5331 0.0173
## 8 72.5 2.14 98 -1.0633 0.0231
## 9 73.2 4.02 87 1.0287 0.0260
model_RE <- rma(yi, vi, data=dat, method="PM", digits=2)
model_RE
##
## Random-Effects Model (k = 9; tau^2 estimator: PM)
##
## tau^2 (estimated amount of total heterogeneity): 0.55 (SE = 0.29)
## tau (square root of estimated tau^2 value): 0.74
## I^2 (total heterogeneity / total variability): 96.10%
## H^2 (total variability / sampling variability): 25.67
##
## Test for Heterogeneity:
## Q(df = 8) = 209.05, p-val < .01
##
## Model Results:
##
## estimate se zval pval ci.lb ci.ub
## 0.27 0.25 1.06 0.29 -0.23 0.77
##
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
predict(model_RE)
##
## pred se ci.lb ci.ub pi.lb pi.ub
## 0.27 0.25 -0.23 0.77 -1.27 1.81
## Traduction des résultats en un "forestplot", incluant le poids ("weights")
## de chaque article dans les résultats
par(mar=c(4,4,2,2))
dat$weights <- paste0(round(weights(model_RE)), "%") # weights en % (arrondis)
forest(model_RE, xlim=c(-4,4), header=TRUE, top=2, mlab="Summary",
ilab=dat$weights, ilab.xpos=2.2, ilab.pos=2)
text(2.2, -1, "100%", pos=2)
text(2.2, 11, "Weight", pos=2, font=2)
hetéro.text<-paste0("I² =", # zone de texte où on dit I² =
round(model_RE$I2,3), # le résultat de I² est dans notre objet à l'adresse I2
", Q=", round(model_RE$QE,1), # même ^principe pour les autres valeurs
", p ",
ifelse(round(model_RE$QEp, 3)==0, "< .001", paste0("= ",round(model_RE$QEp, 3) )), # on fait attention à arrondir la probabilité
", tau = ",
round(model_RE$tau2,2))
hetéro.text
## [1] "I² =96.104, Q=209.1, p < .001, tau = 0.55"
text(-0.5, -1.7, hetéro.text, pos=2)
La probabilité associée à la statistique Q nous amène rajeter l’hypothèse d’homogénéité des tailles d’effet. En effet, 96.10% de la variance totale s’explique par les variations des tailles d’effets entre les études. Avec une taille d’effet moyenne à .27, on constate que l’estimation peut s’entendre entre -0.23 et 0.77, ce que nous pouvons interpréter de deux manières différentes :
la propagation des marqueurs de l’inflammation immunitaire n’est pas clairement un facteur de risque d’un trouble cardiovasculaire ;
les études ont utilisé des méthodologies très différentes ce qui nous amenez à examiner pourquoi il y a de telles divergences qui amènent certaines études à obtenir une diminution en termes de facteurs de risques d’un trouble cardiovasculaire alors que d’autres indiquent qu’il s’agit d’un marqueur ayant une taille d’effet importante.
Ces résultats peuvent être présentés de la manière suivante dans une méa-analyse
On estime que la variance d’hétérogénéité entre les études \(\tau^2\) = .55, avec une valeur \(I^2\) = 96.10%. L’intervalle de prédiction s’étendant de -1.27 à 1.81, indiquant qu’un effet positif de la réaction inflammatoire puisse exister.