\(t = \frac{\bar x_1 - \bar x_2}{\sqrt{s^2/n_1) + (s^2/n_2)}}\)
Varianza conjunta (s²)
\(s^2 = \frac{(n_1-1)s_1^2 + (n_2-1)s_2^2}{n_1+n_2-2}\)
\(s^2 = \frac{(29-1)11.6^2 + (24-1)8.8^2}{29+24-2}\)
\(s^2 = \frac{3767.68 + 1782.12}{51}\)
s² = 108.8
\(t = \frac{54.4 - 58.2}{\sqrt{(108.8/29) + (108.8/24)}}\)
\(t = \frac{-3.8}{\sqrt{(3.75 + 4.53)}}\)
t = -1.32
\(gl = n_1 + n_2 - 2\)
gl = 51
Al buscar en tabla de t
0.20 < p < 0.10
pt(-1.32, df = 51)*2
## [1] 0.1927293
Con un nivel de alfa de 0.05 se acepta la hipótesis nula de que ambos grupos son iguales.
Se utilizará una prueba de t para muestras independientes con varianzas iguales para determinar si hay diferencia entre los grupos.
\(t = \frac{\bar x_1 - \bar x_2}{\sqrt{s^2/n_1) + (s^2/n_2)}}\)
Varianza conjunta (s²)
\(s^2 = \frac{(n_1-1)s_1^2 + (n_2-1)s_2^2}{n_1+n_2-2}\)
\(s^2 = \frac{(70-1)1^2 + (70-1)1^2}{70+70-2}\)
\(s^2 = \frac{69 + 69}{138}\)
s² = 1
\(t = \frac{36 - 35}{\sqrt{(1/70) + (1/70)}}\)
\(t = \frac{1}{\sqrt{(0.0143 + 0.0143)}}\)
t = 5.92
\(gl = n_1 + n_2 - 2\)
gl = 138
Al buscar en tabla de t
p < 0.001
pt(5.92, df=138, lower.tail = FALSE)*2
## [1] 2.426312e-08
Se rechaza la hipótesis nula de que ambos grupos son iguales.
| Much worse | Worse | Unchanged | Improved | Much improved | Sum | |
|---|---|---|---|---|---|---|
| New | 8 | 9 | 15 | 23 | 18 | 73 |
| Standard | 9 | 13 | 19 | 17 | 12 | 70 |
| Score | -2 | -1 | 0 | 1 | 2 | NA |
| New | Standard | New | Standard | New | Standard | |
|---|---|---|---|---|---|---|
| Much worse | 8.68 | 8.32 | 0.68 | -0.68 | 0.05 | 0.06 |
| Worse | 11.23 | 10.77 | 2.23 | -2.23 | 0.44 | 0.46 |
| Unchanged | 17.36 | 16.64 | 2.36 | -2.36 | 0.32 | 0.33 |
| Improved | 20.42 | 19.58 | -2.58 | 2.58 | 0.33 | 0.34 |
| Much improved | 15.31 | 14.69 | -2.69 | 2.69 | 0.47 | 0.49 |
| Total | 73.00 | 70.00 | 0.00 | 0.00 | 1.61 | 1.68 |
\(\chi^2\) = 1.61 + 1.68 = 3.29
Número de grados de libertad = (filas - 1) * (columnas - 1) = (2-1) * (5-1) = 4
p <- pchisq(3.29, df=4, lower.tail = FALSE)
round(p, 3)
## [1] 0.511
\(\large\boxed{E_{xp} = \frac{\sum{ax}-\sum{a}\sum{nx}}{N}}\)
\(\large\boxed{E_{xx} = \frac{\sum{nx}^2-(\sum{nx})^2}{N}}\)
\(\large\boxed{p = \frac{\sum{a}}{N}}\)
\(\large\boxed{q = \frac{\sum{b}}{N}}\)
\(\large\boxed{\chi^2 = \frac{Exp^2}{(Exxpq)}}\)
En este caso:
N = 143
\(\large\boxed{\sum{a}=73}\)
\(\large\boxed{\sum{ax} = 8*-2 + 9*-1 + 13*0 + 23*1 + 18*2 = 34}\)
\(\large\boxed{\sum{nx} = 17*-2 + 22*-1 + 34*0 + 40*1 + 30*2 = 44}\)
\(\large\boxed{\sum{nx^2} = 17*-2^2 + 22*-1^2 + 34*3^0 + 40*1^2 + 30*2^2 = 250}\)
\(\large\boxed{(\sum{nx})^2 = 44^2 = 1936}\)
\(\large\boxed{E{xp} = \frac{34-73*44}{143} = 11.53}\)
\(\large\boxed{E{xx} = \frac{1081-223729}{143} = 236.46}\)
\(\large\boxed{p = \frac{73}{143} = 0.5105}\) \(\large\boxed{q = \frac{70}{143} = 0.4895}\)
\(\large\boxed{\chi^2 = \frac{11.53^2}{(236.46*0.5105*0.4895)} = \frac{133.14}{59.09} = 2.253}\)
Grados de libertad = 1
p <- pchisq(2.253, df=1, lower.tail = FALSE)
round(p, 3)
## [1] 0.133
treatment <- c(rep("New", 73), rep("Standard", 70))
outcome <- c(rep(-2, 8), rep(-1, 9), rep(0, 15), rep(1, 23), rep(2, 18), rep(-2, 9), rep(-1, 13), rep(0, 19), rep(1, 17), rep(2, 12))
depre <- data.frame(treatment, outcome)
depre$treatment <- factor(depre$treatment)
table(depre$outcome)
##
## -2 -1 0 1 2
## 17 22 34 40 30
depre$outcome <- factor(depre$outcome, labels=c("Much worse", "Worse", "Unchanged", "Improved", "Much improved"))
table(depre$outcome)
##
## Much worse Worse Unchanged Improved Much improved
## 17 22 34 40 30
head(depre)
## treatment outcome
## 1 New Much worse
## 2 New Much worse
## 3 New Much worse
## 4 New Much worse
## 5 New Much worse
## 6 New Much worse
tail(depre)
## treatment outcome
## 138 Standard Much improved
## 139 Standard Much improved
## 140 Standard Much improved
## 141 Standard Much improved
## 142 Standard Much improved
## 143 Standard Much improved
## caso especial, solo 2 columnas
tabla <- table(depre)
tabla
## outcome
## treatment Much worse Worse Unchanged Improved Much improved
## New 8 9 15 23 18
## Standard 9 13 19 17 12
chisq.test(tabla)
##
## Pearson's Chi-squared test
##
## data: tabla
## X-squared = 3.2952, df = 4, p-value = 0.5097
tabla[1,]
## Much worse Worse Unchanged Improved Much improved
## 8 9 15 23 18
colSums(tabla)
## Much worse Worse Unchanged Improved Much improved
## 17 22 34 40 30
prop.trend.test(tabla[1,], colSums(tabla))
##
## Chi-squared Test for Trend in Proportions
##
## data: tabla[1, ] out of colSums(tabla) ,
## using scores: 1 2 3 4 5
## X-squared = 2.2531, df = 1, p-value = 0.1333
d — Shawn Aaron y colegas compararon la efectividad de un anestésico tópico en gel aplicado sobre el sitio de una punción arterial con una crema placebo. Observaron eventos adversos (rubor, edema, prurito o hematoma) hasta 24 horas después de la aplicación del gel. Tres de 36 personas que recibieron el gel anestésico y 8 de 40 que recibieron el gel placebo presentaron un evento adverso. ¿Existe evidencia de una diferencia entre el gel anestésico y el gel placebo en la frecuencia de eventos adversos?
Se valorará la diferencia en la frecuencia de eventos adversos mediante una prueba de \(\chi_2\)
grupo <- c(rep("gel", 36), rep("placebo", 40))
eventos <- c(rep("presente", 3), rep("ausente", 33), rep("presente", 8), rep("ausente", 32))
estudio <- data.frame(grupo, eventos)
addmargins(table(estudio), 2)
## eventos
## grupo ausente presente Sum
## gel 33 3 36
## placebo 32 8 40
chisq.test(table(estudio))
##
## Pearson's Chi-squared test with Yates' continuity correction
##
## data: table(estudio)
## X-squared = 1.2475, df = 1, p-value = 0.264
Con un nivel de alfa de 0.05 se acepta la hipótesis nula de que ambos grupos son iguales.
Lo haremos con prueba de \(\chi^2\)
enfermedad <- c(rep("A", 520), rep("B", 232))
comorbi <- c(rep("presente", 70), rep("ausente", 450), rep("presente", 52), rep("ausente", 180))
hospitalizados <- data.frame(enfermedad, comorbi)
addmargins(table(hospitalizados), 2)
## comorbi
## enfermedad ausente presente Sum
## A 450 70 520
## B 180 52 232
chisq.test(table(hospitalizados))
##
## Pearson's Chi-squared test with Yates' continuity correction
##
## data: table(hospitalizados)
## X-squared = 8.8124, df = 1, p-value = 0.002992
enfermedad <- c(rep("A", 1000), rep("B", 1000))
comorbi <- c(rep("presente", 100), rep("ausente", 900), rep("presente", 100), rep("ausente", 900))
abierta <- data.frame(enfermedad, comorbi)
addmargins(table(abierta), 2)
## comorbi
## enfermedad ausente presente Sum
## A 900 100 1000
## B 900 100 1000
chisq.test(table(abierta))
##
## Pearson's Chi-squared test
##
## data: table(abierta)
## X-squared = 0, df = 1, p-value = 1
A esta distorsión de le llama sesgo de la tasa de ingresos o falacia de Berkson. Aquí hay más información.