INFERENCIA PARA DOS POBLACIONES

Primer caso: Medias y varianza iguales bajo el supuesto de normalidad

x<-rnorm(25,40,3)
y<-rnorm(25,40,3)

par(mfrow=c(2,2))
hist(x)
hist(y)
plot(density(x))
plot(density(y))

### Primer paso: Evaluar el supuesto de normalidad

\[H_0: X \sim Normal\] \[H_a: X \not\sim Normal\] Recuerde que en el caso del test de Kolmogorov Smirnov si el p valor es menor que el nivel de significancia se rechaza la hipótesis nula en favor de la hipótesis alternativa. En nuesto curso se usará \(\alpha = 0.05,0.01,0.1\)

Estadístico de Kolmogorov Smirnov

\[D = máx\{|\hat F(x_i) - F_0(x_i)|: i = 1,...,n\}\] El estadístico de Kolmogorov Smirnov es la distancia maxima del histograma acumulado con respesto a la ojiva de la distribución correspondiente a la hipótesis nula.

### Kolmogorov Smirnov
ks.test(x,"pnorm",mean(x),sd(x) )
## 
##  Exact one-sample Kolmogorov-Smirnov test
## 
## data:  x
## D = 0.17006, p-value = 0.4183
## alternative hypothesis: two-sided
# No se recha H0
shapiro.test(x)
## 
##  Shapiro-Wilk normality test
## 
## data:  x
## W = 0.96872, p-value = 0.6129

En este caso se cumple el supuesto de normalidad pues el p valor es mayor a 0.05 bajo un nivel de significancia del 5% no se rechaza la hipótes del supuesto de normalidad. Ahora, como se desea evaluar la diferencia de medias de la variable x con respesto a la variable y se debe proceder a comporbar la normalidad en y.

\[H_0: Y \sim Normal\] \[H_a: Y \not\sim Normal\]

ks.test(y,"pnorm",mean(y),sd(y))
## 
##  Exact one-sample Kolmogorov-Smirnov test
## 
## data:  y
## D = 0.15065, p-value = 0.5704
## alternative hypothesis: two-sided

Como el p valor es 0.9724 ES MAYOR A 0.05 no se rechaza el supuesto de normalidad.

shapiro.test(y)
## 
##  Shapiro-Wilk normality test
## 
## data:  y
## W = 0.97449, p-value = 0.7591

LIBRERÍA NORTEST

library(nortest)
lillie.test(y)
## 
##  Lilliefors (Kolmogorov-Smirnov) normality test
## 
## data:  y
## D = 0.15065, p-value = 0.1515

Es más robusto ya que no se deja afectar por datos atípicos

Como se cumple el supuesto de normalidad se procede a hacer un modelo de diseño de experimentos paramétrico.

Segundo paso: Supuesto de homocedasticidad

\[H_0: \sigma^2_1 = \sigma^2_2\] \[H_a: \sigma^2_1 \not= \sigma^2_2\]

La hipótesis nula corresponde al supuesto de homocedasticidad y la hipótesis aletrna corresponde al supuesto de heterocedasticidad. Con lo cual si no se rechaza la hipótesis nula se cumple el supuesto de homocedasticidad.

NOTA

El nivel de significancia debe ser consistente en todos los supuestos.

var.test(x,y)
## 
##  F test to compare two variances
## 
## data:  x and y
## F = 1.5923, num df = 24, denom df = 24, p-value = 0.2616
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.7016891 3.6134316
## sample estimates:
## ratio of variances 
##           1.592327

Es mayor que el nivel de significancia 0.8 > 0.05 no se rechaza el supuesto de homocedasticidad. Luego se cumple que las varianzas son iguales

Paso 3: Hacer la t-student.

\[T = \frac{Z}{\sqrt\frac{W}{\nu}} \sim t_\nu\]

El contraste de interés es:

\[H_0: \mu_1 = \mu_2\] \[H_a: \mu_1 \not= \mu_2\]

t.test(x,y,var.equal = TRUE)
## 
##  Two Sample t-test
## 
## data:  x and y
## t = 1.0973, df = 48, p-value = 0.278
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.8523039  2.9003900
## sample estimates:
## mean of x mean of y 
##  40.40369  39.37965

Como p valor es 0.41 > 0.05 no se rechaza la hipótesis nula luego las medias son iguales

Segundo caso: Medias y varianza diferentes bajo el supuesto de normalidad

x<-rnorm(25,50,5)
y<-rnorm(25,40,2)

par(mfrow=c(2,2))
hist(x)
hist(y)
plot(density(x))
plot(density(y))

Primer paso: Supuesto de normalidad

ks.test(x,"pnorm",mean(x),sd(x))
## 
##  Exact one-sample Kolmogorov-Smirnov test
## 
## data:  x
## D = 0.15263, p-value = 0.5539
## alternative hypothesis: two-sided

No se rechaza Normalidad

shapiro.test(x)
## 
##  Shapiro-Wilk normality test
## 
## data:  x
## W = 0.97249, p-value = 0.7086
lillie.test(x)
## 
##  Lilliefors (Kolmogorov-Smirnov) normality test
## 
## data:  x
## D = 0.15263, p-value = 0.1393
ks.test(y,"pnorm",mean(y),sd(y))
## 
##  Exact one-sample Kolmogorov-Smirnov test
## 
## data:  y
## D = 0.10129, p-value = 0.937
## alternative hypothesis: two-sided
shapiro.test(y)
## 
##  Shapiro-Wilk normality test
## 
## data:  y
## W = 0.98128, p-value = 0.9093
lillie.test(y)
## 
##  Lilliefors (Kolmogorov-Smirnov) normality test
## 
## data:  y
## D = 0.10129, p-value = 0.7306

Homocedasticidad: Igualdad de varianzas

Segundo paso: Supuesto de homocedasticidad

\[H_0: \sigma^2_1 = \sigma^2_2\] \[H_a: \sigma^2_1 \not= \sigma^2_2\]

var.test(x,y)
## 
##  F test to compare two variances
## 
## data:  x and y
## F = 9.4565, num df = 24, denom df = 24, p-value = 5.745e-07
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##   4.167165 21.459311
## sample estimates:
## ratio of variances 
##           9.456452

No se cumple igualdad de varianzas

\[H_0: \mu_1 = \mu_2\] \[H_a: \mu_1 \not= \mu_2\]

t.test(x,y,var.equal = F)
## 
##  Welch Two Sample t-test
## 
## data:  x and y
## t = 10.106, df = 29.02, p-value = 5.152e-11
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##   8.315271 12.534604
## sample estimates:
## mean of x mean of y 
##  50.73758  40.31265

Se rechaza la hipótesis nula de que las medias son iguales. Las medias de loss dos grupos son significativamente diferentes.