x<-rnorm(25,40,3)
y<-rnorm(25,40,3)
par(mfrow=c(2,2))
hist(x)
hist(y)
plot(density(x))
plot(density(y))
### Primer paso: Evaluar el supuesto de normalidad
\[H_0: X \sim Normal\] \[H_a: X \not\sim Normal\] Recuerde que en el caso del test de Kolmogorov Smirnov si el p valor es menor que el nivel de significancia se rechaza la hipótesis nula en favor de la hipótesis alternativa. En nuesto curso se usará \(\alpha = 0.05,0.01,0.1\)
\[D = máx\{|\hat F(x_i) - F_0(x_i)|: i = 1,...,n\}\] El estadístico de Kolmogorov Smirnov es la distancia maxima del histograma acumulado con respesto a la ojiva de la distribución correspondiente a la hipótesis nula.
### Kolmogorov Smirnov
ks.test(x,"pnorm",mean(x),sd(x) )
##
## Exact one-sample Kolmogorov-Smirnov test
##
## data: x
## D = 0.17006, p-value = 0.4183
## alternative hypothesis: two-sided
# No se recha H0
shapiro.test(x)
##
## Shapiro-Wilk normality test
##
## data: x
## W = 0.96872, p-value = 0.6129
En este caso se cumple el supuesto de normalidad pues el p valor es mayor a 0.05 bajo un nivel de significancia del 5% no se rechaza la hipótes del supuesto de normalidad. Ahora, como se desea evaluar la diferencia de medias de la variable x con respesto a la variable y se debe proceder a comporbar la normalidad en y.
\[H_0: Y \sim Normal\] \[H_a: Y \not\sim Normal\]
ks.test(y,"pnorm",mean(y),sd(y))
##
## Exact one-sample Kolmogorov-Smirnov test
##
## data: y
## D = 0.15065, p-value = 0.5704
## alternative hypothesis: two-sided
Como el p valor es 0.9724 ES MAYOR A 0.05 no se rechaza el supuesto de normalidad.
shapiro.test(y)
##
## Shapiro-Wilk normality test
##
## data: y
## W = 0.97449, p-value = 0.7591
library(nortest)
lillie.test(y)
##
## Lilliefors (Kolmogorov-Smirnov) normality test
##
## data: y
## D = 0.15065, p-value = 0.1515
Es más robusto ya que no se deja afectar por datos atípicos
Como se cumple el supuesto de normalidad se procede a hacer un modelo de diseño de experimentos paramétrico.
\[H_0: \sigma^2_1 = \sigma^2_2\] \[H_a: \sigma^2_1 \not= \sigma^2_2\]
La hipótesis nula corresponde al supuesto de homocedasticidad y la hipótesis aletrna corresponde al supuesto de heterocedasticidad. Con lo cual si no se rechaza la hipótesis nula se cumple el supuesto de homocedasticidad.
El nivel de significancia debe ser consistente en todos los supuestos.
var.test(x,y)
##
## F test to compare two variances
##
## data: x and y
## F = 1.5923, num df = 24, denom df = 24, p-value = 0.2616
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.7016891 3.6134316
## sample estimates:
## ratio of variances
## 1.592327
Es mayor que el nivel de significancia 0.8 > 0.05 no se rechaza el supuesto de homocedasticidad. Luego se cumple que las varianzas son iguales
\[T = \frac{Z}{\sqrt\frac{W}{\nu}} \sim t_\nu\]
El contraste de interés es:
\[H_0: \mu_1 = \mu_2\] \[H_a: \mu_1 \not= \mu_2\]
t.test(x,y,var.equal = TRUE)
##
## Two Sample t-test
##
## data: x and y
## t = 1.0973, df = 48, p-value = 0.278
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -0.8523039 2.9003900
## sample estimates:
## mean of x mean of y
## 40.40369 39.37965
Como p valor es 0.41 > 0.05 no se rechaza la hipótesis nula luego las medias son iguales
x<-rnorm(25,50,5)
y<-rnorm(25,40,2)
par(mfrow=c(2,2))
hist(x)
hist(y)
plot(density(x))
plot(density(y))
ks.test(x,"pnorm",mean(x),sd(x))
##
## Exact one-sample Kolmogorov-Smirnov test
##
## data: x
## D = 0.15263, p-value = 0.5539
## alternative hypothesis: two-sided
No se rechaza Normalidad
shapiro.test(x)
##
## Shapiro-Wilk normality test
##
## data: x
## W = 0.97249, p-value = 0.7086
lillie.test(x)
##
## Lilliefors (Kolmogorov-Smirnov) normality test
##
## data: x
## D = 0.15263, p-value = 0.1393
ks.test(y,"pnorm",mean(y),sd(y))
##
## Exact one-sample Kolmogorov-Smirnov test
##
## data: y
## D = 0.10129, p-value = 0.937
## alternative hypothesis: two-sided
shapiro.test(y)
##
## Shapiro-Wilk normality test
##
## data: y
## W = 0.98128, p-value = 0.9093
lillie.test(y)
##
## Lilliefors (Kolmogorov-Smirnov) normality test
##
## data: y
## D = 0.10129, p-value = 0.7306
\[H_0: \sigma^2_1 = \sigma^2_2\] \[H_a: \sigma^2_1 \not= \sigma^2_2\]
var.test(x,y)
##
## F test to compare two variances
##
## data: x and y
## F = 9.4565, num df = 24, denom df = 24, p-value = 5.745e-07
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 4.167165 21.459311
## sample estimates:
## ratio of variances
## 9.456452
No se cumple igualdad de varianzas
\[H_0: \mu_1 = \mu_2\] \[H_a: \mu_1 \not= \mu_2\]
t.test(x,y,var.equal = F)
##
## Welch Two Sample t-test
##
## data: x and y
## t = 10.106, df = 29.02, p-value = 5.152e-11
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## 8.315271 12.534604
## sample estimates:
## mean of x mean of y
## 50.73758 40.31265
Se rechaza la hipótesis nula de que las medias son iguales. Las medias de loss dos grupos son significativamente diferentes.