Un clavadista olimpico es evaluado con 10 clavados de practica con las siguientes calificaciones; 1.7, 5.3, 7.6, 8.9, 9.0, 9.1, 9.3, 9.6, 9.9, 9.9. Probar la hipotesis de que la funcion de distribucion de las calificaciones esta dada por F(x) donde:
\(F(x)=0\) si \(x<0\)
\(F(x)=(x^2)/100\) si \(0<=x<=10\)
\(F(x)=1\) si \(10<x\)
1)Prueba a utilizar:
Prueba de Bondad de Ajuste de Kolmogorov de 2 colas
2)Hipótesis:
\(H_{0}:\) Las calificaciones provienen de la Funcion de Distribucion propuesta, i.e, \(F(x) = F^*(x)\) \(\forall\) \(x\) de \(-\infty\) a \(\infty\)
\(H_{1}:\) Las calificaciones no provienen de la Funcion de Distribucion propuesta , i.e., \(F(x) \neq F^*(x)\) para al menos un valor de \(x\)
3)Estadística \[T=sup_x|F^*(x)-S(x)|\]
4)Procedimiento completo del cálculo del valor de la estadística Primero cargamos los datos de las calificaciones que tenemos
x=c(1.7,5.3,7.6,8.9,9,9.1,9.3,9.6,9.9)
x
## [1] 1.7 5.3 7.6 8.9 9.0 9.1 9.3 9.6 9.9
Generamos la funcion de distribucion para aplicarla a estos valores y poder comparar con el metodo correspondiente
f<- function (x){
y=(x^2)/100
return(y)
}
f<-f(x)
f
## [1] 0.0289 0.2809 0.5776 0.7921 0.8100 0.8281 0.8649 0.9216 0.9801
Generamos los valores de la Disribucion empirica y obtenemos sus diferencias, despues tomamos el valor absoluto de las diferencias para obtener la estadistica.
s=c(0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,1)
s
## [1] 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 1.0
dif=abs(f-s)
dif
## [1] 0.0711 0.0809 0.2776 0.3921 0.3100 0.2281 0.1649 0.1216 0.0199
El valor de la estadistica es:
T=max(dif)
T
## [1] 0.3921
5)Regla de decisión
El cuantil de la distribucion con \(\alpha\) = 10%
W=.369
W
## [1] 0.369
Y la regla de Decision es: Fijamos un nivel de confianza \(\alpha = 10\%\). Se rechaza \(H_{0}\) si \(T>W\), donde \(W\) es el cuantil \((1 - \alpha)100\%\) obtenido en la tabla correspondiente a la prueba de Kolmogorov.
if(T>W){
print("Se rechaza H0, Los datos no siguen la distribucion propuesta")
}else{
print("No se rechaza H0. No hay suficiente informacion para decir
que la muestra no sigue la distribucion propuesta")
}
## [1] "Se rechaza H0, Los datos no siguen la distribucion propuesta"
6)Conclusión Los Datos no siguen la distribucion propuesta
Cinco niños de cuarto grado de primaria fueron seleccionados al azar de todos los niños de ese grado en la escuela “15 de septiembre”, para participar en una carrera. Sus tiempos en segundos fueron: 6.3, 4.2, 4.7, 6.0 y 5.7. Probar con la hipótesis de que los tiempos provienen de una distribución uniforme en el intervalo de 4 a 8 segundos.
1)Prueba a utilizar: Prueba de Bondad de Ajuste Kolmogorov (2 colas)
2)Hipótesis:
\(H_{0}:\) Los tiempos provienen de una distribución uniforme en el intervalo de 4 a 8 segundos, i.e, \(F(x) = F^*(x)\) \(\forall\) \(x\) de \(-\infty\) a \(\infty\)
\(H_{1}:\) Los tiempos no provienen de una distribución uniforme en el intervalo de 4 a 8 segundos, i.e., \(F(x) \neq F^*(x)\) para al menos un valor de \(x\)
3)Estadística \[T=sup_x|F^*(x)-S(x)|\] 4)Procedimiento completo del cálculo del valor de la estadística
Primero definimos un vector con los datos de los tiempos:
Tiempos <- c(6.3, 4.2, 4.7, 6.0, 5.7)
Tiempos
## [1] 6.3 4.2 4.7 6.0 5.7
Ordenamos los datos de menor a mayor:
Tiempos<- sort(Tiempos)
Tiempos
## [1] 4.2 4.7 5.7 6.0 6.3
Utilizamos la siguiente función para hacer el cálculo de la función de distribución empírica:
ED <- ecdf(Tiempos)
Sn <- ED(Tiempos) #Funcion de distribucion empírica
Sn
## [1] 0.2 0.4 0.6 0.8 1.0
Luego calculamos la función de distribución hipotética de los datos, que es una Uniforme(4,8):
Fn <- punif(Tiempos,4,8) #Funcion de distribucion hipotética
Fn
## [1] 0.050 0.175 0.425 0.500 0.575
Ahora realizamos las diferencias en valor absoluto de los resultados obtenidos al calcular la función empírica e hipotética de los datos, para poder encontrar el valor de la estadística de prueba:
diferencias <- abs(Fn - Sn)
diferencias
## [1] 0.150 0.225 0.175 0.300 0.425
Visualizamos estos resultados en la siguiente tabla:
Tabla <- cbind(Tiempos, Fn, Sn, "|Fn - Sn|" = diferencias)
Tabla
## Tiempos Fn Sn |Fn - Sn|
## [1,] 4.2 0.050 0.2 0.150
## [2,] 4.7 0.175 0.4 0.225
## [3,] 5.7 0.425 0.6 0.175
## [4,] 6.0 0.500 0.8 0.300
## [5,] 6.3 0.575 1.0 0.425
Finalmente, el valor de la estadistica lo encontramos de la siguiente manera:
est_prueba <- max(diferencias)
est_prueba
## [1] 0.425
\(\therefore T = 0.425\)
5)Regla de decisión
Fijamos un nivel de confianza \(\alpha = 5\%\). Se rechaza \(H_{0}\) si \(T>W\), donde \(W\) es el cuantil \((1 - \alpha)100\%\) obtenido en la tabla correspondiente a la prueba de Kolmogorov.
En este caso, con \(\alpha = 5\%\) y \(n = 5\), tenemos que \(W = 0.563\).
Como \(T = 0.425 \not> W = 0.563\) entonces no rechazamos \(H_{0}\)
6)Conclusión
Por lo tanto, los tiempos provienen de una distribución uniforme en el intervalo de 4 a 8 segundos.
Se desea probar la hipótesis de que las tasas de un determinado producto financiero tiene el comportamiento de una variable aleatoria con función de distribución normal.
\[ 9.1, 5, 7.3, 7.4, 5.5, 8.6, 7, 4.3, 4.7, 8, 4, 8.5, 6.4, 6.1, 5.8, 9.5, 5.2, 6.7, 8.3, 9.2 \]
1)Prueba a utilizar: Prueba de Bondad de Ajuste Lilliefors para Normalidad
2)Hipótesis:
\(H_{0}:\) Las tasas \(\sim N(\mu, \sigma^2)\)
\(H_{1}:\) Las tasas \(\not \sim N(\mu, \sigma^2)\)
3)Estadística
\[T_1=sup_x|F^*(x)-S(x)|\]
4)Procedimiento completo del cálculo del valor de la estadística
Primero definimos un vector con los datos de las tasas del producto financiero:
Tasas <- c(9.1, 5, 7.3, 7.4, 5.5, 8.6, 7, 4.3, 4.7, 8,
4, 8.5, 6.4, 6.1, 5.8, 9.5, 5.2, 6.7, 8.3, 9.2)
Tasas
## [1] 9.1 5.0 7.3 7.4 5.5 8.6 7.0 4.3 4.7 8.0 4.0 8.5 6.4 6.1 5.8 9.5 5.2
## [18] 6.7 8.3 9.2
Ordenamos los datos de menor a mayor:
Tasas <- sort(Tasas)
Tasas
## [1] 4.0 4.3 4.7 5.0 5.2 5.5 5.8 6.1 6.4 6.7 7.0 7.3 7.4 8.0 8.3 8.5 8.6
## [18] 9.1 9.2 9.5
Calculamos la media y la desviación estándar de los datos:
Media <- mean(Tasas)
Media
## [1] 6.83
Sd <- sd(Tasas)
Sd
## [1] 1.723552
Normalizamos las observaciones restándoles su media y dividiéndolos entre su desviación estándar:
Z <- (Tasas-Media)/Sd
Z
## [1] -1.64195798 -1.46789883 -1.23581996 -1.06176081 -0.94572138
## [6] -0.77166223 -0.59760308 -0.42354393 -0.24948478 -0.07542563
## [11] 0.09863352 0.27269267 0.33071238 0.67883068 0.85288983
## [16] 0.96892927 1.02694898 1.31704757 1.37506728 1.54912643
Utilizamos la siguiente función para hacer el cálculo de la función de distribución empírica de los datos ya normalizados:
ED <- ecdf(Z)
Sn <- ED(Z)
Sn
## [1] 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70
## [15] 0.75 0.80 0.85 0.90 0.95 1.00
La prueba se hará con estos datos. Notemos que al estar normalizados, entonces tienen distribución \(N(0,1)\), por lo que calculamos su función de distribución de la siguiente manera:
Fn <- pnorm(Z,0,1)
Fn
## [1] 0.05029936 0.07106585 0.10826275 0.14417214 0.17214536 0.22015725
## [7] 0.27505240 0.33594923 0.40149291 0.46993803 0.53928537 0.60745526
## [13] 0.62956913 0.75137743 0.80313980 0.83370976 0.84777776 0.90608866
## [19] 0.91544471 0.93932434
Ahora realizamos las diferencias en valor absoluto de los resultados obtenidos al calcular la función empírica e hipotética de los datos, para poder encontrar el valor de la estadística de prueba:
dif <- abs(Fn - Sn)
dif
## [1] 0.0002993563 0.0289341470 0.0417372538 0.0558278583 0.0778546429
## [6] 0.0798427471 0.0749475961 0.0640507734 0.0485070943 0.0300619669
## [11] 0.0107146280 0.0074552644 0.0204308733 0.0513774254 0.0531398002
## [16] 0.0337097592 0.0022222435 0.0060886597 0.0345552930 0.0606756648
Visualizamos estos resultados en la siguiente tabla:
Tabla <- cbind(Tasas, Z, Fn, Sn, "|Fn - Sn|" = dif)
Tabla
## Tasas Z Fn Sn |Fn - Sn|
## [1,] 4.0 -1.64195798 0.05029936 0.05 0.0002993563
## [2,] 4.3 -1.46789883 0.07106585 0.10 0.0289341470
## [3,] 4.7 -1.23581996 0.10826275 0.15 0.0417372538
## [4,] 5.0 -1.06176081 0.14417214 0.20 0.0558278583
## [5,] 5.2 -0.94572138 0.17214536 0.25 0.0778546429
## [6,] 5.5 -0.77166223 0.22015725 0.30 0.0798427471
## [7,] 5.8 -0.59760308 0.27505240 0.35 0.0749475961
## [8,] 6.1 -0.42354393 0.33594923 0.40 0.0640507734
## [9,] 6.4 -0.24948478 0.40149291 0.45 0.0485070943
## [10,] 6.7 -0.07542563 0.46993803 0.50 0.0300619669
## [11,] 7.0 0.09863352 0.53928537 0.55 0.0107146280
## [12,] 7.3 0.27269267 0.60745526 0.60 0.0074552644
## [13,] 7.4 0.33071238 0.62956913 0.65 0.0204308733
## [14,] 8.0 0.67883068 0.75137743 0.70 0.0513774254
## [15,] 8.3 0.85288983 0.80313980 0.75 0.0531398002
## [16,] 8.5 0.96892927 0.83370976 0.80 0.0337097592
## [17,] 8.6 1.02694898 0.84777776 0.85 0.0022222435
## [18,] 9.1 1.31704757 0.90608866 0.90 0.0060886597
## [19,] 9.2 1.37506728 0.91544471 0.95 0.0345552930
## [20,] 9.5 1.54912643 0.93932434 1.00 0.0606756648
Finalmente, el valor de la estadistica lo encontramos de la siguiente manera:
est_prueba <- max(dif)
est_prueba
## [1] 0.07984275
\(\therefore T_1 = 0.07984275\)
5)Regla de decisión
Fijamos un nivel de confianza \(\alpha = 5\%\). Se rechaza \(H_{0}\) si \(T_1>t_{(1-\alpha)}\), donde \(t_{(1-\alpha)}\) es el cuantil que acumula \((1 - \alpha)\) obtenido en la tabla correspondiente a la prueba de Lilliefors para Normalidad.
En este caso, con \(\alpha = 5\%\) y \(n = 20\), tenemos que \(t_{(1-\alpha)} = 0.192\).
Como \(T_1 = 0.07984275 \not> t_{(1-\alpha)} = 0.192\) entonces no rechazamos \(H_{0}\)
6)Conclusión
Por lo tanto, las tasas \(\sim N(\mu, \sigma^2)\)
Se obtuvieron sesenta y dos observaciones de un experimento, y se plantea la pregunta de si dichas observaciones provienen de una distribución normal con media 12 y desviacion estandar 3. Ninguna observacion se encontró por debajo del cuartil inferior de la distribución, 35 estuvieron por arriba de cuartil superior, 22 tomaron valores menores a la mediana, y 5 estuvieron entre la mediana y el cuartil superior. ¿Es posible concluir que las observaciones provienen de la distribución mencionada
1)Prueba a utilizar: Para este problema utilizaremos la prueba Ji-cuadrada para ver si las observaciones se distribuyen normal(12, 3)
2)Hipótesis:
\(H_{0}:\) Las observaciones siguen una distribución normal(12,3)
\(H_{1}:\) Las observaciones no siguen una distribución normal(12,3)
3)Estadística
\[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde
\[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]
4)Procedimiento completo del cálculo del valor de la estadística la frecuencia (\(f_j\)) será el vector
fi4 <- c(0, 22, 5,35)
fi4
## [1] 0 22 5 35
Dado que tenemos dos categorias con observaciones menores a 5 las colapsamos, por lo que el nuevo vector de frecuencia \(f_j\) será
fj4 <-c(22, 40)
fj4
## [1] 22 40
Ahora, dado que la distribucion es normal en cada cuartil se debe acumular .25 por lo que las \(p_j\) quedan de la siguiente forma
Pj4 <- c(0.50, 0.50)
Pj4
## [1] 0.5 0.5
Ahora calculemos las \(e_j\), donde \(e_j=np_j\)
n=sum(fj4)
n
## [1] 62
ej4<-Pj4*n
ej4
## [1] 31 31
Notamos que \(\sum p_i = 1\) y que \(\sum e_j = 62\)
sum(Pj4)
## [1] 1
sum(ej4)
## [1] 62
Ahora calculemos nuestro estaditico, \(\frac{(f_j-e_j)^2}{e_j}\)
Q1_4 <- (fj4-ej4)^2
Q2_4 <- Q1_4 / ej4
Q2_4
## [1] 2.612903 2.612903
Por lo que el estadístico \(Q\) es
sum(Q2_4)
## [1] 5.225806
5)Regla de decisión
Rechazamos a \(H_0\) si $Q> _{k-1}^2(1-) $ En este caso \(K=2\) y proponemos \(\alpha= .05\), por lo que buscamos \(\chi_{(2-1)}^2(1-.05)=\chi_{(1)}^2(0.95)\), calculemoslo
qchisq(.95,1)
## [1] 3.841459
vemos que \(Q=5.225806 \geq 3.841459=\chi_{(1)}^2(0.95)\) \(\Rightarrow\) Rechazamos \(H_0\)
6)Conclusión
Al rechazar \(H_0\) podemos concluir que existe evidencia estadística suficiente para decir que las observaciones no provienen de una distribucion normal
Un cierto banco otorga crédito a las personas con una tasa preferencial, de tal manera que los acreditados pueden pagar en cualquier momento desde que piden el préstamo hasta 8 semanas posteriores para que les sea respetada la tasa preferencial. Se seleccionaron aleatoriamente a \(1,008\) personas y observaron su comportamiento, generando de esta manera la siguiente tabla de frecuencia:
Semana | Créditos pagados |
---|---|
Menos de 1 semana | \(64\) |
\(1 \leq x < 2\) | \(195\) |
\(2 \leq x < 3\) | \(287\) |
\(3 \leq x < 4\) | \(241\) |
\(4 \leq x < 5\) | \(140\) |
\(5 \leq x < 6\) | \(51\) |
\(6 \leq x < 7\) | \(25\) |
\(7 \leq x < 8\) | \(4\) |
8 semanas o más | \(1\) |
¿Usted piensa que el pago de estos créditos, sigue una distribución binomial con parámetros \(n=10\) y \(p=0.25\)
Realice la prueba \(\chi ^2\) para verificar qué supocisión es válida con un 99% de confianza.
1)Prueba a utilizar: En este caso, usaremos la prueba Ji-Cuadrada para ver si el pago de los créditos sigue una distribución binomial(10, 0.25)
2)Hipótesis:
\(H_0\): Los pagos de los créditos sigue una distribución binomial(10, 0.25)
\(H_1\): Los pagos de los créditos no sigue una distribución binomial(10, 0.25)
3)Estadística
\[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde \[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]
4)Procedimiento completo del cálculo del valor de la estadística
Apoyándonos en R Studio, calculemos la estadistica
La frecuencia (\(f_j\)) será el vector
fi5 <- c(64, 195, 287, 241, 140, 51, 25, 4, 1)
fi5
## [1] 64 195 287 241 140 51 25 4 1
Cómo vemos que tenemos gos categorias con observaciones menores a 5 las colapsamos, por lo que el nuevo vector de frecuencias \(f_j\) será
fj5 <- c(64, 195, 287, 241, 140, 51, 30)
fj5
## [1] 64 195 287 241 140 51 30
Ahora, calculemos las \(p_j\) de la siguiente forma
pj5 <- dbinom(0:6, 10, 0.25)
pj5
## [1] 0.05631351 0.18771172 0.28156757 0.25028229 0.14599800 0.05839920
## [7] 0.01622200
Ahora, calculemos las \(e_j\), donde \(e_j = np_j\)
n=sum(fj5)
n
## [1] 1008
ej5<-pj5*n
ej5
## [1] 56.76402 189.21341 283.82011 252.28455 147.16599 58.86639 16.35178
Notamos que \(\sum pi \approx 1\) y que \(\sum ei \approx 1008\)
sum(pj5)
## [1] 0.9964943
sum(ej5)
## [1] 1004.466
Calculemos \(\frac{(f_j-e_j)^2}{e_j}\)
Q1_5 <- (fj5 - ej5)^2
Q2_5 <- Q1_5 / ej5
Q2_5
## [1] 0.92240407 0.17696753 0.03562705 0.50475139 0.34893486 1.05119663
## [7] 11.39166862
Por lo que la estadística \(Q\) es igual a
sum(Q2_5)
## [1] 14.43155
5)Regla de decisión
Vamos a rechazar \(H_0\) cuando \(Q > \chi_{(k-1)}^2(1-\alpha)\)
En este caso buscamos \(\chi_{(7-1)}^2(.99) = \chi_{(6)}^2(.99)\), calculémosla
qchisq(.99, 6)
## [1] 16.81189
Vemos que \(Q=14.43155 \ngeq 16.81189=\chi_{(6)}^2(.99)\) \(\Rightarrow\) No rechazamos \(H_0\)
6)Conclusión
Al no rechazar \(H_0\) podemos decir que los pagos siguen una distribución \(binomial(10, 0.25)\)
El gerente de una tienda quiere probar la hipótesis de que los clientes llegan aleatoriamente a su tienda, para ello registró el tiempo transcurrido entre las llegadas sucesivas de clientes en una mañana. El tiempo en miutos es el siguiente:
\[3.6, 6.2, 12.9, 14.2, 38.0, 3.8, 10.8, 6.1, 10.1, 22.1, 4.2, 4.6, 1.4, 3.3, 8.2\] Pruebe la hipótesis nula de que el tiempo entre las llegadas de los clientes se distribuye con función de distribución exponencial.
1)Prueba a utilizar: En este caso, usaremos la prueba Lillifors para exponencial
2)Hipótesis:
\(H_{0}:\) El tiempo entre las llegadas de los clientes se distribuye exponencial
\(H_{1}:\) El tiempo entre las llegadas de los clientes no se distribuye exponencial
3)Estadística
La estadística que utilizaremos será \[T_2=sup_x |S(x)-F^*(x)|\]
Donde \(z_i = \frac{x_i}{\bar{x}}\), \(S(x)\) es la función de distribución empírica calculada sobre las \(z_{i's}\) y \(F^*(x)\) es la función de distribución exponencial \(F^*(x)=1-e^{-x}\)
4)Procedimiento completo del cálculo del valor de la estadística
Apoyándonos en R Studio, calculemos la estadística
Primero, hagamos un vector con los datos y después ordenémoslo crecientemente. También obtengamos la media de los datos.
datos6<-c(3.6, 6.2, 12.9, 14.2, 38.0, 3.8, 10.8, 6.1, 10.1, 22.1, 4.2, 4.6, 1.4, 3.3, 8.2)
datos6
## [1] 3.6 6.2 12.9 14.2 38.0 3.8 10.8 6.1 10.1 22.1 4.2 4.6 1.4 3.3
## [15] 8.2
x<- sort(datos6)
x
## [1] 1.4 3.3 3.6 3.8 4.2 4.6 6.1 6.2 8.2 10.1 10.8 12.9 14.2 22.1
## [15] 38.0
xbarra<-mean(x)
xbarra
## [1] 9.966667
Ahora, obtengamos los \(z_i = \frac{x_i}{\bar{x}}\), \(F^*(x)\) y \(S(x)\)
z<-x/xbarra
z
## [1] 0.1404682 0.3311037 0.3612040 0.3812709 0.4214047 0.4615385 0.6120401
## [8] 0.6220736 0.8227425 1.0133779 1.0836120 1.2943144 1.4247492 2.2173913
## [15] 3.8127090
Sx1<-1:15
Sx1
## [1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Sx<-Sx1/15
Sx
## [1] 0.06666667 0.13333333 0.20000000 0.26666667 0.33333333 0.40000000
## [7] 0.46666667 0.53333333 0.60000000 0.66666667 0.73333333 0.80000000
## [13] 0.86666667 0.93333333 1.00000000
Fx<-1-exp(-z)
Fx
## [1] 0.1310487 0.2818693 0.3031632 0.3170072 0.3438755 0.3696868 0.4577565
## [8] 0.4631699 0.5607746 0.6370092 0.6616289 0.7259143 0.7594312 0.8911072
## [15] 0.9779117
Así, ya podemos calcular los \(|S(x)-F^*(x)|\) y la estadística \(T_2=sup_x |S(x)-F^*(x)|\)
SF <- abs(Sx-Fx)
SF
## [1] 0.064382060 0.148535957 0.103163180 0.050340494 0.010542141
## [6] 0.030313187 0.008910157 0.070163457 0.039225437 0.029657417
## [11] 0.071704439 0.074085718 0.107235466 0.042226140 0.022088260
T2<-max(SF)
T2
## [1] 0.148536
5)Regla de decisión
Rechazamos \(H_0\) a un nivel de confianza \(\alpha\) si \(T_2>t_{(1-\alpha)}\), donde \(t_{(1-\alpha)}\) es el cuantil que acumula \((1-\alpha)\) de la tabla para la prueba Lilliefors para distribución exponencial.
Buscando en las tablas, encontramos que para un \(\alpha = 10\%\) y para
n=14, \(t_{(.9)}=0.2525\)
n=16, \(t_{(.9)}=0.2371\)
en este ejercicio, la n=15, por lo que la \(t_{(1-\alpha)}\) que buscamos con \(\alpha = 10\%\) está en (0.2525, 0.2371)
en ambos casos ocurre que
\(T_2 = 0.1485\) \(\ngeq\) $0.2371 = t_{(.9)} $ y \(T_2 = 0.1485\) \(\ngeq\) \(0.2525 = t_{(.9)}\)
\(\Rightarrow\) No rechazamos \(H_0\)
6)Conclusión
Al no rechazar \(H_0\) podemos decir que el tiempo entre las llegadas de los clientes siguen una distribución \(exponencial\)
El neumático desinflado y la clase perdida. Un cuento clásico se refiere a cuatro estudiantes que van juntos en un automóvil y no llegan a un examen; como excusa dijeron al profesor que un neumático se desinfló en el camino. En el examen de recuperación, el profesor pidió a los estudiantes que identificaran el neumático en particular que se desinfló. Si en realidad no tuvieron un neumático desinflado, ¿Serían capaces de identificar el mismo neumático?.El autor pidió a otros 41 estudiantes que identificaran el neumático que ellos seleccionarían.Los resultados están listados en la siguiente tabla. Utilice un nivel de significancia de .05 para probar la aseveración del autor de que los resultados se ajustan a una distribución uniforme.¿Qué sugiere el resultado acerca de la capacidad de los cuatroestudiantes de seleccionar el mismo neumático cuando en realidad su excusa fue una mentir?.
Neumático | F Izquierdo | F Derecho | T Izquierdo | T Derecho | |
---|---|---|---|---|---|
Número seleccionado | 11 | 15 | 8 | 6 |
1)Prueba a utilizar: Prueba de Bondad de Ajuste: Ji-Cuadrada
2)Hipótesis:
\(H_{0}:\) Los resultados se ajustan a una distribución uniforme
\(H_{1}:\) Los resultados no se ajustan a una distribión uniforme
3)Estadística \[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde: \[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]
4)Procedimiento completo del cálculo del valor de la estadística Tomemos en cuenta las siguientes tablas para realizar el cálculo de la estadística.
Neumático | F izquierdo | F Derecho |
---|---|---|
Numero de selección | 11 | 15 |
\(P_{i}\) | \(\frac{1}{4}\) | \(\frac{1}{4}\) |
\(E_{i}=n*P_{i}\) | (40)\(\frac{1}{4}\)=10 | (40)\(\frac{1}{4}\)=10 |
Neumático | T izquierdo | T Derecho |
---|---|---|
Numero de selección | 8 | 6 |
\(P_{i}\) | \(\frac{1}{4}\) | \(\frac{1}{4}\) |
\(E_{i}=n*P_{i}\) | (40)\(\frac{1}{4}\)=10 | (40)\(\frac{1}{4}\)=10 |
\(Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\) \(=\) \(Q=\sum_{j=1}^5 \frac{(f_j-e_j)^2}{e_j}\) \(=\) \(\frac{(11-10)^2}{10}\) \(+\) \(\frac{(15-10)^2}{10}\) \(+\) \(\frac{(8-10)^2}{10}\) \(+\) \(\frac{(6-10)^2}{10}\) \(=\) 4.6
5)Regla de decisión
Rechazamos \(H_0\) si \(Q > q_{teorica}\), es decir, cuando \(Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\) \(>\) \(X_{k-1}^2 (1- \alpha)\)
\(X_{(4-1)}^2 (1-.05) = X_3 ^2 (.95)= 7.815\) Por lo tanto rechazamos \(H_0|\)
6)Conclusión
¿Se ajustan los impactos de las bombas de la Segunda Guerra Mundial a una distribución de Poisson? En el análisis de los impactos por bombas V-1 en la Segunda Guerra Mundial, el sur de Londres se subdividió en regiones, cada uno a con un área de \(0.25km^{2}\). En total, 535 bombas impactaron el área combinada de 577 regiones. Utilice los valores que se listan aquí y pruebe la aseveración de que las frecuencias reales se ajustan a una distribución Poisson. Utilice un nivel de significancia de \(0.05\).
Número de Impactos de bomba | 0 | 1 | 2 | 3 | 4 o más |
---|---|---|---|---|---|
Número real de regiones | 229 | 212 | 93 | 35 | 8 |
Especifique:
La distribución Poisson se utiliza en situaciones donde los sucesos son imprecindibles o de ocurrencia aleatoria, tal es el caso de los impactos de las bombas de la Segunda Guerra Mundial.
Se utiliza cuando la probabilidad del evento que nos interesa se distribuye dentro de un segmento \(n\) dado, como por jemplo distancia, área, volumen o tiempo definido(para este problema el caso es área).
Dado que se tiene distribución Poisson, lo que nos indica el ejercicio es obtener lambda, a través de las frecuencias de la tabla que vendrían siendo el número real de regiones, por medio del Estimador Máximo Verosímil que en este caso es x barra.
Impactos_bomba<- c(0,1,2,3,4)
Frecuencia<- c(229,212,93,35,8)
Lambda<-sum(Frecuencia*Impactos_bomba)/sum(Frecuencia)
Lambda
## [1] 0.9272097
1)Prueba a utilizar: Prueba de la Ji-Cuadrada
2)Hipótesis:
\(H_{0}:\) Las frecuencias reales se ajustan a una distribución Poisson \((0.9272097)\).
\(H_{1}:\) Las frecuencias reales no se ajustan a una distribución Poisson \((0.9272097)\).
3)Estadística
\[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde \[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]
4)Procedimiento completo del cálculo del valor de la estadística
Primero calculamos las \(p_i\)
pi <- dpois(0:4, Lambda)
pi_definitivo<-c(0.39565617,0.36685624, 0.17007633, 0.05256548,0.01484578)
Para que obtengamos la suma de 1 exacta en los pi se realiza la diferencia hasta 3 impactos de bomba, debido a que no sabemos exactamente como es que están distribuidos en 4 o más.
Suma8<-sum(0.39565617,0.36685624, 0.17007633, 0.05256548)
suma_def<-1-Suma8
Ahora, las \(e_j\), donde \(e_j = np_i\)
n<-sum(Frecuencia)
n
## [1] 577
ej<-pi_definitivo*n
ej
## [1] 228.293610 211.676050 98.134042 30.330282 8.566015
Sumamos las \(e_j\) y \(p_i\) obtenidas
sum(ej)
## [1] 577
sum(pi_definitivo)
## [1] 1
Calculando \(\frac{(f_j-e_j)^2}{e_j}\)
Q1 <- (Frecuencia - ej)^2
Q2 <- Q1 / ej
Q2
## [1] 0.0021857235 0.0004957731 0.2685957984 0.7189602326 0.0374004769
Entonces nuestra estadística será igual a la suma de \(Q2\)
sum(Q2)
## [1] 1.027638
5)Regla de decisión
Rechazamos \(H_{0}\) si \(Q > q_{teorica}\) Entonces, es necesario calcular la chi-cuadrada \(\chi_{(5-2)}^2(.95) = \chi_{(3)}^2(.95)\)
ji<-qchisq(.95, 3)
ji
## [1] 7.814728
Al hacer la comparación, notamos que sí se cumple la regla de decisión, \(Q=1.027638 > q_{teorica} = 7.814728\) no se cumple por lo que no se rechaza \(H_{0}\)
6)Conclusión
Al no rechazar \(H_0\) podemos decir que hay información suficiente para afirmar que Las frecuencias reales se ajustan a una distribución Poisson \((0.9272097)\)
En R fije la semilla 2019, y genere 25 observaciones distribuidas como una N(0,1) y con ella realice: 1. Calcule y grafique la función de distribución empírica de las observaciones generadas 2. Agrega sobre esa misma gráfica, la curva de la distribución verdadera N(0,1). A partir de las graficas anteriores ¿la función de distribución empírica es similar a la distribución teórica de los datos? 3. Realice al menos dos pruebas de bondad de ajuste para probar que la muestra proviene de una distribución N(0, 1)
Primero fijamos la semilla 2019 y generamos las 25 observaciones distribuidas como una N(0,1)
set.seed(2019)
x=rnorm(25)
x
## [1] 0.7385227 -0.5147605 -1.6401813 0.9160368 -1.2674820 0.7382478
## [7] -0.7826228 0.5092959 -1.4899391 -0.3191793 -0.2379111 1.6186229
## [13] -1.1176011 0.2340028 0.3161516 0.3707686 0.8775886 -1.7683235
## [19] -0.3271264 -2.2632252 0.2855605 0.9684286 0.8673066 1.3781350
## [25] -0.8082596
x<- sort(x)
x
## [1] -2.2632252 -1.7683235 -1.6401813 -1.4899391 -1.2674820 -1.1176011
## [7] -0.8082596 -0.7826228 -0.5147605 -0.3271264 -0.3191793 -0.2379111
## [13] 0.2340028 0.2855605 0.3161516 0.3707686 0.5092959 0.7382478
## [19] 0.7385227 0.8673066 0.8775886 0.9160368 0.9684286 1.3781350
## [25] 1.6186229
Utilizamos la siguiente función para hacer el cálculo de la función de distribución empírica: \(S_n(x)=\frac{i}{n}\)
Sn <- c(0.04, 0.08, 0.12, 0.16, 0.2, 0.24, 0.28, 0.32, 0.36, 0.40, 0.44, 0.48, 0.52, 0.56, 0.60, 0.64, 0.68, 0.72, 0.76, 0.80, 0.84, 0.88, 0.92, 0.96, 1)
Sn
## [1] 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52 0.56
## [15] 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96 1.00
Ahora vamos a graficar la función de distribución empírica
plot(x, Sn)
*2. Agrega sobre esa misma gráfica, la curva de la distribución verdadera N(0,1).
F<-pnorm(x, 0, 1)
F
## [1] 0.01181090 0.03850342 0.05048373 0.06812013 0.10249150 0.13186870
## [7] 0.20947059 0.21692433 0.30336020 0.37178614 0.37479528 0.40597503
## [13] 0.59250859 0.61239262 0.62405627 0.64459505 0.69472760 0.76981805
## [19] 0.76990155 0.80711298 0.80991648 0.82017620 0.83358481 0.91591919
## [25] 0.94723579
plot(x, y= Sn)
par(new=TRUE)
plot(x, F)
A partir de las graficas anteriores ¿la función de distribución empírica es similar a la distribución teórica de los datos? La función de distribución empírica es similar a la distribución teórica de los datos
*3. Realice al menos dos pruebas de bondad de ajuste para probar que la muestra proviene de una distribución N(0, 1)
1)Prueba a utilizar: Para este problema utilizaremos la prueba de bondad de ajuste Kolmogorov de 2 colas
2)Hipótesis:
\(H_{0}:\) La muestra proviene de una distribución N(0,1)
\(H_{1}:\) La muestra no proviene de una distribución N(0,1)
3)Estadística \[T=sup_x|F^*(x)-S(x)|\]
4)Procedimiento completo del cálculo del valor de la estadística cargamos nuestros datos
set.seed(2019)
x=rnorm(25)
x=sort(x)
x
## [1] -2.2632252 -1.7683235 -1.6401813 -1.4899391 -1.2674820 -1.1176011
## [7] -0.8082596 -0.7826228 -0.5147605 -0.3271264 -0.3191793 -0.2379111
## [13] 0.2340028 0.2855605 0.3161516 0.3707686 0.5092959 0.7382478
## [19] 0.7385227 0.8673066 0.8775886 0.9160368 0.9684286 1.3781350
## [25] 1.6186229
Recordamos que los valores de la Distribución empírica estan dados por Sn
Sn
## [1] 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52 0.56
## [15] 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96 1.00
Luego calculamos la función de distribución hipotetica de los datos que es una N(0,1)
Fn <- pnorm(x,0,1)
Fn
## [1] 0.01181090 0.03850342 0.05048373 0.06812013 0.10249150 0.13186870
## [7] 0.20947059 0.21692433 0.30336020 0.37178614 0.37479528 0.40597503
## [13] 0.59250859 0.61239262 0.62405627 0.64459505 0.69472760 0.76981805
## [19] 0.76990155 0.80711298 0.80991648 0.82017620 0.83358481 0.91591919
## [25] 0.94723579
Ahora obtenemos el valor absoluto de las diferencias de los resultados obtenidos al calcular la función empirica e hipotetica de los datos, para obtener el valor de la estadística
dif=abs(Fn-Sn)
dif
## [1] 0.028189095 0.041496583 0.069516266 0.091879873 0.097508497
## [6] 0.108131302 0.070529414 0.103075666 0.056639801 0.028213864
## [11] 0.065204724 0.074024974 0.072508591 0.052392621 0.024056268
## [16] 0.004595049 0.014727597 0.049818050 0.009901549 0.007112981
## [21] 0.030083517 0.059823801 0.086415187 0.044080808 0.052764213
Visualizamoslos resultados en la siguiente tabla
Tabla1 <-cbind(x, Fn, Sn, "|Fn-Sn|"=dif)
Tabla1
## x Fn Sn |Fn-Sn|
## [1,] -2.2632252 0.01181090 0.04 0.028189095
## [2,] -1.7683235 0.03850342 0.08 0.041496583
## [3,] -1.6401813 0.05048373 0.12 0.069516266
## [4,] -1.4899391 0.06812013 0.16 0.091879873
## [5,] -1.2674820 0.10249150 0.20 0.097508497
## [6,] -1.1176011 0.13186870 0.24 0.108131302
## [7,] -0.8082596 0.20947059 0.28 0.070529414
## [8,] -0.7826228 0.21692433 0.32 0.103075666
## [9,] -0.5147605 0.30336020 0.36 0.056639801
## [10,] -0.3271264 0.37178614 0.40 0.028213864
## [11,] -0.3191793 0.37479528 0.44 0.065204724
## [12,] -0.2379111 0.40597503 0.48 0.074024974
## [13,] 0.2340028 0.59250859 0.52 0.072508591
## [14,] 0.2855605 0.61239262 0.56 0.052392621
## [15,] 0.3161516 0.62405627 0.60 0.024056268
## [16,] 0.3707686 0.64459505 0.64 0.004595049
## [17,] 0.5092959 0.69472760 0.68 0.014727597
## [18,] 0.7382478 0.76981805 0.72 0.049818050
## [19,] 0.7385227 0.76990155 0.76 0.009901549
## [20,] 0.8673066 0.80711298 0.80 0.007112981
## [21,] 0.8775886 0.80991648 0.84 0.030083517
## [22,] 0.9160368 0.82017620 0.88 0.059823801
## [23,] 0.9684286 0.83358481 0.92 0.086415187
## [24,] 1.3781350 0.91591919 0.96 0.044080808
## [25,] 1.6186229 0.94723579 1.00 0.052764213
El valor de la estadistica es:
T=max(dif)
T
## [1] 0.1081313
5)Regla de decisión Rechazo \(H_0\) a un nivel de significancia \(\alpha=0.05\) si \(T>W\) Donde W es el cuantil (1-\(\alpha\)) El cuantil W que acumula 1-\(\alpha\) de probabilidad, usando \(\alpha= 0.05\) es \(W=0.238\) Tenemos \(T=0.1081313 \ngeq 0.238 = W\) \(\Rightarrow\) No rechazamos \(H_0\)
6)Conclusión Podemos concluir que los datos siguen una distribución N(0,1)
1)Prueba a utilizar: Utilizaremos la prueba de bondad de ajuste Kolmogorov-Smirnov
2)Hipótesis:
\(H_{0}:\) La muestra se distribuye Normal(0,1)
\(H_{1}:\) La muestra no se distribuye Normal(0,1)
3)Estadística
\[D_n=sup_x|S_n(x)-F^*(x)|=max(D^+, D^-)\]
4)Procedimiento completo del cálculo del valor de la estadística
x
## [1] -2.2632252 -1.7683235 -1.6401813 -1.4899391 -1.2674820 -1.1176011
## [7] -0.8082596 -0.7826228 -0.5147605 -0.3271264 -0.3191793 -0.2379111
## [13] 0.2340028 0.2855605 0.3161516 0.3707686 0.5092959 0.7382478
## [19] 0.7385227 0.8673066 0.8775886 0.9160368 0.9684286 1.3781350
## [25] 1.6186229
2.Se calcula la función empírica, dado que no tenemos ningún valor repetido \(S_n=\frac{i}{n}\)
Sn
## [1] 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52 0.56
## [15] 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96 1.00
Sm<- c(0, 0.04, 0.08, 0.12, 0.16, 0.2, 0.24, 0.28, 0.32, 0.36, 0.40, 0.44, 0.48, 0.52, 0.56, 0.60, 0.64, 0.68, 0.72, 0.76, 0.80, 0.84, 0.88, 0.92, 0.96)
Sm
## [1] 0.00 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52
## [15] 0.56 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96
Fn=pnorm(x,0,1)
Fn
## [1] 0.01181090 0.03850342 0.05048373 0.06812013 0.10249150 0.13186870
## [7] 0.20947059 0.21692433 0.30336020 0.37178614 0.37479528 0.40597503
## [13] 0.59250859 0.61239262 0.62405627 0.64459505 0.69472760 0.76981805
## [19] 0.76990155 0.80711298 0.80991648 0.82017620 0.83358481 0.91591919
## [25] 0.94723579
Dmas=(Sn-Fn)
Dmas
## [1] 0.028189095 0.041496583 0.069516266 0.091879873 0.097508497
## [6] 0.108131302 0.070529414 0.103075666 0.056639801 0.028213864
## [11] 0.065204724 0.074024974 -0.072508591 -0.052392621 -0.024056268
## [16] -0.004595049 -0.014727597 -0.049818050 -0.009901549 -0.007112981
## [21] 0.030083517 0.059823801 0.086415187 0.044080808 0.052764213
Dmenos=(Sm-Fn)
Dmenos
## [1] -0.011810905 0.001496583 0.029516266 0.051879873 0.057508497
## [6] 0.068131302 0.030529414 0.063075666 0.016639801 -0.011786136
## [11] 0.025204724 0.034024974 -0.112508591 -0.092392621 -0.064056268
## [16] -0.044595049 -0.054727597 -0.089818050 -0.049901549 -0.047112981
## [21] -0.009916483 0.019823801 0.046415187 0.004080808 0.012764213
7.Visualizamos estos resultados en la siguiente tabla
Tabla2<- cbind(x, Fn, Sn, Sm, Dmas, Dmenos)
Tabla2
## x Fn Sn Sm Dmas Dmenos
## [1,] -2.2632252 0.01181090 0.04 0.00 0.028189095 -0.011810905
## [2,] -1.7683235 0.03850342 0.08 0.04 0.041496583 0.001496583
## [3,] -1.6401813 0.05048373 0.12 0.08 0.069516266 0.029516266
## [4,] -1.4899391 0.06812013 0.16 0.12 0.091879873 0.051879873
## [5,] -1.2674820 0.10249150 0.20 0.16 0.097508497 0.057508497
## [6,] -1.1176011 0.13186870 0.24 0.20 0.108131302 0.068131302
## [7,] -0.8082596 0.20947059 0.28 0.24 0.070529414 0.030529414
## [8,] -0.7826228 0.21692433 0.32 0.28 0.103075666 0.063075666
## [9,] -0.5147605 0.30336020 0.36 0.32 0.056639801 0.016639801
## [10,] -0.3271264 0.37178614 0.40 0.36 0.028213864 -0.011786136
## [11,] -0.3191793 0.37479528 0.44 0.40 0.065204724 0.025204724
## [12,] -0.2379111 0.40597503 0.48 0.44 0.074024974 0.034024974
## [13,] 0.2340028 0.59250859 0.52 0.48 -0.072508591 -0.112508591
## [14,] 0.2855605 0.61239262 0.56 0.52 -0.052392621 -0.092392621
## [15,] 0.3161516 0.62405627 0.60 0.56 -0.024056268 -0.064056268
## [16,] 0.3707686 0.64459505 0.64 0.60 -0.004595049 -0.044595049
## [17,] 0.5092959 0.69472760 0.68 0.64 -0.014727597 -0.054727597
## [18,] 0.7382478 0.76981805 0.72 0.68 -0.049818050 -0.089818050
## [19,] 0.7385227 0.76990155 0.76 0.72 -0.009901549 -0.049901549
## [20,] 0.8673066 0.80711298 0.80 0.76 -0.007112981 -0.047112981
## [21,] 0.8775886 0.80991648 0.84 0.80 0.030083517 -0.009916483
## [22,] 0.9160368 0.82017620 0.88 0.84 0.059823801 0.019823801
## [23,] 0.9684286 0.83358481 0.92 0.88 0.086415187 0.046415187
## [24,] 1.3781350 0.91591919 0.96 0.92 0.044080808 0.004080808
## [25,] 1.6186229 0.94723579 1.00 0.96 0.052764213 0.012764213
D_mas <- max(Dmas)
D_mas
## [1] 0.1081313
y \(D^-\) esta dada por
D_menos <- max(Dmenos)
D_menos
## [1] 0.0681313
Por lo tanto el valor de la estadistica esta dado por \[D_n=sup_x|S_n(x)-F^*(x)|=max(D^+, D^-)\]
Dn <- max(D_mas, D_menos)
Dn
## [1] 0.1081313
5)Regla de decisión Este ultimo resultado se compara con la tabla de valore críticos de Kolmogorov-Smirnov, para un nivel de significancia \(\alpha=0.05\), \(W=.264\) Por lo que tenemos que \(W=.264 > 0.1081313=D_n\) \(\Rightarrow\) No Rechazamos \(H_0\)
6)Conclusión con un nivel de significancia \(\alpha= 0.05\) podemos concluir que nuestros datos se distribuyen N(0,1)
La siguiente muestra aleatoria hace referencia a los rendimientos positivos de cierta acción a lo largo del tiempo:
\(0.2513,0.2566,0.3459,0.6379, 1.803, 2.1906, 1.5299, 0.35005, 0.3128, 1.2726,2.3674, 2.3214, 2.4373, 0.6548\)
¿Usted piensa que la anterior muestra sigue una distribución normal? Realiza la prueba correspondiente para verificar que su suposición es cierta con un nivvel de confianza del \(90\%\)
1)Prueba a utilizar: Anderson-Darling
2)Hipótesis:
\(H_{0}:\) La muestra proviene de una distribución normal.
\(H_{1}:\) La muestra no proviene de una distribución normal
3)Estadística
4)Procedimiento completo del cálculo del valor de la estadística
datos<-c(0.2513,0.2566,0.3459,0.6379, 2.0505, 1.803, 2.1906, 1.5299, 0.35005, 0.3128, 1.2726,2.3674, 2.3214, 2.4373, 0.6548)
datos<-sort(datos)
media<-mean(datos)
desviacion<-sd(datos)
varianza<-var(datos)
Xi<-c(1:15)
F_xi<-pnorm(datos,media,desviacion)
invertido <-sort(F_xi, decreasing = TRUE)
log_F_xi<-log(F_xi)
resta_log<-log(1-invertido)
suma<-(log_F_xi+resta_log)*(2*Xi-1)/15
Tabla<-cbind(Xi,datos,F_xi,log_F_xi, resta_log, suma)
Tabla
## Xi datos F_xi log_F_xi resta_log suma
## [1,] 1 0.25130 0.1287245 -2.05008068 -2.4083979 -0.2972319
## [2,] 2 0.25660 0.1299888 -2.04030716 -2.2682820 -0.8617178
## [3,] 3 0.31280 0.1439240 -1.93846962 -2.1789061 -1.3724586
## [4,] 4 0.34590 0.1525868 -1.88002142 -1.9369130 -1.7812360
## [5,] 5 0.35005 0.1536969 -1.87277300 -1.6973309 -2.1420624
## [6,] 6 0.63790 0.2435260 -1.41253168 -1.3222156 -2.0054813
## [7,] 7 0.65480 0.2495574 -1.38806620 -0.9764355 -2.0492348
## [8,] 8 1.27260 0.5092363 -0.67484304 -0.7117926 -1.3866357
## [9,] 9 1.52990 0.6233487 -0.47264918 -0.2870922 -0.8610402
## [10,] 10 1.80300 0.7334559 -0.30998780 -0.2790871 -0.7461615
## [11,] 11 2.05050 0.8168282 -0.20232645 -0.1668777 -0.5168858
## [12,] 12 2.19060 0.8558517 -0.15565811 -0.1655669 -0.4925450
## [13,] 13 2.32140 0.8868347 -0.12009662 -0.1553962 -0.4591547
## [14,] 14 2.36740 0.8965102 -0.10924564 -0.1392492 -0.4472906
## [15,] 15 2.43730 0.9100407 -0.09426596 -0.1377971 -0.4486552
Sumando los valores de la última columna de la tabla anterior
total<-sum(suma)
total
## [1] -15.86779
Obteniendo el valor de \(An^{2}\)
An2<-(-15-(total))
An2
## [1] 0.8677915
Estamos en el caso donde los parámetros son desconocidos, por lo que debemos realizar el ajuste de la estadística
ajuste<-(1+(4/15)+25/(15)^2)*An2
ajuste
## [1] 1.195624
5)Regla de decisión
Se rechaza \(H_{0}\) si \(A_{n}^{2} > w^{1- \alpha}\) donde \(w^{1- \alpha}\) es el cuantil asociado a la distribución \(A_{n}^{2}\) bajo \(H_{0}\), de acuerdo a la tabla obtenida de las notas, y que contamos con un \(\alpha = 10\%\), le corresponde \(0.632\)
Comparando resultados sí rechazamos \(H_{0}\) pues \(A_{n}^{2}=1.195624 > w^{1- \alpha}=0.632\)
6)Conclusión
Sí hay evidencia suficiente para decir que la muestra proviene de una distribución Normal \((1.195111,0.7886308)\)
j<-1