Tarea 3: Pruebas de Bondad de Ajuste

Un clavadista olimpico es evaluado con 10 clavados de practica con las siguientes calificaciones; 1.7, 5.3, 7.6, 8.9, 9.0, 9.1, 9.3, 9.6, 9.9, 9.9. Probar la hipotesis de que la funcion de distribucion de las calificaciones esta dada por F(x) donde:

\(F(x)=0\) si \(x<0\)

\(F(x)=(x^2)/100\) si \(0<=x<=10\)

\(F(x)=1\) si \(10<x\)

1)Prueba a utilizar:

Prueba de Bondad de Ajuste de Kolmogorov de 2 colas

2)Hipótesis:

\(H_{0}:\) Las calificaciones provienen de la Funcion de Distribucion propuesta, i.e, \(F(x) = F^*(x)\) \(\forall\) \(x\) de \(-\infty\) a \(\infty\)

\(H_{1}:\) Las calificaciones no provienen de la Funcion de Distribucion propuesta , i.e., \(F(x) \neq F^*(x)\) para al menos un valor de \(x\)

3)Estadística \[T=sup_x|F^*(x)-S(x)|\]

4)Procedimiento completo del cálculo del valor de la estadística Primero cargamos los datos de las calificaciones que tenemos

x=c(1.7,5.3,7.6,8.9,9,9.1,9.3,9.6,9.9)
x
## [1] 1.7 5.3 7.6 8.9 9.0 9.1 9.3 9.6 9.9

Generamos la funcion de distribucion para aplicarla a estos valores y poder comparar con el metodo correspondiente

f<- function (x){
  y=(x^2)/100
return(y)
}
f<-f(x)
f
## [1] 0.0289 0.2809 0.5776 0.7921 0.8100 0.8281 0.8649 0.9216 0.9801

Generamos los valores de la Disribucion empirica y obtenemos sus diferencias, despues tomamos el valor absoluto de las diferencias para obtener la estadistica.

s=c(0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,1)
s
## [1] 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 1.0
dif=abs(f-s)
dif
## [1] 0.0711 0.0809 0.2776 0.3921 0.3100 0.2281 0.1649 0.1216 0.0199

El valor de la estadistica es:

T=max(dif)
T
## [1] 0.3921

5)Regla de decisión

El cuantil de la distribucion con \(\alpha\) = 10%

W=.369
W
## [1] 0.369

Y la regla de Decision es: Fijamos un nivel de confianza \(\alpha = 10\%\). Se rechaza \(H_{0}\) si \(T>W\), donde \(W\) es el cuantil \((1 - \alpha)100\%\) obtenido en la tabla correspondiente a la prueba de Kolmogorov.

if(T>W){
  print("Se rechaza H0, Los datos no siguen la distribucion propuesta")
}else{
  print("No se rechaza H0. No hay suficiente informacion para decir 
        que la muestra no sigue la distribucion propuesta")
}
## [1] "Se rechaza H0, Los datos no siguen la distribucion propuesta"

6)Conclusión Los Datos no siguen la distribucion propuesta

Cinco niños de cuarto grado de primaria fueron seleccionados al azar de todos los niños de ese grado en la escuela “15 de septiembre”, para participar en una carrera. Sus tiempos en segundos fueron: 6.3, 4.2, 4.7, 6.0 y 5.7. Probar con la hipótesis de que los tiempos provienen de una distribución uniforme en el intervalo de 4 a 8 segundos.

1)Prueba a utilizar: Prueba de Bondad de Ajuste Kolmogorov (2 colas)

2)Hipótesis:

\(H_{0}:\) Los tiempos provienen de una distribución uniforme en el intervalo de 4 a 8 segundos, i.e, \(F(x) = F^*(x)\) \(\forall\) \(x\) de \(-\infty\) a \(\infty\)

\(H_{1}:\) Los tiempos no provienen de una distribución uniforme en el intervalo de 4 a 8 segundos, i.e., \(F(x) \neq F^*(x)\) para al menos un valor de \(x\)

3)Estadística \[T=sup_x|F^*(x)-S(x)|\] 4)Procedimiento completo del cálculo del valor de la estadística

Primero definimos un vector con los datos de los tiempos:

Tiempos <- c(6.3, 4.2, 4.7, 6.0, 5.7)
Tiempos
## [1] 6.3 4.2 4.7 6.0 5.7

Ordenamos los datos de menor a mayor:

Tiempos<- sort(Tiempos)
Tiempos
## [1] 4.2 4.7 5.7 6.0 6.3

Utilizamos la siguiente función para hacer el cálculo de la función de distribución empírica:

ED <- ecdf(Tiempos)

Sn <- ED(Tiempos)  #Funcion de distribucion empírica
Sn
## [1] 0.2 0.4 0.6 0.8 1.0

Luego calculamos la función de distribución hipotética de los datos, que es una Uniforme(4,8):

Fn <- punif(Tiempos,4,8)  #Funcion de distribucion hipotética
Fn
## [1] 0.050 0.175 0.425 0.500 0.575

Ahora realizamos las diferencias en valor absoluto de los resultados obtenidos al calcular la función empírica e hipotética de los datos, para poder encontrar el valor de la estadística de prueba:

diferencias <- abs(Fn - Sn)
diferencias
## [1] 0.150 0.225 0.175 0.300 0.425

Visualizamos estos resultados en la siguiente tabla:

Tabla <- cbind(Tiempos, Fn, Sn, "|Fn - Sn|" = diferencias)
Tabla
##      Tiempos    Fn  Sn |Fn - Sn|
## [1,]     4.2 0.050 0.2     0.150
## [2,]     4.7 0.175 0.4     0.225
## [3,]     5.7 0.425 0.6     0.175
## [4,]     6.0 0.500 0.8     0.300
## [5,]     6.3 0.575 1.0     0.425

Finalmente, el valor de la estadistica lo encontramos de la siguiente manera:

est_prueba <- max(diferencias)
est_prueba
## [1] 0.425

\(\therefore T = 0.425\)

5)Regla de decisión

Fijamos un nivel de confianza \(\alpha = 5\%\). Se rechaza \(H_{0}\) si \(T>W\), donde \(W\) es el cuantil \((1 - \alpha)100\%\) obtenido en la tabla correspondiente a la prueba de Kolmogorov.

En este caso, con \(\alpha = 5\%\) y \(n = 5\), tenemos que \(W = 0.563\).

Como \(T = 0.425 \not> W = 0.563\) entonces no rechazamos \(H_{0}\)

6)Conclusión

Por lo tanto, los tiempos provienen de una distribución uniforme en el intervalo de 4 a 8 segundos.

Se desea probar la hipótesis de que las tasas de un determinado producto financiero tiene el comportamiento de una variable aleatoria con función de distribución normal.

\[ 9.1, 5, 7.3, 7.4, 5.5, 8.6, 7, 4.3, 4.7, 8, 4, 8.5, 6.4, 6.1, 5.8, 9.5, 5.2, 6.7, 8.3, 9.2 \]

1)Prueba a utilizar: Prueba de Bondad de Ajuste Lilliefors para Normalidad

2)Hipótesis:

\(H_{0}:\) Las tasas \(\sim N(\mu, \sigma^2)\)

\(H_{1}:\) Las tasas \(\not \sim N(\mu, \sigma^2)\)

3)Estadística

\[T_1=sup_x|F^*(x)-S(x)|\]

4)Procedimiento completo del cálculo del valor de la estadística

Primero definimos un vector con los datos de las tasas del producto financiero:

Tasas <- c(9.1, 5, 7.3, 7.4, 5.5, 8.6, 7, 4.3, 4.7, 8, 
           4, 8.5, 6.4, 6.1, 5.8, 9.5, 5.2, 6.7, 8.3, 9.2)
Tasas
##  [1] 9.1 5.0 7.3 7.4 5.5 8.6 7.0 4.3 4.7 8.0 4.0 8.5 6.4 6.1 5.8 9.5 5.2
## [18] 6.7 8.3 9.2

Ordenamos los datos de menor a mayor:

Tasas <- sort(Tasas)
Tasas
##  [1] 4.0 4.3 4.7 5.0 5.2 5.5 5.8 6.1 6.4 6.7 7.0 7.3 7.4 8.0 8.3 8.5 8.6
## [18] 9.1 9.2 9.5

Calculamos la media y la desviación estándar de los datos:

Media <- mean(Tasas)
Media
## [1] 6.83
Sd <- sd(Tasas)
Sd
## [1] 1.723552

Normalizamos las observaciones restándoles su media y dividiéndolos entre su desviación estándar:

Z <- (Tasas-Media)/Sd
Z
##  [1] -1.64195798 -1.46789883 -1.23581996 -1.06176081 -0.94572138
##  [6] -0.77166223 -0.59760308 -0.42354393 -0.24948478 -0.07542563
## [11]  0.09863352  0.27269267  0.33071238  0.67883068  0.85288983
## [16]  0.96892927  1.02694898  1.31704757  1.37506728  1.54912643

Utilizamos la siguiente función para hacer el cálculo de la función de distribución empírica de los datos ya normalizados:

ED <- ecdf(Z)

Sn <- ED(Z)
Sn
##  [1] 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70
## [15] 0.75 0.80 0.85 0.90 0.95 1.00

La prueba se hará con estos datos. Notemos que al estar normalizados, entonces tienen distribución \(N(0,1)\), por lo que calculamos su función de distribución de la siguiente manera:

Fn <- pnorm(Z,0,1)
Fn
##  [1] 0.05029936 0.07106585 0.10826275 0.14417214 0.17214536 0.22015725
##  [7] 0.27505240 0.33594923 0.40149291 0.46993803 0.53928537 0.60745526
## [13] 0.62956913 0.75137743 0.80313980 0.83370976 0.84777776 0.90608866
## [19] 0.91544471 0.93932434

Ahora realizamos las diferencias en valor absoluto de los resultados obtenidos al calcular la función empírica e hipotética de los datos, para poder encontrar el valor de la estadística de prueba:

dif <- abs(Fn - Sn)
dif
##  [1] 0.0002993563 0.0289341470 0.0417372538 0.0558278583 0.0778546429
##  [6] 0.0798427471 0.0749475961 0.0640507734 0.0485070943 0.0300619669
## [11] 0.0107146280 0.0074552644 0.0204308733 0.0513774254 0.0531398002
## [16] 0.0337097592 0.0022222435 0.0060886597 0.0345552930 0.0606756648

Visualizamos estos resultados en la siguiente tabla:

Tabla <- cbind(Tasas, Z, Fn, Sn, "|Fn - Sn|" = dif)
Tabla
##       Tasas           Z         Fn   Sn    |Fn - Sn|
##  [1,]   4.0 -1.64195798 0.05029936 0.05 0.0002993563
##  [2,]   4.3 -1.46789883 0.07106585 0.10 0.0289341470
##  [3,]   4.7 -1.23581996 0.10826275 0.15 0.0417372538
##  [4,]   5.0 -1.06176081 0.14417214 0.20 0.0558278583
##  [5,]   5.2 -0.94572138 0.17214536 0.25 0.0778546429
##  [6,]   5.5 -0.77166223 0.22015725 0.30 0.0798427471
##  [7,]   5.8 -0.59760308 0.27505240 0.35 0.0749475961
##  [8,]   6.1 -0.42354393 0.33594923 0.40 0.0640507734
##  [9,]   6.4 -0.24948478 0.40149291 0.45 0.0485070943
## [10,]   6.7 -0.07542563 0.46993803 0.50 0.0300619669
## [11,]   7.0  0.09863352 0.53928537 0.55 0.0107146280
## [12,]   7.3  0.27269267 0.60745526 0.60 0.0074552644
## [13,]   7.4  0.33071238 0.62956913 0.65 0.0204308733
## [14,]   8.0  0.67883068 0.75137743 0.70 0.0513774254
## [15,]   8.3  0.85288983 0.80313980 0.75 0.0531398002
## [16,]   8.5  0.96892927 0.83370976 0.80 0.0337097592
## [17,]   8.6  1.02694898 0.84777776 0.85 0.0022222435
## [18,]   9.1  1.31704757 0.90608866 0.90 0.0060886597
## [19,]   9.2  1.37506728 0.91544471 0.95 0.0345552930
## [20,]   9.5  1.54912643 0.93932434 1.00 0.0606756648

Finalmente, el valor de la estadistica lo encontramos de la siguiente manera:

est_prueba <- max(dif)
est_prueba
## [1] 0.07984275

\(\therefore T_1 = 0.07984275\)

5)Regla de decisión

Fijamos un nivel de confianza \(\alpha = 5\%\). Se rechaza \(H_{0}\) si \(T_1>t_{(1-\alpha)}\), donde \(t_{(1-\alpha)}\) es el cuantil que acumula \((1 - \alpha)\) obtenido en la tabla correspondiente a la prueba de Lilliefors para Normalidad.

En este caso, con \(\alpha = 5\%\) y \(n = 20\), tenemos que \(t_{(1-\alpha)} = 0.192\).

Como \(T_1 = 0.07984275 \not> t_{(1-\alpha)} = 0.192\) entonces no rechazamos \(H_{0}\)

6)Conclusión

Por lo tanto, las tasas \(\sim N(\mu, \sigma^2)\)

Se obtuvieron sesenta y dos observaciones de un experimento, y se plantea la pregunta de si dichas observaciones provienen de una distribución normal con media 12 y desviacion estandar 3. Ninguna observacion se encontró por debajo del cuartil inferior de la distribución, 35 estuvieron por arriba de cuartil superior, 22 tomaron valores menores a la mediana, y 5 estuvieron entre la mediana y el cuartil superior. ¿Es posible concluir que las observaciones provienen de la distribución mencionada

1)Prueba a utilizar: Para este problema utilizaremos la prueba Ji-cuadrada para ver si las observaciones se distribuyen normal(12, 3)

2)Hipótesis:

\(H_{0}:\) Las observaciones siguen una distribución normal(12,3)

\(H_{1}:\) Las observaciones no siguen una distribución normal(12,3)

3)Estadística

\[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde

\[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]

4)Procedimiento completo del cálculo del valor de la estadística la frecuencia (\(f_j\)) será el vector

fi4 <- c(0, 22, 5,35)
fi4
## [1]  0 22  5 35

Dado que tenemos dos categorias con observaciones menores a 5 las colapsamos, por lo que el nuevo vector de frecuencia \(f_j\) será

fj4 <-c(22, 40)
fj4
## [1] 22 40

Ahora, dado que la distribucion es normal en cada cuartil se debe acumular .25 por lo que las \(p_j\) quedan de la siguiente forma

Pj4 <- c(0.50, 0.50)
Pj4
## [1] 0.5 0.5

Ahora calculemos las \(e_j\), donde \(e_j=np_j\)

n=sum(fj4)
n
## [1] 62
ej4<-Pj4*n
ej4
## [1] 31 31

Notamos que \(\sum p_i = 1\) y que \(\sum e_j = 62\)

sum(Pj4)
## [1] 1
sum(ej4)
## [1] 62

Ahora calculemos nuestro estaditico, \(\frac{(f_j-e_j)^2}{e_j}\)

Q1_4 <- (fj4-ej4)^2
Q2_4 <- Q1_4 / ej4
Q2_4
## [1] 2.612903 2.612903

Por lo que el estadístico \(Q\) es

sum(Q2_4)
## [1] 5.225806

5)Regla de decisión

Rechazamos a \(H_0\) si $Q> _{k-1}^2(1-) $ En este caso \(K=2\) y proponemos \(\alpha= .05\), por lo que buscamos \(\chi_{(2-1)}^2(1-.05)=\chi_{(1)}^2(0.95)\), calculemoslo

qchisq(.95,1)
## [1] 3.841459

vemos que \(Q=5.225806 \geq 3.841459=\chi_{(1)}^2(0.95)\) \(\Rightarrow\) Rechazamos \(H_0\)

6)Conclusión

Al rechazar \(H_0\) podemos concluir que existe evidencia estadística suficiente para decir que las observaciones no provienen de una distribucion normal

Un cierto banco otorga crédito a las personas con una tasa preferencial, de tal manera que los acreditados pueden pagar en cualquier momento desde que piden el préstamo hasta 8 semanas posteriores para que les sea respetada la tasa preferencial. Se seleccionaron aleatoriamente a \(1,008\) personas y observaron su comportamiento, generando de esta manera la siguiente tabla de frecuencia:

Semana Créditos pagados
Menos de 1 semana \(64\)
\(1 \leq x < 2\) \(195\)
\(2 \leq x < 3\) \(287\)
\(3 \leq x < 4\) \(241\)
\(4 \leq x < 5\) \(140\)
\(5 \leq x < 6\) \(51\)
\(6 \leq x < 7\) \(25\)
\(7 \leq x < 8\) \(4\)
8 semanas o más \(1\)

¿Usted piensa que el pago de estos créditos, sigue una distribución binomial con parámetros \(n=10\) y \(p=0.25\)

Realice la prueba \(\chi ^2\) para verificar qué supocisión es válida con un 99% de confianza.

1)Prueba a utilizar: En este caso, usaremos la prueba Ji-Cuadrada para ver si el pago de los créditos sigue una distribución binomial(10, 0.25)

2)Hipótesis:

\(H_0\): Los pagos de los créditos sigue una distribución binomial(10, 0.25)

\(H_1\): Los pagos de los créditos no sigue una distribución binomial(10, 0.25)

3)Estadística

\[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde \[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]

4)Procedimiento completo del cálculo del valor de la estadística

Apoyándonos en R Studio, calculemos la estadistica

La frecuencia (\(f_j\)) será el vector

fi5 <- c(64, 195, 287, 241, 140, 51, 25, 4, 1)
fi5
## [1]  64 195 287 241 140  51  25   4   1

Cómo vemos que tenemos gos categorias con observaciones menores a 5 las colapsamos, por lo que el nuevo vector de frecuencias \(f_j\) será

fj5 <- c(64, 195, 287, 241, 140, 51, 30)
fj5
## [1]  64 195 287 241 140  51  30

Ahora, calculemos las \(p_j\) de la siguiente forma

pj5 <- dbinom(0:6, 10, 0.25)
pj5
## [1] 0.05631351 0.18771172 0.28156757 0.25028229 0.14599800 0.05839920
## [7] 0.01622200

Ahora, calculemos las \(e_j\), donde \(e_j = np_j\)

n=sum(fj5)
n
## [1] 1008
ej5<-pj5*n
ej5
## [1]  56.76402 189.21341 283.82011 252.28455 147.16599  58.86639  16.35178

Notamos que \(\sum pi \approx 1\) y que \(\sum ei \approx 1008\)

sum(pj5)
## [1] 0.9964943
sum(ej5)
## [1] 1004.466

Calculemos \(\frac{(f_j-e_j)^2}{e_j}\)

Q1_5 <- (fj5 - ej5)^2
Q2_5 <- Q1_5 / ej5
Q2_5
## [1]  0.92240407  0.17696753  0.03562705  0.50475139  0.34893486  1.05119663
## [7] 11.39166862

Por lo que la estadística \(Q\) es igual a

sum(Q2_5)
## [1] 14.43155

5)Regla de decisión

Vamos a rechazar \(H_0\) cuando \(Q > \chi_{(k-1)}^2(1-\alpha)\)

En este caso buscamos \(\chi_{(7-1)}^2(.99) = \chi_{(6)}^2(.99)\), calculémosla

qchisq(.99, 6)
## [1] 16.81189

Vemos que \(Q=14.43155 \ngeq 16.81189=\chi_{(6)}^2(.99)\) \(\Rightarrow\) No rechazamos \(H_0\)

6)Conclusión

Al no rechazar \(H_0\) podemos decir que los pagos siguen una distribución \(binomial(10, 0.25)\)

El gerente de una tienda quiere probar la hipótesis de que los clientes llegan aleatoriamente a su tienda, para ello registró el tiempo transcurrido entre las llegadas sucesivas de clientes en una mañana. El tiempo en miutos es el siguiente:

\[3.6, 6.2, 12.9, 14.2, 38.0, 3.8, 10.8, 6.1, 10.1, 22.1, 4.2, 4.6, 1.4, 3.3, 8.2\] Pruebe la hipótesis nula de que el tiempo entre las llegadas de los clientes se distribuye con función de distribución exponencial.

1)Prueba a utilizar: En este caso, usaremos la prueba Lillifors para exponencial

2)Hipótesis:

\(H_{0}:\) El tiempo entre las llegadas de los clientes se distribuye exponencial

\(H_{1}:\) El tiempo entre las llegadas de los clientes no se distribuye exponencial

3)Estadística

La estadística que utilizaremos será \[T_2=sup_x |S(x)-F^*(x)|\]

Donde \(z_i = \frac{x_i}{\bar{x}}\), \(S(x)\) es la función de distribución empírica calculada sobre las \(z_{i's}\) y \(F^*(x)\) es la función de distribución exponencial \(F^*(x)=1-e^{-x}\)

4)Procedimiento completo del cálculo del valor de la estadística

Apoyándonos en R Studio, calculemos la estadística

Primero, hagamos un vector con los datos y después ordenémoslo crecientemente. También obtengamos la media de los datos.

datos6<-c(3.6, 6.2, 12.9, 14.2, 38.0, 3.8, 10.8, 6.1, 10.1, 22.1, 4.2, 4.6, 1.4, 3.3, 8.2)
datos6
##  [1]  3.6  6.2 12.9 14.2 38.0  3.8 10.8  6.1 10.1 22.1  4.2  4.6  1.4  3.3
## [15]  8.2
x<- sort(datos6)
x
##  [1]  1.4  3.3  3.6  3.8  4.2  4.6  6.1  6.2  8.2 10.1 10.8 12.9 14.2 22.1
## [15] 38.0
xbarra<-mean(x)
xbarra
## [1] 9.966667

Ahora, obtengamos los \(z_i = \frac{x_i}{\bar{x}}\), \(F^*(x)\) y \(S(x)\)

z<-x/xbarra
z
##  [1] 0.1404682 0.3311037 0.3612040 0.3812709 0.4214047 0.4615385 0.6120401
##  [8] 0.6220736 0.8227425 1.0133779 1.0836120 1.2943144 1.4247492 2.2173913
## [15] 3.8127090
Sx1<-1:15
Sx1
##  [1]  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15
Sx<-Sx1/15
Sx
##  [1] 0.06666667 0.13333333 0.20000000 0.26666667 0.33333333 0.40000000
##  [7] 0.46666667 0.53333333 0.60000000 0.66666667 0.73333333 0.80000000
## [13] 0.86666667 0.93333333 1.00000000
Fx<-1-exp(-z)
Fx
##  [1] 0.1310487 0.2818693 0.3031632 0.3170072 0.3438755 0.3696868 0.4577565
##  [8] 0.4631699 0.5607746 0.6370092 0.6616289 0.7259143 0.7594312 0.8911072
## [15] 0.9779117

Así, ya podemos calcular los \(|S(x)-F^*(x)|\) y la estadística \(T_2=sup_x |S(x)-F^*(x)|\)

SF <- abs(Sx-Fx)
SF
##  [1] 0.064382060 0.148535957 0.103163180 0.050340494 0.010542141
##  [6] 0.030313187 0.008910157 0.070163457 0.039225437 0.029657417
## [11] 0.071704439 0.074085718 0.107235466 0.042226140 0.022088260
T2<-max(SF)
T2
## [1] 0.148536

5)Regla de decisión

Rechazamos \(H_0\) a un nivel de confianza \(\alpha\) si \(T_2>t_{(1-\alpha)}\), donde \(t_{(1-\alpha)}\) es el cuantil que acumula \((1-\alpha)\) de la tabla para la prueba Lilliefors para distribución exponencial.

Buscando en las tablas, encontramos que para un \(\alpha = 10\%\) y para

n=14, \(t_{(.9)}=0.2525\)

n=16, \(t_{(.9)}=0.2371\)

en este ejercicio, la n=15, por lo que la \(t_{(1-\alpha)}\) que buscamos con \(\alpha = 10\%\) está en (0.2525, 0.2371)

en ambos casos ocurre que

\(T_2 = 0.1485\) \(\ngeq\) $0.2371 = t_{(.9)} $ y \(T_2 = 0.1485\) \(\ngeq\) \(0.2525 = t_{(.9)}\)

\(\Rightarrow\) No rechazamos \(H_0\)

6)Conclusión

Al no rechazar \(H_0\) podemos decir que el tiempo entre las llegadas de los clientes siguen una distribución \(exponencial\)

El neumático desinflado y la clase perdida. Un cuento clásico se refiere a cuatro estudiantes que van juntos en un automóvil y no llegan a un examen; como excusa dijeron al profesor que un neumático se desinfló en el camino. En el examen de recuperación, el profesor pidió a los estudiantes que identificaran el neumático en particular que se desinfló. Si en realidad no tuvieron un neumático desinflado, ¿Serían capaces de identificar el mismo neumático?.El autor pidió a otros 41 estudiantes que identificaran el neumático que ellos seleccionarían.Los resultados están listados en la siguiente tabla. Utilice un nivel de significancia de .05 para probar la aseveración del autor de que los resultados se ajustan a una distribución uniforme.¿Qué sugiere el resultado acerca de la capacidad de los cuatroestudiantes de seleccionar el mismo neumático cuando en realidad su excusa fue una mentir?.

Neumático F Izquierdo F Derecho T Izquierdo T Derecho
Número seleccionado 11 15 8 6

1)Prueba a utilizar: Prueba de Bondad de Ajuste: Ji-Cuadrada

2)Hipótesis:

\(H_{0}:\) Los resultados se ajustan a una distribución uniforme

\(H_{1}:\) Los resultados no se ajustan a una distribión uniforme

3)Estadística \[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde: \[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]

4)Procedimiento completo del cálculo del valor de la estadística Tomemos en cuenta las siguientes tablas para realizar el cálculo de la estadística.

Neumático F izquierdo F Derecho
Numero de selección 11 15
\(P_{i}\) \(\frac{1}{4}\) \(\frac{1}{4}\)
\(E_{i}=n*P_{i}\) (40)\(\frac{1}{4}\)=10 (40)\(\frac{1}{4}\)=10
Neumático T izquierdo T Derecho
Numero de selección 8 6
\(P_{i}\) \(\frac{1}{4}\) \(\frac{1}{4}\)
\(E_{i}=n*P_{i}\) (40)\(\frac{1}{4}\)=10 (40)\(\frac{1}{4}\)=10

\(Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\) \(=\) \(Q=\sum_{j=1}^5 \frac{(f_j-e_j)^2}{e_j}\) \(=\) \(\frac{(11-10)^2}{10}\) \(+\) \(\frac{(15-10)^2}{10}\) \(+\) \(\frac{(8-10)^2}{10}\) \(+\) \(\frac{(6-10)^2}{10}\) \(=\) 4.6

5)Regla de decisión

Rechazamos \(H_0\) si \(Q > q_{teorica}\), es decir, cuando \(Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\) \(>\) \(X_{k-1}^2 (1- \alpha)\)

\(X_{(4-1)}^2 (1-.05) = X_3 ^2 (.95)= 7.815\) Por lo tanto rechazamos \(H_0|\)

6)Conclusión

¿Se ajustan los impactos de las bombas de la Segunda Guerra Mundial a una distribución de Poisson? En el análisis de los impactos por bombas V-1 en la Segunda Guerra Mundial, el sur de Londres se subdividió en regiones, cada uno a con un área de \(0.25km^{2}\). En total, 535 bombas impactaron el área combinada de 577 regiones. Utilice los valores que se listan aquí y pruebe la aseveración de que las frecuencias reales se ajustan a una distribución Poisson. Utilice un nivel de significancia de \(0.05\).

Número de Impactos de bomba 0 1 2 3 4 o más
Número real de regiones 229 212 93 35 8

Especifique:

  1. ¿Por qué se aplica distribución Poisson?
  1. La distribución Poisson se utiliza en situaciones donde los sucesos son imprecindibles o de ocurrencia aleatoria, tal es el caso de los impactos de las bombas de la Segunda Guerra Mundial.

  2. Se utiliza cuando la probabilidad del evento que nos interesa se distribuye dentro de un segmento \(n\) dado, como por jemplo distancia, área, volumen o tiempo definido(para este problema el caso es área).

  1. Calcule el número de impactos por región

Dado que se tiene distribución Poisson, lo que nos indica el ejercicio es obtener lambda, a través de las frecuencias de la tabla que vendrían siendo el número real de regiones, por medio del Estimador Máximo Verosímil que en este caso es x barra.

Impactos_bomba<- c(0,1,2,3,4)
Frecuencia<- c(229,212,93,35,8)
Lambda<-sum(Frecuencia*Impactos_bomba)/sum(Frecuencia)
Lambda
## [1] 0.9272097
  1. Utilice los valores que se listan aquí y pruebe la aseveración de que las funciones reales se ajustan a una distribución Poisson. Utilice un nivel de significancia del \(0.05\)

1)Prueba a utilizar: Prueba de la Ji-Cuadrada

2)Hipótesis:

\(H_{0}:\) Las frecuencias reales se ajustan a una distribución Poisson \((0.9272097)\).

\(H_{1}:\) Las frecuencias reales no se ajustan a una distribución Poisson \((0.9272097)\).

3)Estadística

\[Q=\sum_{j=1}^k \frac{(f_j-e_j)^2}{e_j}\] Donde \[Q \sim \chi ^2_{(k-1)}(1-\alpha)\]

4)Procedimiento completo del cálculo del valor de la estadística

Primero calculamos las \(p_i\)

pi <- dpois(0:4, Lambda)
pi_definitivo<-c(0.39565617,0.36685624, 0.17007633, 0.05256548,0.01484578)

Para que obtengamos la suma de 1 exacta en los pi se realiza la diferencia hasta 3 impactos de bomba, debido a que no sabemos exactamente como es que están distribuidos en 4 o más.

Suma8<-sum(0.39565617,0.36685624, 0.17007633, 0.05256548)
suma_def<-1-Suma8

Ahora, las \(e_j\), donde \(e_j = np_i\)

n<-sum(Frecuencia)
n
## [1] 577
ej<-pi_definitivo*n
ej
## [1] 228.293610 211.676050  98.134042  30.330282   8.566015

Sumamos las \(e_j\) y \(p_i\) obtenidas

sum(ej)
## [1] 577
sum(pi_definitivo)
## [1] 1

Calculando \(\frac{(f_j-e_j)^2}{e_j}\)

Q1 <- (Frecuencia - ej)^2
Q2 <- Q1 / ej
Q2
## [1] 0.0021857235 0.0004957731 0.2685957984 0.7189602326 0.0374004769

Entonces nuestra estadística será igual a la suma de \(Q2\)

sum(Q2)
## [1] 1.027638

5)Regla de decisión

Rechazamos \(H_{0}\) si \(Q > q_{teorica}\) Entonces, es necesario calcular la chi-cuadrada \(\chi_{(5-2)}^2(.95) = \chi_{(3)}^2(.95)\)

ji<-qchisq(.95, 3)
ji
## [1] 7.814728

Al hacer la comparación, notamos que sí se cumple la regla de decisión, \(Q=1.027638 > q_{teorica} = 7.814728\) no se cumple por lo que no se rechaza \(H_{0}\)

6)Conclusión

Al no rechazar \(H_0\) podemos decir que hay información suficiente para afirmar que Las frecuencias reales se ajustan a una distribución Poisson \((0.9272097)\)

En R fije la semilla 2019, y genere 25 observaciones distribuidas como una N(0,1) y con ella realice: 1. Calcule y grafique la función de distribución empírica de las observaciones generadas 2. Agrega sobre esa misma gráfica, la curva de la distribución verdadera N(0,1). A partir de las graficas anteriores ¿la función de distribución empírica es similar a la distribución teórica de los datos? 3. Realice al menos dos pruebas de bondad de ajuste para probar que la muestra proviene de una distribución N(0, 1)

Primero fijamos la semilla 2019 y generamos las 25 observaciones distribuidas como una N(0,1)

set.seed(2019)

x=rnorm(25)
x
##  [1]  0.7385227 -0.5147605 -1.6401813  0.9160368 -1.2674820  0.7382478
##  [7] -0.7826228  0.5092959 -1.4899391 -0.3191793 -0.2379111  1.6186229
## [13] -1.1176011  0.2340028  0.3161516  0.3707686  0.8775886 -1.7683235
## [19] -0.3271264 -2.2632252  0.2855605  0.9684286  0.8673066  1.3781350
## [25] -0.8082596
x<- sort(x)
x
##  [1] -2.2632252 -1.7683235 -1.6401813 -1.4899391 -1.2674820 -1.1176011
##  [7] -0.8082596 -0.7826228 -0.5147605 -0.3271264 -0.3191793 -0.2379111
## [13]  0.2340028  0.2855605  0.3161516  0.3707686  0.5092959  0.7382478
## [19]  0.7385227  0.8673066  0.8775886  0.9160368  0.9684286  1.3781350
## [25]  1.6186229

Utilizamos la siguiente función para hacer el cálculo de la función de distribución empírica: \(S_n(x)=\frac{i}{n}\)

Sn <- c(0.04, 0.08, 0.12, 0.16, 0.2, 0.24, 0.28, 0.32, 0.36, 0.40, 0.44, 0.48, 0.52, 0.56, 0.60, 0.64, 0.68, 0.72, 0.76, 0.80, 0.84, 0.88, 0.92, 0.96, 1)
Sn
##  [1] 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52 0.56
## [15] 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96 1.00

Ahora vamos a graficar la función de distribución empírica

plot(x, Sn)

  *2. Agrega sobre esa misma gráfica, la curva de la distribución verdadera N(0,1). 
      
F<-pnorm(x, 0, 1)
F
##  [1] 0.01181090 0.03850342 0.05048373 0.06812013 0.10249150 0.13186870
##  [7] 0.20947059 0.21692433 0.30336020 0.37178614 0.37479528 0.40597503
## [13] 0.59250859 0.61239262 0.62405627 0.64459505 0.69472760 0.76981805
## [19] 0.76990155 0.80711298 0.80991648 0.82017620 0.83358481 0.91591919
## [25] 0.94723579
plot(x, y= Sn)
par(new=TRUE)
plot(x, F)

A partir de las graficas anteriores ¿la función de distribución empírica es similar a la distribución teórica de los datos? La función de distribución empírica es similar a la distribución teórica de los datos

*3. Realice al menos dos pruebas de bondad de ajuste para probar que la muestra proviene de una distribución N(0, 1)

1)Prueba a utilizar: Para este problema utilizaremos la prueba de bondad de ajuste Kolmogorov de 2 colas

2)Hipótesis:

\(H_{0}:\) La muestra proviene de una distribución N(0,1)

\(H_{1}:\) La muestra no proviene de una distribución N(0,1)

3)Estadística \[T=sup_x|F^*(x)-S(x)|\]

4)Procedimiento completo del cálculo del valor de la estadística cargamos nuestros datos

set.seed(2019)

x=rnorm(25)
x=sort(x)
x
##  [1] -2.2632252 -1.7683235 -1.6401813 -1.4899391 -1.2674820 -1.1176011
##  [7] -0.8082596 -0.7826228 -0.5147605 -0.3271264 -0.3191793 -0.2379111
## [13]  0.2340028  0.2855605  0.3161516  0.3707686  0.5092959  0.7382478
## [19]  0.7385227  0.8673066  0.8775886  0.9160368  0.9684286  1.3781350
## [25]  1.6186229
  Recordamos que los valores de la Distribución empírica estan dados por Sn
  
  Sn
##  [1] 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52 0.56
## [15] 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96 1.00

Luego calculamos la función de distribución hipotetica de los datos que es una N(0,1)

Fn <- pnorm(x,0,1)
Fn
##  [1] 0.01181090 0.03850342 0.05048373 0.06812013 0.10249150 0.13186870
##  [7] 0.20947059 0.21692433 0.30336020 0.37178614 0.37479528 0.40597503
## [13] 0.59250859 0.61239262 0.62405627 0.64459505 0.69472760 0.76981805
## [19] 0.76990155 0.80711298 0.80991648 0.82017620 0.83358481 0.91591919
## [25] 0.94723579
Ahora obtenemos el valor absoluto de las diferencias de los resultados obtenidos al calcular la función empirica e hipotetica de los datos, para obtener el valor de la estadística
dif=abs(Fn-Sn)
dif
##  [1] 0.028189095 0.041496583 0.069516266 0.091879873 0.097508497
##  [6] 0.108131302 0.070529414 0.103075666 0.056639801 0.028213864
## [11] 0.065204724 0.074024974 0.072508591 0.052392621 0.024056268
## [16] 0.004595049 0.014727597 0.049818050 0.009901549 0.007112981
## [21] 0.030083517 0.059823801 0.086415187 0.044080808 0.052764213

Visualizamoslos resultados en la siguiente tabla

Tabla1 <-cbind(x, Fn, Sn, "|Fn-Sn|"=dif)
Tabla1
##                x         Fn   Sn     |Fn-Sn|
##  [1,] -2.2632252 0.01181090 0.04 0.028189095
##  [2,] -1.7683235 0.03850342 0.08 0.041496583
##  [3,] -1.6401813 0.05048373 0.12 0.069516266
##  [4,] -1.4899391 0.06812013 0.16 0.091879873
##  [5,] -1.2674820 0.10249150 0.20 0.097508497
##  [6,] -1.1176011 0.13186870 0.24 0.108131302
##  [7,] -0.8082596 0.20947059 0.28 0.070529414
##  [8,] -0.7826228 0.21692433 0.32 0.103075666
##  [9,] -0.5147605 0.30336020 0.36 0.056639801
## [10,] -0.3271264 0.37178614 0.40 0.028213864
## [11,] -0.3191793 0.37479528 0.44 0.065204724
## [12,] -0.2379111 0.40597503 0.48 0.074024974
## [13,]  0.2340028 0.59250859 0.52 0.072508591
## [14,]  0.2855605 0.61239262 0.56 0.052392621
## [15,]  0.3161516 0.62405627 0.60 0.024056268
## [16,]  0.3707686 0.64459505 0.64 0.004595049
## [17,]  0.5092959 0.69472760 0.68 0.014727597
## [18,]  0.7382478 0.76981805 0.72 0.049818050
## [19,]  0.7385227 0.76990155 0.76 0.009901549
## [20,]  0.8673066 0.80711298 0.80 0.007112981
## [21,]  0.8775886 0.80991648 0.84 0.030083517
## [22,]  0.9160368 0.82017620 0.88 0.059823801
## [23,]  0.9684286 0.83358481 0.92 0.086415187
## [24,]  1.3781350 0.91591919 0.96 0.044080808
## [25,]  1.6186229 0.94723579 1.00 0.052764213

El valor de la estadistica es:

T=max(dif)
T
## [1] 0.1081313

5)Regla de decisión Rechazo \(H_0\) a un nivel de significancia \(\alpha=0.05\) si \(T>W\) Donde W es el cuantil (1-\(\alpha\)) El cuantil W que acumula 1-\(\alpha\) de probabilidad, usando \(\alpha= 0.05\) es \(W=0.238\) Tenemos \(T=0.1081313 \ngeq 0.238 = W\) \(\Rightarrow\) No rechazamos \(H_0\)

6)Conclusión Podemos concluir que los datos siguen una distribución N(0,1)

1)Prueba a utilizar: Utilizaremos la prueba de bondad de ajuste Kolmogorov-Smirnov

2)Hipótesis:

\(H_{0}:\) La muestra se distribuye Normal(0,1)

\(H_{1}:\) La muestra no se distribuye Normal(0,1)

3)Estadística

\[D_n=sup_x|S_n(x)-F^*(x)|=max(D^+, D^-)\]

4)Procedimiento completo del cálculo del valor de la estadística

  1. Se procede a ordenar nuestras observaciones de menor a mayor
x
##  [1] -2.2632252 -1.7683235 -1.6401813 -1.4899391 -1.2674820 -1.1176011
##  [7] -0.8082596 -0.7826228 -0.5147605 -0.3271264 -0.3191793 -0.2379111
## [13]  0.2340028  0.2855605  0.3161516  0.3707686  0.5092959  0.7382478
## [19]  0.7385227  0.8673066  0.8775886  0.9160368  0.9684286  1.3781350
## [25]  1.6186229

2.Se calcula la función empírica, dado que no tenemos ningún valor repetido \(S_n=\frac{i}{n}\)

Sn
##  [1] 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52 0.56
## [15] 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96 1.00
  1. Se calcula la función empírica menos un valor, es decir \(S_n=\frac{i-1}{n}\)
Sm<- c(0, 0.04, 0.08, 0.12, 0.16, 0.2, 0.24, 0.28, 0.32, 0.36, 0.40, 0.44, 0.48, 0.52, 0.56, 0.60, 0.64, 0.68, 0.72, 0.76, 0.80, 0.84, 0.88, 0.92, 0.96)
Sm
##  [1] 0.00 0.04 0.08 0.12 0.16 0.20 0.24 0.28 0.32 0.36 0.40 0.44 0.48 0.52
## [15] 0.56 0.60 0.64 0.68 0.72 0.76 0.80 0.84 0.88 0.92 0.96
  1. Se calcula la función de distribución hipotetica de los datos \(F^*(x)=N(0,1)\)
Fn=pnorm(x,0,1)
Fn
##  [1] 0.01181090 0.03850342 0.05048373 0.06812013 0.10249150 0.13186870
##  [7] 0.20947059 0.21692433 0.30336020 0.37178614 0.37479528 0.40597503
## [13] 0.59250859 0.61239262 0.62405627 0.64459505 0.69472760 0.76981805
## [19] 0.76990155 0.80711298 0.80991648 0.82017620 0.83358481 0.91591919
## [25] 0.94723579
  1. Se calcula \(D^+\) que es el resultado de la resta de la distribución empírica menos la distribución conocida, es decir \(D^+=max(S_n(x_i)-F^*(x_i))\)
Dmas=(Sn-Fn)
Dmas
##  [1]  0.028189095  0.041496583  0.069516266  0.091879873  0.097508497
##  [6]  0.108131302  0.070529414  0.103075666  0.056639801  0.028213864
## [11]  0.065204724  0.074024974 -0.072508591 -0.052392621 -0.024056268
## [16] -0.004595049 -0.014727597 -0.049818050 -0.009901549 -0.007112981
## [21]  0.030083517  0.059823801  0.086415187  0.044080808  0.052764213
  1. Se calcula \(D^-\) que es el resultado de la resta de la distribución empírica menos uno y la distribución conocida, es decir \(D^+=max(S_n(x_i-1)-F^*(x_i))\)
Dmenos=(Sm-Fn)
Dmenos
##  [1] -0.011810905  0.001496583  0.029516266  0.051879873  0.057508497
##  [6]  0.068131302  0.030529414  0.063075666  0.016639801 -0.011786136
## [11]  0.025204724  0.034024974 -0.112508591 -0.092392621 -0.064056268
## [16] -0.044595049 -0.054727597 -0.089818050 -0.049901549 -0.047112981
## [21] -0.009916483  0.019823801  0.046415187  0.004080808  0.012764213

7.Visualizamos estos resultados en la siguiente tabla

Tabla2<- cbind(x, Fn, Sn, Sm, Dmas, Dmenos)
Tabla2
##                x         Fn   Sn   Sm         Dmas       Dmenos
##  [1,] -2.2632252 0.01181090 0.04 0.00  0.028189095 -0.011810905
##  [2,] -1.7683235 0.03850342 0.08 0.04  0.041496583  0.001496583
##  [3,] -1.6401813 0.05048373 0.12 0.08  0.069516266  0.029516266
##  [4,] -1.4899391 0.06812013 0.16 0.12  0.091879873  0.051879873
##  [5,] -1.2674820 0.10249150 0.20 0.16  0.097508497  0.057508497
##  [6,] -1.1176011 0.13186870 0.24 0.20  0.108131302  0.068131302
##  [7,] -0.8082596 0.20947059 0.28 0.24  0.070529414  0.030529414
##  [8,] -0.7826228 0.21692433 0.32 0.28  0.103075666  0.063075666
##  [9,] -0.5147605 0.30336020 0.36 0.32  0.056639801  0.016639801
## [10,] -0.3271264 0.37178614 0.40 0.36  0.028213864 -0.011786136
## [11,] -0.3191793 0.37479528 0.44 0.40  0.065204724  0.025204724
## [12,] -0.2379111 0.40597503 0.48 0.44  0.074024974  0.034024974
## [13,]  0.2340028 0.59250859 0.52 0.48 -0.072508591 -0.112508591
## [14,]  0.2855605 0.61239262 0.56 0.52 -0.052392621 -0.092392621
## [15,]  0.3161516 0.62405627 0.60 0.56 -0.024056268 -0.064056268
## [16,]  0.3707686 0.64459505 0.64 0.60 -0.004595049 -0.044595049
## [17,]  0.5092959 0.69472760 0.68 0.64 -0.014727597 -0.054727597
## [18,]  0.7382478 0.76981805 0.72 0.68 -0.049818050 -0.089818050
## [19,]  0.7385227 0.76990155 0.76 0.72 -0.009901549 -0.049901549
## [20,]  0.8673066 0.80711298 0.80 0.76 -0.007112981 -0.047112981
## [21,]  0.8775886 0.80991648 0.84 0.80  0.030083517 -0.009916483
## [22,]  0.9160368 0.82017620 0.88 0.84  0.059823801  0.019823801
## [23,]  0.9684286 0.83358481 0.92 0.88  0.086415187  0.046415187
## [24,]  1.3781350 0.91591919 0.96 0.92  0.044080808  0.004080808
## [25,]  1.6186229 0.94723579 1.00 0.96  0.052764213  0.012764213
  1. Entonces \(D^+\) esta dada por
D_mas <- max(Dmas)
D_mas
## [1] 0.1081313

y \(D^-\) esta dada por

D_menos <- max(Dmenos)
D_menos
## [1] 0.0681313

Por lo tanto el valor de la estadistica esta dado por \[D_n=sup_x|S_n(x)-F^*(x)|=max(D^+, D^-)\]

Dn <- max(D_mas, D_menos)
Dn
## [1] 0.1081313

5)Regla de decisión Este ultimo resultado se compara con la tabla de valore críticos de Kolmogorov-Smirnov, para un nivel de significancia \(\alpha=0.05\), \(W=.264\) Por lo que tenemos que \(W=.264 > 0.1081313=D_n\) \(\Rightarrow\) No Rechazamos \(H_0\)

6)Conclusión con un nivel de significancia \(\alpha= 0.05\) podemos concluir que nuestros datos se distribuyen N(0,1)

La siguiente muestra aleatoria hace referencia a los rendimientos positivos de cierta acción a lo largo del tiempo:

\(0.2513,0.2566,0.3459,0.6379, 1.803, 2.1906, 1.5299, 0.35005, 0.3128, 1.2726,2.3674, 2.3214, 2.4373, 0.6548\)

¿Usted piensa que la anterior muestra sigue una distribución normal? Realiza la prueba correspondiente para verificar que su suposición es cierta con un nivvel de confianza del \(90\%\)

1)Prueba a utilizar: Anderson-Darling

2)Hipótesis:

\(H_{0}:\) La muestra proviene de una distribución normal.

\(H_{1}:\) La muestra no proviene de una distribución normal

3)Estadística

4)Procedimiento completo del cálculo del valor de la estadística

datos<-c(0.2513,0.2566,0.3459,0.6379, 2.0505, 1.803, 2.1906, 1.5299, 0.35005, 0.3128, 1.2726,2.3674, 2.3214, 2.4373, 0.6548)
datos<-sort(datos)
media<-mean(datos)
desviacion<-sd(datos)
varianza<-var(datos)
Xi<-c(1:15)
F_xi<-pnorm(datos,media,desviacion)
invertido <-sort(F_xi, decreasing = TRUE)
log_F_xi<-log(F_xi)
resta_log<-log(1-invertido)
suma<-(log_F_xi+resta_log)*(2*Xi-1)/15
Tabla<-cbind(Xi,datos,F_xi,log_F_xi, resta_log, suma)
Tabla
##       Xi   datos      F_xi    log_F_xi  resta_log       suma
##  [1,]  1 0.25130 0.1287245 -2.05008068 -2.4083979 -0.2972319
##  [2,]  2 0.25660 0.1299888 -2.04030716 -2.2682820 -0.8617178
##  [3,]  3 0.31280 0.1439240 -1.93846962 -2.1789061 -1.3724586
##  [4,]  4 0.34590 0.1525868 -1.88002142 -1.9369130 -1.7812360
##  [5,]  5 0.35005 0.1536969 -1.87277300 -1.6973309 -2.1420624
##  [6,]  6 0.63790 0.2435260 -1.41253168 -1.3222156 -2.0054813
##  [7,]  7 0.65480 0.2495574 -1.38806620 -0.9764355 -2.0492348
##  [8,]  8 1.27260 0.5092363 -0.67484304 -0.7117926 -1.3866357
##  [9,]  9 1.52990 0.6233487 -0.47264918 -0.2870922 -0.8610402
## [10,] 10 1.80300 0.7334559 -0.30998780 -0.2790871 -0.7461615
## [11,] 11 2.05050 0.8168282 -0.20232645 -0.1668777 -0.5168858
## [12,] 12 2.19060 0.8558517 -0.15565811 -0.1655669 -0.4925450
## [13,] 13 2.32140 0.8868347 -0.12009662 -0.1553962 -0.4591547
## [14,] 14 2.36740 0.8965102 -0.10924564 -0.1392492 -0.4472906
## [15,] 15 2.43730 0.9100407 -0.09426596 -0.1377971 -0.4486552

Sumando los valores de la última columna de la tabla anterior

total<-sum(suma)
total
## [1] -15.86779

Obteniendo el valor de \(An^{2}\)

An2<-(-15-(total))
An2
## [1] 0.8677915

Estamos en el caso donde los parámetros son desconocidos, por lo que debemos realizar el ajuste de la estadística

ajuste<-(1+(4/15)+25/(15)^2)*An2
ajuste
## [1] 1.195624

5)Regla de decisión

Se rechaza \(H_{0}\) si \(A_{n}^{2} > w^{1- \alpha}\) donde \(w^{1- \alpha}\) es el cuantil asociado a la distribución \(A_{n}^{2}\) bajo \(H_{0}\), de acuerdo a la tabla obtenida de las notas, y que contamos con un \(\alpha = 10\%\), le corresponde \(0.632\)

Comparando resultados sí rechazamos \(H_{0}\) pues \(A_{n}^{2}=1.195624 > w^{1- \alpha}=0.632\)

6)Conclusión

Sí hay evidencia suficiente para decir que la muestra proviene de una distribución Normal \((1.195111,0.7886308)\)

j<-1