x |
---|
3.5 |
4.0 |
7.2 |
7.0 |
4.4 |
4.6 |
5.9 |
8.8 |
4.0 |
1.0 |
Tenemos:
#Planteamos una funcion auxiliar.
dF <- function(x){
U <- runif(1,0,10)
return(U)
}
#Realizamos un constraste de Kolmogorov-Smirnov
prueba <- ks.test(data,'dF')
{
cat("Estadistico de Kolmogorov-Smirnov= ",prueba$statistic)
cat("\n P-valor= ", prueba$p.value)
}
## Estadistico de Kolmogorov-Smirnov= 2.88524
## P-valor= 0
Con lo cual rechazamos que los datos sigan una distribucion \(U(0,10)\)
Para estudiar la independencia realizaremos un Box.text, además de analizar la funcion de autocorrelacion y autocovarianza de los datos.
Box.test(data,lag=1,type ="Ljung-Box")
##
## Box-Ljung test
##
## data: data
## X-squared = 0.22016, df = 1, p-value = 0.6389
Con lo cual aceptamos que los datos son independientes.
acf(data)
Como se aprecia en la grafica acf los datos son tolerablemente independientes, cada dato muestra una relacion con el dato anterior que es aceptable.
#Tenemos que para aceptar un lote se tiene que tener menos de 3 piezas defectuosas, entonces:
n <- 100
p <- 0.01
k <- 3
#Usando la distribucion binomial, tenemos:
{
cat('La probabilidad de ACEPTAR un lotes es =', pbinom(k,n,p))
cat('\n La probabilidad de RECHAZAR un lotes es =', 1-pbinom(k,n,p))
}
## La probabilidad de ACEPTAR un lotes es = 0.981626
## La probabilidad de RECHAZAR un lotes es = 0.01837404
Luego para encontrar la probabilidad de inspeccionar 10 antes de rechazar el primero, tenemos:
n <- 100
m <- 10
k <- 1
p <- 0.01837404
#Usando la distribucion geometrica, tenemos:
{
cat('La probabilidad de examinar 10 lotes es =', pgeom(m,p))
}
## La probabilidad de examinar 10 lotes es = 0.184533
Tipo_A <- c(939,976,1025,1034,1015,1015,1022,815)
Tipo_B <- c(1025,938,1015,983,843,1053,1038,938)
data <- data.frame(Tipo_A,Tipo_B)
kable(data)
Tipo_A | Tipo_B |
---|---|
939 | 1025 |
976 | 938 |
1025 | 1015 |
1034 | 983 |
1015 | 843 |
1015 | 1053 |
1022 | 1038 |
815 | 938 |
Formula del Estadistico
\[\begin{eqnarray*} t_{0} &=& \frac{\bar{x}_{1}-\bar{x}_{2}}{\frac{sp}{\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}}}\\ sp &=& \sqrt{\frac{(n_{1}-1)s_{1}^{2}+(n_{2}-1)s_{2}^{2}}{n_{1}+n_{2}-2}} \end{eqnarray*}\]Usando la distribución t-student, y el estadistico del literal anterior tenemos:
mu1 <- mean(Tipo_A)
mu2 <- mean(Tipo_B)
sigma1 <- sd(Tipo_A)
sigma2 <- sd(Tipo_B)
{
cat("Media de resistencia de la barra tipo A =", mu1)
cat("\n Media de resistencia de la barra tipo B =", mu2)
cat("\n Desviación estandar de resistencia de la barra tipo A =", sigma1)
cat("\n Desviación estandar de resistencia de la barra tipo B =",sigma2)
}
## Media de resistencia de la barra tipo A = 980.125
## Media de resistencia de la barra tipo B = 979.125
## Desviación estandar de resistencia de la barra tipo A = 73.75333
## Desviación estandar de resistencia de la barra tipo B = 69.94168
sp <- sqrt((7*sigma1^2 + 7*sigma2^2)/(8+8-2))
t0 <- (mu1-mu2)/((sp)/(sqrt((1/8)+(1/8))))
{
cat("To=",t0)
}
## To= 0.006956737
pval <- pt(t0,14,lower.tail = FALSE)
{
cat("P-valor= ", 2*pval)
}
## P-valor= 0.9945475
Usando la distribición F, tenemos:
fo <- (sigma1^2)/(sigma2^2)
{
cat("fo=", fo)
}
## fo= 1.111965
pvalor <- pf(fo,7,7)
{
cat("p-valor=", pvalor)
}
## p-valor= 0.5538739
Aunque las pruebas de hipotesis demuestran la igualdad entre medias y varianzas, a opinion personal el mejor tratamiento es el B, puesto que este posee una varianza menor que la del tratamiento A.
## Nivel de confianza= 90
## Desviacion muestral = 0.3
## Media muestral = 3.2
## Tamaño de la muestra= 40
## Alpha= 0.1
\[ \begin{eqnarray*} \left( \bar{X}-t_{\frac{\alpha}{2},n-1} \frac{s}{\sqrt{n}}; \bar{X}+t_{\frac{\alpha}{2},n-1}\frac{s}{\sqrt{n}} \right) \end{eqnarray*} \]
LI <- xbar - (1.6839*(s/sqrt(n)))
LS <- xbar + (1.6839*(s/sqrt(n)))
{
cat("Limite Inferior= ", LI)
cat("\n Limite Superior= ", LS)
}
## Limite Inferior= 3.120126
## Limite Superior= 3.279874
El contenido promedio de grasa muestral se encuetra entre 3.1201 y 3.2799
Puesto que no conocemos la desviacion estandar poblacional, tenemos:
\[ \begin{eqnarray*} B = t_{\frac{\alpha}{2},n-1} \frac{s}{\sqrt{n}} \end{eqnarray*} \]
B <- (1.6839*(s/sqrt(n)))
{
cat('Error maximo =', B)
}
## Error maximo = 0.07987439
Tenamos:
\[ \begin{eqnarray*} n= \frac{\left(s Z_{\frac{\alpha}{2}}\right)^{2}}{B^{2}} \end{eqnarray*} \]
n <- (0.3*1.64)^2/(0.05^2)
{
cat("Tamaño de la muestra= ", n)
}
## Tamaño de la muestra= 96.8256
Ajustando, tenemos n=97.
\[ \begin{eqnarray*} \left(\frac{(n-1)s^{2}}{\chi^{2}_{\frac{\alpha}{2},n-1}};\frac{(n-1)s^{2}}{\chi^{2}_{1-\frac{\alpha}{2},n-1}} \right) \end{eqnarray*} \] Tenemos:
LI <- (39*0.3^2)/(43.773)
LS <- (39*0.3^2)/(18.493)
{
cat("Limite Inferior= ", LI)
cat("\n Limite Superior= ", LS)
}
## Limite Inferior= 0.08018642
## Limite Superior= 0.1898015
La desviacion estandar muestral se encuentra entre 0.0801 y 0.1898.
LRS <- xbar+3*s^2
LRI <- xbar-3*s^2
{
cat("Limite Real Superior= ", LRS)
cat("\n Limite Real Inferior= ", LRI)
}
## Limite Real Superior= 3.47
## Limite Real Inferior= 2.93
x <- rnorm(500,xbar,s^2)
plot(density(x),col='blue',lwd=2)
abline(v=LRS,col='red')
abline(v=LRI,col='red')
abline(v=3,col='green')
Diremos que la cantidad minima de grasa se encuentra por encima del 3%.
Ademas, si es posible garantizar que la leche tenga mas de 3.0% de grasa. Como lo vemos en el grafico ademas analiticamente econtramos que la grasa esta entre 3.12 y 3.27.
C. No se puede realizar si la distribución de constraste es discreta
B. \(d_{1}\) es mas potente que \(d_{2}\)
B. Se acepta la hipotesis nula el 90% de las veces
D. Un estimador insegado y consistente
D. \(\frac{1}{ECM(\theta_{n})}\)
C. Hay una probabilidad del 50% de que \(H_{0}\) sea verdadera