Objetivo: calcular la probabilidad de una distribución normal.
Una variable aleatoria \(X\) con función de densidad de probabilidad
\(f_X(x)=\frac{1}{\sqrt{2\,\pi}\,\sigma} \int_{-\infty}^\infty e^{(-\frac{x-\mu}{2\sigma})^2}\)
tiene una distribución normal con parámetros \(\mu\), donde \(-\infty < \mu < \infty, \text{ y } \sigma > 0\).
Asimismo,
\(E(X)=\mu \text{ y }V(X)= \sigma^2\)
Probabilidades asociadas a la distribución normal.
\(P(\mu-\sigma<X<\mu+\sigma)=0.6827\)
\(P(\mu-\sigma<X<\mu+\sigma)=0.9545\)
\(P(\mu-\sigma<X<\mu+\sigma)=0.9973\)
Probabilidades distribución normal
# Se definen las variables que van a representar la información
# de cada distribución, vamos a manejar la uniforme, poisson y normal
n <- 1000
Unif <- runif(n, min = 1, max = 4)
Pois <- rpois(n,lambda = 2)
Norm <- rnorm(n, mean = 2, sd = .3)
# Calculo de probabilidades.
# Suponga que $X$ tiene una distribución normal con media 50 y
# desviación estándar de 20, encuentre P(X <= 27.4)
# usando el comando pnorm(x, mean=, sd=)
P <- pnorm(27.4, 50, 20)
# Ahora si se usa la normal estándar Z = (x- mu)/sigma
z <- (27.4-50)/20
# Como z = -1.13 la probabilidad esta dada por P(X > 1.13)= 1- P(X < 1.13)
PEst <- 1-pnorm(1.13,0,1)
# Encontrar P(35 < X < 60)
P1 <- pnorm(60,50,20)
P2 <- pnorm(35,50,20)
P <- P1 - (1-P1)
print(paste("La probabilidad es",P))
## [1] "La probabilidad es 0.382924922548026"
Si \(X_1,X_2,\cdots,X_n\) una muestra aleatoria de tamaño \(n\) tomada de una población (finita o infinita) con media \(\mu\) y varianza finita \(\sigma^2\), y si \(\bar{X}\) es la media muestral, entonces la forma límite de la distribución de
\(Z=\frac{\bar{X}-\mu}{\frac{\sigma}{\sqrt{n}}}\)
cuando \(n \rightarrow \infty\), es la distribución estándar.
Donde:
\(\bar{X}= \frac {1}{n}\sum_{i=1}^{n}\,{X_i}\)
tiene una distribución normal con media
\(\mu_{\bar{X}}\,=\, \frac{\mu+\mu+\cdots+\mu}{n}=\mu\)
y varianza
\(\sigma^2_{\bar{X}}\,=\, \frac{\sigma^2+\sigma^2+\cdots+\sigma^2}{n^2}=\frac{\sigma^2}{n}\)
A continuación se muestra ejemplos utilizando diferentes distribuciones de variables aletorias distretas como es la:
# Teorema del límite central
print("Distribución Uniforme")
## [1] "Distribución Uniforme"
hist(sapply(1:500, function(x) mean(sample(Unif,size = 20))),main = "Distribución Uniforme", xlab = "Medias")
print(" y la ")
## [1] " y la "
print("Distribución Poisson")
## [1] "Distribución Poisson"
hist(sapply(1:500, function(x) mean(sample(Pois,size = 20))), main = "Distribución Poisson", xlab = "Medias")
El error estándar de una estadística es la desviación estándar de su distribución de muestreo. Si el error estándar involucra parámetros desconocidos cuyos valores pueden estimarse, la sustitución de estas estimaciones en el error estándar da como resultado un error estándar estimado.
Ver Ejemplo 6-9 pag 305
En la teoría de la probabilidad, bajo el término genérico de ley de los grandes números se engloban varios teoremas que describen el comportamiento del promedio de una sucesión de variables aleatorias conforme aumenta su número de ensayos.
Estos teoremas prescriben condiciones suficientes para garantizar que dicho promedio converge (en los sentidos explicados abajo) al promedio de las esperanzas de las variables aleatorias involucradas. Las distintas formulaciones de la ley de los grandes números (y sus condiciones asociadas) especifican la convergencia de formas distintas.
Las leyes de los grandes números explican por qué el promedio de una muestra al azar de una población de gran tamaño tenderá a estar cerca de la media de la población completa.
Cuando las variables aleatorias tienen una varianza finita, el teorema central del límite extiende nuestro entendimiento de la convergencia de su promedio describiendo la distribución de diferencias estandarizadas entre la suma de variables aleatorias y el valor esperado de esta suma: sin importar la distribución subyacente de las variables aleatorias, esta diferencia estandarizada converge a una variable aleatoria normal estándar.
La frase “ley de los grandes números” es también usada ocasionalmente para referirse al principio de que la probabilidad de que cualquier evento posible (incluso uno improbable) ocurra al menos una vez en una serie aumenta con el número de eventos en la serie. Por ejemplo, la probabilidad de que un individuo gane la lotería es bastante baja; sin embargo, la probabilidad de que alguien gane la lotería es bastante alta, suponiendo que suficientes personas comprasen boletos de lotería.
# Ley de los grandes números
plot(sapply(1:500, function(x) mean(sample(Unif,size = 20,replace = TRUE))), type = "l", main = "Ley Grandes Números",
xlab = "Distribución Uniforme", ylab = "average")
abline(h = 2.5, col = "red")
plot(sapply(1:500, function(x) mean(sample(Pois,size = 20,replace = TRUE))), type = "l", main = "Ley Grandes Números",
xlab = "Distribución Poisson", ylab = "average")
abline(h = 2, col = "red")
plot(sapply(1:500, function(x) mean(sample(Norm,size = 20,replace = TRUE))), type = "l", main = "Ley Grandes Números",
xlab = "Distribución Normal", ylab = "average")
abline(h = 2, col = "red")
Se puede ver en las grfáicas anteriores como la distribución de los valores de las medias se aproximan al valore de \(\mu\) de la distribución.