hllinas2023

1 Preliminares

A continuación, se enumeran algunos resultados que se aplicarán en este capítulo.Sus correspondientes demostraciones se pueden revisar en el siguiente documento: Click aquí.

Theorem 1.1 (Normal) Si \(X\) tiene distribución normal con parámetros \(\mu\) y \(\sigma^2\), es decir, \(X \stackrel{\atop d}{=} \mathcal{N}(\mu,\sigma^2)\), entonces, \(aX+b \stackrel{\atop d}{=} \mathcal{N}(a\mu+b, a^2\sigma^2)\), para todo \(a,b\in\mathbb{R}\).

A continuación, vemos algunas distribuciones normales.

Theorem 1.2 (Convoluciones especiales) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes.

  1. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_i,\sigma^2_i)\) para cada \(i=1,\ldots, n\), entonces, \[X_1+\cdots+ X_n \stackrel{\atop d}{=} \mathcal{N}(\mu_1+\cdots + \mu_n,\sigma^2_1 + \cdots + \sigma^2_n)\]

  2. Si \(X_i \stackrel{\atop d}{=} \gamma(\alpha_i,\beta)\) para cada \(i=1,\ldots, n\), entonces, \[X_1+\cdots+ X_n \stackrel{\atop d}{=} \gamma(\alpha_1+\cdots+ \alpha_n, \beta)\]

  3. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(0,1)\) para cada \(i=1,\ldots, n\), entonces, \[X_1^2+\cdots+ X_n^2 \stackrel{\atop d}{=} \chi^2(n)\]

Theorem 1.3 (Varianza muestral y chi-cuadrada) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes con \(E(X_k)=\mu\) y \(Var(X_k)=\sigma^2\), para cada \(k=1,\ldots, n\). Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) la varianza y media empírica de \(X_1, \ldots, X_n\), respectivamente.

  1. Se cumple que \(E(S_{(n)}^2)=\sigma^2\).

  2. Para \(k=2, \ldots, n\), \(Y_k\) y \(Y_k^2\) son independientes, siendo:

\[Y_k:= \big(X_k- \overline{X}_{(k-1)}\big) \sqrt{\frac{k-1}{k}}\]

  1. Se cumple que:

\[\sum\limits_{k=2}^n Y_k^2 = \sum\limits_{k=1}^n \big(X_k- \overline{X}_{(k-1)}\big)^2 = (n-1)S_{(n)}^2\]

  1. Si \(X_k \stackrel{\atop d}{=} \mathcal{N}(\mu, \sigma^2)\) para todo \(k=1, \ldots, n\), entonces,

\[\frac{n-1}{\sigma^2} S_{(n)}^2 \stackrel{\atop d}{=} \chi^2(n-1)\]

A continuación, vemos algunas distribuciones chi-cuadradas.

Theorem 1.4 (Distribución t de Student) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1, \ldots, Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) y de \(Y_1, \ldots, Y_m\), respectivamente. Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{T}(n)\) representa la distribución \(t\) de Student con \(n\) grados de libertad, entonces:

  1. Si \(X \stackrel{\atop d}{=} \mathcal{N}(0,1)\) y \(Y\stackrel{\atop d}{=} \chi^2(n)\), entonces, \[t:= \frac{X}{\sqrt{Y/n}} \stackrel{\atop d}{=} \mathcal{T}(n)\]

  2. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu, \sigma^2)\) para cada \(i=1,\ldots, n\), entonces, se cumple que \[t:=\frac{\overline{X}_{(n)}- \mu}{S_{(n)} /\sqrt{n}} \stackrel{\atop d}{=} \mathcal{T}(n-1)\]

  3. Sea \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2)\) para cada \(j=1,\ldots, m\). Si \(S_{(n,m)}^2\) es la llamada varianza muestral combinada, entonces,

\[t:= \frac{\left(\overline{X}_{(n)} - \overline{Y}_{(m)}\right)\, - \, (\mu_1-\mu_2)}{\sqrt{\frac{S_{(n,m)}^2}{n} \,+\, \frac{S_{(n,m)}^2}{m}}} \stackrel{\atop d}{=} \mathcal{T}(m+n-2), \qquad \mbox{con}\qquad S_{(n,m)}^2:= \frac{(n-1)S_{(n)}^2 + (m-1)S_{(m)}^2}{m+n-2}\]

A continuación, vemos algunas distribuciones \(t\) de Student.

Theorem 1.5 (Distribución F de Fisher) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1\), \(\ldots\), \(Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) resp. \(Y_1, \ldots, Y_m\). Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{F}(m,n)\) representa la la distribución \(F\) de Fisher con \(m\) y \(n\) grados de libertad, entonces:

  1. Si \(X \stackrel{\atop d}{=} \chi^2(m)\) y \(Y \stackrel{\atop d}{=} \chi^2(n)\), entonces,

\[F:= \frac{X/m}{Y/n} = \frac{nX}{mY} \stackrel{\atop d}{=} \mathcal{F}(m,n)\]

  1. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2_1)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2_2)\) para cada \(j=1,\ldots, m\), entonces,

\[F:= \frac{S_{(n)}^2 / \sigma_1^2}{S_{(m)}^2/\sigma^2_2} \stackrel{\atop d}{=} \mathcal{F}(n-1,m-1)\]

A continuación, vemos algunas distribuciones \(F\) de Fisher.

2 Modelos estadísticos

2.0.1 Introducción

Se parte de un problema de aplicación y se supone que puede ser expresado por medio de una variable uni- o multidimensional y formulada en el lenguaje común o en el de la respectiva aplicación. Generalmente estamos interesados en ciertas características de esta variable.

Como primer paso, escogemos un modelo probabilístico correspondiente al problema. Es decir, la variable de interés se representa por una variable aleatoria \(X\), cuya distribución depende de un parámetro \(\theta=(\theta_1, \ldots, \theta_k)^t\) de cierto subespacio \(\Theta\) de \(\mathbb{R}^k\), donde la notación \(x^t\) representa la transpuesta del vector \(x\). Dicho parámetro consiste en un vector de números desconocidos y debe representar las características de la variable del problema.

Como los análisis estadísticos deben llegar a ciertos conocimientos acerca del parámetro, entonces, como segundo paso, se oberva \(n\) veces a la variable \(X\), obtienendo así una muestra aleatoria} \(X=(X_1, \ldots, X_n)^t\) de tamaño \(n\). Es importante recalcar que cada variable muestral \(X_i\) tiene el mismo tipo de distribución que la de \(X\), pero puede depender del número \(i\) de la observación. Los valores concretos \(x=(x_1, \ldots, x_n)^t \in \mathbb{R}^n\) de la muestra \(X\) son los datos* u observaciones.

2.0.2 Condiciones

Para el análisis estadístico, se deben cumplir siempre las siguientes condiciones:

  1. Las variables muestrales \(X_i\) deben ser independientes.

  2. La muestra \(X\) debe ser regular. Esto quiere decir que todas las \(X_i\) son discretas con función de probabilidad \(f_i(x_i,\theta)\) o todas son continuas con función de densidad \(f_i(x_i,\theta)\). En este caso, por (a), la distribución conjunta de \(X\) viene dada por

\[f_\theta(x) := f(x, \theta) \;= \; f_1(x_1,\theta) \cdots f_n(x_n,\theta)\]

Remark:

Utilizaremos las notaciones:

\[X_i \sim f_i(x_i, \theta), \quad X \sim f(x, \theta) \quad \mbox{ó}\quad X \sim f_{\theta}\]

2.0.3 Definición

Definition 2.1 (Modelo estadístico) A la familia de distribuciones \(f_\theta\) de la muestra aleatoria \(X\), con \(\theta \in \Theta\), se le llama modelo estadístico.

A continuación, algunos ejemplos para ilustrar lo explicado anteriormente.

Example 2.1 (Un modelo de Bernoulli) Se tiene interés en el problema de controlar la calidad de un producto verificando si estos están defectuosos o no. En tales situaciones es natural representar las respuestas (defectuoso o no) por una variable de Bernoulli, es decir, una variable aleatoria \(X\) con posibles valores 1 (si está defectuoso) y 0 (si no lo está). En principio, el parámetro de interés es \(p=P(X=1)\).

Para obtener un modelo estadístico se toma una muestra de tamaño \(n\) productos y se apunta si cada uno de ellos está defectuoso o no, obteniéndose los valores \(x_i\in \{0,1\}\) de las variables aleatorias \(X_i\), con \(i=1, \ldots, n\) y \(n\) parámetros \(p_i=P(X_i=1)\). La función de probabilidad conjunta de \(X_1, \ldots, X_n\) es

\[\begin{align*} f(x_1, \ldots, x_n, p_1, \ldots, p_n) \;= \; \prod\limits_{i=1}^n p_i^{x_i} (1-p_i)^{1-x_i}\tag*{$\blacktriangleleft$} \end{align*}\]

Example 2.2 (Un modelo de regresión lineal, normal) Se tiene interés en el problema de medir la dependencia del desgaste de una llanta de carro para diferentes cargas a las que se somete dicha llanta. Se parte de un modelo probabilístico de regresión lineal

\[Y= \delta + \beta x + e\]

Es decir, se supone que la carga es una variable determinística \(x\in \mathbb{R}\) y que el desgaste es una variable aleatoria \(Y\) que depende linealmente de \(x\). Además, que \(e\) es una variable aleatoria que representa el error de esta medición. Por supuesto, debemos verificar que el modelo ees suficientemente adecuado para el problema planteado.

Para obtener un modelo estadístico se aplican \(n\) cargas \(x_1, \ldots, x_n\) a una llanta midiendo los desgastes correspondientes de la llanta. De esta forma, obtenemos las observaciones \(y_1, \ldots, y_n\) de las variables muestrales

\[Y_i= \delta + \beta x_i +e_i, \qquad i=1, \ldots, n\]

Además, se supone que las \(Y_i\) son independientes y que los errores \(\epsilon_i\) tienen distribución normal con media 0 y varianza \(\sigma^2\), igual para todas las \(n\) mediciones. Entonces, se puede demostrar que \(Y_i\) dado que \(X_i=x_i\) tiene distribución normal con parámetros \(\delta + \beta x_i\).

El vector de parámetros es \(\theta = (\delta, \beta, \sigma^2)^t\), siendo \(\delta, \beta \in \mathbb{R}\) y \(\sigma^2>0\).

Para \(x_i, \ldots, x_n\) fijos, la densidad conjunta de la muestra \(Y=(Y_1, \ldots, Y_n)^t\) es \[f(y_1, \ldots, y_n, \delta, \beta, \sigma^2)\;= \; \frac{1}{\sqrt{(2\, \pi\, \sigma^2)^n}} \exp \left( -\frac{1}{2\sigma^2} \sum\limits_{i=1}^n [y_i - (\delta + \beta x_i)]^2\right)\]

Es importante aclarar que hay situaciones en donde debemos suponer que las \(X_i\) son variables aleatorias con valores posibles \(x_i\).

Implicitamente se ha supuesto que las \(x_i\) sean diferentes. Observe que al menos se debe suponer que no todos los \(x_i\) son iguales para asegurar que el parámetro sea identificable. \(\blacktriangleleft\)

3 Estadísticos y distribuciones muestrales

3.0.1 Estadístico

Considere un modelo estadístico \(X \sim f_\theta\), con \(\theta\in \Theta \subseteq \mathbb{R}^k\). Es decir, los datos \(x=(x_1, \ldots, x_n)^t \in \mathbb{R}^n\) son valores de una muestra aleatoria \(X=(X_1, \ldots, X_n)^t\) cuya distribución conjunta \(f_\theta\) depende de un parámetro de interés \(\theta=(\theta_1, \ldots, \theta_k)^t \in \Theta\). Además, se supone que las variables \(X_1, \ldots, X_n\) son independientes.

Para facilitar el trabajo y el manejo de los datos, se utiliza una reducción de los datos. En este proceso no se trabaja con los datos originales \(x\), sino que estos se van a reducir mediante una función \(T\) que dependa de ellos como, por ejemplo,

\[T(x) = \sum\limits_{i=1}^n x_i\]

Definition 3.1 (Estadístico) Un estadístico dentro del modelo estadístico es alguna función \(T(X)\) de la muestra \(X\), que no depende de \(\theta\), siendo \(T\) una función (medible) de \(\mathbb{R}^n\) a \(\mathbb{R}^m\) con \(1\leq m \leq n\).

Remark:

En los casos típicos de estimación se trabajará unicamente con estadísticos que tienen la misma dimensión (\(m=k\)) del parámetro. Así, a cada componente \(\theta_k\) de \(\theta\) le corresponde una función componente \(T_k: \mathbb{R}^n \to \mathbb{R}\) de \(T=(T_1, \ldots, T_k)^t\).

Example 3.1 (Estadístico) Algunos ejemplos típicos de estadísticos son la media muestral, la mediana muestral, la moda muestral, el rango muestral, la varianza muestral, la desviación estándar muestral y la proporción muestral, entre otros.

3.0.2 Distribución muestral

Debido a que un estadístico muestral también es una variable aleatoria (por ser función de variables aleatorias), entonces, ese estadístico posee una distribución. Esto conduce a la siguiente definición:

Definition 3.2 (Distribucion-muestral) La distribución de un estadístico muestral recibe el nombre de distribución muestral o distribución en el muestreo.

En la imagen de abajo se ilustra gráficamente este concepto.

3.0.3 Ejemplo (caso continuo)

Para ilustrar la importancia del concepto de distribución muestral, consideremos un ejemplo donde la muestra aleatoria se obtiene de una distribución continua.

Example 3.2 El tiempo que se utiliza para atender un cliente en una ventanilla de un banco es una variable aleatoria, que tiene distribución exponencial con parámetro \(\lambda\). Sean \(X_1\) y \(X_2\) variables aleatorias independientes que representan los tiempos para atender a dos clientes diferentes. Si \(X=X_1+X_2\) representa el tiempo total de atención, halle:

  1. La función de distribución acumulada de \(X\).

  2. La función de densidad de \(X\).

  3. La función de densidad de \(\overline{X}=X/2\).

  4. \(E(\overline{X})\), \(V(\overline{X})\), \(E(X)\) y \(V(X)\).

Solution:

Parte (a):

Si \(f_{X_i}\) es la función de densidad marginal de \(X_i\), \(i=1,2\), entonces, por hipótesis, \[f_{X_i}(x_i) \;= \; \left\{% \begin{array}{ll} \lambda e^{-\lambda x_i}, & \hbox{si $x_i\geq 0$;} \\ 0, & \hbox{de otro modo.} \end{array}% \right. \]

Ahora, si \(f\) es la función de distribución conjunta de \(X_1\) y \(X_2\), entonces, por la independencia de estas dos variables, se tiene que: \[f(x_1,x_2) \;= \; f_{X_1}\, f_{X_2} \;= \; \left\{% \begin{array}{ll} \lambda^2 e^{-\lambda (x_1+x_2)}, & \hbox{si $x_1\geq 0$, $x_2\geq 0$;} \\ 0, & \hbox{de otro modo.} \end{array}% \right. \]

Sean \(I:=\{(x_1,x_2) \,/ \, x_1+x_2\leq t\}\) la región I, como se muestra en la figura de abajo.

Sea \(F_X\) la función de distribución acumulada de \(X\). Entonces, para \(t\geq 0\) y fijando \(x_1\), obtenemos (ver línea verde en imagen anterior para tener en cuenta los límites de integración A y B):

\[\begin{eqnarray*} F_X(t) \;= \; P(X_1+X_2 \leq t) &=& \int\int\limits_{\hspace{-0.45cm}I} f(x_1,x_2)\, dx_2\, dx_1 \;= \; \int\limits_{0}^{t}\int\limits_{0}^{t-x_1} \lambda^2 e^{-\lambda (x_1+x_2)}\, dx_2\, dx_1\\ &=&\int\limits_{0}^{t}\left[\lambda e^{-\lambda x_1} - \lambda e^{-\lambda t}\right]\, dx_1 \;= \;1 \, -\, e^{-\lambda t} \, -\, \lambda t e^{-\lambda t} \end{eqnarray*}\]

Parte (b):

La función de densidad de \(X\) se obtiene al derivar \(F_X\) y es una gamma con parámetros \(\alpha=2\) y \(\beta= 1/\lambda\):

\[f_X(x) \;= \; \left\{ \begin{array}{ll} \lambda^2 x e^{-\lambda x}, & \hbox{si $x\geq 0$;} \\ 0, & \hbox{de otro modo.} \end{array} \right.\]

Parte (c):

Es calro que: \(\{\overline{X}\leq x\}\) si y sólo si \(\{X\leq 2x\}\). Por lo tanto, con base en lo anterior, la función de densidad de \(\overline{X}=X/2\) es:

\[f_{\overline{X}}(x) \;= \; \left\{ \begin{array}{ll} 4 \lambda^2 x e^{-2\lambda x}, & \hbox{si $x\geq 0$;} \\ 0, & \hbox{de otro modo.} \end{array} \right. \]

Parte (d):

La media y la varianza de la distribución exponencial son \(\mu=1/\lambda\) y \(\sigma^2=1/\lambda^2\), respectivamente. Con esto y con los incisos (b) y (c), podemos verificar que:

\[E(\overline{X})=1/\lambda,\qquad V(\overline{X})=1/(2\lambda^2),\qquad E(X)=2/\lambda,\qquad V(X)=2/\lambda^2\]

De esta manera, queda demostrado el inciso. \(\blacktriangleleft\)

4 Distribución muestral de la media

4.0.1 El teorema

Primero consideraremos el caso en que la muestra aleatoria proviene de una población normal.

Theorem 4.1 (Media muestral) Sea \(X_1, \ldots, X_n\) una muestra aleatoria de una población que tiene distribución normal con media \(\mu\) y varianza \(\sigma^2\). Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) la varianza y media empírica de \(X_1, \ldots, X_n\), respectivamente. Si \(\mathcal{T}(n)\) representa la distribución \(t\) de Student con \(n\) grados de libertad, entonces:

  1. \(\overline{X}_{(n)} \stackrel{\atop d}{=}\mathcal{N}\left(\mu,\frac{\sigma^2}{n}\right)\).

  2. Si \(\sigma^2\) es desconocida, entonces \(\frac{\overline{X}_{(n)}-\mu}{S_{(n)} /\sqrt{n}} \stackrel{\atop d}{=} \mathcal{T}(n-1)\).

Para el caso en que la muestra aleatoria provenga de poblaciones no normales o desconocidas, se puede aplicar el teorema central del límite. Para la solución de problemas prácticos se puede tener en cuenta la tabla A.1 que se encuentra en el apéndice A.7 para diagramas y tablas (véase la sección de bibliografía complementaria).

Proof:

  1. Aplique los teoremas 1.1 y 1.2(a).

  2. Es exactamente el teorema 1.4(b). \(\blacksquare\)

4.0.2 Animaciones

En los videos de abajo, se ilustran dos ejemplos relacionados con este teorema.

4.0.3 Ejemplos

Example 4.1 Supongamos que el incremento porcentual de los salarios de los funcionarios de todas las corporaciones medianas se distribuye siguiendo una normal con media \(12,2\%\) y desviación típica \(3,6\%\). Si se toma una muestra aleatoria de nueve observaciones de esta población según los incrementos porcentuales de salario, ¿cuál es la probabilidad de que la media muestral sea mayor del \(10\%\)?

Solution:

Tenemos que \(\mu=12,2\), \(\sigma=3,6\) y \(n=9\). Ahora, como la población es normal y la varianza poblacional es conocida, entonces la distribución muestral de la media muestral es normal o, lo que es equivalente, la variable \(Z\) tiene normal estándar. Por tanto, la probabilidad requerida es: \[ P(\overline{X}>10) \;= \; P\bigg(Z > \frac{10 - 12,2}{1,2}\bigg) \;= \; P(Z>-1,83) \;= \; 1- 0,0336 \;= \; 0,9664\]

Concluimos, entonces, que la probabilidad de que la media muestral sea mayor que un \(10\%\) es aproximadamente de 0,97. \(\blacktriangleleft\)

Example 4.2 Una muestra aleatoria de seis autos de un determinado modelo evidencia que cada uno de ellos consume las siguientes cantidades en kilómetros por litro: \[18.6\quad 18.4 \quad 19.2\quad 20.8 \quad 19.4 \quad 20.5\]

Determine la probabilidad de que el consumo de gasolina medio muestral de automóviles sea menor que 17.6 kilómetros por litro, suponiendo que la distribución de la población es normal con media 17.

Solution:

Tenemos que \(\mu=17\) y que la muestra escogida es de tamaño \(n=6\). La media de la muestra dada es \(\overline{x}=19.4833\) y, con esto, la varianza de esta muestra es \(s^2= 0.96\). Por consiguiente, la desviación estándar de esta muestra es \(s=\sqrt{0.96}=0.98\). Debido a que la población es normal con varianza desconocida y a que \(n<30\), entonces, la distribución muestral de la media muestral es la \(t\) de Student con \(n-1=5\) grados de libertad. Ahora,

\[\mu_{\overline{X}} \;= \;\mu \;=\; 17 \qquad \text{y}\qquad \sigma_{\overline{X}}\;= \; \frac{s}{\sqrt{n}}\;= \;\frac{0,98}{\sqrt{6}}\;= \; 0.4\]

Con esto, el valor de \(t_5\) para 17,6 es: \[t_5\;= \; \frac{\overline{X} - \mu_{\overline{X}}}{\sigma_{\overline{X}}} \;= \; \frac{17.6 - 17}{0.4} \;= \; 1.,47\]

y con ayuda de la tabla \(t\) de Student con 5 grados de libertad, entonces,

\[P(\overline{X} \leq 17.6) \;= \; P(t_5\leq 1.47) \;= \; 1- P(t_5>1.47)\;= \;1-0.10 \;= \; 0.90 \]

Es decir, la probabilidad pedida será 0.90. \(\blacktriangleleft\)

5 Distribución muestral de la proporción

5.0.1 El teorema

Theorem 5.1 (Teorema central del límite de Moivre-Laplace) Sea \(X_1, \ldots, X_n\) una muestra aleatoria de una población que tiene distribución \(\mathcal{B}(n,p)\). Si \(\overline{p}_{(n)}\) representa la proporción muestral de éxitos en la muestra, entonces,

\[\frac{\overline{p}_{(n)} - p}{\sqrt{p(1-p)/n}}\; \xrightarrow[n \to \infty] {d}\; \mathcal{N}(0,1)\]

Proof:

Como ejercicio. \(\blacksquare\)

De manera gráfica, este resultado se puede visualizar en la figura de abajo:

Remark:

En la práctica, el teorema será válido si \(n\geq 30\) o si \(np\geq 5\) y \(n(1-p)\geq 5\). Compare con la tabla A.2 que se encuentra en el apéndice A.7 para diagramas y tablas (véase la sección correspondiente a la Bibliografía).

Para la práctica, el teorema de Moivre-Laplace se formula generalmente de la siguiente manera.

Theorem 5.2 (Aproximación de la binomial a la normal) Sea \(X\) cualquier variable aleatoria que tiene distribución binomial con parámetros \(n\) y \(p\).

  1. Si \(n\geq 30\), entonces la distribución binomial se puede aproximar a la distribución normal con \(\mu=np\) y \(\sigma^2=np(1-p)\).

  2. Si \(np\geq 5\) y \(n(1-p)\geq 5\), entonces también la distribución binomial se puede aproximar a la distribución normal con \(\mu=np\) y \(\sigma^2=np(1-p)\).

En cualquiera de los dos casos, se cumple que

\[P(X\leq k) \;= \; B(k;n;p) \;\approx \; \Phi\left(\frac{k + 0,5 - np}{\sqrt{np(1-p)}}\right)\]

Proof:

Se deja al lector. \(\blacksquare\)

De manera gráfica, esta aproximación se puede visualizar así:

5.0.2 Animaciones

En el video de abajo, se ilustra un ejemplo relacionado con este teorema.

5.0.3 Ejemplos

Example 5.1 Se desea estudiar una muestra de 20 personas para saber la proporción de ellas que tiene más de 40 años. Sabiendo que la proporción en la población es del 40%, ¿cuál es la probabilidad de que la proporción en la muestra sea menor del 50%?

Solution:

Aquí, \(n=20\) y \(p=0,4\). Se observa que \(n< 30\). Pero, debido a que \(np=8 \geq 5\) y \(n(1-p) = 12 \geq 5\), entonces, por el teorema de De Moivre-Laplace, la distribución de la proporción muestral será aproximadamente normal con

\[\mu_{\overline{p}}\;= \; p \,= \; 0,4 \qquad \text{y} \qquad \sigma_{\overline{p}} \;= \; \sqrt{\frac{p(1-p)}{n}} \;= \; \sqrt{\frac{(0,4)(0,6)}{20}} \;\approx \; 0,1095\]

Por consiguiente, la probabilidad pedida es: \[P(\overline{p}<0,5) \;= \; P\bigg(Z <\frac{0,5 - 0,4}{0,1095}\bigg) \;= \; P(Z < 0,91) \;= \; 0,8186\]

Por tanto, la probabilidad de que la proporción en la muestra sea menor del 50% es aproximadamente de 0,82. \(\blacktriangleleft\)

Example 5.2 Un fabricante sabe por experiencia que de 17.000 productos, el \(4\%\) es rechazado por defectos. Si un nuevo lote de 800 unidades va a ser inspeccionado, ¿cuál es la probabilidad aproximada de que menos de 35 unidades sean rechazadas?

Solution:

Sea \(X\) la variable aleatoria que representa el número de productos rechazados. Entonces, \(X\) es una variable binomial con parámetros \(n=800\) y \(p=0,04\). Como \(n\geq 30\), entonces la distribución binomial se puede aproximar por la distribución normal con \(\mu=np=32\) y \(\sigma^2=np(1-p)=30,72\). Por consiguiente, encontramos que a probabilidad aproximada de que menos de 35 unidades sean rechazadas es: \[\begin{align*}P(X<35) \;=& P(X\leq 34)\;= \; B(34;800; 0,04) \;\approx &\Phi\left(\frac{34 + 0,5 -32}{\sqrt{30,72}}\right) \;= \; \Phi(0,45) \;= \; 0,6736 \tag*{$\blacktriangleleft$} \end{align*}\]

6 Distribución muestral de la diferencia de medias (el caso de muestras independientes)

Theorem 6.1 (Diferencia de medias) Sea \(X_1, \ldots, X_n\) una muestra aleatoria de una población que tiene distribución normal con media \(\mu_1\) y varianza \(\sigma^2\). Sea \(Y_1, \ldots, Y_m\) otra muestra aleatoria (independiente de la primera) de otra población que tiene distribución normal con media \(\mu_2\) y varianza \(\sigma^2\). Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) y \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) y de \(Y_1, \ldots, Y_m\), respectivamente. Supongamos que \(\mathcal{T}(n)\) representa la distribución \(t\) de Student con \(n\) grados de libertad. Si \(\sigma^2\) es desconocida y si \(S^2_{(n,m)}\) es la llamada varianza muestral combinada de \(S_{(n)}^2\) y \(S_{(m)}^2\), definida por

\[S^2_{(n,m)} \;= \; \frac{(n-1)S_{(n)}^2 \,+\, (m-1)S_{(m)}^2}{m+n-2}\]

Entonces \[t:= \frac{\big(\overline{X}_{(n)} - \overline{Y}_{(m)}\big) - (\mu_1-\mu_2)}{\sqrt{\frac{S^2_{(n,m)}}{m} + \frac{S^2_{(n,m)}}{n}}} \stackrel{\atop d}{=} \mathcal{T}(m+n-2)\]

Este es el caso en que las muestras provienen de poblaciones normales con varianzas desconocidas e iguales. La distribución muestral de la diferencia de medias muestrales en otras situaciones se muestra en la tabla A.3 que se encuentra en el apéndice A.7 para diagramas y tablas (véase la sección correspondiente a la Bibliografía).

Proof:

Es exactamente el teorema 1.4(c). \(\blacksquare\)

Example 6.1 Suponga que dos drogas, A y B, de las que se dice que reducen el tiempo de respuesta de las ratas a determinado estímulo, se están comparando en un experimento de laboratorio. Se administra la droga A a 12 ratas y la droga B a 13. Cuando se lleva a cabo el experimento, la reducción promedio de tiempo de respuesta al estímulo por parte de las ratas que están recibiendo la droga A es 30,45 milisegundos con una desviación típica de 5 milisegundos. Los datos correspondientes a la droga B son 24,9 y 6 milisegundos. ¿Cuál es la probabilidad de que la diferencia entre la reducción promedio de tiempo de respuesta al estímulo por parte de las ratas que están recibiendo la droga A y la de las ratas que están recibiendo la droga B sea menor o igual a la observada en el experimento? Suponga que no hay diferencia alguna entre las dos drogas con respecto a la reducción promedio en tiempos de respuestas y que las drogas son igualmente efectivas. Además, suponga que las poblaciones tienen distribución normal con varianzas iguales.

Solution:

Como las dos poblaciones en cuestión son normales y los tamaños de las muestras son pequeños (obsérvese que los tamaños muestrales son estrictamente menores que 30), entonces: La distribución muestral de \(\overline{X}_A - \overline{X}_B\) es aproximadamente la \(t\) de Student con \(n_A+ n_B - 2 = 12+ 13 - 2 =23\) grados de libertad.

Debido a que no hay diferencia alguna entre las dos drogas con respecto a la reducción promedio en tiempos de respuestas y que las drogas son igualmente efectivas, entonces, \(\mu_A=\mu_B\). Por consiguiente, la media de la distribución muestral de \(\overline{X}_A - \overline{X}_B\) es igual a \(\mu_A-\mu_B = 0\).

Debido a que la varianza muestral combinada \(s^2\) está dada por \[s^2\;= \; \frac{ (n_A-1)s_A^2 + (n_B-1)s_B^2}{ n_A+ n_B - 2} \;= \; \frac{ (12-1)5^2 + (13-1)6^2}{ 12+ 13 - 2} \;= \; 30,74,\]

entonces, la varianza de la distribución muestral de \(\overline{X}_A - \overline{X}_B\) es: \[\frac{s^2}{n_A} \,+\, \frac{s^2}{n_B} \;=\; \frac{30,74}{12} \,+\, \frac{30,74}{13}\;=\; 4,92\]

Por demás, con base en los datos, el valor \(t\) está dado por: \[t\;=\; \frac{(\overline{x}_1-\overline{x}_2) - (\mu_1-\mu_2)}{ \sqrt{\frac{s^2}{n_1} +\frac{s^2}{n_2}}} \;= \; \frac{5,55 - 0}{2,22} \;= \; 2,5\]

Por consiguiente, \[P(\overline{X}_A - \overline{X}_B \leq 5,55) \;= \; P(t\leq 2,5) \;= \; 0,99\]

Es decir, la probabilidad de que la diferencia entre la reducción promedio de tiempo de respuesta al estímulo por parte de las ratas que están recibiendo las drogas A y B sea menor o igual a la que se observó en el experimento es de 0,99. \(\blacktriangleleft\)

7 Distribución muestral de la diferencia de medias (el caso de muestras dependientes o pareadas)

Definition 7.1 (Muestra pareada) Cuando las variables aleatorias \(X\) y \(Y\) representan variables medidas en las mismas unidades y que cuantifican el mismo aspecto de la unidad experimental sólo que en poblaciones distintas, la muestra aleatoria \((X_1, Y_1), (X_2,Y_2), \ldots, (X_n, Y_n)\) se denomina muestra pareada.

Remark:

De manera general, tomemos una muestra aleatoria de \(n\) pares de observaciones que representamos por \((x_1,y_1)\), \((x_2,y_2)\), \(\ldots\), \((x_n,y_n)\), procedentes de dos poblaciones con medias \(\mu_1\) y \(\mu_2\). De modo que \(x_1, x_2, \ldots, x_n\) corresponden a las observaciones muestrales de una población con media \(\mu_1\), mientras que \(y_1, y_2, \ldots, y_n\) corresponden a las observaciones muestrales de una población con media \(\mu_2\).

Ahora, si \(d_i=x_i-y_i\), para cada \(i=1,\ldots, n\), entonces, la diferencias \(d_1, \ldots, d_n\) se puede pensar como una muestra aleatoria de la población de diferencias de datos pareados. Con esto tenemos que si \(\overline{x}\) y \(\overline{y}\) son las medias de las muestras \(x_1, \ldots, x_n\) y \(y_1, \ldots, y_n\), entonces, la media \(\overline{d}\) de las diferencias muestrales viene dada por \(\overline{d}= \overline{x} - \overline{y}\), lo cual está asociado con el estadístico \(\overline{D}\), definido como la diferencia de medias muestrales \(\overline{D}=\overline{X}- \overline{Y}\). A partir de lo anterior, sea \(s_d\) la desviación estándar muestral para las \(n\) diferencias \(d_i=x_i-y_i\). Entonces, la media \(\mu_{\overline{D}}\) y la varianza \(\sigma^2_{\overline{D}}\) de la distribución muestral de \(\overline{D}\) se calculan así:

\[\mu_{\overline{D}}= \mu_1 -\mu_2, \qquad \sigma^2_{\overline{D}}= \frac{s_d^2}{n}\]

El objetivo final es determinar la distribución muestral de \(\overline{D}=\overline{X}-\overline{Y}\). En el siguiente teorema, se describe cuál es su distribución para el caso en que los datos son pareados y las muestras son pequeñas. Para otros casos, los resultados son análogos a los presentados en la sección correspondiente a la distribución muestral de la media muestral.

Theorem 7.1 (Muestras pareadas) Supongamos que disponemos de una muestra aleatoria de datos pareados procedentes de distribuciones con medias \(\mu_1\) y \(\mu_2\). Sean, así, \(\overline{d}\) y \(s_d\) la media y la desviación estándar muestral para las \(n<30\) diferencias \(d_i=x_i-y_i\). Si se asume que la distribución de las diferencias es normal, entonces, la distribución muestral del \(\overline{D}=\overline{X}-\overline{Y}\) es la \(t\) de Student con \(n-1\) grados de libertad.

Proof:

Se deja al lector.\(\blacksquare\)

Remark:

Este teorema implica que la variable aleatoria

\[t = \frac{\overline{D} - \mu_{\overline{D}}}{\sigma_{\overline{D}}}\]

tiene distribución \(t\) de Student con \(n-1\) grados de libertad. Aquí, \(\mu_{\overline{D}}\) y varianza \(\sigma^2_{\overline{D}}\) se calculan como se indicó antes.

8 Distribución muestral de la diferencia de proporciones

Theorem 8.1 (Diferencia de proporciones) Sea \(\overline{p}_1\) la proporción de éxitos observada en una muestra aleatoria de tamaño \(n_1\), procedente de una población con proporción \(p_1\) de éxitos; y sea, también, \(\overline{p}_2\) la proporción de éxitos observada en una muestra aleatoria independiente de tamaño \(n_2\), procedente de una población con proporción de éxitos \(p_1\). Si los tamaños muestrales son grandes, entonces, la distribución muestral de \(\overline{p}_1-\overline{p}_2\) es la normal con media \(p_1 - p_2\) y varianza \(\frac{p_1(1-p_1)}{n_1} + \frac{p_2(1-p_2)}{n_2}\).

Proof:

Se deja al lector. \(\blacksquare\)

Remark:

Este teorema implica que la variable

\[Z= \frac{(\overline{p}_1-\overline{p}_2)\;-\; (p_1- p_2)}{\sqrt{\frac{p_1(1-p_1)}{n_1} + \frac{p_2(1-p_2)}{n_2}}}\]

tiene distribución normal estándar. Además, esta aproximación es válida si se cumple alguna de las dos condiciones siguientes:

  1. \(n_1\geq 30\) y \(n_2\geq 30\).

  2. \(n_1p_1\geq 5\), \(n_1(1-p_1)\geq 5\), \(n_2p_2\geq 5\) y \(n_2(1-p_2)\geq 5\).

En el siguiente ejemplo se ilustra la distribución muestral de la diferencia entre las proporciones muestrales.

Example 8.1 Los hombres y mujeres adultos radicados en una ciudad grande de cierto país difieren en sus opiniones sobre el establecimiento de la pena de muerte para personas culpables de asesinato. Se cree que el 12% de los hombres adultos están a favor de la pena de muerte, mientras que sólo el 10% de las mujeres adultas lo están. Si se pregunta a dos muestras aleatorias, una de 150 hombres y otra de 100 mujeres, su opinión al respecto, determine la probabilidad de que el porcentaje de hombres a favor sea al menos 3% mayor que el de mujeres.

Solution:

Representemos con \(p_1\) el porcentaje de hombres a favor de la pena de muerte y con \(p_2\), el de mujeres. Como consecuencia del teorema 8.1, la media de la distribución muestral de las diferencias entre las proporciones muestrales es:

\[\mu_{\overline{p}_1-\overline{p}_2} \;= \; p_1 - p_2 \;=\; 0,12 - 0,10 \;=\; 0,02.\]

Asimismo, el error estándar de las diferencias entre las proporciones muestrales es:

\[\sigma_{\overline{p}_1 - \overline{p}_2} \;= \; \sqrt{\frac{p_1(1-p_1)}{n_1} + \frac{p_2(1-p_2)}{n_2}} \;= \; \sqrt{\frac{(0,12)(0,88)}{150} + \frac{(0,10)(0,90)}{100}} \;= \; 0,04.\]

Podemos verificar, así, que se cumplen las condiciones necesarias para utilizar la aproximación del teorema 8.1. Entonces, el valor \(Z\) para \(\overline{p}_1 - \overline{p}_2 =0,03\) está dado por \(Z =0,25\). Por tanto, en virtud de este teorema, la probabilidad pedida será:

\[P(\overline{p}_1-\overline{p}_2 \geq 0,03) \;= \; P(Z\geq 0,25) \;= \; 1 \, -\, P(Z\leq 0,25)\;= \; 1 \, -\, 0,5987 \;= \; 0,4013\]

De este modo, concluimos así que la probabilidad de que el porcentaje de hombres a favor de la pena de muerte para culpables de asesinatos sea al menos 3% mayor que el de mujeres comprende la cantidad de 0,4013. \(\blacktriangleleft\)

9 Distribución muestral de la varianza

Theorem 9.1 (Una varianza) Sea \(X_1, \ldots, X_n\) una muestra aleatoria de una población que tiene distribución normal con media \(\mu\) y varianza \(\sigma^2\). Sea \(S_{(n)}^2\) la varianza empírica de la muestra. Entonces,

\[\frac{n-1}{\sigma^2} S_{(n)}^2 \stackrel{\atop d}{=} \chi^2(n-1)\]

Puede conslutarse también la tabla A.4 que se encuentra en el apéndice A.7 para diagramas y tablas (véase la sección correspondiente a la Bibliografía).

Proof:

Es exactamente el teorema 1.3(c). \(\blacksquare\)

Example 9.1 Cuando un proceso de producción está funcionando correctamente, la resistencia en ohmios de los componentes que produce sigue una distribución normal con desviación típica 3,6. Si toma una muestra aleatoria de cuatro componentes, ¿cuál es la probabilidad de que la varianza muestral sea mayor que 27?

Solution:

Tenemos que \(n=4\) y \(\sigma=3,6\). Además, como la población en cuestión es normal, entonces, podemos aplicar el teorema 9.1. Por tanto,

\[\begin{eqnarray*} P(s^2>27) &=& P\left(\chi^2(3) > \frac{(27)(3)}{12,96} \right) \;= \; P\left(\chi^2(3)>6,25\right) \;\approx \; 0,10. \end{eqnarray*}\]

En consecuencia, la probabilidad de que la varianza sea mayor a 27 es aproximadamente de 0,10. \(\blacktriangleleft\)

10 Distribución muestral de la razón de varianzas

Example 10.1 (Razón de varianzas) Sea \(X_1, \ldots, X_n\) una muestra aleatoria de una población que tiene distribución normal con media \(\mu_1\) y varianza \(\sigma_1^2\). Sea \(Y_1, \ldots, Y_m\) otra muestra aleatoria (independiente de la primera) de otra población que tiene distribución normal con media \(\mu_2\) y varianza \(\sigma_2^2\). Además, sean \(S_{(n)}^2\) y \(S_{(m)}^2\) las correspondientes varianzas empíricas de \(X_1, \ldots, X_n\) y \(Y_1, \ldots, Y_m\), respectivamente. Si \(\mathcal{F}(m,n)\) representa la distribución \(F\) de Fisher con \(m\) y \(n\) grados de libertad, entonces,

\[F\;:=\; \frac{S_{(n)}^2 / \sigma_1^2}{S_{(m)}^2 / \sigma_2^2} \; \stackrel{\atop d}{=} \; \mathcal{F}(n-1,m-1)\]

Puede consultarse también la tabla A.4 que se encuentra en el apéndice A.7 para diagramas y tablas (véase la sección correspondiente a la Bibliografía).

Proof:

Puede aplicarse el teorema 1.5(b). \(\blacksquare\)

Example 10.2 En una prueba sobre la efectividad de dos tipos de píldoras para dormir, A y B, se utilizarán dos grupos independientes de personas con insomnio. A un grupo de tamaño 61 se le administrará la píldora A y al otro grupo, de tamaño 41, se le administrará la B, registrándose el número de horas de sueño de cada individuo participante en el estudio. Suponiendo que el número de horas de sueño de quienes usan cada tipo de píldora se distribuye normalmente y que \(\sigma_A^2 =\sigma_B^2\), calcule la probabilidad de que la razón de las varianzas muestrales de A y B sea mayor que 1.64.

Solution:

La probabilidad pedida está dada por \[P(s_A^2/s_B^2 >1,64) \;= \; P\big(F(60,40)>1,64\big) \;= \; 0,05\]

Es decir, la probabilidad de que la razón de las varianzas muestrales de A y B sea mayor que 1,64 es de 0,05. \(\blacktriangleleft\)

11 Ejercicios

Realizar los ejercicios que se indican abajo.

11.0.1 Ejercicios del 1 al 3

  1. Un modelo binomial. Se tiene interés en hacer un control de calidad de \(N\) productos, por ejemplo, bombillas u otras piezas de cierta producción (o miembros de cierta producción). O sea, interesa ver si los productos son defectuosos o no. En analogía al modelo del ejemplo 2.1, se puede partir de un modelo de Bernoulli. Como base se toma la variable número deproductos defectuosos, representada por \(X\sim B(1,p)\), donde el valor \(1\) significa defectuoso con \(p=P(X=1)\) y \(0\) significa no defectuoso. Ahora se escogen independientemente \(n\) de los \(N\) productos disponibles.

    1. Formule un modelo estadístico binomial.

    2. En términos del problema o de la selección de la muestra, explique qué significaría la independencia de las variables muestrales \(X_i\).

    3. En este caso, ¿interesaría conocer el número total \(N\)?

    4. ¿Es siempre deseable este procedimiento de selección de la muestra?

  1. Un modelo hipergeométrico. Se modifica el modelo del ejercicio 1 en no suponer la independencia de las variables muestrales \(X_i\).

    1. Formule ahora un modelo estadístico hipergeométrico.

    2. En términos del problema o de la selección de la muestra, explique ahora qué significaría la independencia de las variables muestrales \(X_i\).

    3. En este caso, ¿interesaría ahora conocer el número total \(N\)?

    4. ¿Es regular la muestra hipergeométrica?

  1. Un modelo multinomial. Se supone ahora que se tienen objetos de los cuales interesa saber si tienen o no alguna de las posibles \(K\) características. O sea, se puede considerar que los objetos están divididos en \(K\geq 2\) categorías. En el modelo binomial de un control de calidad como la del ejercicio 1 se tienen las dos categorías defectuoso y no defectuoso. En el mismo contexto podría ser adecuado tener, por ejemplo, las tres categorías: útil, de menos valor (dando una rebaja en la venta) y sin valor. Pero hay muchas otras aplicaciones relevantes, por ejemplo, las proporciones de Hardy-Weinberg. Véase el ejercicio siguiente. Escogiendo independientemente \(n\) objetos y apuntando a cuál categoría \(k\in K\) pertenecen, formule un modelo estadístico multinomial.

11.0.2 Ejercicio 4

Un modelo multinomial para proporciones de Hardy-Weinberg. Considere una población genética, de la cual interesa sólo una característica que tenga origen en un sólo gen con dos alelos \(\alpha\) y \(\beta\). Como individuos se consideran los tres genotipos \(\alpha\alpha\), \(\alpha\beta\) y \(\beta\beta\). Para las probabilidades corresondientes, se supone que se cumple la ley de Hardy-Weinberg, es decir,

\[p_1=P(\alpha\alpha)=\theta^2, \quad p_2=P(\alpha\beta)=2\theta(1-\theta), \quad p_3=P(\beta\beta)=(1-\theta)^2\]

donde el parámetro de interés es \(\theta\) y se refiere a la probabilidad de que exista uno de los alelos (por ejemplo, \(\alpha\)) en la población de interés. Observando ahora \(n\) individuos, formule un modelo estadístico multinomial.

11.0.3 Ejercicio 5

Un modelo de regresión lineal, bi-normal. Se tiene interés en el problema, por ejemplo, de cómo depende la estatura de un hijo de la estatura de su papá. Se parte de un modelo probabilístico de regresión lineal \(Y=\delta + \beta\,X + \epsilon\). Es decir, se supone que la estatura del hijo (representada por la variable aleatoria \(Y\)) depende linealmente de la estatura de su papá (representada por la variable aleatoria \(X\)). Esta última variable no es determinística como en el modelo del ejemplo 2.2.

  1. Escriba explicitamente la densidad conjunta \(f_{(X,Y)}\) de \((X,Y)^t\) si suponemos, además, que se cumple el supuesto de normalidad con los siguientes parámetros: \((X,Y)^t \; \sim \;\mathcal{ N}(\mu, \Sigma)\), siendo \(\mu=(\mu_0, \mu_1)^t\) y \[\Sigma \;= \; \left( \begin{array}{ll} \sigma_0^2 & \sigma_0\sigma_1\rho \sigma_0\sigma_1\rho & \sigma_1^2 \end{array} \right) \]

  2. Utilizando la parte (a), demuestre que para un valor \(x\) de \(X\), se cumple que la variable aleatoria condicional \[(Y/ X=x) \; \sim \; N\big(M(x), \sigma^2\big), \qquad \mbox{siendo}\]

\[M(x) \;= \; \mu_0 - \frac{\rho\sigma_0}{\sigma_1}\mu_1 + \frac{\rho\sigma_0}{\sigma_1}x, \qquad \sigma^2=\sigma_0^2(1-\rho^2)\]

  1. Formule un modelo estadístico correspondiente y compárelo con el modelo encontrado en el ejemplo 2.2.

11.0.4 Ejercicio 6

Un modelo de análisis de varianza. Se tiene interés en los efectos que tienen \(J\) diferentes tratamientos a cierta enfermedad. Para esto, se aplica cada tratamiento \(j\) a \(K\) personas, independientemente entre tratamientos y personas. Así se llega al siguiente modelo estadístico, que se conoce bajo el nombre de modelo de análisis de varianza, usando alternativamente las dos formas:

\[\begin{eqnarray*} (1) \; Y_{jk} &=& \mu_j + \epsilon_{jk}, \quad \mbox{para $j=1, \ldots, J$ y $k=1, \ldots, K$}\\ &&\\ (2)\; Y_{jk} &=& \mu+ \nu_j + \epsilon_{jk}, \quad \mbox{para $j=1, \ldots, J$ y $k=1, \ldots, K$} \end{eqnarray*}\]

  1. Interprete los parámetros \(\mu_j\), \(\mu\) y \(\nu_j\).

  2. ¿Cuáles de las dos parametrizaciones es identificable?

  3. En el caso de que no sea identificable, ¿cómo es posible hacerla identificable?

11.0.5 Ejercicio 7

Supóngase que una variable aleatoria \(X\) tiene la distribución uniforme continua \[f(x)\;= \; \left\{% \begin{array}{ll} 1/4, & \hbox{si $4\leq x\leq 8$;} \\ 0, & \hbox{de otro modo} \end{array}% \right. \]

Encuéntrese la distribución de la media muestral de una muestra aleatoria de tamaño \(n=60\).

11.0.6 Ejercicio 8

Distribución muestral del mínimo. Consideremos una muestra aleatoria \(X_1, \ldots, X_n\) de variables aleatorias continuas, independientes e identicamente distribuidas con función de distribución acumulada \(F\) y densidad \(f\). Definamos el mínimo muestral de estas \(n\) variables aleatorias por \(m_n:=\min\{X_1,\ldots, X_n\}\).

  1. Halle una fórmula para \(P(m_n> t)\) en términos de \(F(t)\), siendo \(t>0\).

  2. Encuentre la función de distribución acumulada \(H_n\) de \(m_n\) y escriba su fórmula en términos de \(F\).

  3. Construya la función de densidad \(h_n\) de \(m_n\) y escriba su fórmula en términos de \(f\).

11.0.7 Ejercicios del 9 al 10

  1. Distribución muestral del mínimo (caso particular). Repita el ejercicio 8 , pero para el caso particular en que las variables muestrales provienen de una distribución: (a) Uniforme sobre el intervalo \([0,a]\); (b) Exponencial con parámetro \(\lambda\).
  1. Distribución asintótica relacionada con el mínimo. Sea \(m_n\) como en el ejercicio 8. Demuestre que la sucesión \((Y_n)_{n\in\mathbb{N}}\) de variables aleatorias \(Y_n:= n\, F(m_n)\) converge en distribución, cuando \(n\to\infty\), a una variable aleatoria \(Y\) distribuida exponencialmente con parámetro 1.

11.0.8 Ejercicio 11

Distribución asintótica relacionada con el mínimo (caso particular). Aplique el ejercicio 10 para determinar la forma de \(Y_n\) y para encontrar la distribución asintótica de \(m_n\) para el caso en que las variables muestrales provengan de una:

  1. Distribución uniforme sobre el intervalo \([0,a]\).

  2. Distribución exponencial con parámetro \(\lambda\).

  3. Distribución de Weibull con parámetro \(\alpha>0\), en donde la función de densidad \(f\) y la de distribución acumulada \(F\) están definidas, respectivamente, por

\[f(x)\;= \; \left\{\begin{array}{ll} \alpha \, x^{\alpha-1}, & \mbox{si $0\leq x\leq 1$} \\ 0, & \mbox{de otro modo} \end{array}\right.,\qquad F(t)\;= \; \left\{\begin{array}{ll} 0, & \mbox{$t<0$} t^\alpha, & \mbox{si $0\leq t\leq 1$} \\ 1, & \mbox{si $t> 1$} \end{array}\right.\]

  1. Población en donde la función de densidad \(f\) y la función de distribución acumulada \(F\) están definidas, respectivamente, por

\[f(x)\;= \; \left\{\begin{array}{ll} \frac{1}{x^2}, & \mbox{si $ x\leq -1$} \\ 0, & \mbox{de otro modo} \end{array}\right.,\qquad F(t)\;= \; \left\{\begin{array}{ll} 0, & \mbox{$t<0$}\\ -\frac{1}{t}, & \mbox{si $t\leq -1$} 1, & \mbox{si $t> -1$} \end{array}\right.\]

  1. Población con función de densidad \(f(x)=\frac{1}{2} e^{-|x|}\), con $ x$. En este caso, la función de distribución acumulada viene dada por

\[F(t)\;= \; \left\{\begin{array}{ll} \frac{1}{2} e^{t}, & \mbox{si $t<0$}\\ 0, & \mbox{de otro modo} \end{array}\right.\]

  1. Distribución normal estándar. Sugerencia: tenga en cuenta el siguiente resultado conocido:

\[\begin{eqnarray*} m_n &\sim & -\sqrt{2\ln n} \;+\; \frac{\ln \ln n \, + \, 4\pi}{2\sqrt{2\ln n}} \; + \; \frac{\ln Y}{\sqrt{2\ln n}} &=& \alpha_n \; + \; \beta_n \ln Y \end{eqnarray*}\]

cuando \(n\to \infty\), donde \(Y\) es como en el ejercicio 10 y

\[\alpha_n := -\sqrt{2\ln n} \;+\; \frac{\ln \ln n \, + \, 4\pi}{2\sqrt{2\ln n}}, \qquad \beta_n :=\frac{1}{\sqrt{2\ln n}}\]

11.0.9 Ejercicio 12

Distribución muestral del máximo. Consideremos una muestra aleatoria \(X_1, \ldots, X_n\) de variables independientes e identicamente distribuidas con función de distribución acumulada \(F\) y densidad \(f\). Definamos el máximo muestral de estas \(n\) variables aleatorias por \(M_n:=\max\{X_1,\ldots, X_n\}\).

  1. Encuentre la función de distribución acumulada \(G_n\) de \(M_n\) y escriba su fórmula en términos de \(F\).

  2. Construya la función de densidad \(g_n\) de \(M_n\) y escriba su fórmula en términos de \(f\).

11.0.10 Ejercicios del 13 al 14

  1. Distribución muestral del máximo. Repita el ejercicio 12, pero para el caso particular en que las variables muestrales provienen de una distribución: (a) Uniforme sobre el intervalo \([0,a]\); (b) Exponencial con parámetro \(\lambda\).
  1. Distribución asintótica relacionada con el máximo. Sea \(M_n\) como en el ejercicio 12. Demuestre que la sucesión \((U_n)_{n\in\mathbb{N}}\) de variables aleatorias \(U_n\) definidas por \(U_n:= n\, [1\,-\,F(M_n)]\) converge en distribución, cuando \(n\to \infty\), a una variable aleatoria \(U\) distribuida exponencialmente con parámetro 1.

11.0.11 Ejercicio 15

Distribución asintótica relacionada con el máximo (caso particular). Aplique el ejercicio 14 para determinar la forma de \(U_n\) y para encontrar la distribución asintótica de \(M_n\) para el caso en que las variables muestrales provengan de una:

  1. Distribución uniforme sobre el intervalo \([0,a]\).

  2. Distribución exponencial con parámetro \(\lambda\).

  3. Población con función de densidad

\[f(x)\;= \; \left\{\begin{array}{ll} \frac{1}{x^2}, & \mbox{si $ x \geq 1$} \\ 0, & \mbox{de otro modo} \end{array}\right.\]

  1. Población con función de densidad

\[f(x)\;= \; \left\{\begin{array}{ll} \frac{\alpha}{x^{\alpha +1}}, & \mbox{si $x \geq 1$ y $\alpha >0$} \\ 0, & \mbox{si $x<1$} \end{array}\right.\]

11.0.12 Ejercicios del 16 al 21

  1. Demuestre las partes (b) y (c) del teorema 1.4.
  1. Demuestre el teorema 5.1.
  1. Demuestre el teorema 7.1.
  1. Demuestre el teorema 8.1.
  1. Demuestre las partes (b) y (c) del teorema 1.3.
  1. Demuestre la parte (b) del teorema 1.5.

Bibliografía

  1. LLinás, H., Rojas, C. (2005). Estadística descriptiva y distribuciones de probabilidad. Barranquilla: Editorial Universidad del Norte.

  2. Llinás, H. (2006). Estadística Inferencial. Barranquilla: Editorial Universidad del Norte.

  3. Llinás, H. (2014). Introducción a la teoría de probabibilidad. Barranquilla: Editorial Universidad del Norte.

  4. Llinás, H. (2014). Introducción a la estadística matemática. Barranquilla: Editorial Universidad del Norte.

  5. Mayorga, H. (2003). Inferencia Estadística, Facultad de ciencias. Universidad Nacional de Colombia.

  6. Consultar mis Notas de clase.

  7. Apéndice de tablas y diagramas: Click aquí.

  8. Consultar el documento RPubs :: Enlace y materiales de ayuda.

 

 
If you found any ERRORS or have SUGGESTIONS, please report them to my email. Thanks.