hllinas2023

1 Distribuciones especiales

1.0.1 Discretas

Uniforme discreta, de Bernoulli, binomial, de Poisson, hipergeométrica, binomial negativa, geométrica, de Polya, multinomial, etc.

En la tabla de abajo se presenta un resumen de las distribuciones discretas más importantes.

1.0.2 Continuas

Uniforme continua, normal, gamma, exponencial, \(t\) de Student, Chi-cuadrada, \(F\) de Fisher, Cauchy, Beta, de Laplace, Log-normal, de Rayleigh, Weibull, de Maxwell, del valor extremo, etc.

En la tabla de abajo se presenta un resumen de las distribuciones continuas más importantes.

2 Distribución de funciones de variables aleatorias

2.0.1 Teorema de transformación (univariado)

Es importante anotar que si \(g\) es una función continua y \(X\) es una variable aleatoria, entonces, \(g(X)\) también es una variable aleatoria. Por esta razón, queremos expresar, para algunas funciones especiales \(f\), la función de distribución de \(Y:=g(X)\) a través de la función de distribución de \(X\).

Theorem 2.1 (Transformación) Sea \(X\) una variable aleatoria continua con densidad de probabilidad \(f_X\). Si \(g:\mathbb{R}\to \mathbb{R}\) es continuamente diferenciable sobre \(\mathbb{R}\) y \(g(x)\ne 0\) para todo \(x\in\mathbb{R}\), entonces la función de densidad de la variable \(Y=g(X)\) está dada por \[f_Y(x)= \left\{ \begin{array}{ll} f_X\big(h(x)\big)|h'(x)|, & \hbox{para todo $x$ en el rango de $g$;} \\ 0, & \hbox{de otro modo} \end{array} \right. \]

siendo \(h:=g^{-1}\) la inversa de \(g\).

Proof:

Se deja al lector. \(\blacksquare\)

2.0.2 Relaciones entre algunas distribuciones

Theorem 2.2 (Normal) Si \(X\) tiene distribución normal con parámetros \(\mu\) y \(\sigma^2\), es decir, \(X \stackrel{\atop d}{=} \mathcal{N}(\mu,\sigma^2)\), entonces, \(aX+b \stackrel{\atop d}{=} \mathcal{N}(a\mu+b, a^2\sigma^2)\), para todo \(a,b\in\mathbb{R}\).

Proof:

Como ejercicio. Aplicar el teorema 2.1. \(\blacksquare\)

A continuación, vemos algunas distribuciones normales.

Theorem 2.3 (Normal estándar) \(X\stackrel{\atop d}{=} \mathcal{N}(\mu,\sigma^2)\) si y sólo si \(\frac{X-\mu}{\sigma}\stackrel{\atop d}{=} \mathcal{N}(0,1)\).

Proof:

Como ejercicio. Aplicar el teorema 2.1. \(\blacksquare\)

Theorem 2.4 (Gamma) Sea \(X\) una variable aleatoria real. Sea \(\gamma\big(\alpha, \beta\big)\) la distribución gamma con parámetros \(\alpha\) y \(\beta\).

  1. Si \(X \stackrel{\atop d}{=} \mathcal{N}(0,\sigma^2)\), entonces, \(X^2 \stackrel{\atop d}{=} \gamma\big(\frac{1}{2}, \frac{1}{2\sigma^2}\big)\).

  2. Si \(X \stackrel{\atop d}{=} \gamma(\alpha,\beta)\), entonces, \(cX \stackrel{\atop d}{=} \gamma\big(\alpha, \frac{\beta}{c}\big)\), para todo \(c>0\).

Proof:

Como ejercicio. Aplicar el teorema 2.1. \(\blacksquare\)

A continuación, vemos algunas distribuciones gammas.

Theorem 2.5 (Chi-cuadrada) Supongamos que \(\chi^2 (n)\) representa la distribución chi-cuadrada con \(n\) grados de libertad.

  1. \(\chi^2(n)=\gamma\left(\frac{n}{2}, \frac{1}{2}\right)\).

  2. Si \(X\stackrel{\atop d}{=} \mathcal{N}(0,1)\), entonces, \(X^2\stackrel{\atop d}{=} \chi^2(1)\).

Proof:

Como ejercicio. En la parte (b) aplicar el teorema 2.1. \(\blacksquare\)

A continuación, vemos algunas distribuciones chi-cuadradas.

3 Vectores aleatorios

Como veremos a continuación, un vector aleatorio se puede clasificar en discreto o continuo si sus correspondientes componentes son todas discretas o todas continuas. Inclusive, existe el caso mixto, en que, por ejemplo, una o algunas de las componentes del vector sea(n) discreta(s) y las otras, continuas.

3.0.1 Vector aleatorio discreto

Definition 3.1 (Vector discreto) Sea \(X:=(X_1, \ldots, X_n)\) un vector de variables aleatorias \(X_1, \ldots, X_n\) sobre un espacio de probabilidad \((\Omega,\mathbb{F}, P_X)\) con \(P_{X_1}, \ldots, P_{X_n}\), respectivamente. El vector aleatorio \(X\) se llama si tiene un número o enumerable de valores, es decir, si todas sus correspondientes componentes \(X_i\) son discretas. El vector \(X\) se llama si todas sus correspondientes componentes son continuas.

3.0.2 Distribución normal bivariada

A continuación introduciremos la llamada distribución normal bidimensional, la cual es una distribución de un vector aleatorio bidimensional continuo y que muy útil para las aplicaciones.

Definition 3.2 (Normal bidimensional) El vector aleatorio \((X,Y)\) continuo tiene una { distribución normal} bidimensional con los parámetros \(\mu_1, \mu_2 \in \mathbb{R}\), \(\sigma_1^2,\sigma_2^2> 0\) y \(\varrho\in\mathbb{R}\) con \(|\varrho|\leq 1\), en símbolos \((X,Y)\stackrel{\atop d}{=} \mathcal{N}(\mu_1,\mu_2, \sigma_1^2,\sigma_2^2,\varrho)\), si para todo \(x,y\in \mathbb{R}\), su densidad conjunta está dada por

\[f_{(X,Y)}(x,y) := \frac{1}{2\pi \sigma_1\sigma_2\sqrt{1-\varrho^2}} \exp\big\{-\frac{1}{2(1-\varrho^2)} \big[ \frac{(x-\mu_1)^2}{\sigma_1^2} - 2\frac{\varrho(x- \mu_1)(y- \mu_2)}{\sigma_1\sigma_2} + \frac{(y- \mu_2)^2}{\sigma_2^2} \big] \big\}\]

La distribución normal bidimensional se debe a Laplace quien, en 1811, la encuentra al estudiar problemas de estimación lineal con varias variables. El parámetro \(\varrho\) tiene con el grado con el grado de dependencia entre las variables \(X\) y \(Y\). El es conocido como el coeficiente de correlación entre \(X\) y \(Y\).

Example 3.1 Consideremos un vector aleatorio \((X,Y)\) con vector de medias \(\mu\) y matriz de varianzas-covarianzas \(\Sigma\) dadas por:

\[\mu=\left(\begin{array}{c} 0\\ 0 \end{array}\right), \qquad \Sigma = \left( \begin{array}{cc} 1 & 0.25\\ 0.25 & 1 \\ \end{array} \right)\]

La gráfica correspondiente se puede visualizar en la siguiente figura:

El siguiente teorema caracteriza la distribución marginal de una distribución normal bidimensional.

Theorem 3.1 (Normal bidimensional) Si

\[(X,Y)\stackrel{\atop d}{=} \mathcal{N}(\mu_1,\mu_2, \sigma_1^2,\sigma_2^2,\varrho)\]

entonces,

\[X\stackrel{\atop d}{=} \mathcal{N}(\mu_1,\sigma_1^2) \quad \mbox{y} \quad Y\stackrel{\atop d}{=} \mathcal{N}(\mu_2,\sigma_2^2)\]

Es decir, la distribución normal bidimensional tiene distribuciones marginales normales.

Proof:

Como ejercicio. Usar la identidad

\[\frac{(x-\mu_1)^2}{\sigma_1^2} + \frac{(y-\mu_2)^2}{\sigma_2^2} -\frac{2\varrho(x-\mu_1)(y-\mu_2)}{\sigma_1 \sigma_2} \;= \; \frac{(x-\mu_1)^2}{\sigma_1^2} (1-\varrho^2) + \left(\frac{y-\mu_2}{\sigma_2} - \varrho \frac{(x-\mu_1)}{\sigma_1} \right)^2\]

Posteriormente, al resolver la integral que nos queda utilizamos la sustitución

\[u\;= \; \frac{1}{\sqrt{1-\varrho^2}}\left(\frac{y-\mu_2}{\sigma_2} - \varrho \frac{(x-\mu_1)}{\sigma_1} \right)\]

De esta forma queda demostrado el teorema. \(\blacksquare\)

4 Variables aleatorias independientes

La noción de independencia de más de dos variables aleatorias es similar a la noción de independencia de más de dos eventos.

Definition 4.1 (Independencia) Las variables \(X_1, X_2, \ldots, X_n\) son independientes si y sólo si

\[P(X_1\leq x_1, X_2\leq x_2, \ldots, X_n\leq x_n) \;= \; P(X_1\leq x_1) \,P(X_2\leq x_2) \cdots P(X_n\leq x_n)\]

Remark:

Lo anterior es equivalente a: Si \(f\) es la función de distribución conjunta del vector aleatorio \((X_1, X_2, \ldots, X_n)\) y si \(f_i\) es la función de distribución marginal de \(X_i\), \(i=1, 2,\ldots, n\), entonces \(X_1, X_2, \ldots, X_n\) son independientes si y sólo si

\[f(x_1, x_2, \ldots, x_n) \;= \; f_1(x_1) \, f_2(x_2)\cdots f_n(x_n)\]

Example 4.1 (Exponencial, independientes) Suponga que el tiempo de vida, en años, de un cierto producto alimenticio perecedero empacado en cajas de cartón es una variable aleatoria distribuida exponencialmente con parámetro \(\lambda=1\). Si \(X_1\), \(X_2\) y \(X_3\) representan las vidas de tres de estas cajas seleccionadas independientemente, entonces, encuentre:

\[P(X_1<2,\, 1<X_2<3, \, X_3>2)\]

Solución:

Dado que las cajas fueron seleccionadas independientemente, puede asumirse que las variables \(X_1\), \(X_2\) y \(X_3\) son independientes y que tienen función de densidad conjunta dada por

\[f(x_1,x_2,x_3) \;= \; f_{X_1}(x_1) \, f_{X_2}(x_2) \, f_{X_3}(x_3) \;= \; e^{-x_1} \, e^{-x_2}\, e^{-x_3} \;= \; e^{-x_1-x_2-x_3}\]

para todo \(x_1, x_2, x_3 >0\) y \(f(x_1,x_2,x_3)=0\) en otro caso. Por lo tanto, \[\begin{align*} P(X_1<2,\, 1<X_2<3, \,X_3>2) &=\; 0.0376 \tag*{$\blacktriangleleft$} \end{align*}\]

5 Convoluciones de medidas de probabilidad

5.0.1 Teoremas de convolución

Definition 5.1 (Convolución) Sean \(X_1, \ldots, X_n\) \((\mathbb{R}^n, \mathbb{B}_n)\)-variables aleatorias independientes sobre un espacio de probabilidad \((\Omega, \mathbb{F}, P)\). La distribución de la variable aleatoria \(X_1 + \cdots+ X_n\) se llama la convolución producto o, brévemente, convolución de las medidas de probabilidad \(P_{X_1}, \ldots, P_{X_n}\) y se simboliza con

\[P_{X_1} \ast \cdots \ast P_{X_n} \; := \; P_{X_1+\cdots + X_n}\]

Remark:

Ya que la adición \(``+"\) es conmutativa y asociativa, también lo es la convolución \(``\ast"\). Por consiguiente, es suficiente limitarse al estudio del producto convolución de dos factores.

A continuación, presentaremos fórmulas para calcular la distribución de una suma, resta, producto y división de variables aleatorias independientes. Nos limitaremos al caso de dos variables aleatorias reales.

Theorem 5.1 (Convoluciones) Si \(X\) y \(Y\) variables aleatorias continuas, reales e independientes con las densidades de probabilidad \(f_X\) resp. \(f_Y\), entonces, las corres-pon-dien-tes densidades de probabilidades \(f_{X\pm Y}\), \(f_{XY}\) y \(f_{X/Y}\) de las variables aleatorias \(X\pm Y\), \(XY\) y \(X/Y\) están dadas por

\[\begin{eqnarray} f_{X+Y}(t)&=& \int_{-\infty}^\infty f_X(x)\, f_Y(t-x) \,dx\;=\; \int_{-\infty}^\infty f_X(t-y) \, f_Y(y)\, dy\label{ec-conv-suma1} \\ f_{X-Y}(t)&=& \int_{-\infty}^\infty f_X(x) \, f_Y(x-t) \, dx \;= \;\int_{-\infty}^\infty f_X(t+y) \, f_Y(y) \,dy, \label{ec-conv-resta1}\\ f_{XY}(t)&=& \int_{-\infty}^\infty \mbox{$\frac{1}{|x|}\, f_X(x) \, f_Y\big(\frac{t}{x}\big)$} \,dx \; = \; \int_{-\infty}^\infty \mbox{$\frac{1}{|y|} \, f_X\big(\frac{t}{y}\big)\, f_Y(y) $} \,dy,\label{ec-conv-producto1} \\ f_{X/Y}(t)&=&\mbox{$\frac{1}{t^2}$} \int\limits_{-\infty}^\infty |x| \,f_X(x) \, f_Y\mbox{$\big(\frac{x}{t}\big)$} \, dx \;= \; \int\limits_{-\infty}^\infty |y| \,f_X(yt) \, f_Y(y) \, dy, \tag{5.1} \end{eqnarray}\]

respectivamente, para todo \(t\in\mathbb{R}\). En el caso en que \(X\) y \(Y\) sean discretas independientes,

\[\begin{eqnarray} P(X+Y=n) &=& \sum\limits_{x=0}^n P(X=x, Y=n-x) \nonumber\\ &=& \sum\limits_{x=0}^n P(X=x)\, P(Y=n-x) \tag{5.2} \end{eqnarray}\]

Proof:

Se deja al lector. \(\blacksquare\)

5.0.2 Ejemplos de convoluciones (discretas)

Example 5.1 (Convolución de binomiales) Sean \(0\leq p \leq 1\) y \(n, m \in \mathbb{N}\) dados.

\[\begin{eqnarray} \mathcal{B}(n,p) \ast \mathcal{B}(m,p) = \mathcal{B}(n+m,p).\label{ec-convolucion-dos-binomial} \end{eqnarray}\]

Es decir, la convolución de dos binomiales es también una binomial. \(\blacktriangleleft\)

Example 5.2 (Convolución de distribuciones de Poisson) Sean \(\alpha, \beta>0\) dados. Por consiguiente,

\[\begin{eqnarray} \mathcal{P}(\alpha) \ast \mathcal{P}(\beta) = \mathcal{P}(\alpha + \beta).\label{ec-convolucion-dos-poisson} \end{eqnarray}\]

Es decir, la convolución de dos distribuciones de Poisson es también una distribución de Poisson. \(\blacktriangleleft\)

5.0.3 Ejemplos de convoluciones (continuas)

Example 5.3 (Convolución de distribuciones normales) la convolución de dos normales independientes es también una normal. Es decir,

\[\begin{eqnarray} \mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2) \;=\; \mathcal{N}(\mu_1 + \mu_2, \,\sigma_1^2 + \sigma_2^2).\label{ec-convolucion-dos-normal} \end{eqnarray}\]

Solución:

Sean \(\mu_1, \mu_2 \in \mathbb{R}\) y \(\sigma_1, \sigma_2 >0\) dados. Para \(i=1,2\), sea \(f_i\) la densidad de la distribución normal \(\mathcal{N}(\mu_i, \sigma_i^2)\), es decir, \[f_i(x):= \frac{1}{\sigma_i\sqrt{2\pi}} \exp \left(-\frac{(x-\mu_i)^2} {2 \sigma_i^2}\right), \quad \forall\, x \in \mathbb{R}.\]

La convolución \(\mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2)\) tiene la densidad \(h\), que es dada por \[\begin{eqnarray*} h(x) &=& \int f_1(x-y) f_2(y)\, dy \\ &= & \frac{1}{2\pi \sigma_1 \sigma_2} \int \exp \left(-\frac{(x-y-\mu_1)^2}{2\sigma_1^2} - \frac{(y-\mu_2)^2}{2\sigma_2^2}\right)dy. \end{eqnarray*}\]

Sustituyendo \(u=\frac{y-\mu_2}{\sigma_2}\) y haciendo \(\mu := \mu_1 + \mu_2\) y \(\sigma := +\sqrt{\sigma_1^2 + \sigma_2^2}\), tenemos \[\begin{eqnarray} h(x)&=& \frac{1}{2 \pi \sigma_1} \int \exp \left(-\frac{(x-\sigma_2u-\mu_1-\mu_2)^2}{2 \sigma_1^2} - \frac{u^2}{2}\right)du\nonumber\\ &=& \frac{1}{2 \pi \sigma_1} \int \exp \left(-\frac{1}{2 \sigma_1^2} [(x-\mu-\sigma_2 u)^2 + \sigma_1^2u^2]\right)du.\nonumber \end{eqnarray}\]

Facilmente, se prueba que \[\sigma^2 \left(u - \frac{\sigma_2(x-\mu)}{\sigma^2}\right)^2 \,+\, \frac{\sigma_1^2(x-\mu)^2}{\sigma^2}\; =\; (x-\mu-\sigma_2 u)^2\, +\, \sigma_1^2 u^2.\]

Sustituyendo esto, obtenemos \[h(x)= \frac{1}{2\pi \sigma_1} \int \exp \left(- \frac{\sigma^2} {2\sigma_1^2} \left[u-\frac{\sigma_2(x-\mu)}{\sigma^2}\right]^2 - \frac{(x-\mu)^2}{2\sigma^2} \right)du.\]

Reemplazando ahora \(v=\left(u-\frac{\sigma_2(x-\mu)}{\sigma^2}\right) \frac{\sigma}{\sigma_1}\), se tiene \[\begin{eqnarray*} h(x) &=& \frac{1}{2\pi \sigma_1} \int \exp \left(- \frac{v^2} {2} -\frac{(x-\mu)^2}{2\sigma^2}\right) \frac{\sigma_1}{\sigma}dv \\ &=& \frac{1}{2\pi \sigma} \exp \left(-\frac{(x-\mu)^2}{2\sigma^2}\right) \int \exp \left(-\frac{v^2}{2}\right)dv\\ &=& \frac{1}{2\pi \sigma} \exp \left(-\frac{(x-\mu)^2}{2\sigma^2}\right), \end{eqnarray*}\]

en donde se ha utilizado que

\[\frac{1}{\sqrt{2\pi}}\int\limits_{-\infty}^\infty \exp \left(-\frac{v^2}{2}\right)dv = 1 \qquad \mbox{(Propiedad de la normal estándar)}\]

Esto demuestra que la convolución \(\mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2)\) está distribuida normálmente con los parámetros \(\mu = \mu_1 + \mu_2\) y \(\sigma^2 = \sigma_1^2 + \sigma_2^2\), es decir,

\[\mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2) \;=\; \mathcal{N}(\mu_1 + \mu_2, \,\sigma_1^2 + \sigma_2^2)\]

Es decir, la convolución de dos normales es también una normal. \(\blacktriangleleft\)

5.0.4 Convoluciones especiales

Theorem 5.2 (Convoluciones especiales) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes.

  1. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_i,\sigma^2_i)\) para cada \(i=1,\ldots, n\), entonces, \[X_1+\cdots+ X_n \stackrel{\atop d}{=} \mathcal{N}(\mu_1+\cdots + \mu_n,\sigma^2_1 + \cdots + \sigma^2_n)\]

  2. Si \(X_i \stackrel{\atop d}{=} \gamma(\alpha_i,\beta)\) para cada \(i=1,\ldots, n\), entonces, \[X_1+\cdots+ X_n \stackrel{\atop d}{=} \gamma(\alpha_1+\cdots+ \alpha_n, \beta)\]

  3. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(0,1)\) para cada \(i=1,\ldots, n\), entonces, \[X_1^2+\cdots+ X_n^2 \stackrel{\atop d}{=} \chi^2(n)\]

Proof:

Como ejercicio. \(\blacksquare\)

6 Distribución de medias y varianzas

6.0.1 Media y varianza: Definición

Ahora, analizaremos dos conceptos importantes en la matemática estadística: las media y varianza empíricas de variables aleatorias.

Definition 6.1 (Media y varianza empírica) Sean \(X_1, \ldots, X_n\) variables aleatorias. Entonces, la variable aleatoria

\[\overline{X}_{(n)}:=\frac{1}{n}(X_1 + \cdots + X_n)\]

se llama la media aritmética o media empírica de \(X_1, \ldots, X_n\) y a

\[S^2_{(n)}:= \frac{1}{n-1} \sum\limits_{k=1}^n (X_k-\overline{X}_{(n)})^2\]

se le llama varianza empírica.

6.0.2 Caso de una media: normal

Para la media aritmética, obtenemos el siguiente teorema.

Theorem 6.1 (Media muestral) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes tales que \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu,\sigma^2)\) para cada \(i=1,\ldots, n\). Entonces, \(\overline{X}_{(n)} \stackrel{\atop d}{=} \mathcal{N}\big(\mu, \frac{\sigma^2}{n}\big)\).

Proof:

Como ejercicio. \(\blacksquare\)

6.0.3 Caso de una varianza: \(\chi^2\)

Ahora, demostraremos algunos resultados básicos relacionados con la varianza empírica.

Theorem 6.2 (Varianza muestral y chi-cuadrada) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes con \(E(X_k)=\mu\) y \(Var(X_k)=\sigma^2\), para cada \(k=1,\ldots, n\). Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) la varianza y media empírica de \(X_1, \ldots, X_n\), respectivamente.

  1. Se cumple que \(E(S_{(n)}^2)=\sigma^2\).

  2. Para \(k=2, \ldots, n\), \(Y_k\) y \(Y_k^2\) son independientes, siendo:

\[Y_k:= \big(X_k- \overline{X}_{(k-1)}\big) \sqrt{\frac{k-1}{k}}\]

  1. Se cumple que:

\[\sum\limits_{k=2}^n Y_k^2 = \sum\limits_{k=1}^n \big(X_k- \overline{X}_{(k-1)}\big)^2 = (n-1)S_{(n)}^2\]

  1. Si \(X_k \stackrel{\atop d}{=} \mathcal{N}(\mu, \sigma^2)\) para todo \(k=1, \ldots, n\), entonces,

\[\frac{n-1}{\sigma^2} S_{(n)}^2 \stackrel{\atop d}{=} \chi^2(n-1)\]

Proof:

Parte (a):

Se debe demostrar, primero, que \[E(S^2_{(n)}) \;= \; \frac{1}{n-1} \left[\sum\limits_{k=1}^n E(X_k^2) - n\, E\left(\overline{X}_{(n)}\right)^2\right]\]

Parte (b):

Por inducción sobre \(n\). El caso \(n=2\) es claro. Ahora, supongamos que el teorema se cumple para \(s=n-1\) y demostraremos para \(s=n\). \[\begin{eqnarray*} \sum\limits_{k=1}^n Y_k^2 &=& \sum\limits_{k=1}^{n-1} X_k^2 - (n-1)\overline{X}_{(n-1)}^2 + ({X}_{n} - \overline{X}_{(n-1)})\frac{n-1}{n} \\ &=& \sum\limits_{k=1}^n X_k^2 - \frac{1}{n} X_n^2 + \frac{1-n}{n(n-1)} \left(\sum\limits_{k=1}^{n-1} X_k\right)^2 -\frac{2}{n} X_n \sum\limits_{k=1}^{n-1} X_k\\ &=& \sum\limits_{k=1}^n X_k^2 - \frac{1}{n} \left(X_n + \sum\limits_{k=1}^{n-1} X_k\right)^2\\ &=& \sum\limits_{k=1}^n X_k^2 - n \overline{X}_{(n)}^2 \\ &=& (n-1) S_{(n)}^2 \end{eqnarray*}\]

Parte (c):

Primero demuestre que

\[X_k - \overline{X}_{(k-1)}\stackrel{\atop d}{=} \mathcal{N}\left(0, \sigma^2\left(\frac{k}{k-1}\right)\right)\]

Si \(Y_k\) es como en (b), entonces, \(Y_k \stackrel{\atop d}{=} \mathcal{N}(0, \sigma^2)\). Por esta razón, \[Y_k^2 \stackrel{\atop d}{=} \gamma\left(\frac{1}{2}, \frac{1}{2\sigma^2}\right)\]

y esto implica que

\[\frac{n-1}{\sigma^2} S_{(n)}^2 \stackrel{\atop d}{=} \gamma\left(\frac{n-1}{2}, \frac{1}{2}\right)\]

Con esto queda demostrado lo solicitado. \(\blacksquare\)

6.0.4 Caso de una media y de diferencia de nedias: \(t\) de Student

Ahora, definiremos otras variables que obedecen la distribución \(t\) de Student \(\mathcal{T}(n)\) con \(n\) grados de libertad.

Theorem 6.3 (Distribución t de Student) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1, \ldots, Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) y de \(Y_1, \ldots, Y_m\), respectivamente. Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{T}(n)\) representa la distribución \(t\) de Student con \(n\) grados de libertad, entonces:

  1. Si \(X \stackrel{\atop d}{=} \mathcal{N}(0,1)\) y \(Y\stackrel{\atop d}{=} \chi^2(n)\), entonces, \[t:= \frac{X}{\sqrt{Y/n}} \stackrel{\atop d}{=} \mathcal{T}(n)\]

  2. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu, \sigma^2)\) para cada \(i=1,\ldots, n\), entonces, se cumple que \[t:=\frac{\overline{X}_{(n)}- \mu}{S_{(n)} /\sqrt{n}} \stackrel{\atop d}{=} \mathcal{T}(n-1)\]

  3. Sea \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2)\) para cada \(j=1,\ldots, m\). Si \(S_{(n,m)}^2\) es la llamada varianza muestral combinada, entonces,

\[t:= \frac{\left(\overline{X}_{(n)} - \overline{Y}_{(m)}\right)\, - \, (\mu_1-\mu_2)}{\sqrt{\frac{S_{(n,m)}^2}{n} \,+\, \frac{S_{(n,m)}^2}{m}}} \stackrel{\atop d}{=} \mathcal{T}(m+n-2), \qquad \mbox{con}\qquad S_{(n,m)}^2:= \frac{(n-1)S_{(n)}^2 + (m-1)S_{(m)}^2}{m+n-2}\]

Proof:

Sólo demostraremos (a). Recuerde que la densidad \(t\) de Student con \(n\) grados de libertad es \[\mathcal{T}(n) \; \sim \; \frac{ \Gamma\left(\frac{n+1}{2}\right)}{\sqrt{n\pi} \,\Gamma\left(\frac{n}{2}\right)}\left(1+ \frac{t^2}{n}\right)^{-(n+1)/2}\]

Se tiene que \(\frac{Y}{n} \stackrel{\atop d}{=} \gamma\left(\frac{n}{2}, \frac{n}{2}\right)\). Debido a que \(f_{\sqrt{X}}(x) = 2\,|x|\, f_X(x^2)\), tenemos que

\[\sqrt{\frac{Y}{n}} \;\sim \; \frac{\left(\frac{n}{2}\right)^{n/2} }{\Gamma\left(\frac{n}{2}\right)}\cdot (x^2)^{(n/2)-1}\cdot 2x\cdot e^{-nx^2/2}, \quad x>0\]

Teniendo en cuenta lo anterior, aplicando la segunda igualdad del teorema de convolución para la división, haciendo la sustitución \(u=\frac{1}{2}\, x^2\, \left(t^2 + n\right)\) y sabiendo que \(\Gamma\left(x\right) = \int\limits_{0}^\infty u^{x-1} e^{-u}\, du\) para \(x>0\), tenemos \[\begin{eqnarray*} \frac{X}{\sqrt{Y/n}} & \sim & \frac{2\cdot \left(\frac{n}{2}\right)^{n/2}}{\sqrt{2\pi} \, \Gamma\left(\frac{n}{2}\right)} \int\limits_{0}^\infty x \, (x^2)^{(n-1)/2} \, \exp\left\{-\frac{1}{2}\, x^2\, (t^2 + n)\right\}\, dx\\ &=& \frac{2\cdot \left(\frac{n}{2}\right)^{n/2}}{\sqrt{2\pi} \, \Gamma\left(\frac{n}{2}\right)} \int\limits_{0}^\infty \frac{2^{(n-1)/2} \, u^{(n-1)/2}}{\left(t^2 + n\right)^{(n-1)/2}} \, e^{-u}\, \frac{du}{t^2 + n}\\ &=& \frac{2^{-1/2} \cdot 2 \cdot\left(\frac{n}{2}\right)^{n/2}\cdot 2^{(n-1)/2} }{\sqrt{\pi}\, \Gamma\left(\frac{n}{2}\right) \, \left(t^2 + n\right)^{(n+1)/2}} \int\limits_{0}^\infty u^{-1 + (n+1)/2}\, e^{-u}\, du\\ &\sim & \mathcal{T}(n) \end{eqnarray*}\]

La Proof de (b) y (c) se dejan como ejercicio. \(\blacksquare\)

A continuación, vemos algunas distribuciones \(t\) de Student.

6.0.5 Caso de la razón de varianzas: \(F\) de Fisher

Ahora, presentaremos algunos resultados con respecto a la distribución \(F\) de Fisher \(\mathcal{F}(m,n)\) con \(m\) y \(n\) grados de libertad.

Theorem 6.4 (Distribución F de Fisher) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1\), \(\ldots\), \(Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) resp. \(Y_1, \ldots, Y_m\). Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{F}(m,n)\) representa la la distribución \(F\) de Fisher con \(m\) y \(n\) grados de libertad, entonces:

  1. Si \(X \stackrel{\atop d}{=} \chi^2(m)\) y \(Y \stackrel{\atop d}{=} \chi^2(n)\), entonces,

\[F:= \frac{X/m}{Y/n} = \frac{nX}{mY} \stackrel{\atop d}{=} \mathcal{F}(m,n)\]

  1. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2_1)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2_2)\) para cada \(j=1,\ldots, m\), entonces,

\[F:= \frac{S_{(n)}^2 / \sigma_1^2}{S_{(m)}^2/\sigma^2_2} \stackrel{\atop d}{=} \mathcal{F}(n-1,m-1)\]

Proof:

Sólo demostraremos (a). Recuerde que \[\mathcal{F}(m,n)\; \sim \; \frac{\Gamma\left(\frac{m+n}{2}\right) \,m^{m/2} \, n^{n/2} \,t^{\frac{m}{2}-1}}{\Gamma\left(\frac{m}{2}\right) \,\Gamma\left(\frac{n}{2}\right)\, (n+mt)^{(m+n)/2}}, \quad t>0\]

\[\gamma(\alpha, \beta) \;\sim \; \frac{1}{\beta^\alpha\,\Gamma(\alpha)}\, t^{\alpha-1}\, e^{-t/\beta}, \quad t>0\]

Se tiene que \[nX \stackrel{\atop d}{=} \gamma\left(\frac{m}{2}, 2n\right) \qquad \mbox{y} \qquad mY \stackrel{\atop d}{=} \gamma\left(\frac{n}{2}, 2m\right)\]

Por tanto, teniendo en cuenta lo anterior, aplicando la segunda igualdad de (5.1), haciendo la sustitución \(u=\frac{x}{2}\left(\frac{t}{n} + \frac{1}{m}\right)\) y sabiendo que \(\Gamma\left(x\right) = \int\limits_{0}^\infty u^{x-1} e^{-u}\, du\), tenemos

\[\begin{eqnarray*} F &=& \frac{1}{(2n)^{m/2}\, (2m)^{n/2}\, \Gamma\left(\frac{m}{2}\right)\, \Gamma\left(\frac{n}{2}\right)} \int\limits_{0}^\infty |x|\, x^{-2 + (m+n)/2}\, t^{-1 + m/2} \, \exp\left\{-\frac{tx}{2n} - \frac{x}{2m}\right\} \, dx\\ &\sim & \mathcal{F}(m,n) \end{eqnarray*}\]

La parte (b) se deja como ejercicio. \(\blacksquare\)

A continuación, vemos algunas distribuciones \(F\) de Fisher.

7 Teoremas de transformación (multidimensional)

Sea \(X=(X_1, \ldots, X_n)\) un vector aleatorio y sean \(g_1, \ldots, g_k\) funciones definidas sobre \(A\subseteq \mathbb{R}^n\) y de valor real. Supóngase que

\[Y_1:= g_1(X_1, \ldots, X_n),\quad \ldots,\quad Y_k:= g_k(X_1, \ldots, X_n)\]

son variables aleatorias reales. Se desea determinar la distribución conjunta de las variables aleatorias \(Y_1, \ldots, Y_k\), en términos de la distribución conjunta de las variables aleatorias \(X_1, \ldots, X_n\). Primero, supondremos que \(X_1, \ldots, X_n\) son discretas y que se conoce su distribución conjunta.

7.0.1 Caso discreto: Un ejemplo

Example 7.1 (Conjunta, discreta) Sean \(X_1\) y \(X_2\) variables aleatorias discretas con distribución conjunta dada en la tabla de abajo. Halle la distribución conjunta de las variables:

\[Y_1=g_1(X_1,X_2)=X_1-X_2 \quad \mbox{y} \quad Y_2=g_2(X_1, X_2)=X_1+X_2\]

Solución:

Sean

\[g_1(x_1,x_2)=x_1-x_2\quad \mbox{y}\quad g_2(x_1, x_2)=x_1+x_2\]

Es obvio que las variables aleatorias \(Y_1\) y \(Y_2\) toman los valores \(-2, -1, 0, 1\) y \(0, 1, 2, 3, 4\), respectivamente. La distribución conjunta de \(Y_1\) y \(Y_2\) se muestra en la tabla de abajo.

7.0.2 Caso continuo: El jacobiano

Ahora presentaremos dos teoremas que nos permitirán determinar la distribución de una función de un vector aleatorio para el caso en que las variables \(X_1, \ldots, X_n\) sean continuas. Antes, la siguiente definición.

Definition 7.1 (Jacobiano) Sea \(h: R^n \to R^m\) una función definida por

\[h(x_1, \ldots, x_n) = \big(h_1(x_1, \ldots, x_n), \ldots, h_m(x_1, \ldots, x_n)\big)\]

Las derivadas parciales de estas funciones \(h_i\) (si existen) pueden ser organizadas en una matriz de \(m\) por \(n\), llamada la matriz Jacobiana de \(h\):

\[\frac{\partial h}{\partial x} := \frac{\partial(h_1, \ldots, h_m)}{\partial(x_1, \ldots, x_n)}:= \left(\begin{array}{ccc} \frac{\partial h_1}{\partial x_1} & \ldots & \frac{\partial h_1}{\partial x_n} \\ \vdots & & \vdots \\ \frac{\partial h_m}{\partial x_1} & \ldots & \frac{\partial h_m}{\partial x_n} \end{array}\right)\]

siendo \(x:=(x_1, \ldots, x_n)\). Si \(m=n\), entonces la matriz Jacobiana será cuadrada. Su determinante lo llamaremos determinante Jacobiano o, simplemente, Jacobiano y lo simbolizaremos por \(J_h(x)\).

Example 7.2 (Jacobiano) El Jacobiano de la función \(h: R^3 \to R^3\) definida por

\[h(x_1, x_2, x_3) \;= \; (0.25x_1,\; x_2-x_3, \;x_3^3)\]

es \[J_h (x)\;= \; \det\left(\begin{array}{ccc} 0.25 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 0 & 3\,x_3^2 \end{array}\right) \;= \; 0.75\,x_3^2\]

Esto indica que no necesariamente el jacobiano es un número. Restringido al plano \(x_1=0\), su gráfica se puede visualizar abajo. \(\blacktriangleleft\)

7.0.3 Caso continuo: El teorema

Theorem 7.1 (Transformación multivariada) Sea \(X=(X_1, \ldots, X_n)\) un vector aleatorio con densidad conjunta \(f_X\). Sea \(g:\mathbb{R}^n \longrightarrow \mathbb{R}^n\) una aplicación inyectiva. Supóngase que tanto \(g\) como su inversa \(h: A\subseteq\mathbb{R}^n \longrightarrow \mathbb{R}^n\) son continuas. Si las derivadas parciales de \(h\) existen y son continuas y si su jacobiano \(J_h(y)\) es diferente de cero, entonces, el vector aleatorio \(Y=g(X)\) tiene función de densidad conjunta \(f_Y\) dada por:

\[f_Y(y) = \begin{cases} |J_h(y)| \cdot f_X(h(y)), & \text{si $y$ está en el rango de $g$}, \\ 0, & \text{de otro modo}. \end{cases} \]

Proof:

Se deja al lector. \(\blacksquare\)

Example 7.3 (Conjunta, continua) Sea \(X=(X_1,X_2)\) un vector aleatorio con función de densidad de probabilidad conjunta dada por:

\[f_X(x_1,x_2) = \begin{cases} 1 & \text{si $0<x_1, x_2 < 1$}, \\ 0, & \text{de otro modo}. \end{cases} \]

Hallar la función de densidad de probabilidad conjunta de \(Y=(Y_1,Y_2)\), donde \(Y_1=X_1+X_2\) y \(Y_2=X_1-X_2\).

Solución:

Se deja al lector. \(\blacktriangleleft\)

8 Ejercicios

Realizar los ejercicios que se indican abajo.

8.0.1 Ejercicios del 1 al 4

  1. Investigue las definiciones de \(\sigma\)-álgebra y de medida de probabilidad.
  1. Sea \(\Omega=\{1,2,3\}\). Verifique si los siguientes conjuntos forman una \(\sigma\)-álgebra de \(\Omega\):

    \[\mathbb{F}_1=\{\emptyset, \{1\}, \{2,3\}, \Omega\}, \qquad \mathbb{F}_2=\{\emptyset, \{1\}, \{2\}, \{3\}, \Omega\}\]

  1. Sea \(\Omega=\{1,2\}\) y \(\mathbb{F}\) el conjunto potencia de \(\Omega\). Demuestre que la siguiente aplicación \(P\) definida sobre \(\mathbb{F}\) es una medida de probabilidad: \[P(A)=\left\{ \begin{array}{ll} 0, & \hbox{si $A=\emptyset$;} \\ 1/3, & \hbox{$A=\{1\}$;} \\ 2/3, & \hbox{A=\{2\};} \\ 1, & \hbox{A=\{1,2\}.} \end{array} \right. \]
  1. Sea \(\Omega=\{1,2,3\}\) y \(\mathbb{F} =\{\emptyset, \Omega, \{2\}, \{1,3\}\}\). Demuestre que los eventos \(\emptyset\) y \(\{3\}\) son eventos nulos y verifique que \(P\) es una medida de probabilidad, donde \(P\) está definida sobre \(\mathbb{F}\) como: \[P(A)=\left\{ \begin{array}{ll} 0, & \hbox{si $2\not\in A$;} \\ 1, & \hbox{si $2\in A$} \end{array} \right. \]

8.0.2 Ejercicio 5

Sea \(\Omega \ne \emptyset\) y \(\mathbb{F}\) una \(\sigma\)-álgebra en \(\Omega\). Para \(A\), \(B\), \((A_n)_{n\in\mathbb{N}}\), \((B_n)_{n\in\mathbb{N}}\in\mathbb{F}\) demuestre las siguientes propiedades que satisface una medida de probabilidad:

  1. \(P(\emptyset)=0\).

  2. Aditividad: Si los eventos \(A_i\), para \(i=1, \ldots, n\), son disyuntos dos a dos, entonces, \(P\left(\bigcup\limits_{i=1}^n A_i \right) = \sum\limits_{i=1}^n P(A_i)\).

  3. \(P(\overline {A})= 1- P(A)\).

  4. Monotonía: Si \(A\subseteq B\), entonces, \(P(A)\leq P(B)\). En especial, \(P(A)\leq 1\).

  5. Teorema de adición para 2 eventos o fórmula de Silvester: \[P(A\cup B)= P(A) + P(B) - P(A\cap B)\]

8.0.3 Ejercicios del 6 al 9

  1. Teorema de la probabilidad total. Sea dada una des-com-po-si-ción finita o enumerable \(A_1,A_2,\ldots\) de \(\Omega\), es decir, \(A_1, A_2, \ldots \in\mathbb{F}\) son disyuntos dos a dos y \(\bigcup\limits_{n} A_n=\Omega\). Entonces, para cada \(B\in\mathbb{F}\), se tiene que \[P(B)=\sum\limits_{n}P(B/A_n)\, P(A_n)\]
  1. Teorema o regla de Bayes. Sea \(A_1, A_2,\ldots\) una descomposición finita o enumerable de \(\Omega\). Entonces, para cada evento \(B\) con \(P(B)>0\) y para todo \(n\in\mathbb{N}\), se tiene \[P(A_n/B)=\frac{P(B/A_n)\, P(A_n)}{\sum\limits_{j}P(B/A_j) \, P(A_j)}\]
  1. Se sabe que en un grupo de cuatro componentes hay dos defectuosos. Una inspectora los prueba de uno en uno hasta encontrar las dos piezas defectuosas. Una vez que las localiza interrumpe las pruebas, pero examina la segunda pieza defectuosa por seguridad. Si \(X\) es el número de pruebas en la que se detecta la segunda pieza defectuosa, determine la función de probabilidad de \(X\).
  1. Para verificar la exactitud de sus estados financieros, las empresas a menudo emplean auditores que verifiquen sus ingresos. Los empleados de la empresa se equivocan al re-gis-trar los ingresos 5% de las veces. Suponga que un auditor revisa aleatoriamente tres ingresos y que la detección de los errores es independiente. Determine la función de probabilidad del número de errores detectado por el auditor.

8.0.4 Ejercicio 10

Se lanzan dos dados perfectos y se define la variable aleatoria \(X\) de la siguiente manera: \[X=\left\{ \begin{array}{ll} 2.000, & \hbox{si resultan ``6" en ambos;} \\ 100, & \hbox{si resulta ``6" sólo en uno;} \\ 0, & \hbox{si no resulta ``6" en ninguno.} \end{array} \right.\]

  1. Calcule las tres probabilidades que determinan la distribución de \(X\).

  2. Calcule la esperanza de \(X\).

  3. Supóngase que este experimento representa un juego, en el cual los valores de \(X\) significan la ganancia (en pesos) del jugador y donde el jugador tiene que pagar 100 (pesos) antes. Interprete el valor de \(E(X)\).

8.0.5 Ejercicio 11

Responda las siguientes preguntas. Explique.

  1. Si \(A\), \(B\) y \(C\) son mutuamente excluyentes, ¿es posible que \(P(A)=0,3\), \(P(B)=0,4\) y \(P(C)=0,5\)?

  2. Si \(P(A/B)=1\), ¿se cumple \(A=B\)?

  3. Si \(A\) y \(B\) son eventos mutuamente excluyentes, ¿es posible construir un diagrama de Venn que contenga a los tres eventos \(A\), \(B\) y \(C\), tales que \(P(A/C)=1\) y \(P(B/C)=0\)?

8.0.6 Ejercicio 12

Sea \(X\) una variable aleatoria que tiene distribución exponencial con parámetro \(\lambda >0\).

  1. Demuestre que su función de densidad \(f\) es realmente una densidad.

  2. Encuentre una fórmula (y demuéstrela) para los valores \(F(t)\) de la función de distribución acumulada \(F\) y para \(P(X\geq t)\).

  3. Con base en el inciso anterior, halle \(F(-3)\) y \(P(X\geq -3)\).

  4. Demuestre que \(P(X\geq x+z \, /\, X\geq x) = P(X\geq z)\), para todo \(x, z >0\).

8.0.7 Ejercicio 13

Demuestre las siguientes afirmaciones:

  1. Para cualquier evento \(A\) y \(B\) con \(P(B)>0\) se cumple que \(P(A/B) + P(\overline{A}/B) = 1\).

  2. Si \(P(B/A) > P(B)\), entonces \(P(\overline{B}/A) <P(\overline{B})\). Sugerencia: Sume \(P(\overline{B}/A)\) ambos lados de la desigualdad y use el resultado de la parte (a).

  3. Para cualquiera de los tres eventos \(A\), \(B\) y \(C\) con \(P(C)>0\) se cumple que \[P(A\cup B /C) = P(A/C) + P(B/C) - P(A\cap B/C)\]

8.0.8 Ejercicios del 14 al 18

  1. Si \(A\) y \(B\) son independientes, demuestre que también lo son: (a) \(\overline{A}\) y \(B\); (b) sus complementos.
  1. Demostrar el teorema 2.3.
  1. Demostrar el teorema 2.4.
  1. Demostrar el teorema 2.5.
  1. Demostrar el teorema 2.5.

8.0.9 Ejercicios del 19 al 20

  1. Sea \(X\) una variable aleatoria real que tiene distribución exponencial con parámetro \(\lambda\). Hallar las correspondientes densidades de las siguientes variables aleatorias: (a) \(Y=X^2\); (b) \(Y=3X\).
  1. Halle la densidad de \(Y=X^2\) si \(X\) es una variable aleatoria real con función de densidad dada por \[ f(x) = \frac{1}{\sqrt{2\pi}}e^{-x^2/2}, \quad x\in \mathbb{R}\]

8.0.10 Ejercicios del 21 al 26

  1. Demuestre los resultados presentados en los ejemplos: (a) 5.1 y (b) 5.2.
  1. Demuestre los teoremas 5.2.

  2. Demuestre el teorema 6.1.

  3. Demuestre la parte (a) del teorema 6.2.

  4. Demuestre la parte (a) del teorema 6.3.

  5. Demuestre la parte (a) del teorema 6.4.

8.0.11 Ejercicio 27

La función de densidad conjunta de dos variables aleatorias continuas \(X\) y \(Y\) está dada por \[f(x,y)\;= \; \left\{ \begin{array}{ll} 2\,e^{-x}\,e^{-2y}, & \hbox{si $x>0$, $\;$ $y>0$;} \\ 0, & \hbox{de otra manera.} \\ \end{array} \right. \]

  1. Calcule \(P(X>1,Y<1)\).

  2. Halle \(P(X<Y)\).

  3. Halle la función de distribución acumulada marginal \(F_X\) de \(X\).

8.0.12 Ejercicio 28

Sean \(X, Y\) variables aleatorias con densidad conjunta \(f\), dada por \[f(x,y)=\left\{ \begin{array}{ll} 4, & \hbox{$0\leq x\leq 1,\; 0\leq y \leq 1, \; 2y\leq x$} \\ 0, & \hbox{en otros casos.} \end{array} \right. \]

  1. Calcule la densidad marginal \(f_X\) de \(X\) y la \(f_Y\) de \(Y\).

  2. Determine si \(X\) y \(Y\) son independientes.

  3. Calcule \(P\left(X\geq \frac{1}{2}\right)\).

  4. Halle \(E(3X)\).

8.0.13 Ejercicio 29

Considere un círculo de radio \(R\) y suponga que un punto dentro del círculo es escogido aleatoriamente de tal manera que todas las regiones dentro del círculo de igual área contienen con la misma probabilidad al punto (en otras palabras, el punto está uniformemente distribuido dentro del círculo). Si el centro es el origen, si \(X\) y \(Y\) denotan las coordenadas del punto escogido y ya que \((X,Y)\) es igualmente probable estar cerca a cada punto en el círculo, entonces la función de densidad conjunta de \(X\) y \(Y\) está dada por \[ f(x,y) \;= \; \begin{cases} k & \text{si $x^2+y^2\leq R^2$}, \\ 0 & \text{de otro modo}, \end{cases} \] para algún valor de \(k\).

  1. Determine \(k\) y haga un bosquejo de la gráfica de \(f\).

  2. Encuentre la función de densidad marginal de \(X\).

  3. Construya las función de densidad marginal de \(Y\).

  4. Encuentre la probabilidad de que \(D\), la distancia desde el origen al punto seleccionado, es menor o igual que \(t\).

8.0.14 Ejercicio 30

Propiedades de la covarianza. Sean \((\Omega, \mathbb{F}, P)\) un espacio de probabilidad y \(X, Y\) variables aleatorias reales sobre \((\Omega, \mathbb{F}, P)\) con varianza finita. Entonces,

  1. \(Cov (X, X) = Var(X)\).

  2. \(Cov(X,Y)=Cov(Y,X)\).

  3. \(Cov(aX+b, \, Y)=a\, Cov(X,Y)\) para todo \(a,b\in\mathbb{R}\).

  4. \(\big[Cov(X,Y)\big]^2 \leq Var(X)\, Var(Y)\).

  5. \(Cov (X, Y) = E(XY) - E(X) E(Y)\), es decir, \(X\) y \(Y\) son incorreladas si y sólo si \(Cov (X, Y) = 0\).

  6. Si \(X\) y \(Y\) son independientes, entonces, \(Cov(X,Y)=0\).

8.0.15 Ejercicio 31

  1. Igualdad de Bieynamé. para variables no necesariamente incorreladas}. Sean \((\Omega, \mathbb{F}, P)\) un espacio de probabilidad y \(X_1, \ldots, X_n\) variables aleatorias reales sobre \((\Omega, \mathbb{F}, P)\) con varianza finita. Entonces,

\[Var \Big(\sum \limits_{i=1}^n X_i\Big) \; = \; \sum \limits_{i,j=1}^n Cov(X_i, X_j) \; = \; \sum \limits_{i=1}^n Var(X_i) \; + \; 2\sum \limits_{i,j=1 \atop i<j}^n Cov(X_i, X_j).\]

8.0.16 Ejercicio 32

  1. Sean \(X, Y\) variables aleatorias con densidad conjunta \(f\), dada por \[f(x,y)=\left\{ \begin{array}{ll} x+y, & \hbox{$0\leq x\leq 1,\; 0\leq y \leq 1$} \\ 0, & \hbox{en otros casos.} \end{array} \right. \]
  1. Calcule \(P(X+Y \leq 1)\).

  2. Calcule la densidad marginal \(f_X\) de \(X\) y la \(f_Y\) de \(Y\).

  3. Determine si \(X\) y \(Y\) son independientes.

  4. Halle la covarianza \(Cov(X,Y)\).

8.0.17 Ejercicio 33

Sea \(X\) una variable aleatoria discreta tal que \[P(X=0) \;= \; P(X=1) \;= \; P(X=-1) \;= \; \frac{1}{3}\]

y defina \[ Y\;= \; \begin{cases} 0, & \text{si $X\ne 0$}, \\ 1, & \text{si $X=0$}. \end{cases}\]

  1. Muestre que \(Cov(X,Y)=0\), pero que \(X\) y \(Y\) no son independientes.

  2. Halle la función de probabilidad conjunta de las variables aleatorias \(U_1=X+Y\) y \(U_2=X-Y\).

8.0.18 Ejercicio 34

Sea \(\mathcal{G}(p)\) la distribución geométrica con el parámetro \(p\), con \(0\leq p\leq 1\). Supongamos que \(X_1, X_2, \ldots\) es una sucesión de variables aleatorias, independientes y distribuidas según \(\mathcal{G}(p)\). Es decir, \(P(X_i=x)=p\, q^x\) para \(x=0, 1,2, \ldots\), siendo \(q=1-p\). Para cada \(n\), defínase \[S_n=X_1+\cdots + X_n\]

  1. Calcule \(P(S_2=k)\) y con ello demuestre que \(S_2\) tiene distribución binomial negativa con los parámetros \(2\) y \(p\).

  2. Calcule \(P(S_3=k)\) y con ello demuestre que \(S_3\) tiene distribución binomial negativa con los parámetros \(3\) y \(p\).

  3. Demuestre por inducción sobre \(n\) que \(P(S_n=k)={k+n-1 \choose n-1} p^n \, q^k\) y con ello demuestre que \(S_n\) tiene distribución binomial negativa con los parámetros \(n\) y \(p\).

8.0.19 Ejercicios del 35 al 37

  1. Demuestre: Si \((X,Y) \stackrel{\atop d}{=} \mathcal{N}(\mu_1,\mu_2, \sigma_1^2,\sigma_2^2,\varrho)\), entonces,

\[X+Y \stackrel{\atop {d}}{=} \mathcal{N}(\mu_1 +\mu_2, \; \sigma_1^2 + \sigma_2^2+2\varrho\sigma_1\sigma_2)\]

  1. Supongamos que el nivel de agua de cierto río puede modelarse por medio de una variable aleatoria \(X\) con función de distribución acumulada (interpretando \(t=1\) como el nivel más bajo posible)

\[F(t)=1-\frac{1}{x^2}, \quad \mbox{para} \quad 1\leq t< \infty,\]

  1. Calcule la densidad, esperanza (si existe) y la varianza (si existe) de \(X\).

  2. Supongamos que se hacen \(n\) observaciones independientes de \(X\), lo que conduce a \(X_1, \ldots, X_n\) y que es de interés la variable \(Y:=\min\limits_i X_i\). Calcule la función de distribución acumulada \(F_Y\), la densidad \(f_Y\) y la esperanza (si existe) de \(Y\).

  1. Sean dadas dos variables aleatorias \(X\) y \(Y\) continuas con función de densidad conjunta \(f\) definida como se muestra abajo. Encuentre \(f_X(x)\), \(f_Y(y)\) y determine si \(X\) y \(Y\) son independientes. \[f(x,y) \;= \; \left\{% \begin{array}{ll} \frac{x(1+3y^2)}{4}, & \hbox{si $0< x< 2\;$ y $\;0< y<1$;} \\ 0, & \hbox{en cualquier otro caso.} \\ \end{array}% \right. \]

8.0.20 Ejercicios del 38 al 39

  1. Sean \(X_1\) y \(X_2\) variables aleatorias con la distribución de probabilidad conjunta que se da en la tabla de abajo.
  1. Determine si \(X_1\) y \(X_2\) son independientes.

  2. Encuentre la función de distribución conjunta de las variables aleatorias \(Y_1=X_1+X_2\) y \(Y_2=X_1 X_2\).

  1. Suponga que \(X\) y \(Y\) son independientes y uniformemente distribuidas sobre el intervalo \((0,1)\). Calcule:
  1. \(P(X^2+Y^2\leq 1)\).

  2. \(P(Y\leq X^2)\).

8.0.21 Ejercicios del 40 al 41

  1. Si \(X_1\), \(X_2\) y \(X_3\) son variables aleatoria continuas con función de densidad conjunta como se muestra abajo. Determine:
  1. La función de densidad marginal conjunta de \(X_2\) y \(X_3\).

  2. \(P(X_2+X_3<4)\).

\[f(x_1,x_2,x_3) \;= \; \begin{cases} x_1^2\, e^{-x_1(1+x_2+x_3)}, & \text{si $x_1>0$, $x_2>0$ y $x_3>0$}, \\ 0, & \text{en otro caso}, \end{cases} \]

  1. Suponga que en cinco puntos del océano medimos la intensidad del sonido causado por ciertos ruidos. Sean \(X_1\), \(X_2\), \(X_3\), \(X_4\) y \(X_5\) variables aleatorias que representan la intensidad del sonido en cada uno de los cinco puntos. Supongamos que la función de densidad conjunta de estas cinco variables es como se muestra abajo. Definamos \(Y\) como la intensidad máxima, es decir, \(Y=\max\{X_1, X_2,\ldots, X_5\}\). Determine la probabilidad de que \(Y\) sea menor o igual que \(t\in \mathbb{R}\).

\[f(x_1,x_2,\ldots,x_5) \;= \; \left\{% \begin{array}{ll} x_1x_2\cdots x_5\, e^{-(x_1^2 + x_2^2+\cdots + x_5^2)/2}, & \text{si $x_1, x_2,\ldots, x_5 \geq 0$;} \\ 0, & \hbox{de otro modo.} \\ \end{array}% \right. \]

8.0.22 Ejercicio 42

La función de probabilidad conjunta de dos variables aleatorias discretas \(X\) y \(Y\) está dada por

\[f(x,y) \;= \; \left\{% \begin{array}{ll} cxy, & \text{si $x,y\in \{1,2,3,4\}$;} \\ 0, & \text{de otro modo} \\ \end{array}% \right.\]

  1. Halle la constante \(c\).

  2. Encuentre las funciones de probabilidad marginal de \(X\) y de \(Y\).

  3. Determine si \(X\) y \(Y\) son independientes.

  4. Construya las funciones de distribución acumulada marginal de \(X\) y de \(Y\).

  5. Encuentre la función de distribución conjunta de las variables \(U=X+Y\) y \(V=X-Y\).

8.0.23 Ejercicio 43

Sean \(X\) y \(Y\) variables aleatorias continuas que tienen función de densidad conjunta

\[f(x,y) \;= \; \left\{% \begin{array}{ll} c(x^2+y^2), & \text{si $x,y\in [0,1]$;} \\ 0, & \text{de otro modo} \\ \end{array}% \right.\]

  1. Halle la constante \(c\).

  2. Halle las funciones de probabilidad marginal de \(X\) y de \(Y\).

  3. Calcule \(P(Y < 1/2)\).

  4. Determine si \(X\) y \(Y\) son independientes.

  5. Halle las funciones de distribución acumulada marginal de \(X\) y de \(Y\).

8.0.24 Ejercicio 44

Sean \(U=\frac{X}{Y}\) y \(V=X+Y\), en donde \(X\) y \(Y\) son variables aleatorias independientes con función de densidad conjunta como se indica abajo. Halle:

  1. La función de densidad de \(U\).

  2. La función de densidad de \(V\).

  3. La función de densidad conjunta de \(U\) y \(V\).

\[f(x,y) \;= \; \left\{% \begin{array}{ll} e^{-(x+y)}, & \text{si $x\geq 0, \; y\geq 0$;} \\ 0, & \text{de otro modo} \\ \end{array}% \right.\]

8.0.25 Ejercicio 45

Una urna contiene tres fichas blancas y dos azules. Sea selecciona una muestra aleatoria de tama~no 2 (con reemplazo). Sean

\[\begin{eqnarray*} X&= & \left\{% \begin{array}{ll} 1, & \text{si la primera ficha seleccionada es blanca.} \\ 0, & \text{si la primera ficha seleccionada es azul.} \\ \end{array}\right.\\ &&\\ Y &= & \left\{% \begin{array}{ll} 1, & \text{si la segunda ficha seleccionada es blanca.} \\ 0, & \text{si la segunda ficha seleccionada es azul.} \\ \end{array}\right. \end{eqnarray*}\]

Halle la distribución de probabilidad conjunta de las variables \(X\) y \(Y\).

Bibliografía

  1. LLinás, H., Rojas, C. (2005). Estadística descriptiva y distribuciones de probabilidad. Barranquilla: Editorial Universidad del Norte.

  2. Llinás, H. (2006). Estadística Inferencial. Barranquilla: Editorial Universidad del Norte.

  3. Llinás, H. (2014). Introducción a la teoría de probabibilidad. Barranquilla: Editorial Universidad del Norte.

  4. Llinás, H. (2014). Introducción a la estadística matemática. Barranquilla: Editorial Universidad del Norte.

  5. Mayorga, H. (2003). Inferencia Estadística, Facultad de ciencias. Universidad Nacional de Colombia.

  6. Consultar mis : Notas de clase.

  7. Consultar el documento RPubs :: Enlace y materiales de ayuda.

 

 
If you found any ERRORS or have SUGGESTIONS, please report them to my email. Thanks.