26/07/25
Abstract
La teoría mencionada puede revisarse en la BIBLIOGRAFÍA recomendada. En Rpubs:: toc se pueden ver otros documentos de posible interés.
Uniforme discreta, de Bernoulli, binomial, de Poisson, hipergeométrica, binomial negativa, geométrica, de Polya, multinomial, etc.
En la tabla de abajo se presenta un resumen de las distribuciones discretas más importantes.
Uniforme continua, normal, gamma, exponencial, \(t\) de Student, Chi-cuadrada, \(F\) de Fisher, Cauchy, Beta, de Laplace, Log-normal, de Rayleigh, Weibull, de Maxwell, del valor extremo, etc.
En la tabla de abajo se presenta un resumen de las distribuciones continuas más importantes.
Es importante anotar que si \(g\) es una función continua y \(X\) es una variable aleatoria, entonces, \(g(X)\) también es una variable aleatoria. Por esta razón, queremos expresar, para algunas funciones especiales \(f\), la función de distribución de \(Y:=g(X)\) a través de la función de distribución de \(X\).
Theorem 2.1 (Transformación) Sea \(X\) una variable aleatoria continua con densidad de probabilidad \(f_X\). Si \(g:\mathbb{R}\to \mathbb{R}\) es continuamente diferenciable sobre \(\mathbb{R}\) y \(g(x)\ne 0\) para todo \(x\in\mathbb{R}\), entonces la función de densidad de la variable \(Y=g(X)\) está dada por \[f_Y(x)= \left\{ \begin{array}{ll} f_X\big(h(x)\big)|h'(x)|, & \hbox{para todo $x$ en el rango de $g$;} \\ 0, & \hbox{de otro modo} \end{array} \right. \]
siendo \(h:=g^{-1}\) la inversa de \(g\).
Proof:
Se deja al lector. \(\blacksquare\)
Theorem 2.2 (Normal) Si \(X\) tiene distribución normal con parámetros \(\mu\) y \(\sigma^2\), es decir, \(X \stackrel{\atop d}{=} \mathcal{N}(\mu,\sigma^2)\), entonces, \(aX+b \stackrel{\atop d}{=} \mathcal{N}(a\mu+b, a^2\sigma^2)\), para todo \(a,b\in\mathbb{R}\).
Proof:
Como ejercicio. Aplicar el teorema 2.1. \(\blacksquare\)
A continuación, vemos algunas distribuciones normales.
Theorem 2.3 (Normal estándar) \(X\stackrel{\atop d}{=} \mathcal{N}(\mu,\sigma^2)\) si y sólo si \(\frac{X-\mu}{\sigma}\stackrel{\atop d}{=} \mathcal{N}(0,1)\).
Proof:
Como ejercicio. Aplicar el teorema 2.1. \(\blacksquare\)
Theorem 2.4 (Gamma) Sea \(X\) una variable aleatoria real. Sea \(\gamma\big(\alpha, \beta\big)\) la distribución gamma con parámetros \(\alpha\) y \(\beta\).
Si \(X \stackrel{\atop d}{=} \mathcal{N}(0,\sigma^2)\), entonces, \(X^2 \stackrel{\atop d}{=} \gamma\big(\frac{1}{2}, \frac{1}{2\sigma^2}\big)\).
Si \(X \stackrel{\atop d}{=} \gamma(\alpha,\beta)\), entonces, \(cX \stackrel{\atop d}{=} \gamma\big(\alpha, \frac{\beta}{c}\big)\), para todo \(c>0\).
Proof:
Como ejercicio. Aplicar el teorema 2.1. \(\blacksquare\)
A continuación, vemos algunas distribuciones gammas.
Theorem 2.5 (Chi-cuadrada) Supongamos que \(\chi^2 (n)\) representa la distribución chi-cuadrada con \(n\) grados de libertad.
\(\chi^2(n)=\gamma\left(\frac{n}{2}, \frac{1}{2}\right)\).
Si \(X\stackrel{\atop d}{=} \mathcal{N}(0,1)\), entonces, \(X^2\stackrel{\atop d}{=} \chi^2(1)\).
Proof:
Como ejercicio. En la parte (b) aplicar el teorema 2.1. \(\blacksquare\)
A continuación, vemos algunas distribuciones chi-cuadradas.
Como veremos a continuación, un vector aleatorio se puede clasificar en discreto o continuo si sus correspondientes componentes son todas discretas o todas continuas. Inclusive, existe el caso mixto, en que, por ejemplo, una o algunas de las componentes del vector sea(n) discreta(s) y las otras, continuas.
Definition 3.1 (Vector discreto) Sea \(X:=(X_1, \ldots, X_n)\) un vector de variables aleatorias \(X_1, \ldots, X_n\) sobre un espacio de probabilidad \((\Omega,\mathbb{F}, P_X)\) con \(P_{X_1}, \ldots, P_{X_n}\), respectivamente. El vector aleatorio \(X\) se llama si tiene un número o enumerable de valores, es decir, si todas sus correspondientes componentes \(X_i\) son discretas. El vector \(X\) se llama si todas sus correspondientes componentes son continuas.
A continuación introduciremos la llamada distribución normal bidimensional, la cual es una distribución de un vector aleatorio bidimensional continuo y que muy útil para las aplicaciones.
Definition 3.2 (Normal bidimensional) El vector aleatorio \((X,Y)\) continuo tiene una { distribución normal} bidimensional con los parámetros \(\mu_1, \mu_2 \in \mathbb{R}\), \(\sigma_1^2,\sigma_2^2> 0\) y \(\varrho\in\mathbb{R}\) con \(|\varrho|\leq 1\), en símbolos \((X,Y)\stackrel{\atop d}{=} \mathcal{N}(\mu_1,\mu_2, \sigma_1^2,\sigma_2^2,\varrho)\), si para todo \(x,y\in \mathbb{R}\), su densidad conjunta está dada por
\[f_{(X,Y)}(x,y) := \frac{1}{2\pi \sigma_1\sigma_2\sqrt{1-\varrho^2}} \exp\big\{-\frac{1}{2(1-\varrho^2)} \big[ \frac{(x-\mu_1)^2}{\sigma_1^2} - 2\frac{\varrho(x- \mu_1)(y- \mu_2)}{\sigma_1\sigma_2} + \frac{(y- \mu_2)^2}{\sigma_2^2} \big] \big\}\]
La distribución normal bidimensional se debe a Laplace quien, en 1811, la encuentra al estudiar problemas de estimación lineal con varias variables. El parámetro \(\varrho\) tiene con el grado con el grado de dependencia entre las variables \(X\) y \(Y\). El es conocido como el coeficiente de correlación entre \(X\) y \(Y\).
Example 3.1 Consideremos un vector aleatorio \((X,Y)\) con vector de medias \(\mu\) y matriz de varianzas-covarianzas \(\Sigma\) dadas por:
\[\mu=\left(\begin{array}{c} 0\\ 0 \end{array}\right), \qquad \Sigma = \left( \begin{array}{cc} 1 & 0.25\\ 0.25 & 1 \\ \end{array} \right)\]
La gráfica correspondiente se puede visualizar en la siguiente figura:
El siguiente teorema caracteriza la distribución marginal de una distribución normal bidimensional.
Theorem 3.1 (Normal bidimensional) Si
\[(X,Y)\stackrel{\atop d}{=} \mathcal{N}(\mu_1,\mu_2, \sigma_1^2,\sigma_2^2,\varrho)\]
entonces,
\[X\stackrel{\atop d}{=} \mathcal{N}(\mu_1,\sigma_1^2) \quad \mbox{y} \quad Y\stackrel{\atop d}{=} \mathcal{N}(\mu_2,\sigma_2^2)\]
Es decir, la distribución normal bidimensional tiene distribuciones marginales normales.
Proof:
Como ejercicio. Usar la identidad
\[\frac{(x-\mu_1)^2}{\sigma_1^2} + \frac{(y-\mu_2)^2}{\sigma_2^2} -\frac{2\varrho(x-\mu_1)(y-\mu_2)}{\sigma_1 \sigma_2} \;= \; \frac{(x-\mu_1)^2}{\sigma_1^2} (1-\varrho^2) + \left(\frac{y-\mu_2}{\sigma_2} - \varrho \frac{(x-\mu_1)}{\sigma_1} \right)^2\]
Posteriormente, al resolver la integral que nos queda utilizamos la sustitución
\[u\;= \; \frac{1}{\sqrt{1-\varrho^2}}\left(\frac{y-\mu_2}{\sigma_2} - \varrho \frac{(x-\mu_1)}{\sigma_1} \right)\]
De esta forma queda demostrado el teorema. \(\blacksquare\)
La noción de independencia de más de dos variables aleatorias es similar a la noción de independencia de más de dos eventos.
Definition 4.1 (Independencia) Las variables \(X_1, X_2, \ldots, X_n\) son independientes si y sólo si
\[P(X_1\leq x_1, X_2\leq x_2, \ldots, X_n\leq x_n) \;= \; P(X_1\leq x_1) \,P(X_2\leq x_2) \cdots P(X_n\leq x_n)\]
Remark:
Lo anterior es equivalente a: Si \(f\) es la función de distribución conjunta del vector aleatorio \((X_1, X_2, \ldots, X_n)\) y si \(f_i\) es la función de distribución marginal de \(X_i\), \(i=1, 2,\ldots, n\), entonces \(X_1, X_2, \ldots, X_n\) son independientes si y sólo si
\[f(x_1, x_2, \ldots, x_n) \;= \; f_1(x_1) \, f_2(x_2)\cdots f_n(x_n)\]
Example 4.1 (Exponencial, independientes) Suponga que el tiempo de vida, en años, de un cierto producto alimenticio perecedero empacado en cajas de cartón es una variable aleatoria distribuida exponencialmente con parámetro \(\lambda=1\). Si \(X_1\), \(X_2\) y \(X_3\) representan las vidas de tres de estas cajas seleccionadas independientemente, entonces, encuentre:
\[P(X_1<2,\, 1<X_2<3, \, X_3>2)\]
Solución:
Dado que las cajas fueron seleccionadas independientemente, puede asumirse que las variables \(X_1\), \(X_2\) y \(X_3\) son independientes y que tienen función de densidad conjunta dada por
\[f(x_1,x_2,x_3) \;= \; f_{X_1}(x_1) \, f_{X_2}(x_2) \, f_{X_3}(x_3) \;= \; e^{-x_1} \, e^{-x_2}\, e^{-x_3} \;= \; e^{-x_1-x_2-x_3}\]
para todo \(x_1, x_2, x_3 >0\) y \(f(x_1,x_2,x_3)=0\) en otro caso. Por lo tanto, \[\begin{align*} P(X_1<2,\, 1<X_2<3, \,X_3>2) &=\; 0.0376 \tag*{$\blacktriangleleft$} \end{align*}\]
Definition 5.1 (Convolución) Sean \(X_1, \ldots, X_n\) \((\mathbb{R}^n, \mathbb{B}_n)\)-variables aleatorias independientes sobre un espacio de probabilidad \((\Omega, \mathbb{F}, P)\). La distribución de la variable aleatoria \(X_1 + \cdots+ X_n\) se llama la convolución producto o, brévemente, convolución de las medidas de probabilidad \(P_{X_1}, \ldots, P_{X_n}\) y se simboliza con
\[P_{X_1} \ast \cdots \ast P_{X_n} \; := \; P_{X_1+\cdots + X_n}\]
Remark:
Ya que la adición \(``+"\) es conmutativa y asociativa, también lo es la convolución \(``\ast"\). Por consiguiente, es suficiente limitarse al estudio del producto convolución de dos factores.
A continuación, presentaremos fórmulas para calcular la distribución de una suma, resta, producto y división de variables aleatorias independientes. Nos limitaremos al caso de dos variables aleatorias reales.
Theorem 5.1 (Convoluciones) Si \(X\) y \(Y\) variables aleatorias continuas, reales e independientes con las densidades de probabilidad \(f_X\) resp. \(f_Y\), entonces, las corres-pon-dien-tes densidades de probabilidades \(f_{X\pm Y}\), \(f_{XY}\) y \(f_{X/Y}\) de las variables aleatorias \(X\pm Y\), \(XY\) y \(X/Y\) están dadas por
\[\begin{eqnarray} f_{X+Y}(t)&=& \int_{-\infty}^\infty f_X(x)\, f_Y(t-x) \,dx\;=\; \int_{-\infty}^\infty f_X(t-y) \, f_Y(y)\, dy\label{ec-conv-suma1} \\ f_{X-Y}(t)&=& \int_{-\infty}^\infty f_X(x) \, f_Y(x-t) \, dx \;= \;\int_{-\infty}^\infty f_X(t+y) \, f_Y(y) \,dy, \label{ec-conv-resta1}\\ f_{XY}(t)&=& \int_{-\infty}^\infty \mbox{$\frac{1}{|x|}\, f_X(x) \, f_Y\big(\frac{t}{x}\big)$} \,dx \; = \; \int_{-\infty}^\infty \mbox{$\frac{1}{|y|} \, f_X\big(\frac{t}{y}\big)\, f_Y(y) $} \,dy,\label{ec-conv-producto1} \\ f_{X/Y}(t)&=&\mbox{$\frac{1}{t^2}$} \int\limits_{-\infty}^\infty |x| \,f_X(x) \, f_Y\mbox{$\big(\frac{x}{t}\big)$} \, dx \;= \; \int\limits_{-\infty}^\infty |y| \,f_X(yt) \, f_Y(y) \, dy, \tag{5.1} \end{eqnarray}\]
respectivamente, para todo \(t\in\mathbb{R}\). En el caso en que \(X\) y \(Y\) sean discretas independientes,
\[\begin{eqnarray} P(X+Y=n) &=& \sum\limits_{x=0}^n P(X=x, Y=n-x) \nonumber\\ &=& \sum\limits_{x=0}^n P(X=x)\, P(Y=n-x) \tag{5.2} \end{eqnarray}\]
Proof:
Se deja al lector. \(\blacksquare\)
Example 5.1 (Convolución de binomiales) Sean \(0\leq p \leq 1\) y \(n, m \in \mathbb{N}\) dados.
\[\begin{eqnarray} \mathcal{B}(n,p) \ast \mathcal{B}(m,p) = \mathcal{B}(n+m,p).\label{ec-convolucion-dos-binomial} \end{eqnarray}\]
Es decir, la convolución de dos binomiales es también una binomial. \(\blacktriangleleft\)
Example 5.2 (Convolución de distribuciones de Poisson) Sean \(\alpha, \beta>0\) dados. Por consiguiente,
\[\begin{eqnarray} \mathcal{P}(\alpha) \ast \mathcal{P}(\beta) = \mathcal{P}(\alpha + \beta).\label{ec-convolucion-dos-poisson} \end{eqnarray}\]
Es decir, la convolución de dos distribuciones de Poisson es también una distribución de Poisson. \(\blacktriangleleft\)
Example 5.3 (Convolución de distribuciones normales) la convolución de dos normales independientes es también una normal. Es decir,
\[\begin{eqnarray} \mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2) \;=\; \mathcal{N}(\mu_1 + \mu_2, \,\sigma_1^2 + \sigma_2^2).\label{ec-convolucion-dos-normal} \end{eqnarray}\]
Solución:
Sean \(\mu_1, \mu_2 \in \mathbb{R}\) y \(\sigma_1, \sigma_2 >0\) dados. Para \(i=1,2\), sea \(f_i\) la densidad de la distribución normal \(\mathcal{N}(\mu_i, \sigma_i^2)\), es decir, \[f_i(x):= \frac{1}{\sigma_i\sqrt{2\pi}} \exp \left(-\frac{(x-\mu_i)^2} {2 \sigma_i^2}\right), \quad \forall\, x \in \mathbb{R}.\]
La convolución \(\mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2)\) tiene la densidad \(h\), que es dada por \[\begin{eqnarray*} h(x) &=& \int f_1(x-y) f_2(y)\, dy \\ &= & \frac{1}{2\pi \sigma_1 \sigma_2} \int \exp \left(-\frac{(x-y-\mu_1)^2}{2\sigma_1^2} - \frac{(y-\mu_2)^2}{2\sigma_2^2}\right)dy. \end{eqnarray*}\]
Sustituyendo \(u=\frac{y-\mu_2}{\sigma_2}\) y haciendo \(\mu := \mu_1 + \mu_2\) y \(\sigma := +\sqrt{\sigma_1^2 + \sigma_2^2}\), tenemos \[\begin{eqnarray} h(x)&=& \frac{1}{2 \pi \sigma_1} \int \exp \left(-\frac{(x-\sigma_2u-\mu_1-\mu_2)^2}{2 \sigma_1^2} - \frac{u^2}{2}\right)du\nonumber\\ &=& \frac{1}{2 \pi \sigma_1} \int \exp \left(-\frac{1}{2 \sigma_1^2} [(x-\mu-\sigma_2 u)^2 + \sigma_1^2u^2]\right)du.\nonumber \end{eqnarray}\]
Facilmente, se prueba que \[\sigma^2 \left(u - \frac{\sigma_2(x-\mu)}{\sigma^2}\right)^2 \,+\, \frac{\sigma_1^2(x-\mu)^2}{\sigma^2}\; =\; (x-\mu-\sigma_2 u)^2\, +\, \sigma_1^2 u^2.\]
Sustituyendo esto, obtenemos \[h(x)= \frac{1}{2\pi \sigma_1} \int \exp \left(- \frac{\sigma^2} {2\sigma_1^2} \left[u-\frac{\sigma_2(x-\mu)}{\sigma^2}\right]^2 - \frac{(x-\mu)^2}{2\sigma^2} \right)du.\]
Reemplazando ahora \(v=\left(u-\frac{\sigma_2(x-\mu)}{\sigma^2}\right) \frac{\sigma}{\sigma_1}\), se tiene \[\begin{eqnarray*} h(x) &=& \frac{1}{2\pi \sigma_1} \int \exp \left(- \frac{v^2} {2} -\frac{(x-\mu)^2}{2\sigma^2}\right) \frac{\sigma_1}{\sigma}dv \\ &=& \frac{1}{2\pi \sigma} \exp \left(-\frac{(x-\mu)^2}{2\sigma^2}\right) \int \exp \left(-\frac{v^2}{2}\right)dv\\ &=& \frac{1}{2\pi \sigma} \exp \left(-\frac{(x-\mu)^2}{2\sigma^2}\right), \end{eqnarray*}\]
en donde se ha utilizado que
\[\frac{1}{\sqrt{2\pi}}\int\limits_{-\infty}^\infty \exp \left(-\frac{v^2}{2}\right)dv = 1 \qquad \mbox{(Propiedad de la normal estándar)}\]
Esto demuestra que la convolución \(\mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2)\) está distribuida normálmente con los parámetros \(\mu = \mu_1 + \mu_2\) y \(\sigma^2 = \sigma_1^2 + \sigma_2^2\), es decir,
\[\mathcal{N} (\mu_1, \sigma_1^2) \ast \mathcal{N} (\mu_2, \sigma_2^2) \;=\; \mathcal{N}(\mu_1 + \mu_2, \,\sigma_1^2 + \sigma_2^2)\]
Es decir, la convolución de dos normales es también una normal. \(\blacktriangleleft\)
Theorem 5.2 (Convoluciones especiales) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes.
Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_i,\sigma^2_i)\) para cada \(i=1,\ldots, n\), entonces, \[X_1+\cdots+ X_n \stackrel{\atop d}{=} \mathcal{N}(\mu_1+\cdots + \mu_n,\sigma^2_1 + \cdots + \sigma^2_n)\]
Si \(X_i \stackrel{\atop d}{=} \gamma(\alpha_i,\beta)\) para cada \(i=1,\ldots, n\), entonces, \[X_1+\cdots+ X_n \stackrel{\atop d}{=} \gamma(\alpha_1+\cdots+ \alpha_n, \beta)\]
Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(0,1)\) para cada \(i=1,\ldots, n\), entonces, \[X_1^2+\cdots+ X_n^2 \stackrel{\atop d}{=} \chi^2(n)\]
Proof:
Como ejercicio. \(\blacksquare\)
Ahora, analizaremos dos conceptos importantes en la matemática estadística: las media y varianza empíricas de variables aleatorias.
Definition 6.1 (Media y varianza empírica) Sean \(X_1, \ldots, X_n\) variables aleatorias. Entonces, la variable aleatoria
\[\overline{X}_{(n)}:=\frac{1}{n}(X_1 + \cdots + X_n)\]
se llama la media aritmética o media empírica de \(X_1, \ldots, X_n\) y a
\[S^2_{(n)}:= \frac{1}{n-1} \sum\limits_{k=1}^n (X_k-\overline{X}_{(n)})^2\]
se le llama varianza empírica.
Para la media aritmética, obtenemos el siguiente teorema.
Theorem 6.1 (Media muestral) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes tales que \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu,\sigma^2)\) para cada \(i=1,\ldots, n\). Entonces, \(\overline{X}_{(n)} \stackrel{\atop d}{=} \mathcal{N}\big(\mu, \frac{\sigma^2}{n}\big)\).
Proof:
Como ejercicio. \(\blacksquare\)
Ahora, demostraremos algunos resultados básicos relacionados con la varianza empírica.
Theorem 6.2 (Varianza muestral y chi-cuadrada) Sean \(X_1, \ldots, X_n\) variables aleatorias independientes con \(E(X_k)=\mu\) y \(Var(X_k)=\sigma^2\), para cada \(k=1,\ldots, n\). Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) la varianza y media empírica de \(X_1, \ldots, X_n\), respectivamente.
Se cumple que \(E(S_{(n)}^2)=\sigma^2\).
Para \(k=2, \ldots, n\), \(Y_k\) y \(Y_k^2\) son independientes, siendo:
\[Y_k:= \big(X_k- \overline{X}_{(k-1)}\big) \sqrt{\frac{k-1}{k}}\]
\[\sum\limits_{k=2}^n Y_k^2 = \sum\limits_{k=1}^n \big(X_k- \overline{X}_{(k-1)}\big)^2 = (n-1)S_{(n)}^2\]
\[\frac{n-1}{\sigma^2} S_{(n)}^2 \stackrel{\atop d}{=} \chi^2(n-1)\]
Proof:
Parte (a):
Se debe demostrar, primero, que \[E(S^2_{(n)}) \;= \; \frac{1}{n-1} \left[\sum\limits_{k=1}^n E(X_k^2) - n\, E\left(\overline{X}_{(n)}\right)^2\right]\]
Parte (b):
Por inducción sobre \(n\). El caso \(n=2\) es claro. Ahora, supongamos que el teorema se cumple para \(s=n-1\) y demostraremos para \(s=n\). \[\begin{eqnarray*} \sum\limits_{k=1}^n Y_k^2 &=& \sum\limits_{k=1}^{n-1} X_k^2 - (n-1)\overline{X}_{(n-1)}^2 + ({X}_{n} - \overline{X}_{(n-1)})\frac{n-1}{n} \\ &=& \sum\limits_{k=1}^n X_k^2 - \frac{1}{n} X_n^2 + \frac{1-n}{n(n-1)} \left(\sum\limits_{k=1}^{n-1} X_k\right)^2 -\frac{2}{n} X_n \sum\limits_{k=1}^{n-1} X_k\\ &=& \sum\limits_{k=1}^n X_k^2 - \frac{1}{n} \left(X_n + \sum\limits_{k=1}^{n-1} X_k\right)^2\\ &=& \sum\limits_{k=1}^n X_k^2 - n \overline{X}_{(n)}^2 \\ &=& (n-1) S_{(n)}^2 \end{eqnarray*}\]
Parte (c):
Primero demuestre que
\[X_k - \overline{X}_{(k-1)}\stackrel{\atop d}{=} \mathcal{N}\left(0, \sigma^2\left(\frac{k}{k-1}\right)\right)\]
Si \(Y_k\) es como en (b), entonces, \(Y_k \stackrel{\atop d}{=} \mathcal{N}(0, \sigma^2)\). Por esta razón, \[Y_k^2 \stackrel{\atop d}{=} \gamma\left(\frac{1}{2}, \frac{1}{2\sigma^2}\right)\]
y esto implica que
\[\frac{n-1}{\sigma^2} S_{(n)}^2 \stackrel{\atop d}{=} \gamma\left(\frac{n-1}{2}, \frac{1}{2}\right)\]
Con esto queda demostrado lo solicitado. \(\blacksquare\)
Ahora, definiremos otras variables que obedecen la distribución \(t\) de Student \(\mathcal{T}(n)\) con \(n\) grados de libertad.
Theorem 6.3 (Distribución t de Student) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1, \ldots, Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) y de \(Y_1, \ldots, Y_m\), respectivamente. Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{T}(n)\) representa la distribución \(t\) de Student con \(n\) grados de libertad, entonces:
Si \(X \stackrel{\atop d}{=} \mathcal{N}(0,1)\) y \(Y\stackrel{\atop d}{=} \chi^2(n)\), entonces, \[t:= \frac{X}{\sqrt{Y/n}} \stackrel{\atop d}{=} \mathcal{T}(n)\]
Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu, \sigma^2)\) para cada \(i=1,\ldots, n\), entonces, se cumple que \[t:=\frac{\overline{X}_{(n)}- \mu}{S_{(n)} /\sqrt{n}} \stackrel{\atop d}{=} \mathcal{T}(n-1)\]
Sea \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2)\) para cada \(j=1,\ldots, m\). Si \(S_{(n,m)}^2\) es la llamada varianza muestral combinada, entonces,
\[t:= \frac{\left(\overline{X}_{(n)} - \overline{Y}_{(m)}\right)\, - \, (\mu_1-\mu_2)}{\sqrt{\frac{S_{(n,m)}^2}{n} \,+\, \frac{S_{(n,m)}^2}{m}}} \stackrel{\atop d}{=} \mathcal{T}(m+n-2), \qquad \mbox{con}\qquad S_{(n,m)}^2:= \frac{(n-1)S_{(n)}^2 + (m-1)S_{(m)}^2}{m+n-2}\]
Proof:
Sólo demostraremos (a). Recuerde que la densidad \(t\) de Student con \(n\) grados de libertad es \[\mathcal{T}(n) \; \sim \; \frac{ \Gamma\left(\frac{n+1}{2}\right)}{\sqrt{n\pi} \,\Gamma\left(\frac{n}{2}\right)}\left(1+ \frac{t^2}{n}\right)^{-(n+1)/2}\]
Se tiene que \(\frac{Y}{n} \stackrel{\atop d}{=} \gamma\left(\frac{n}{2}, \frac{n}{2}\right)\). Debido a que \(f_{\sqrt{X}}(x) = 2\,|x|\, f_X(x^2)\), tenemos que
\[\sqrt{\frac{Y}{n}} \;\sim \; \frac{\left(\frac{n}{2}\right)^{n/2} }{\Gamma\left(\frac{n}{2}\right)}\cdot (x^2)^{(n/2)-1}\cdot 2x\cdot e^{-nx^2/2}, \quad x>0\]
Teniendo en cuenta lo anterior, aplicando la segunda igualdad del teorema de convolución para la división, haciendo la sustitución \(u=\frac{1}{2}\, x^2\, \left(t^2 + n\right)\) y sabiendo que \(\Gamma\left(x\right) = \int\limits_{0}^\infty u^{x-1} e^{-u}\, du\) para \(x>0\), tenemos \[\begin{eqnarray*} \frac{X}{\sqrt{Y/n}} & \sim & \frac{2\cdot \left(\frac{n}{2}\right)^{n/2}}{\sqrt{2\pi} \, \Gamma\left(\frac{n}{2}\right)} \int\limits_{0}^\infty x \, (x^2)^{(n-1)/2} \, \exp\left\{-\frac{1}{2}\, x^2\, (t^2 + n)\right\}\, dx\\ &=& \frac{2\cdot \left(\frac{n}{2}\right)^{n/2}}{\sqrt{2\pi} \, \Gamma\left(\frac{n}{2}\right)} \int\limits_{0}^\infty \frac{2^{(n-1)/2} \, u^{(n-1)/2}}{\left(t^2 + n\right)^{(n-1)/2}} \, e^{-u}\, \frac{du}{t^2 + n}\\ &=& \frac{2^{-1/2} \cdot 2 \cdot\left(\frac{n}{2}\right)^{n/2}\cdot 2^{(n-1)/2} }{\sqrt{\pi}\, \Gamma\left(\frac{n}{2}\right) \, \left(t^2 + n\right)^{(n+1)/2}} \int\limits_{0}^\infty u^{-1 + (n+1)/2}\, e^{-u}\, du\\ &\sim & \mathcal{T}(n) \end{eqnarray*}\]
La Proof de (b) y (c) se dejan como ejercicio. \(\blacksquare\)
A continuación, vemos algunas distribuciones \(t\) de Student.
Ahora, presentaremos algunos resultados con respecto a la distribución \(F\) de Fisher \(\mathcal{F}(m,n)\) con \(m\) y \(n\) grados de libertad.
Theorem 6.4 (Distribución F de Fisher) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1\), \(\ldots\), \(Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) resp. \(Y_1, \ldots, Y_m\). Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{F}(m,n)\) representa la la distribución \(F\) de Fisher con \(m\) y \(n\) grados de libertad, entonces:
\[F:= \frac{X/m}{Y/n} = \frac{nX}{mY} \stackrel{\atop d}{=} \mathcal{F}(m,n)\]
\[F:= \frac{S_{(n)}^2 / \sigma_1^2}{S_{(m)}^2/\sigma^2_2} \stackrel{\atop d}{=} \mathcal{F}(n-1,m-1)\]
Proof:
Sólo demostraremos (a). Recuerde que \[\mathcal{F}(m,n)\; \sim \; \frac{\Gamma\left(\frac{m+n}{2}\right) \,m^{m/2} \, n^{n/2} \,t^{\frac{m}{2}-1}}{\Gamma\left(\frac{m}{2}\right) \,\Gamma\left(\frac{n}{2}\right)\, (n+mt)^{(m+n)/2}}, \quad t>0\]
\[\gamma(\alpha, \beta) \;\sim \; \frac{1}{\beta^\alpha\,\Gamma(\alpha)}\, t^{\alpha-1}\, e^{-t/\beta}, \quad t>0\]
Se tiene que \[nX \stackrel{\atop d}{=} \gamma\left(\frac{m}{2}, 2n\right) \qquad \mbox{y} \qquad mY \stackrel{\atop d}{=} \gamma\left(\frac{n}{2}, 2m\right)\]
Por tanto, teniendo en cuenta lo anterior, aplicando la segunda igualdad de (5.1), haciendo la sustitución \(u=\frac{x}{2}\left(\frac{t}{n} + \frac{1}{m}\right)\) y sabiendo que \(\Gamma\left(x\right) = \int\limits_{0}^\infty u^{x-1} e^{-u}\, du\), tenemos
\[\begin{eqnarray*} F &=& \frac{1}{(2n)^{m/2}\, (2m)^{n/2}\, \Gamma\left(\frac{m}{2}\right)\, \Gamma\left(\frac{n}{2}\right)} \int\limits_{0}^\infty |x|\, x^{-2 + (m+n)/2}\, t^{-1 + m/2} \, \exp\left\{-\frac{tx}{2n} - \frac{x}{2m}\right\} \, dx\\ &\sim & \mathcal{F}(m,n) \end{eqnarray*}\]
La parte (b) se deja como ejercicio. \(\blacksquare\)
A continuación, vemos algunas distribuciones \(F\) de Fisher.
Sea \(X=(X_1, \ldots, X_n)\) un vector aleatorio y sean \(g_1, \ldots, g_k\) funciones definidas sobre \(A\subseteq \mathbb{R}^n\) y de valor real. Supóngase que
\[Y_1:= g_1(X_1, \ldots, X_n),\quad \ldots,\quad Y_k:= g_k(X_1, \ldots, X_n)\]
son variables aleatorias reales. Se desea determinar la distribución conjunta de las variables aleatorias \(Y_1, \ldots, Y_k\), en términos de la distribución conjunta de las variables aleatorias \(X_1, \ldots, X_n\). Primero, supondremos que \(X_1, \ldots, X_n\) son discretas y que se conoce su distribución conjunta.
Example 7.1 (Conjunta, discreta) Sean \(X_1\) y \(X_2\) variables aleatorias discretas con distribución conjunta dada en la tabla de abajo. Halle la distribución conjunta de las variables:
\[Y_1=g_1(X_1,X_2)=X_1-X_2 \quad \mbox{y} \quad Y_2=g_2(X_1, X_2)=X_1+X_2\]
Solución:
Sean
\[g_1(x_1,x_2)=x_1-x_2\quad \mbox{y}\quad g_2(x_1, x_2)=x_1+x_2\]
Es obvio que las variables aleatorias \(Y_1\) y \(Y_2\) toman los valores \(-2, -1, 0, 1\) y \(0, 1, 2, 3, 4\), respectivamente. La distribución conjunta de \(Y_1\) y \(Y_2\) se muestra en la tabla de abajo.
Ahora presentaremos dos teoremas que nos permitirán determinar la distribución de una función de un vector aleatorio para el caso en que las variables \(X_1, \ldots, X_n\) sean continuas. Antes, la siguiente definición.
Definition 7.1 (Jacobiano) Sea \(h: R^n \to R^m\) una función definida por
\[h(x_1, \ldots, x_n) = \big(h_1(x_1, \ldots, x_n), \ldots, h_m(x_1, \ldots, x_n)\big)\]
Las derivadas parciales de estas funciones \(h_i\) (si existen) pueden ser organizadas en una matriz de \(m\) por \(n\), llamada la matriz Jacobiana de \(h\):
\[\frac{\partial h}{\partial x} := \frac{\partial(h_1, \ldots, h_m)}{\partial(x_1, \ldots, x_n)}:= \left(\begin{array}{ccc} \frac{\partial h_1}{\partial x_1} & \ldots & \frac{\partial h_1}{\partial x_n} \\ \vdots & & \vdots \\ \frac{\partial h_m}{\partial x_1} & \ldots & \frac{\partial h_m}{\partial x_n} \end{array}\right)\]
siendo \(x:=(x_1, \ldots, x_n)\). Si \(m=n\), entonces la matriz Jacobiana será cuadrada. Su determinante lo llamaremos determinante Jacobiano o, simplemente, Jacobiano y lo simbolizaremos por \(J_h(x)\).
Example 7.2 (Jacobiano) El Jacobiano de la función \(h: R^3 \to R^3\) definida por
\[h(x_1, x_2, x_3) \;= \; (0.25x_1,\; x_2-x_3, \;x_3^3)\]
es \[J_h (x)\;= \; \det\left(\begin{array}{ccc} 0.25 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 0 & 3\,x_3^2 \end{array}\right) \;= \; 0.75\,x_3^2\]
Esto indica que no necesariamente el jacobiano es un número. Restringido al plano \(x_1=0\), su gráfica se puede visualizar abajo. \(\blacktriangleleft\)
Theorem 7.1 (Transformación multivariada) Sea \(X=(X_1, \ldots, X_n)\) un vector aleatorio con densidad conjunta \(f_X\). Sea \(g:\mathbb{R}^n \longrightarrow \mathbb{R}^n\) una aplicación inyectiva. Supóngase que tanto \(g\) como su inversa \(h: A\subseteq\mathbb{R}^n \longrightarrow \mathbb{R}^n\) son continuas. Si las derivadas parciales de \(h\) existen y son continuas y si su jacobiano \(J_h(y)\) es diferente de cero, entonces, el vector aleatorio \(Y=g(X)\) tiene función de densidad conjunta \(f_Y\) dada por:
\[f_Y(y) = \begin{cases} |J_h(y)| \cdot f_X(h(y)), & \text{si $y$ está en el rango de $g$}, \\ 0, & \text{de otro modo}. \end{cases} \]
Proof:
Se deja al lector. \(\blacksquare\)
Example 7.3 (Conjunta, continua) Sea \(X=(X_1,X_2)\) un vector aleatorio con función de densidad de probabilidad conjunta dada por:
\[f_X(x_1,x_2) = \begin{cases} 1 & \text{si $0<x_1, x_2 < 1$}, \\ 0, & \text{de otro modo}. \end{cases} \]
Hallar la función de densidad de probabilidad conjunta de \(Y=(Y_1,Y_2)\), donde \(Y_1=X_1+X_2\) y \(Y_2=X_1-X_2\).
Solución:
Se deja al lector. \(\blacktriangleleft\)
Realizar los ejercicios que se indican abajo.
Sea \(\Omega=\{1,2,3\}\). Verifique si los siguientes conjuntos forman una \(\sigma\)-álgebra de \(\Omega\):
\[\mathbb{F}_1=\{\emptyset, \{1\}, \{2,3\}, \Omega\}, \qquad \mathbb{F}_2=\{\emptyset, \{1\}, \{2\}, \{3\}, \Omega\}\]
Sea \(\Omega \ne \emptyset\) y \(\mathbb{F}\) una \(\sigma\)-álgebra en \(\Omega\). Para \(A\), \(B\), \((A_n)_{n\in\mathbb{N}}\), \((B_n)_{n\in\mathbb{N}}\in\mathbb{F}\) demuestre las siguientes propiedades que satisface una medida de probabilidad:
\(P(\emptyset)=0\).
Aditividad: Si los eventos \(A_i\), para \(i=1, \ldots, n\), son disyuntos dos a dos, entonces, \(P\left(\bigcup\limits_{i=1}^n A_i \right) = \sum\limits_{i=1}^n P(A_i)\).
\(P(\overline {A})= 1- P(A)\).
Monotonía: Si \(A\subseteq B\), entonces, \(P(A)\leq P(B)\). En especial, \(P(A)\leq 1\).
Teorema de adición para 2 eventos o fórmula de Silvester: \[P(A\cup B)= P(A) + P(B) - P(A\cap B)\]
Se lanzan dos dados perfectos y se define la variable aleatoria \(X\) de la siguiente manera: \[X=\left\{ \begin{array}{ll} 2.000, & \hbox{si resultan ``6" en ambos;} \\ 100, & \hbox{si resulta ``6" sólo en uno;} \\ 0, & \hbox{si no resulta ``6" en ninguno.} \end{array} \right.\]
Calcule las tres probabilidades que determinan la distribución de \(X\).
Calcule la esperanza de \(X\).
Supóngase que este experimento representa un juego, en el cual los valores de \(X\) significan la ganancia (en pesos) del jugador y donde el jugador tiene que pagar 100 (pesos) antes. Interprete el valor de \(E(X)\).
Responda las siguientes preguntas. Explique.
Si \(A\), \(B\) y \(C\) son mutuamente excluyentes, ¿es posible que \(P(A)=0,3\), \(P(B)=0,4\) y \(P(C)=0,5\)?
Si \(P(A/B)=1\), ¿se cumple \(A=B\)?
Si \(A\) y \(B\) son eventos mutuamente excluyentes, ¿es posible construir un diagrama de Venn que contenga a los tres eventos \(A\), \(B\) y \(C\), tales que \(P(A/C)=1\) y \(P(B/C)=0\)?
Sea \(X\) una variable aleatoria que tiene distribución exponencial con parámetro \(\lambda >0\).
Demuestre que su función de densidad \(f\) es realmente una densidad.
Encuentre una fórmula (y demuéstrela) para los valores \(F(t)\) de la función de distribución acumulada \(F\) y para \(P(X\geq t)\).
Con base en el inciso anterior, halle \(F(-3)\) y \(P(X\geq -3)\).
Demuestre que \(P(X\geq x+z \, /\, X\geq x) = P(X\geq z)\), para todo \(x, z >0\).
Demuestre las siguientes afirmaciones:
Para cualquier evento \(A\) y \(B\) con \(P(B)>0\) se cumple que \(P(A/B) + P(\overline{A}/B) = 1\).
Si \(P(B/A) > P(B)\), entonces \(P(\overline{B}/A) <P(\overline{B})\). Sugerencia: Sume \(P(\overline{B}/A)\) ambos lados de la desigualdad y use el resultado de la parte (a).
Para cualquiera de los tres eventos \(A\), \(B\) y \(C\) con \(P(C)>0\) se cumple que \[P(A\cup B /C) = P(A/C) + P(B/C) - P(A\cap B/C)\]
La función de densidad conjunta de dos variables aleatorias continuas \(X\) y \(Y\) está dada por \[f(x,y)\;= \; \left\{ \begin{array}{ll} 2\,e^{-x}\,e^{-2y}, & \hbox{si $x>0$, $\;$ $y>0$;} \\ 0, & \hbox{de otra manera.} \\ \end{array} \right. \]
Calcule \(P(X>1,Y<1)\).
Halle \(P(X<Y)\).
Halle la función de distribución acumulada marginal \(F_X\) de \(X\).
Sean \(X, Y\) variables aleatorias con densidad conjunta \(f\), dada por \[f(x,y)=\left\{ \begin{array}{ll} 4, & \hbox{$0\leq x\leq 1,\; 0\leq y \leq 1, \; 2y\leq x$} \\ 0, & \hbox{en otros casos.} \end{array} \right. \]
Calcule la densidad marginal \(f_X\) de \(X\) y la \(f_Y\) de \(Y\).
Determine si \(X\) y \(Y\) son independientes.
Calcule \(P\left(X\geq \frac{1}{2}\right)\).
Halle \(E(3X)\).
Considere un círculo de radio \(R\) y suponga que un punto dentro del círculo es escogido aleatoriamente de tal manera que todas las regiones dentro del círculo de igual área contienen con la misma probabilidad al punto (en otras palabras, el punto está uniformemente distribuido dentro del círculo). Si el centro es el origen, si \(X\) y \(Y\) denotan las coordenadas del punto escogido y ya que \((X,Y)\) es igualmente probable estar cerca a cada punto en el círculo, entonces la función de densidad conjunta de \(X\) y \(Y\) está dada por \[ f(x,y) \;= \; \begin{cases} k & \text{si $x^2+y^2\leq R^2$}, \\ 0 & \text{de otro modo}, \end{cases} \] para algún valor de \(k\).
Determine \(k\) y haga un bosquejo de la gráfica de \(f\).
Encuentre la función de densidad marginal de \(X\).
Construya las función de densidad marginal de \(Y\).
Encuentre la probabilidad de que \(D\), la distancia desde el origen al punto seleccionado, es menor o igual que \(t\).
Propiedades de la covarianza. Sean \((\Omega, \mathbb{F}, P)\) un espacio de probabilidad y \(X, Y\) variables aleatorias reales sobre \((\Omega, \mathbb{F}, P)\) con varianza finita. Entonces,
\(Cov (X, X) = Var(X)\).
\(Cov(X,Y)=Cov(Y,X)\).
\(Cov(aX+b, \, Y)=a\, Cov(X,Y)\) para todo \(a,b\in\mathbb{R}\).
\(\big[Cov(X,Y)\big]^2 \leq Var(X)\, Var(Y)\).
\(Cov (X, Y) = E(XY) - E(X) E(Y)\), es decir, \(X\) y \(Y\) son incorreladas si y sólo si \(Cov (X, Y) = 0\).
Si \(X\) y \(Y\) son independientes, entonces, \(Cov(X,Y)=0\).
\[Var \Big(\sum \limits_{i=1}^n X_i\Big) \; = \; \sum \limits_{i,j=1}^n Cov(X_i, X_j) \; = \; \sum \limits_{i=1}^n Var(X_i) \; + \; 2\sum \limits_{i,j=1 \atop i<j}^n Cov(X_i, X_j).\]
Calcule \(P(X+Y \leq 1)\).
Calcule la densidad marginal \(f_X\) de \(X\) y la \(f_Y\) de \(Y\).
Determine si \(X\) y \(Y\) son independientes.
Halle la covarianza \(Cov(X,Y)\).
Sea \(X\) una variable aleatoria discreta tal que \[P(X=0) \;= \; P(X=1) \;= \; P(X=-1) \;= \; \frac{1}{3}\]
y defina \[ Y\;= \; \begin{cases} 0, & \text{si $X\ne 0$}, \\ 1, & \text{si $X=0$}. \end{cases}\]
Muestre que \(Cov(X,Y)=0\), pero que \(X\) y \(Y\) no son independientes.
Halle la función de probabilidad conjunta de las variables aleatorias \(U_1=X+Y\) y \(U_2=X-Y\).
Sea \(\mathcal{G}(p)\) la distribución geométrica con el parámetro \(p\), con \(0\leq p\leq 1\). Supongamos que \(X_1, X_2, \ldots\) es una sucesión de variables aleatorias, independientes y distribuidas según \(\mathcal{G}(p)\). Es decir, \(P(X_i=x)=p\, q^x\) para \(x=0, 1,2, \ldots\), siendo \(q=1-p\). Para cada \(n\), defínase \[S_n=X_1+\cdots + X_n\]
Calcule \(P(S_2=k)\) y con ello demuestre que \(S_2\) tiene distribución binomial negativa con los parámetros \(2\) y \(p\).
Calcule \(P(S_3=k)\) y con ello demuestre que \(S_3\) tiene distribución binomial negativa con los parámetros \(3\) y \(p\).
Demuestre por inducción sobre \(n\) que \(P(S_n=k)={k+n-1 \choose n-1} p^n \, q^k\) y con ello demuestre que \(S_n\) tiene distribución binomial negativa con los parámetros \(n\) y \(p\).
\[X+Y \stackrel{\atop {d}}{=} \mathcal{N}(\mu_1 +\mu_2, \; \sigma_1^2 + \sigma_2^2+2\varrho\sigma_1\sigma_2)\]
\[F(t)=1-\frac{1}{x^2}, \quad \mbox{para} \quad 1\leq t< \infty,\]
Calcule la densidad, esperanza (si existe) y la varianza (si existe) de \(X\).
Supongamos que se hacen \(n\) observaciones independientes de \(X\), lo que conduce a \(X_1, \ldots, X_n\) y que es de interés la variable \(Y:=\min\limits_i X_i\). Calcule la función de distribución acumulada \(F_Y\), la densidad \(f_Y\) y la esperanza (si existe) de \(Y\).
Determine si \(X_1\) y \(X_2\) son independientes.
Encuentre la función de distribución conjunta de las variables aleatorias \(Y_1=X_1+X_2\) y \(Y_2=X_1 X_2\).
\(P(X^2+Y^2\leq 1)\).
\(P(Y\leq X^2)\).
La función de densidad marginal conjunta de \(X_2\) y \(X_3\).
\(P(X_2+X_3<4)\).
\[f(x_1,x_2,x_3) \;= \; \begin{cases} x_1^2\, e^{-x_1(1+x_2+x_3)}, & \text{si $x_1>0$, $x_2>0$ y $x_3>0$}, \\ 0, & \text{en otro caso}, \end{cases} \]
\[f(x_1,x_2,\ldots,x_5) \;= \; \left\{% \begin{array}{ll} x_1x_2\cdots x_5\, e^{-(x_1^2 + x_2^2+\cdots + x_5^2)/2}, & \text{si $x_1, x_2,\ldots, x_5 \geq 0$;} \\ 0, & \hbox{de otro modo.} \\ \end{array}% \right. \]
La función de probabilidad conjunta de dos variables aleatorias discretas \(X\) y \(Y\) está dada por
\[f(x,y) \;= \; \left\{% \begin{array}{ll} cxy, & \text{si $x,y\in \{1,2,3,4\}$;} \\ 0, & \text{de otro modo} \\ \end{array}% \right.\]
Halle la constante \(c\).
Encuentre las funciones de probabilidad marginal de \(X\) y de \(Y\).
Determine si \(X\) y \(Y\) son independientes.
Construya las funciones de distribución acumulada marginal de \(X\) y de \(Y\).
Encuentre la función de distribución conjunta de las variables \(U=X+Y\) y \(V=X-Y\).
Sean \(X\) y \(Y\) variables aleatorias continuas que tienen función de densidad conjunta
\[f(x,y) \;= \; \left\{% \begin{array}{ll} c(x^2+y^2), & \text{si $x,y\in [0,1]$;} \\ 0, & \text{de otro modo} \\ \end{array}% \right.\]
Halle la constante \(c\).
Halle las funciones de probabilidad marginal de \(X\) y de \(Y\).
Calcule \(P(Y < 1/2)\).
Determine si \(X\) y \(Y\) son independientes.
Halle las funciones de distribución acumulada marginal de \(X\) y de \(Y\).
Sean \(U=\frac{X}{Y}\) y \(V=X+Y\), en donde \(X\) y \(Y\) son variables aleatorias independientes con función de densidad conjunta como se indica abajo. Halle:
La función de densidad de \(U\).
La función de densidad de \(V\).
La función de densidad conjunta de \(U\) y \(V\).
\[f(x,y) \;= \; \left\{% \begin{array}{ll} e^{-(x+y)}, & \text{si $x\geq 0, \; y\geq 0$;} \\ 0, & \text{de otro modo} \\ \end{array}% \right.\]
Una urna contiene tres fichas blancas y dos azules. Sea selecciona una muestra aleatoria de tama~no 2 (con reemplazo). Sean
\[\begin{eqnarray*} X&= & \left\{% \begin{array}{ll} 1, & \text{si la primera ficha seleccionada es blanca.} \\ 0, & \text{si la primera ficha seleccionada es azul.} \\ \end{array}\right.\\ &&\\ Y &= & \left\{% \begin{array}{ll} 1, & \text{si la segunda ficha seleccionada es blanca.} \\ 0, & \text{si la segunda ficha seleccionada es azul.} \\ \end{array}\right. \end{eqnarray*}\]
Halle la distribución de probabilidad conjunta de las variables \(X\) y \(Y\).
LLinás, H., Rojas, C. (2005). Estadística descriptiva y distribuciones de probabilidad. Barranquilla: Editorial Universidad del Norte.
Llinás, H. (2006). Estadística Inferencial. Barranquilla: Editorial Universidad del Norte.
Llinás, H. (2014). Introducción a la teoría de probabibilidad. Barranquilla: Editorial Universidad del Norte.
Llinás, H. (2014). Introducción a la estadística matemática. Barranquilla: Editorial Universidad del Norte.
Mayorga, H. (2003). Inferencia Estadística, Facultad de ciencias. Universidad Nacional de Colombia.
Consultar mis : Notas de clase.
Consultar el documento RPubs :: Enlace y materiales de ayuda.
If you found any ERRORS or have SUGGESTIONS, please report them to my email. Thanks.