.
.

Distribuciones muestrales y estadísticos de orden

  1. Sea \(\overline{X_n}\) la media muestral de una muestra aleatoria de tamaño n tomada de una población con función de densidad \[f(x)=e^{-x}\ con\ 0<x<\infty\]

sea \[\overline{Y_n}=\sqrt{n}(\overline{X_n}-1)\] a) Probar que la función generadora de momentos de \(\overline{Y_n}\) es igual a \[(e^{t/\sqrt{n}}- te^{t/\sqrt{n}}/\sqrt{n})^{-n}\] Demostración: Tenemos que \[E[e^{\overline{Y_n}t}]=E[e^{\sqrt{n}(\overline{X_n}-1)}]=E[e^{(\sum_{1}^{n}x_i -1)(t/\sqrt{n})}]=E[e^{(\sum_{1}^{n}x_i(t/\sqrt{n})}]^nE[e^{-n(t/\sqrt{n})}]=(e^{-n(t/\sqrt{n})})^{-n}(\frac{1}{1-\frac{t}{\sqrt{n}}})^n\] Asi, tenemos que: \[(e^{t/\sqrt{n}})^{-n}(\frac{1}{1-\frac{t}{\sqrt{n}}})^n=(e^{t/\sqrt{n}})^{-n}(1-\frac{t}{\sqrt{n}})^{-n}=\] \[(e^{t/\sqrt{n}}-\frac{t}{\sqrt{n}}e^{\frac{t}{\sqrt{n}}})^{-n}\ con\ t<\sqrt{n}\] b) Encontrar la distribución límite de \(\overline{Y_n}\); cuando \(n\rightarrow\infty\): Solución: Tenemos que

\[ln((e^{t/\sqrt{n}}-\frac{t}{\sqrt{n}}e^{\frac{t}{\sqrt{n}}})^{-n})= -nln(e^{t/\sqrt{n}}-\frac{t}{\sqrt{n}}e^{\frac{t}{\sqrt{n}}})= -nln(e^{t/\sqrt{n}}(1-\frac{t}{\sqrt{n}}))=\] \[-nln(e^{t/\sqrt{n}})-nln(1-\frac{t}{\sqrt{n}})=\frac{-nt}{\sqrt{n}} - n[(\frac{-t}{\sqrt{n}})-(\frac{-t}{\sqrt{n}})^2+ (\frac{-t}{\sqrt{n}})^3-(\frac{-t}{\sqrt{n}})^4+....]=\] \[t^2+\frac{t^3}{\sqrt{n}}-\frac{t^4}{n^2}+....\] Así, tenemos que \[\lim_{n\to\infty}t^2+\frac{t^3}{\sqrt{n}}-\frac{t^4}{n^2}+....= t^2 \] Así, tenemos que \[\lim_{n\to\infty}ln((e^{t/\sqrt{n}}-\frac{t}{\sqrt{n}}e^{\frac{t}{\sqrt{n}}})^{-n})=t^2 \Leftrightarrow\ \lim_{n\to\infty}(e^{t/\sqrt{n}}-\frac{t}{\sqrt{n}}e^{\frac{t}{\sqrt{n}}})^{-n}=e^{t^2}\] Así, podemos concluir que \(\overline{Y_n}\) tiende a una distribución normal con \(\mu=0\) y \(\sigma^2=2\).

  1. Sea una muestra aleatoria \(X_1,X_2,....,X_n\) de una función de densidad \[f(x)=3x^2\ , 0<x<1\]
  1. Obtenga la \(fgm\) de \(\overline{X}\)
  2. Calcule la probabilidad de que $<X< $ de manera exacta y aproximada usando el \(TLC\).

Solución: Tenemos que \[E[e^{tX}]=\int_{0}^{1}e^{tx}3x^2dx= \frac{3x^2}{t}e^{tx}-\frac{6}{t}\int_{0}^{1}xe^{tx}dx= \left[ \frac{3x^2}{t}e^{tx} -\frac{6}{t^2}xe^{tx}+\frac{6}{t^3}e^{tx} \right]_{0}^{1}= \frac{3}{t}e^t-\frac{6}{t^2}e^t + \frac{6}{t^3}e^t -\frac{6}{t^3}\] \[(usando\ integración\ por\ partes)\] Así: \[M_x(t)=\frac{3}{t}e^t-\frac{6}{t^2}e^t + \frac{6}{t^3}e^t -\frac{6}{t^3}\]

Luego, tenemos que: \[E[e^{\overline{X_n}t}]=E[e^{\frac{1}{n}\sum_{1}^{n}x_it}]=E[e^{\sum_{1}^{n}x_i(\frac{t}{n})}]=E[\Pi_{1}^{n} e^{x_i(\frac{t}{n})}]=\Pi_{1}^{n} E[e^{x_i(\frac{t}{n})}]=(E[e^{x_i(\frac{t}{n})}])^n=(M_{x_i}(t))^n\] Donde \[(M_{x_i}(t))^n=(\frac{3ne^t}{t}-\frac{6n^2e^t}{t^2}+\frac{6n^3e^t}{t^3}-\frac{6}{t^3})^n\].

  1. Ahora calculemos la esperanza y varianza de \(\overline{X}\). Tenemos que la esperanza de \(\overline{X}\) es \(\mu\), donde \[\mu=\int_{0}^{1}xf(x)dx=\int_{0}^{1}3x^3dx=\left[ \frac{3x^4}{4} \right]_{0}^{1}=\frac{3}{4}\] Luego, tenemos que \(Var(\overline{X})=\frac{\sigma^2}{n}\). Para ello, primero calculemos \(\sigma^2\), esto es \[E[{x_i}^{2}]-\mu^2\] donde \[E[{x_i}^{2}]=\int_{0}^{1}x^2f(x)dx=\int_{0}^{1}3x^4dx=\left[ \frac{3x^5}{5} \right]_{0}^{1}=\frac{3}{5}\] Así, \[\sigma^2=\frac{3}{5}-\frac{9}{16}=\frac{3}{80}=0.0375\]

Así, para \(n=15\) tenemos que \[Var(\overline{X})=0.0375/15= 0.0025\]

Ahora, tenemos que la función de probabilidad acumulada es: \[\int_{-\infty}^{x}f(t)dt=\int_{0}^{x}3t^2dt= \left[ t^3 \right]_{0}^{x}=x{3}\ , para\ 0<x<1\]

Así, \[P(\frac{3}{5}<X<\frac{4}{5})=\Phi(\frac{4}{5})-\Phi(\frac{3}{5})=\frac{37}{125}=0.296\] Ahora, usando el \(TLC\), tenemos que \[P(\frac{3}{5}<X<\frac{4}{5})\approx \Phi_N(\frac{\frac{4}{5}-\mu}{\frac{\sigma}{\sqrt{n}}})-\Phi_N(\frac{\frac{3}{5}-\mu}{\frac{\sigma}{\sqrt{n}}})=\Phi_n(3.87)-\Phi_n(-0.387)=0.999946 -0.351973=0.64\]

4.Sea \(X_1,X_2,....,X_n\) una muestra aleatoria de una población con distribución uniforme \((0, \theta)\) \(\theta> 0\) :

  1. Obtenga la función generadora de momentos de la suma \(X_1,X_2,....,X_n\)

  2. Obtenga la media y la varianza de \(\overline{X}\): c)¿Cuál es la distribución asintótica de \(\overline{X}\)?

  3. Tenemos que \[M_{x_i}(t)=\frac{e^{\theta t}-1}{\theta t}\] Ahora, consideremos \[E[e^{\overline{X}t}]=E[e^{\sum_{1}^{n}x_it}]=E[\Pi_{1}^{n}e^{x_it}]=\Pi_{1}^{n}E[e^{x_it}]=(E[e^{x_it}])^n=(M_{x_i}(t))^n=(\frac{e^{\theta t}-1}{\theta t})^n\] b)Ahora, tenemos que \[E[\overline{X}]=E[\frac{1}{n}\sum_{1}^{n}x_i]=\frac{1}{n}E[\sum_{1}^{n}x_i]=\frac{1}{n}nE[x_i]=\frac{1}{n}n\mu=\mu\]

y \[Var(\overline{X})=Var('\overline{X}\frac{1}{n}\sum_{1}^{n}x_i)=\frac{1}{n^2}Var(\sum_{1}^{n}x_i)=\frac{1}{n^2}nVar(x_i)=\frac{1}{n}\frac{\theta^2}{12}\]

c)Ahora, por el \(TLC\) tenemos que la variable \(\sum_{1}^{n}x_i\) converge asintóticamente a una una variable de distribución normal con media \(n\mu\)y varianza \(n\sigma^2\).

  1. El tiempo que se requiere para dar mantenimiento a un equipo de cómputo tiene una distribución normal. Supongamos que el tiempo que se necesita para dar servicio tiene una media de 1.4 horas. Se elige una muestra aleatoria de 50 equipos y se tiene que la desviación estándar para esta muestra es de 0.7 horas.
  1. Calcula la probabilidad de que el tiempo promedio sea a lo más de 1.52 horas.

Tenemos que por \(TLC\) \[P(\overline{X}\leq1.52)=P(\frac{\overline{X}-\mu}{\frac{\sigma}{\sqrt{n}}}\leq \frac{1.52-1.4}{\frac{0.7}{\sqrt{50}}})= P(\frac{\overline{X}-\mu}{\frac{\sigma}{\sqrt{n}}}\leq 1.21)=\Phi_N(1.21)=0.88686\]

  1. ¿Cuál es la probabilidad de que el tiempo total que se requiere para dar mantenimiento a los 50 equipos sea menor a 3 días?

Tenemos que: \[P(\sum_{1}^{n}x_i\leq 72)=\Phi_N(\frac{72-50(1.4)}{\sqrt{50}(0.7)})=\Phi_N(0.4040)=0.655422\] 6.Se fabrica tuberÌa PVC con un diámetro promedio de 1.01in y desviación estándar de 0.003in. Encuentre la probabilidad aproximada de que en una muestra aleatoria de n = 120 secciones de tuberÌa, el diámetro promedio de la muestra sea mayor que 1.009in y menor que 1.012in.

Solución:
Tenemos que \[P(1.009\leq\overline{X}\leq1.012)=P(\frac{1.009-1.01}{\frac{0.003}{\sqrt{120}}}\leq\frac{\overline{X}-\mu}{\frac{\sigma}{\sqrt{n}}}\leq \frac{1.012-1.01}{\frac{0.003}{\sqrt{120}}})=P(-3.65\leq\frac{\overline{X}-\mu}{\frac{\sigma}{\sqrt{n}}}\leq 7.3)=\Phi_N(7.3)-\Phi_N(-3.65)=1-0.000193=0.999807\]

  1. Sean \(X_1,x_2\) dos v.a. independientes con distribuciones \(\chi^2_{(r_1)}\) y \(\chi^2_{(r_2)}\) respectivamente. Sean las v.a. \(Y_1=X_1+X_2\) y \(Y_2=\frac{X_1}{X_2}\) probar que a)\(Y_1\sim \chi^2_{(r_1+r_2)}\)
  1. \(Y_2\) tiene la misma distribución que la variable \(\frac{r_1}{r_2}Z\), donde \(Z\sim F_{(r_1,r_2)}\) solución:

  2. Tenemos que \[M_{X_1}(t)=\frac{1}{(1-2t)^{\frac{r_1}{2}}}\ y\ M_{X_2}(t)=\frac{1}{(1-2t)^{\frac{r_2}{2}}},\ para\ t<\frac{1}{2}\] Son las respectivas funciones generadoras de momentos de \(X_1\) y \(X_2\). Ahora, consideremos \[Y_1=X_1+X_2\], veamos su \(fgm\), esto es:

\[E[e^{Y_1t}]=E[e^{(X_11+X_2)t}]=E[e^{X_1t}e^{X_2t}]=E[e^{X_1t}]E[e^{X_2t}]=\frac{1}{(1-2t)^{\frac{r_1}{2}}}\frac{1}{(1-2t)^{\frac{r_2}{2}}}=\frac{1}{(1-2t)^{\frac{r_1+r_2}{2}}}\] Por lo tanto, \(Y_1\sim \chi^2_{(r_1+r_2)}\)

  1. Sea \(X_1,X_2,X_3\) una muestra aleatoria de una distribución con función de densidad: \[ f(x) = \left\{ \begin{array}{ll} 5x^4 & \text{si } 0 < x < 1 \\ 0 & \text{en otro caso} \end{array} \right. \]

Sea \(Y_3=máx\{X_1,X_2,X_3\}\). Encontrar la función de distribución y la función de densidad de \(Y_3\) Solución: Como \(F´(x)=f(x)\ entonces \ F(x)=\int f(x)dx\), así, Definamos \[F(X)=0\ si \ x<0\] \[F(X)=1\ si \ 1<x\] Ahora, para \[0\leq x\leq 1\ tenemos \ que \ F(x)=\int_{-\infty}^{x}f(t)dt=\int_{0}^{x}f(t)dt=\int_{0}^{x}5t^4dt=\left[ t^5 \right]_{0}^{x}= x^5\] Así, tenemos la función: \[ F(x) = \left\{ \begin{array}{ll} 0 & \text{si } x < 0 \\ x^5 & \text{si } 0 \leq x \leq 1 \\ 1 & \text{si } x > 1 \end{array} \right. \]

Ahora, tenemos que \[P(Y_3\leq y)=P(máx\{X_1,X_2,X_3\}\leq y)=P(X_1\leq y,X_2\leq y,X_3\leq y)=P(X_1\leq y)P(X_2\leq y)P(X_3\leq y)=F_{X_1}(y)F_{X_2}(y)F_{X_3}(y)=(F_{X_i}(y))^3\]

Donde, para \(x<0\) \[F(x)^3=0^3=0\] para \(0<x<1\) \[F(x)^3={(x^5)}^3=x^{15}\] para \(1<x\) \[F(x)^3={1}^3=1\]
Así, tenemos que la funcion de distribución de \(Y_3\) está dada por la expresión: \[ F_{Y_3}(y) = \left\{ \begin{array}{ll} 0 & \text{si } y < 0 \\ y^{15} & \text{si } 0 \leq y \leq 1 \\ 1 & \text{si } y > 1 \end{array} \right. \]

Ahora, tenemos que \(f_{Y_3}(y)=\frac{d}{dy}F_{Y_3}(y)\), donde para para \(y<0\) \[\frac{d}{dy}F_{Y_3}(y)=\frac{d}{dy}0=0\] para \(0\leq y\leq 1\)

\[\frac{d}{dy}F_{Y_3}(y)=\frac{d}{dy}y^{15}=15y^{14}\]
Y para \(1< y\) \[\frac{d}{dy}F_{Y_3}(y)=\frac{d}{dy}1=0\] Así. definimos la funcion de distibución de \(Y_3\) como: \[ f_{Y_3}(y) = \left\{ \begin{array}{ll} 0 & \text{en otros casos } \\ 15y^{14} & \text{si } 0 \leq y \leq 1 \end{array} \right. \]

  1. Sea \(X_1,X_2,...,X_n\) una muestra aleatoria de tamaño n de una distribución con media \(\mu\) y varianza \(\sigma^2\). Mostrar que \(E[\tilde S^2]=\frac{n-1}{n}\sigma^2\) donde \(\tilde S^2=\frac{1}{n}\sum_{1}^{n}(X_i-\overline X)^2\). Solución:

Tenemos que \[n\tilde S^2=\sum_{1}^{n}(X_i-\overline X)^2=\sum_{1}^{n}({X_i}^2-2X_i\overline X + \overline X^2)=\sum_{1}^{n}X_i^2 -2\sum_{1}^{n}X_i^2\overline X +\sum_{1}^{n}\overline X^2=\sum_{1}^{n}X_i^2 -2n\overline X^2 +n\overline X^2=\] \[\sum_{1}^{n}X_i^2 -n\overline X^2\] Así: \[E[n\tilde S^2]=E[\sum_{1}^{n}X_i^2 -n\overline X^2]=E[\sum_{1}^{n}X_i^2]-E[n\overline X^2]=\sum_{1}^{n}E[X_i^2]-nE[\overline X^2]=nE[X_i^2]-nE[\overline X^2]\] Dónde:

\[nE[X_i^2]=n(\sigma^2 +\mu^2)\]
\[nE[\overline X^2]=n(\frac{\sigma^2}{n}+\mu^2)\]

Así, tenemos:

\[nE[X_i^2]-nE[\overline X^2]=n(\sigma^2 +\mu^2) -n(\frac{\sigma^2}{n}+\mu^2)= n\sigma^2 -\sigma^2=(n-1)\sigma^2\] Así:

\[E[n\tilde S^2]=(n-1)\sigma^2\] \[nE[\tilde S^2]=(n-1)\sigma^2\] \[E[\tilde S^2]=\frac{n-1}{n}\sigma^2\] 12. Sea \(X_1,X_2,..X_n\) una muestra aleatoria de tamaño n de una distribución \(U(\alpha,\beta)\) a) Encontrar la probabilidad de que todas las \(X_i´s\) sean mayores a \(\frac{\alpha+\beta}{2}\) b)Encontrar la distribución de \(Y=mín\{X_1,X_2,...,X_n\}\). Solución: a) Tenemos que la probabilidad de que todas las \(X_i´s\) sean mayores a \(\frac{\alpha+\beta}{2}\) esta dada por la expresión;

\[P(\cap_{1}^{n}X_i\geq \frac{\alpha+\beta}{2})=P(X_1\geq \frac{\alpha+\beta}{2},X_2\geq \frac{\alpha+\beta}{2},...,X_n\geq \frac{\alpha+\beta}{2})=P(X_1\geq \frac{\alpha+\beta}{2})P(X_2\geq \frac{\alpha+\beta}{2}).....P(X_n\geq \frac{\alpha+\beta}{2})=(P(X_i\geq \frac{\alpha+\beta}{2}))^n\] Pues las V.a son independientes, así tenems que:

\[P(\cap_{1}^{n}X_i\geq \frac{\alpha+\beta}{2})=(P(X_i\geq \frac{\alpha+\beta}{2}))^n\] Donde: \[P(X_i\geq \frac{\alpha+\beta}{2})=F_{X_i}(\frac{\alpha+\beta}{2})=\frac{\frac{\alpha+\beta}{2}-\alpha}{\beta -\alpha}=\frac{\alpha +\beta -2\alpha}{2(\beta-\alpha)}=\frac{\beta -\alpha}{2(\beta-\alpha)}=\frac{1}{2}\]

Así:

\[P(\cap_{1}^{n}X_i\geq \frac{\alpha+\beta}{2})=(P(X_i\geq \frac{\alpha+\beta}{2}))^n=(\frac{1}{2})^n\]

  1. Definamos la función \(Y=mín\{X_1,X_2,...,X_n\}\)

Así, tenemos que: \[P(Y\geq y)=P(mín\{X_1,X_2,...,X_n\}\geq y)=P(X_1\geq y,X_2\geq y,...,X_n\geq y)=[P(X_i\geq y)]^n=[F(x)]^n\] Dónde:

\[ F(x) = \left\{ \begin{array}{ll} 0 & \text{si } x < \alpha \\ \frac{x - \alpha}{\beta - \alpha} & \text{si } \alpha \leq x \leq \beta \\ 1 & \text{si } \beta < x \end{array} \right. \]

Así, para \(x<\alpha\)

\[[F(x)]^n=o^n=0\] para \(\alpha \leq x\leq \beta\)

\[[F(x)]^n={(\frac{x-\alpha}{\beta-\alpha})}^n\]

Y para \(\beta \leq x\)

\[[F(x)]^n=1^n=1\] Así, definimos la función de distibición de \(Y\) como:

\[ F_{Y}(y) = \left\{ \begin{array}{ll} 0 & \text{si } y < \alpha \\ \left( \frac{y - \alpha}{\beta - \alpha} \right)^n & \text{si } \alpha \leq y \leq \beta \\ 1 & \text{si } \beta < y \end{array} \right. \]

Y como \(f_{Y}(y)=\frac{d}{dy}F_{Y}(y)\), entonces tenemos que :

para \(x<\alpha\) \[\frac{d}{dy}F_{Y}(y)=\frac{d}{dy}0=0\] para \(\alpha \leq x\leq \beta\) \[\frac{d}{dy}F_{Y}(y)=\frac{d}{dy}(\frac{y-\alpha}{\beta-\alpha})^n=n(\frac{y-\alpha}{\beta-\alpha})^{n-1}(\frac{1}{\beta-\alpha})=\frac{n}{\beta-\alpha}(\frac{y-\alpha}{\beta-\alpha})^{n-1}\] Y para \(\beta \leq x\) \[\frac{d}{dy}F_{Y}(y)=\frac{d}{dy}1=0\] Así, definimos la función de densidad de \(Y\) como: \[ f_{Y}(y) = \left\{ \begin{array}{ll} 0 & \text{en otros casos } \\ \frac{n}{\beta - \alpha} \left( \frac{y - \alpha}{\beta - \alpha} \right)^{n - 1} & \text{si } \alpha \leq y \leq \beta \end{array} \right. \]

  1. Sea \(X_1,X_2,...,X_n\) una muestra aleatoria con función de distribución \(F_{X}(x)\), y supóngamos que \(E[X_i]=\mu\) .Defínanse las variables aleatorias \(Y_1,Y_2,...,Y_n\) por

\[ Y_i = \left\{ \begin{array}{ll} 1 & \text{si } X_i > \mu \\ 0 & \text{si } X_i \leq \mu \end{array} \right. \]

Encontrar la distribución de \(\sum_{1}^{n}Y_i\) Solución:

Notemos que \(Y_i\)toma valores de \(0\ y\ 1\), por lo cual tiene distribución Bernoulli, así:

si \(X_i>\mu\) \[F_{y_i}(y)=P(X_i>\mu)=1-P(X_i\leq \mu)\] si \(X_i\leq \mu\)

\[F_{y_i}(y)=P(X_i\leq \mu)\] Entonces: \[f_{Y_i}(y)=P(Y_i=y)=(1-P(X_i\leq \mu))^yP(X_i\leq \mu)^{1-y}\ con \ y=0,1\] Así, \[Y_i\sim Bin(1-P(X_i\leq \mu))\] Luego, tenemos que \(Z=\sum_{1}^{n}Y_i\) al ser suma de Bernoullis, su distribucion es binomial $ZBin(n,(1-P(X_i)) $, en donde su función de densidad esta dada por:

\[f_{z}(z)=\binom{n}{z}((1-P(X_i\leq \mu))^zP(X_i\leq \mu)^{n-z}\] \[para\ z\epsilon\{0,1,2,3,..,n\}\]