Proyecto #1

Estadistica Aplicada a la teoria de Decisiones II

Brayan Ivan Cruz Corona

13001595

Guatemala, Abril de 2018

El presente proyecto busca que el estudiante de Estadistica pueda entender claramente los conceptos sobre Distribuciones de probabilidad multivariantes, tanto teoricamente como graficamente ya que en ocasiones facilita la comprension e incluso puede generar ideas de aplicaciones en la vida real. Ademas, para mejorar las destrezas de los alumnos, se incluyen evaluaciones que se deben desarrollar por medio del lenguaje de programacion R, permitiendo practicar en esta herramienta y tambien lo aprendido concerniente al tema.

NOTA: El presente documento consta de la mezcla de HTML, Python, LaTeX y R. Por favor espere unos instantes hasta que la pagina cargue completamente. Le recomiendo utilizar el navegador Chrome.

El contenido es basado en el capitulo 5 del libro: Estadística Matemática con Aplicaciones 7ma Edición de Wackerly, Mendenhall y Scheaffer

5.1 Introduccion

En la vida real estamos enfocados en ocasiones a dos eventos, uno que ocurre primero y que determina la probabilidad de que se de el segundo evento. Por ejemplo: Un jugador de Black yack esta siempre pensando en cual sera la probabilidad de obtener un As y una figura especifica. Otro ejemplo es tambien la probabilidad que determinada pese X si tu altura es Y. Algo vital para entender esta parte de la estadistica son las intersecciones que se presentan en el desarrollo de tomar muestras. En esta parte denotamos \(Y_1, Y_2, Y_3 ... Y_n\) a los eventos sucesivos de realizar determinado experimento.

Importamos las librerias necesarias para la realizacion de este proyecto:

dyn.load('/Library/Java/JavaVirtualMachines/jdk1.8.0_161.jdk/Contents/Home/jre/lib/server/libjvm.dylib')
library(rSymPy)
## Loading required package: rJython
## Loading required package: rJava
## Loading required package: rjson
library(rJava)
library(rJython)
library(pracma)
## Warning: package 'pracma' was built under R version 3.4.3
library(MASS)

5.2 Distribuciones de probabilidad bivariantes y multivariantes

En estadistica se pueden analizar experimentos de un unico caracter, pero siempre se debe tomar en cuenta que para aplicaciones de la vida real, esto no siempre es asi; por tanto en muchos casos practicos es imporante estudiar dos o mas caracteres y la relacion que guardan entre ellos.

Definicion de funcion de probabilidad bivariante

Siendo \(Y_1\) y \(Y_2\) Variables aleatorias discretas. La funcion de probabilidad conjunta o bivariante seria:

\(p(y_1,y_2) = P(Y_1 = y_1, Y_2 = y_2)\)
\(s.a. -\infty < y_1 < \infty\)
\(-\infty < y_2 < \infty \)

Para una variable aleatoria discreta Y las probabilidades asignadas son diferentes a cero y la cantidad es finita, de tal forma que la suma de cada una de estas probabilidades sea igual a 1. En el caso de probabilidad bivariante \(p(y_1,y_2)\) los valores se asignan a un par de valores \((y_1,y_2)\) y de igual manera la suma de probabilidades individuales diferentes de 0, deben ser igual a 1.

Entonces si \((Y_1,Y_2)\) son varialbes aleatorias discretas y funcion bivariante \(p(y_1,y_2)\), tenemos que:

\(p(y_1,y_2)\) >= 0 para toda \((y_1,y_2)\)

\(\sum_{y_1,y_2} p(y_1,y_2) = 1\)

Ejemplo 1

Un supermercado local tiene tres cajas. Dos clientes llegan a las cajas en momentos diferentes cuando las cajas no atienden a otros clientes. Cada cliente escoge una caja de manera aleatoria, independientemente del otro. Denote con \(Y_1\) el número de clientes que escogen la caja 1 y con \(Y_2\) el número que selecciona la caja 2. Encuentre la función de probabilidad conjunta de \(Y_1\) y \(Y_2\).

Solucion:

Se debe considerar el espacio muestral asociado al experimento:

S = [{1,1},{1,2},{1,3},{2,1},{2,2},{2,3},{3,1},{3,2},{3,3}] El par ordenado a usar es {i,j} donde:

  • i: cliente 1 escogiendo una caja i
  • j: cliente 2 escogiendo la caja j

s.a i,j = 1,2,3 (3 cajas en el supermercado)

Se tienen 9 puntos muestrales, esto debido a que: \(m*n = 3*3\)

#Espacio Muestral
S <- c("{1,1}","{1,2}","{1,3}","{2,1}","{2,2}","{2,3}","{3,1}","{3,2}","{3,3}")
#Posibles valores de Y1 y Y2
y1_y2 <- c("(2,0)","(1,1)","(1,0)","(1,1)","(0,2)","(1,0)","(1,0)","(0,1)","(0,0)")
tamanio_S <- length(S)

Sabiendo entonces que cada espacio muestral tiene la misma probabilidad, tenemos que:

prob <- 1/tamanio_S
cat("La probabilidad es: ", prob)
## La probabilidad es:  0.1111111
Por tanto la funcion de probabilidad conjunta quedaria determinada por la siguiente tabla:

Definicion

Para cualquier variable aleatoria \(Y_1\) y \(Y_2\), la funcion de distribucion conjunta \(F(y_1,y_2)\):

\(F(y_1,y_2) = P(Y_1 <= y1, Y_2 <= y_2)\)

\(s.a. -\infty < y_1 < \infty\)
\(-\infty < y_2 < \infty \)

Ejemplo 2

Utilizando la funcion de probabilidad del Ejemplo 1, calcule F(1,0)

Solucion:

\(F(1,0) = P(Y_1 <= 1, Y_2 <= 0)\)

\(F(1,0) = p(0,0) + p(1,0) = \frac{1}{9} + \frac{2}{9} = \frac{1}{3} \)

Definicion

Siendo \(Y_1\) y \(Y_2\) variables aleatorias continuas con funcion de distribucion bivariante \(F(y_1,y_2)\). Si existe una funcion no negativa \(f(y_1,y_2)\) de modo que:

\(F(y_1,y_2) = \int_{-\infty}^{y_1}\int_{-\infty}^{y_2}f(t_1,t_2) dt_2dt_1\)

considerando que para todo \(-\infty < y_1 < \infty, -\infty < y_2 < \infty\), por tanto se sabe que: \(Y_1\) y \(Y_2\) son varialbes aleatorias continuas bivariables.

Teorema

Si \(Y_1\) y \(Y_2\) son variables aleatorias continuas conjuntas y una funcion de densidad f(y_1,y_2) :

\(f(y_1,y_2) >= 0\) \(\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}f(y_1,y_2) dy_2dy_1 = 1\)

Ejemplo 3

Tengan \(Y_1\) y \(Y_2\) una funcion de densidad de probabilidad conjunta, dada por:
  1. Encuentre el valor de k que haga de esta una funcion de densidad de probabilidad.
  2. Encuentre la funcion de distribucion conjunta para \(Y_1\) y \(Y_2\)
  3. Encuentre \(P(Y_1<=\frac{1}{2},Y_2<=\frac{3}{4}\)

Solucion:

Inciso a:

Se debe resolver lo siguiente:
\(\int_{0}^{1}\int_{0}^{1} k*y_1*y_2 dy_1 dy_2\)
#Definimos la función, por operabilidad le pongo a k un valor de 1
fun <- function(y_1,y_2, k = 1) k*y_1*y_2
#operamos la integral
RestIntegral <- integral2(fun,0,1,0,1,reltol = 1e-10)
# obtengo el valor de K, la variable Q de RestIntegral tiene el valor resultante de la integracion
val_k <- 1/RestIntegral$Q
cat("El valor de k es:", val_k)
## El valor de k es: 4

Inciso b:

Sabiendo ya el valor de k, podemos entonces escribir que la funcion de distribucion conjunta es:

\(F(y_1,y_2) = P(Y_1 <= y_1, Y_2 <= y_2) = 4 \int_{0}^{y_2} \int_{0}^{y_1} t_1*t_2 dt_1 dt_2\)

Resolviendo tenemos que:

\(P(Y_1 <= y_1, Y_2 <= y_2) = y_1^2 * y_2^2\)

\(s.a. 0 < y_1 < 1\)
\(0 < y_2 < 1 \)

Inciso c:

Trabajando en base al resultado del inciso b, la funcion de distribucion conjunta nos dara el resultado para \(P(Y_1<=\frac{1}{2},Y_2<=\frac{3}{4}\)

y_1 <- 1/2
y_2 <- 3/4

prob <- y_1^2 * y_2^2
cat("La probabilidad seria: ", prob*100,"%")
## La probabilidad seria:  14.0625 %

Ejemplo 4

Suponga que \(Y_1\) y \(Y_2\) están uniformemente distribuidas sobre el triángulo siguiente:
  1. Encuentre: \(P(Y_1<= \frac{3}{4},Y_2<=\frac{3}{4})\)

Como se puede observar, los vertices se encuentran en (-1,0), (0,1), (1,0) (Puede hacer click sobre las lineas anaranjadas y mostrara puntos grises en los extremos, coloque el cursor sobre estos puntos para verificar la localizacion de los vertices.)

#extremo izquierdo eje x
p1 <- -1
#extremo derecho eje x
p2 <- 1
#altura maxima sobre eje y
p3 <- 1

#Utilizando la ecuacion para obtener el area de un triangulo: 1/2 Base*Altura

AreaT<- 0.5 * (p2-p1)*1
cat("El area del triangulo es: ", AreaT, " Unidades")
## El area del triangulo es:  1  Unidades

El área de la región triangular es 1, por lo que con una distribución uniforme, este es el valor de la función de densidad.

Para reducir y simplificar tenemos que:

\(P(Y_1<= \frac{3}{4},Y_2<=\frac{3}{4})= 1 - P(Y_1> \frac{3}{4}) - P(Y_2 > \frac{3}{4})\)

Para facilitar la comprension se tiene la siguiente grafica, es una grafica interactiva, asi que para saber los vertices o puntos de interes debe dar click dentro de la grafica y click a alguna linea para que muestre los puntos grises indicativos de un extremo o interseccion:

Las areas a analizar ahora son solamente las que estan contenidas en la seccion Roja y Morada que esten dentro del triangulo, es decir las partes indicadas con color amarillo.

Sabiendo los vertices de los triangulos podemos obtener el area de cada uno y la suma de estas dos areas se resta a 1.

#Triangulo seccion Morada
p1 <- 0.75
p2 <- 1
p3 <- 0.25

areaTM <- 0.5* ((p2-p1)*p3)

#Triangulo seccion Roja
p1 <- -0.25
p2 <- 0.25
p3 <- 0.25
areaTR <- 0.5*((p2-p1)*p3)

cat("El area contenida dentro de la seccion morada es: ", areaTM, "\nEl area contenida dentro de la seccion roja es: ", areaTR)
## El area contenida dentro de la seccion morada es:  0.03125 
## El area contenida dentro de la seccion roja es:  0.0625

Por tanto la probabilidad \(P(Y_1<= \frac{3}{4},Y_2<=\frac{3}{4})\) es:

cat("Probabilidad: ", (1 - (areaTM+areaTR))*100)
## Probabilidad:  90.625

5.3 Distribuciones de probabilidad marginal y condicional

Los valores distintos que son extraidos de una variable aleatoria discreta representan eventos totalmente excluyentes entre si. Por tanto para cada par de valores \((y_1,y_2)\) existen eventos bivariantes representados \((Y_1=y_1,Y_2=y_2)\), y son eventos mutuamente excluyentes.

La distribucion marginal se define como la distribucion de probabilidad a un subgrupo de variables aleatorias pertenecientes a un conjunto de variables aleatorias. De manera mas simple, la distribucion marginal es de utilidad cuando se necesita obtener la probabilidad de un subconjunto de valores de determinado conjunto, cuando la informacion es limitada respecto a otras variables, esto puede ser cuando no se conocen algunos valores que poseen ciertas variables. Esto muestra diferencias notables en comparacion con la distribucion condicional, ya que esta brinda pribabilidades que pueden suceder o no en base a valores conocidos de cierto subconjunto de varibles.

Las variables marginales son aquellas variables pertenecientes a un subconjunto cuyos valores pueden ser o no ser conocidos y que ademas son descartadas o no utilizadas especificamente.

Definiciones

\((Y_1,Y_2)\) siendo variables aleatorias discretas conjuntas, dada una funcion de probabilidad \(p(y_1,y_2)\), las funciones de probabilidad marginal de \(Y_1\) y \(Y_2\) estan dadas por:

\(p_1(y_1) = \sum_{y_2} p(y_1,y_2)\) y \(p_2(y_2) = \sum_{y_1} p(y_1,y_2)\)

\((Y_1,Y_2)\) siendo variables aleatorias continuas conjuntas, dada una funcion de densidad conjunta \(f(y_1,y_2)\), las funciones de densidad marginal de \(Y_1\) y \(Y_2\) estan dadas por:

\(f_1(y_1) = \int_{-\infty}^{\infty} f(y_1,y_2) dy_2\) y \(f_2(y_2) = \int_{-\infty}^{\infty} f(y_1,y_2) dy_1\)

Para hallar \(p_1(y_1)\) tal y como la definicion lo indica sumamos \(p(y_1,y_2)\) para cada uno de los valores que contiene \(y_2\) y se acumulan las probabilidades en el margen, es decir en el eje \(y_1\).

Sabiendo que \(Y_1\) y \(Y_2\) son variables aleatorias discretas conjuntas, teniendo una funcion de probabilidad conjunta \(p(y_1,y_2)\) y funciones de probabilidad marginal \(p_1(y_1)\) y \(p_2(y_2)\), la funcion de probabilidad discreta condicional de \(Y_1\) dada \(Y_2\) es:

\(p(y_1 | y_2) = P(Y_1 = y_1 | Y_2 = y_2) = \frac{P(Y_1 = y_1 , Y_2 = y_2)}{P(Y_2 = y_2)} = \frac{p(y_1,y_2)}{p_2(y_2)}\)

s.a. \(p_2(y_2) > 0 \)

Si \(Y_1\) y \(Y_2\) son variables aleatorias continuas conjuntas con funcion de densidad conjunta \(f(y_1,y_2)\), la fucion de distribucion condicional de \(Y_1\) dado que \(Y_2 = y_2\) queda determinada por:

\(F(y_1 | y_2) = P(Y_1 <= y_1 | Y_2 <= y_2)\)

Note de nuevo que la funcion \(F(y_1 | y_2)\) es una funcion basada \(y_1\) dado un valor de \(y_2\) fijo.

Sean \(Y_1\) y \(Y_2\) variables aleatorias continuas conjuntas, con densidad conjunta \(f(y_1,y_2)\) y densidades marginales \(f_1(y_1)\) y \(f_2(y_2)\); para todo \(y_2\) donde \(f_2(y_2) > 0\), la densidad condicional de \(Y_1\) dado que \(Y_2 = y_2\) es:

\(f(y_1 | y_2) = \frac{f(y_1,y_2)}{f_2(y_2)}\)

y para todo \(y_1\) donde \(f_1(y_1) > 0\), la densidad condicional de \(Y_2\) dado que \(Y_1 = y_1\) es:

\(f(y_2 | y_1) = \frac{f(y_1,y_2)}{f_1(y_1)}\)

Un ejemplo sencillo es decir:

\(P(Y_1 = 5 | Y_2 = 4)\) es la probabilidad de que \(Y_1 = 5\) dado que \(Y_2 = 4\)

NOTA: El segundo elemento del par ordenado siempre queda fijo, por tanto el valor de la probabilidad depende de buscar en la columna del segundo termino, en este caso \(Y_2 = 4\), el valor cuando \(Y_1 = 5\).

Ejemplo

Dada la siguiente tabla:

Encuentre el valor de \(Y_1 = 0\) dado que \(Y_2 = 1\).

\(P(Y_1 = 0 | Y_2 = 1)\) = \(\frac{p(0,1)}{p_2(1)} = \frac{2/15}{8/15} = 1/4\)

Ejemplo

Se brinda la siguiente funcion de probabilidad conjunta:

  1. Proporcione las funciones de probabilidad marginal para \(Y_1\) y \(Y_2\):

Basandos en la tabla proporcionada, las distribuciones marginales para \(Y_1\) y \(Y_2\) estan dadas por la columna de Total de la tabla.

probMarginal <- matrix(c(0,1,2,0.55,0.16,0.29), ncol = 3, byrow = TRUE)
colnames(probMarginal) <- c("","","")
rownames(probMarginal) <- c("y1","p1(y1)")
probMarginal <- as.table(probMarginal)
probMarginal
##                      
## y1     0.00 1.00 2.00
## p1(y1) 0.55 0.16 0.29
  1. Proporcione la funcion de probabilidad condicional para \(Y_2\) dado que \(Y_1 = 0\)

Utilizando la tabla obtenemos: Recuerde que la columna de \(Y_1 = 0\) es nuestra columna base sobre la cual trabajamos.

\(P(Y_2 = 0 | Y_1 = 0) = \frac{0.38}{0.76} = 0.5\) \(P(Y_2 = 1 | Y_1 = 0) = \frac{0.14}{0.76} = 0.18\) \(P(Y_2 = 2 | Y_1 = 0) = \frac{0.24}{0.76} = 0.32\)
  1. ¿Cuál es la probabilidad de que un niño sobreviva dado que llevaba puesto el cinturón del asiento del auto?

Se analiza por lo tanto: \(Y_1 = 0\) y \(Y_2 = 2\)

\(P(Y_1 = 0 | Y_2 = 2) = \frac{0.24}{0.29} = 0.8275 = 82.75%\)

Ejemplo

Dada la siguiente funcion de densidad de probabilidad conjunta.

Encuentre:

  1. Las funciones de densidad marginal para \(Y_1\) y \(Y_2\):

    \(f_1(y_1) = \int_{0}^{1} 4*y_1*y_2 dy_2 = 2*y_1\)

    \(s.a. 0 <= y_1 <= 1 \)

    de igual manera para:

    \(f(y_2) = \int_{0}^{1} 4*y_1*y_2 dy_1 = 2*y2\)

    \(s.a. 0 <= y_2 <=1 \)
  2. Encuentre \(P(Y_1 <= \frac{1}{2} | Y_2 >= \frac{3}{4}\)

#numerador
fun <- function(y_1,y_2) 4*y_1*y_2
#denominador
fun2 <- function(y_2) 2*y_2

#operamos las integrales necesarias

integralSuperior <- integral2(fun,0,1/2,3/4,1,reltol = 1e-10)
integralInferior <- integral(fun2,3/4,1, reltol = 1e-10)

resfinal <- integralSuperior$Q/integralInferior
cat("La probabilidad es: ", resfinal)
## La probabilidad es:  0.25
  1. Calcular la funcion de densidad condicional de \(Y_1\) dado que \(Y_2= y_2\)

\(f(y_1 | y_2) = f_1(y_1) = 2y_1\)

\(s.a. 0 <= y_1 <= 1\)

5.4 Variables aleatorias independientes

Primero debemos recordar que dos eventos son independientes si:

\(P(A \bigcap B) = P(A) \times P(B)\)

Entonces basados con la definicion anterior, si \(Y_1\) y \(Y_2\) son independientes podemos tener:

\(P(a<Y_1<= b, c<Y_2<=d) = P(a < Y_1 <= b) \times P(c < Y_2 < d)\) para todo numero real a < b y c < d. La probabilidad conjunta se puede escribir en base a un producto cruz entre dos probabilidades marginales.

Esta propiedad se satisface si:

\(Y_1\) tiene una funcion de distribucion \(F_1(y_1)\) y \(Y_2\) tiene una funcion de distribucion \(F_2(y_2)\). Por tanto se puede definir que la funcion de distribucion conjunta de \(Y_1\) y \(Y_2\)(siendo ambos independientes) es:

\(F(y_1,y_2) = F_1(y_1) F_2(y_2)\)

Teorema para establecer la presencia o ausencia de independencia

\(Y_1\) y \(Y_2\) siendo variables aleatorias discretas con funcion de porbabilidad conjunta \(p(y_1y_2)\) teniendo funciones de probabilidad marginal \(p_1(y_1)\) y \(p_2(y_2)\), esto determina que \(Y_1\) y \(Y_2\) son independientes bajo la siguiente condicion:

\(p(y_1,y_2) = p_1y_1p_2y_2\)

y con funcion de densidad conjunta \(f(y_1,y_2)\)

\(f(y_1,y_2) = f_1y_1f_2y_2\)

Ejemplo

debemos buscar: \(f(y_1,y_2) = f_1(y_1)f_2(y_2)\)

  • Buscamos \(f_1(y_1)\) :

Compuesto por dos integrales:

  1. \(\int_{0}^{1} 6*y_1*y_2^2 dy_2\)
#Rsympy es una libreria basada en sympy de Python asi que recuerde 
#la sintaxis numerica de Python para utilizar esta libreria, ej. Elevar = **
y_1 <- Var("y_1")
y_2 <- Var("y_2")
cat("Resultado Integral 1:",sympy("integrate(6*y_1*y_2**2,(y_2,0,1))"))
## Resultado Integral 1: 2*y_1
  1. \(\int_{-\infty}^{\infty}0dy_1\)
y_1 <- Var("y_1")
y_2 <- Var("y_2")
cat("Resultado Integral 2 (e.o.p):",sympy("integrate(0,(y_1,-oo,oo))"))
## Resultado Integral 2 (e.o.p): 0
  • Buscamos \(f_2(y_2)\):

Compuesto por dos integrales:

  1. \(\int_{0}^{1} 6*y_1*y_2^2 dy_1\)
y_1 <- Var("y_1")
y_2 <- Var("y_2")
cat("Resultado Integral 1:",sympy("integrate(6*y_1*y_2**2,(y_1,0,1))"))
## Resultado Integral 1: 3*y_2**2
  1. \(\int_{-\infty}^{\infty}0dy_1\)
y_1 <- Var("y_1")
y_2 <- Var("y_2")
cat("Resultado Integral 2 (e.o.p):",sympy("integrate(0,(y_1,-oo,oo))"))
## Resultado Integral 2 (e.o.p): 0

Por tanto como podemos ver:

\(f(y_1,y_2) = f_1(y_1)f_2(y_2)\) se cumple debido a que viendo la funcion en descrita en el enunciado \(6*y_1*y_2^2\) = \(2y_1*3*y_2^2\) para \(0<= y_1 <= 1\) y \(0<= y_2 <= 1\)

Por tanto \(Y_1\) y \(Y_2\) son independientes

Teorema: Independencia de dos variables aleatorias sin obtener densidades marginales

\(Y_1\) y \(Y_2\) tienen una densidad conjunta \(f(y_1,y_2)\) que es > 0 si y solo si \(a<=y_1<=b\) y \(c<=y_2<=d\), (a,b,c,d) son constantes y \(f(y_1,y_2) = 0\) en otro caso. Por tanto \(Y_1\) y \(Y_2\) son variables independientes si:

\(f(y_1,y_2) = g(y_1)h(y_2)\)

donde \(g(y_1)\) es una funcion > 0 de \(y_1\) solamente, \(h(y_2)\) es una funcion > 0 de \(y_2\) solamente.

Ejemplo

Primero se debe notar que \(f(y_1,y_2)\) toma valores positivos solamente cuando \(0<= y_1 <= 1\) y \(0<= y_2 <= 1\).

Separamos \(g(y_1)\) y \(h(y_2)\)

\(g(y_1) = \binom{y_1 \quad 0<= y_1 <= 1}{0 \quad e.o.p.})\)

\(h(y_2) = \binom{2 \quad 0 <= y_2 <= 1}{0 \quad e.o.p.})\)

En conclusion podemos verificar que \(Y_1\) y \(Y_2\) son variables aleatorias independientes.

Ejemplo

Para resolver el objetivo del ejemplo se debe cumplir lo siguiente:

\(f(y_1,y_2) \neq f_1(y_1)f_2(y_2)\)

Partimos buscando \(f_1(y_1)\):

y_1 <- Var("y_1")
y_2 <- Var("y_2")
cat("Resultado Integral 1:",sympy("integrate(3*y_1,(y_2,0,y_1))"))
## Resultado Integral 1: 3*y_1**2

A continuacion buscamos \(f_2(y_2)\):

y_1 <- Var("y_1")
y_2 <- Var("y_2")
cat("Resultado Integral 2:",sympy("integrate(3*y_1,(y_1,y_1,1))"))
## Resultado Integral 2: 3/2 - 3*y_1**2/2

Como podemos observar por los restulados de Integral 1 e Integral 2, las variables \(Y_1\) y \(Y_2\) son dependientes debido a que:

\(f(y_1,y_2) = 3y_1 \neq 3y_1^2 * \frac{3}{2} - \frac{3}{2}y_1^2\)

Evaluacion Capitulo 5.4

Demuestre que \(Y_1\) y \(Y_2\) son Independientes. Se incluyen por defecto las librerias necesarias para solucionar el problema, recuerde que es una mezcla de Python y R.

Nota: Para ejecutar el codigo, debe darle click al boton de Run (indicado en color verde), posterior a ello el resultado saldra debajo del boton de Run, debe hacer scroll down en el area del interprete (no de la pagina) para visualizar el resultado.

5.5 El valor esperado de una funcion de variables aleatorias

Para empezar este capitulo debemos recordar que el valor esperado es sinonimo de Esperanza Matematica, cuando la variable es aleatoria discreta, el valor esperado es igual a la suma de la probabilidad individual de cada caso posible a suceder, multiplicado por el valor del caso en cuestion. En otras palabras, lo que la esperanza quiere decir es que representa la cantidad media que se puede esperar en base al resultado del experimento aleatorio en relacion a la probabilidad de un caso que se mantiene constante y el experimento se repite en varias ocasiones.

La definicion es la siguiente:

Para una variable aleatoria discreta, con \(y_1,y_2,...,y_n\) como valores posibles, y sus probabilidades respectivas representadas con la funcion de probabilidad \(p(y_i\), la esperanza es calculada de la siguiente manera:

\(E[Y] = y_1p(Y = y_1) + ... + y_np(Y = y_n) = \sum_{i=1}^{n}y_ip(y_i)\)

Ahora bien, para una variable aleatoria absolutamente continua, el valor esperado con funcion de densidad \(f(y)\) se calcula de la siguiente manera:

\(E[Y] = \int_{-\infty}^{\infty}yf(y)dy\)

Para una funcion de variables aleatorias lo que se necesita hacer es construir una funcion equivalente y multivariante de un caso univariante.

Definicion

Siendo \(g(Y_1,Y_2,...,Y_k)\) una funcion de variables aleatorias discretas, \(Y_1,Y_2,...,Y_k\) que tienen funcion de probabilidad \(p(y_1,y_2,...,y_k)\). El valor esperado de \(g(Y_1,Y_2,...,Y_k)\) es:


\(E[g(Y_1,Y_2,...,Y_k)] = \sum_{y_k} ... \sum_{y_2}\sum_{y_1} g(y_1,y_2,...,y_k)p(y_1,y_2,...,y_k)\)

Si \(Y_1,Y_2,...,Y_k\) son variables aleatorias continuas con funcion de densidad conjunta \(f(y_1,y_2,...,y_k)\), por tanto:


\(E[g(Y_1,Y_2,...,Y_k)] = \int_{-\infty}^{\infty} ...\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(y_1,y_2,...,y_k) \times f(y_1,y_2,...,y_k) dy_1dy_2...dy_k\)

Ejemplo

La densidad conjunta de \(Y_1\) y \(Y_2\) esta dada por:

Encuentre \(E(Y_1,Y_2)\)

fun <- function(y_1,y_2) y_1*y_2*2*y_1
#operamos la integral
RestIntegral <- integral2(fun,0,1,0,1,reltol = 1e-10)
cat("El valor esperado es: ", RestIntegral$Q)
## El valor esperado es:  0.3333333

Demostracion De valor esperado para funcion multivariante

Primero debemos recordar la definicion base de valor esperado de una variable aleatoria univariante:

El valor esperado de una variable aleatoria continua \(Y\) es:

\(E(Y) = \int_{-\infty}^{\infty}y*f(y)dy\)
Ahora bien, consideremos \(Y_1\) y \(Y_2\) como variables aleatorias, tienen una funcion de densidad \(f(y_1,y_2)\). Lo que se desea es hallar el valor de \(g(Y_1,Y_2) = Y_1\)
Tenemos:

\(E[Y_1] = \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}y_1f(y_1,y_2)dy_2dy_1\)
\(= \int_{-\infty}^{\infty}y_1[\int_{-\infty}^{\infty}f(y_1,y_2)dy_2]dy_1\)
Lo que esta entre [ ] por definicion es la funcion de densidad marginal para \(Y_1\) Entonces obtenemos en base a la definicion de valor esprado de una variable aleatoria continua:
\(E(Y_1) = \int_{-\infty}^{\infty} y_1f_1(y_1)dy_1\)

Ejemplo

Sabiendo que la densidad conjunta de \(Y_1\) y \(Y_2\) esta dada por:

Encuentre el valor esperado de \(Y_1\)

\(E(Y_1) = \int_{0}^{1}\int_{0}^{1}y_1(2y_1)dy_1dy_2\)
fun <- function(y_1,y_2) y_1*2*y_1
#operamos la integral
RestIntegral <- integral2(fun,0,1,0,1,reltol = 1e-10)
cat("El valor esperado de Y1 es: ", RestIntegral$Q)
## El valor esperado de Y1 es:  0.6666667

Evaluacion Capitulo 5.5

Del proceso para producir una sustancia quimica industrial se obtiene un producto que contiene dos tipos de impurezas. Para una muestra específi ca proveniente de este proceso, denotemos con \(Y_1\) la proporción de impurezas en la muestra y con \(Y_2\) la proporción de impurezas tipo I entre todas las impurezas halladas. Suponga que la distribución conjunta de \(Y_1\) y \(Y_2\) puede ser modelada con la siguiente función de densidad de probabilidad:

Nota: Para ejecutar el codigo, debe darle click al boton de Run (indicado en color verde), posterior a ello el resultado saldra debajo del boton de Run, debe hacer scroll down en el area del interprete (no de la pagina) para visualizar el resultado.

Encuentre el valor esperado de la proporcion de impurezas tipo I de la muestra

5.6 Teoremas Especiales

Teorema 1

Si c es una constante, tenemos que:

\(E(c) = c\)

Teorema 2

Si \(g(Y_1,Y_2)\) con variable aleatorias \(Y_1\) y \(Y_2\) y c como una constante, entonces:


\(E[cg(Y_1,Y_2)] = cE[g(Y_1,Y_2)]\)

Teorema 3

\(Y_1\) y \(Y_2\) son varialbes aleatorias y \(g_1(Y_1,Y_2)\),\(g_2(Y_1,Y_2)\), … , \(g_k(Y_1,Y_2)\) funciones de \(Y_1\) y \(Y_2\), tenemos que:


\(E[g_1(Y_1,Y_2) + g_2(Y_1,Y_2) + ... + g_k(Y_1,Y_2)]\)
\(=E[g_1(Y_1,Y_2)] + E[g_2(Y_1,Y_2)]+...+E[g_k(Y_1,Y_2)]\)

Demostracion Teorema 3


Fuente: http://www.cimat.mx/~jortega/MaterialDidactico/EPyE09/Cap6v1.2.pdf

Teorema 4

\(Y_1\) y \(Y_2\) son varialbes aleatorias intedependientes y \(g(Y_1)\) y \(h(Y_2)\) son funciones de \(Y_1\) y \(Y_2\) respectivamente.


\(E[g(Y_1)h(Y_2)] = E[g(Y_1)]E[h(Y_2)]\) | Siempre que existan los valores esperados

Demostracion Teorema 4 para caso continuo

\(E[g(Y_1)h(Y_2)] = \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(y_1)h(y_2)f(y_1,y_2)dy_2dy_1\)

\(= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(y_1)h(y_2)f_1(y_1)f_2(y_2)dy_2dy_1\)

\(= \int_{-\infty}^{\infty}g(y_1)f_1(y_1)[\int_{-\infty}^{\infty}h(y_2)f_2(y_2)dy_2]dy_1\)

\(= \int_{-\infty}^{\infty}g(y_1)f_1(y_1)E[h(Y_2)]dy_1\)

\(= E[h(Y_2)\int_{-\infty}^{\infty}g(y_1)f_1(y_1)dy_1\)

\(= E[g(Y_1)]E[h(Y_2)]\)

Ejemplo

En base a la siguiente funcion

Encuentre:

  1. \(E(Y_1)\)

Sabiendo que \(Y_1\) y \(Y_2\) son independientes

fun <- function(y_1) 2*y_1^2
E_Y_1 <- integral(fun,0,1,reltol = 1e-10)
cat("El valor esperado de Y1 es: ", E_Y_1)
## El valor esperado de Y1 es:  0.6666667
  1. \(V(Y_1)\)
fun <- function(y_1) 2*y_1^3
E_Y_1_2 <- integral(fun,0,1,reltol = 1e-10)
cat("E((Y_1)^2) es: ", E_Y_1_2)
## E((Y_1)^2) es:  0.5
#obtenemos la varianza
V_Y_1 <- E_Y_1_2 - (E_Y_1)^2
cat("\nLa Varianza de Y1 es:", V_Y_1)
## 
## La Varianza de Y1 es: 0.05555556
  1. \(E(Y_1 - Y_2)\)

Obtenemos \(E(Y_2)\) porque \(E(Y_1)\) lo obtuvimos en el inciso a

fun <- function(y_2) 2*y_2^2
E_Y_2 <- integral(fun,0,1,reltol = 1e-10)
cat("El valor esperado de Y1 es: ", E_Y_2)
## El valor esperado de Y1 es:  0.6666667

Entonces por Teorema 3 tenemos lo siguiente:

#E(Y_1-Y_2)
E_Final <- E_Y_1 - E_Y_2
cat("El resultado de E(Y_1-Y_2) es: ", E_Final)
## El resultado de E(Y_1-Y_2) es:  0

Evaluacion Capitulo 5.6

Resuelva lo siguiente:

La libreria pracma se incluye, le permite realizar las integrales necesarias.

Nota: Para ejecutar el codigo, debe darle click al boton de Run (indicado en color verde), posterior a ello el resultado saldra debajo del boton de Run, debe hacer scroll down en el area del interprete (no de la pagina) para visualizar el resultado.

Sintaxis para una integral simple: integral(fun,xmin,xmax,reltol=1e-10)

5.7 Covarianza de Dos variables aleatorias

La Covarianza es una medida que indica la variacion conjunta de dos variables aleatorias basandose en la media de cada una; la covarianza sirve ademas para determinar la dependencia entre dos variables. Un caso para visualizar de manera grafica la covarianza es la siguiente:

Si todos los puntos se alinean a una recta comun, quiere decir que \(Y_1\) y \(Y_2\) son dependientes, como lo indica la figura a, en caso contrario como se muestra en la figura b, los puntos no se alinean indicando que las variables \(Y_1\) y \(Y_2\) no son dependientes.

Suponiendo que sabemos que \(E(Y_1) = \mu_1\) y \(E(Y_2) = \mu_2\), tenemos que el valor promedio de: \((Y_1 − \mu_1)(Y_2 − \mu_2)\) brinda una medida de la dependencia lineal entre \(Y_1\) y \(Y_2\).

Definicion de Covarianza

Por tanto, siendo \(Y_1\) y \(Y_2\) variables aleatorias con medias de \(\mu_1\) y \(\mu_2\), tenemos que la covarizanza de \(Y_1\) y \(Y_2\) es:

\(Cov(Y_1,Y_2) = E[(Y_1 − \mu_1)(Y_2 − \mu_2)]\)

Mientras mas grande el valor absoluto de la Covarianza entre \(Y_1\) y \(Y_2\), mucho mayor sera la dependencia lineal entre ellas. Para entenderlo mejor podemos decir que \(Y_1\) aumenta de valor solo si \(Y_2\) aumenta de valor tambien. Cabe destacar que si el valor de la covarianza es 0, indica que las variables \(Y_1\) y \(Y_2\) son no correlacionadas, por tanto la dependencia lineal entre ellas no existe.

Es dificil determinar a simple vista si el valor de la covarianza es alto o si es bajo. Un metodo para facilitar esto es por medio del coeficiente de correlacion:

\(\rho\ = \frac{Cov(Y_1,Y_2)}{\sigma_1\sigma_2}\)

Recuerde que los valores de: \(\sigma_1\) y \(\sigma_2\) indican la desviacion estandar de las variables \(Y_1\) y \(Y_2\). El signo de \(\rho\) es el mismo signo de la covarianza. Algunos casos a considerar son los siguientes: - Si \(\rho\) > 0, indica que \(Y_2\) aumenta si \(Y_1\) aumenta tambien. - Si \(\rho\) =, indica que no hay correlacion y ademas que la covarianza es 0. - Si \(\rho\) < 0, indica que \(Y_2\) disminuye cuando \(Y_1\) aumenta.

Teorema

\(Y_1\) y \(Y_2\) son variables aleatorias con medias \(\mu_1\) y \(\mu_2\):

\(Cov(Y_1,Y_2) = E[(Y_1 - \mu_1)(Y_2 - \mu_2)] = E(Y_1Y_2)- E(Y_1)E(Y_2)\)

\(Cov(Y_1,Y_2) = E[(Y_1 - \mu_1)(Y_2 - \mu_2)]\) \(= E(Y_1Y_2 - \mu_1Y_2 - \mu_2Y_1 + \mu_1\mu_2\))

Recordando que sabemos los valores \(E(Y_1) = \mu_1\) y \(E(Y_2) = \mu_2\), deducimos que:

\(Cov(Y_1,Y_2 = E(Y_1Y_2) - E(Y_1)E(Y_2) = E(Y_1Y_2) - \mu_1\mu_2\))

Teorema

Si \(Y_1\) y \(Y_2\) son variables aleatorias independientes, indica que la dependencia lineal es nula.

\(Cov(Y_1,Y_2) = 0\)
  • Demostracion

\(E(Y_1Y_2) = E(Y_1)E(Y_2) = \mu_1\mu_2\)

Recuerde que \(E(Y_1) = \mu_1\) y \(E(Y_2) = \mu_2\), si sustituimos podemos ver el resultado a simple vista.

Ejemplo

En base al Ejemplo del capitulo 5.6, Demuestre que \(Cov(Y_1,Y_2) = 0\) y justifique que sea 0.

Recuerde: \(E(Y_1) = E(Y_2) = \frac{2}{3}\)

Debe desarrollar:


\(\int_{0}^{1}\int_{0}^{1}4y_1^2y_2^2dy_1dy_2\)
fun <- function(y_1,y_2) 4*y_1^2*y_2^2
#operamos la integral
RestIntegral <- integral2(fun,0,1,0,1,reltol = 1e-10)
cat("E(Y1Y2): ", RestIntegral$Q)
## E(Y1Y2):  0.4444444
#Buscamos la Covarianza(Y1Y2) = E(Y1Y2)-E(Y1)E(Y2)
covarianza <- RestIntegral$Q - (2/3)^2
cat("La Covarianza(Y1Y2) es: ", covarianza)
## La Covarianza(Y1Y2) es:  0

Ya que la covarianza es 0, indica que \(Y_1\) y \(Y_2\) son variables aleatorias independientes.

Evaluacion Capitulo 5.7

Resuelva lo siguiente:

Encuentre \(Cov(Y_1,Y_2)\) y determine si \(Y_1\) y \(Y_2\) son variables aleatorias independientes, justifique su respuesta.

Como parte del problema se le brinda el siguiente dato:

\(E(Y_1) = 1/4\) y \(E(Y_2) = 1/2\)

Nota: Para ejecutar el codigo, debe darle click al boton de Run (indicado en color verde), posterior a ello el resultado saldra debajo del boton de Run, debe hacer scroll down en el area del interprete (no de la pagina) para visualizar el resultado.