Definiciones

Row

Está integrado por tres componentes \((\Omega,\mathfrak{B},\mathcal{P})\)

Espacio probabilístico

Conjunto de todos los resultados elementales posibles \(\Omega\)

+ espacio muestral

Conjunto de todos sucesos aleatorios \(\mathfrak{B}\)

+ sigma-álgebra

Una medida o función de probabilidad \(\mathcal{P}\)

+ probabilidad

Column

Evento aleatorio

Es un subconjunto de un espacio muestral o conjunto de todos los posibles resultados que se pueden dar en un experimento aleatorio.

\[{A}=\left\{{\omega}_{i},\colon{\omega}_{i}\in{A}\right\}\]

\[{B}=\left\{{\omega}_{l},\colon{\omega}_{j}\in{B}\right\}\]

\[\vdots\]

\[{A}, {B}, \ldots, {\subseteq}{\Omega}=\left\{{\omega}_{1},{\omega}_{2},\ldots\right\}\]

A cada evento aleatorio se le puede asignar una medida de probabilidad, es decir, un numero entre cero y uno que denota quetan verosimil o factible resulta ser.

Complemento de un evento

Conjunto de resultados en el espacio muestral que no están incluidos en los resultados del evento \(A\)

\[{A}^{\mathrm{c}}={\Omega}{\setminus}{A}\]

\[{B}^{\mathrm{c}}={\Omega}{\setminus}{B}\]

\[\vdots\]

\[{\Omega}^{\mathrm{c}}={\emptyset}\]

Probabilidad de un evento

\[{P}({A})=\frac{{\mid}{A}{\mid}}{{\mid}{\Omega}{\mid}}\]

\[{P}({B})=\frac{{\mid}{B}{\mid}}{{\mid}{\Omega}{\mid}}\]

\[\vdots\]

\[{P}({\Omega})={1}\]

Column

Evento aleatorio

Llamado también fuente de sucesos aleatorios es un subconjunto del espacio muestral o conjunto de posibles resultados que pueden darse en un experimento aleatorio.

Propiedades

\[{P}\left({A}{\mid}{B}\right)+{P}\left({A^{c}}{\mid}{B}\right)=1\]

\[{A}\subseteq{B}\implies{P}\left({A}{\mid}{B}\right)=1\]

\[{P}\left({A}{\mid}{B}\right){P}\left({B}\right)+{P}\left({A}{\mid}{B^{c}}\right){P}\left({B^{c}}\right)={P}\left({A}\right)\]

\[\text{Si }{A}\text{ y }{B}\text{ son eventos independientes, entonces:}\] \[{P}\left({A}{\mid}{B}\right)={P}\left({A}\right)\] \[{P}\left({B}{\mid}{A}\right)={P}\left({B}\right)\]

\[\text{Si }{A}\text{ y }{B}\text{ son eventos excluyentes si y solo si}\]

\[{P}({A}{\cap}{B})=\emptyset\]

\[\text{Si además }{P}\left({B}\right)>0\text{ entonces:}\]

\[{P}\left({A}{\mid}{B}\right)=0\]

La paradoja del falso positivo

Row

Dos eventos son excluyentes sii \({P}({A}{\cap}{B})=0\)

Eventos ecluyentes

Relación entre probabilidades condicionales \({P}({A}{\mid}{B})={P}({B}{\mid}{A})\frac{{P}({A})}{{P}({B})}\)

Verdadera relación

La paradoja del falso positivo

En este ejemplo, se obtienen las probabilidades condicionadas de: (i) que un individuo que es efectivamente el padre de un bebé dé positivo en la prueba de paternidad del 99% y (ii) que un individuo que da positivo en una prueba de paternidad sea realmente el padre de la criatura; esta resulta ser del 50%, probabilidad considerada inaceptable, pues, la mitad de los hombres que dan positivo no son los padres biológicos, y esto implica que da lo mismo el lanzar una moneda al aire para decidir.

Inicialmente las pruebas de paternidad tenían este esquema dado que se realizaban con base en los tipos sanguineos de las personas hoy en día las pruebas se basan en cadenas de ADN, y son muy confiables.

Column

La paradoja del falso positivo

Supongamos que el 1% de los padres que no atienden su obligación, y se ven obligados a hacerse una prueba, en realidad son los padres de las criaturas; mientras que el resto no lo es y que la confiabilidad de una prueba de paternidad es del 99%

\[{P}(\text{es el padre})=0.01{\implies}{P}(\text{no es el padre})=0.99\]

\[{P}(\text{positivo}{\mid}\text{no es el padre})=0.01{\implies}{P}(\text{negativo}{\mid}\text{no es el padre})=0.99\]

Hipostesis

\[{P}(\text{negativo}{\mid}\text{es el padre})=0.01{\implies}{P}(postivo{\mid}\text{es el padre})=0.99\]

Conclusión

\[{P}(\text{no es el padre}{\cap}\text{negativo})={P}(\text{no es el padre}){\times}{P}(\text{negativo}{\mid}\text{no es el padre})=0.99{\times}0.99=0.9801\]

\[{P}(\text{es el padre}{\cap}postivo)={P}(\text{es el padre}){\times}{P}(\text{positivo}{\mid}\text{es el padre})=0.01{\times}0.99=0.0099\]

\[{P}(\text{no es el padre}{\cap}postivo)={P}(\text{no es el padre}){\times}{P}(postivo{\mid}\text{no es el padre})=0.99{\times}0.01=0.0099\]

\[{P}(\text{es el padre}{\cap}\text{negativo})={P}(\text{es el padre}){\times}{P}(\text{negativo}{\mid}\text{es el padre})=0.01{\times}0.01=0.0001\]

\[{P}(\text{positivo})={P}(\text{no es el padre}{\cap}\text{positivo})+{P}(\text{es el padre}{\cap}\text{positivo})=0.0099+0.0099=0.0198\]

Finalmente

\[{P}(\text{es el padre}{\mid}\text{positivo})=\frac{{P}(\text{es el padre}{\cap}\text{positivo})}{{P}(\text{positivo})}=\frac{0.0099}{0.0198}=0.5\]

El problema de Monty Hall

Row

Probabilidad de A dado B \({P}({A}{\mid}{B})=\frac{{P}({A}{\cap}{B})}{{P}({B})}\)

Probabilidad condicional

Dos eventos son independientes sii \({P}({A}{\cap}{B})={P}({A}){P}({B})\)

Eventos independientes

El problema de Monty Hall

Es un problema de probabilidad que está inspirado por el concurso de televisión estadounidense Let’s Make a Deal; en dicho concurso el participante escoge una puerta de entre tres y su premio consiste en lo que encuentre detrás; una de las puertas oculta un automóvil, mientras que detràs de las otras dos hay cabras. Antes de abrir la puerta seleccionada, el presentador, que sabe donde esta el automóvil abre una de las otras dos puertas y muestra que detrás de ella hay una cabra. Ahora el concursante tiene una última oportunidad de cambiar la puerta elgida ¿Debe el concursante mantener su elección original o escoger la otra puerta? ¿Hay alguna diferencia?.

Column

\(W_{car}:=\text{El jugador finalmente gana al automóvil}\)

\[E_{right!}^{1^{st}}:=\text{El jugador elije la puerta correcta que tiene detrás el automóvil}\]

\[E_{wrong!}^{1^{st}}:=\text{El jugador elije la puerta incorrecta que tiene detrás una de las dos cabras}\]

\({P}(W_{car}) = {P}[({W_{car}}{\cap}E_{right!}^{1^{st}}){\cup}(W_{car}{\cap}E_{wrong!}^{1^{st}})]\)

\[ \begin{aligned} {P}(W_{car}) &= {P}[{W_{car}}{\cap}E_{right!}^{1^{st}}]{+}{P}[W_{car}{\cap}E_{wrong!}^{1^{st}}]\\ &= {P}[E_{right!}^{1^{st}}]{\times}{P}[{W_{car}}{\mid}E_{right!}^{1^{st}}]{+}{P}[E_{wrong!}^{1^{st}}]{\times}{P}[W_{car}{\mid}E_{wrong!}^{1^{st}}] \end{aligned} \]

\({P}[E_{right!}^{1^{st}}]= \frac{1}{3}\text{ y }{P}[E_{wrong!}^{1^{st}}]=\frac{2}{3}\)

\[{P}(W_{car}) = \frac{1}{3}{P}[{W_{car}}{\mid}E_{right!}^{1^{st}}]+\frac{2}{3}{P}[{W_{car}}{\mid}E_{wrong!}^{1^{st}}]\]

Considerando la decisión final de cada juagor, se tienen dos tipos de juadores:

\[ \begin{aligned} \text{Los que se mantienen en su elección inicial: }{P}(W_{car}) &= \frac{1}{3}{\times}{1}+\frac{2}{3}{\times}{0} = \frac{1}{3} \end{aligned} \]

\[ \begin{aligned} \text{Los que siempre cambian en su elección inicial: }{P}(W_{car}) &= \frac{1}{3}{\times}{0}+\frac{2}{3}{\times}{1} = \frac{2}{3} \end{aligned} \]

Bibliografia

Glass, G. V., Stanley, J. C., Gómez, E. G., & Guzmán, E. (1986). Métodos estadísticos aplicados a las ciencias sociales. Prentice-Hall Hispanoamericana.

Ruiz, C. Q. (1993). Elementos de inferencia estadística. Editorial Universidad de Costa Rica.

Gomez Villegas, M. A. (2005). Inferencia estadística. Ediciones Díaz de Santos

Osuna, J. R., Ferreras, M. L., & Núñez, A. (1991). Inferencia estadística, niveles de precisión y diseño muestral. Reis, (54), 139-162.

Inzunsa Cazares, S. (2010). Entornos virtuales de aprendizaje: un enfoque alternativo para la enseñanza y aprendizaje de la inferencia estadística. Revista mexicana de investigación educativa, 15(45), 423-452.

Vargas Biesuz, B. E. (2014). Tópicos de inferencia estadística: El método inductivo y el problema del tamaño de la muestra. Fides et Ratio-Revista de Difusión cultural y científica de la Universidad La Salle en Bolivia, 7(7), 86-92.

Alvarado, H., Galindo, M., & Retamal, L. (2013). Comprensión de la distribución muestral mediante configuraciones didácticas y su implicación en la inferencia estadística. Enseñanza de las Ciencias, 31(2), 0075-91.

Gómez, D., Condado, J., Adriazola, Y., & Solano, O. (2005). Introducción a la inferencia estadística.