Introducción a la probabilidad

Se llama “experimento” tanto a los verdaderos experimentos que se pueden provocar como a fenómenos observables en el mundo real; en este último caso, la propia acción de observar el fenómeno se considera como un experimento. Por ejemplo, la comprobación del sexo de un recién nacido se puede considerar como la realización de un experimento.

Los experimentos se clasifican en: deterministas y aleatorios. Los primeros son aquellos que, realizados en las mismas circunstancias sólo tienen un resultado posible. Por el contrario, un experimento aleatorio se caracteriza por la posibilidad de dar lugar, en idénticas condiciones, a diferentes efectos. Los posibles resultados de un experimento aleatorio son llamados eventos pueden ser simples o compuestos. Se considera evento simple cuando no pueden descomponerse en otros más simples en cambio un evento compuesto puede descomponerse en dos o más eventos simples por medio de operaciones lógicas como la conjunción, disyunción o negación.

El conjunto de todos los resultados posibles de un experimento aleatorio se denominaespacio muestral o evento seguro. Suele representarse mediante la letra E. Por ejemplo, el espacio muestral obtenido al lanzar un dado sería E={1,2,3,4,5,6}. Este espacio muestral es finito, pero se puede considerar un espacio muestral con infinitos resultados posibles. Por ejemplo, la duración de una lámpara podría variar en un intervalo continuo [0, 1000], donde hay infinitos puntos. Otros casos serían el peso o la talla de una persona tomada al azar de una población.Puesto que el evento seguro consta de todos los resultados posibles, siempre se verifica. Teóricamente también se puede pensar en un suceso que nunca pueda ocurrir,como obtener un 7 al lanzar un dado ordinario. Esto se llama suceso imposible.

Todos los resultados posibles de un experimento dan origen a la noción de variable aleatoria cuyos valores dependen de estos resultados.

Concepto de probabilidad

Probabilidad es la asignación de un valor comprendido entre \(“0” \enspace y \enspace“1”\) que indica la posibilidad de que ocurra un evento en un experimento.

El evento seguro siempre ocurre y el evento imposible no puede ocurrir. Se asigna una probabilidad “0” a un evento que nunca puede ocurrir, por ejemplo, que salga un 7 al lanzar el dado. Se asigna un “1” a un evento que ocurre siempre que se realiza el experimento; por ejemplo, al lanzar una moneda es seguro que saldrá o “cara o cruz”.Entre estos dos casos se encuentran el resto de los eventos asociados a cada experimento. A pesar de que no se sabe cuál de ellos ocurrirá en una prueba particular,algunos de el los merecen más confianza que otros, en función de los conocimientos sobre las condiciones de realización del experimento. Por medio de la probabilidad se cuantifica el grado de creencia acerca de la ocurrencia de cada uno de los eventos asociados a un experimento. A cualquier otro evento distinto del “imposible” y del “seguro”se le asigna un número entre 0 y 1.

Este valor se asigna de acuerdo con la información y la creencia que se tenga en la ocurrencia del evento. Por ello, diferentes personas podrían asignar una probabilidad distinta al mismo evento.Por ejemplo, si se pregunta por la probabilidad de que una cierta persona llegue a cumplir 25 años, se puede decir que es muy alta. Pero, si su médico sabe que esta persona sufre una enfermedad incurable dará un valor bajo para esta misma probabilidad.

\[Probabilidad\enspace de\enspace un\enspace evento= \frac{Número\enspace de\enspace resultados\enspace favorables}{Número\enspace de\enspace resultados\enspace totales}\]

Referencia Batanero, C. y Godino, J.D. (2001). Análisis de datos y su didáctica. Universidad de Granada. Recuperado de https://www.ugr.es/~batanero/pages/ARTICULOS/Apuntes.pdf

Técnicas de conteo

Las técnicas de conteo permiten conocer el número de eventos posibles de un experimento, estas técnicas son: Regla de multiplicación, combinación y permutación.

Regla de multiplicación

Considerando que un experimento se realiza en dos etapas. Si la primera etapa se efectúa en \(m\) formas y, para cada una de éstas, la segunda etapa se logra en \(n\) formas, entonces hay \(m\enspace x\enspace n\) formas para efectuar el experimento.

Regla de permutación

Una permutación es una secuencia ordenada de n objetos distintos. La regla permite obtener el número de formas en que se puede acomodar n objetos distintos tomando una cantidad r a la vez.

\[nPr=\frac{n!}{(n-r)!}\] Regla de combinación

Dado un conjunto de n objetos distintos, cualquier subconjunto no ordenado de tamaño k de los objetos se llama combinación. En las combinaciones el orden de aparición de los objetos es irrelevante.

\[nPr=\frac{n!}{r!(n-r)!}\]

Diagrama de árbol

Representación gráfica en donde se puede observar todos los posibles eventos de un experimento. Para su construcción se parte de una raíz de la que salen diferentes caminos denominados, ramas de primera generación. Estas ramas deben representar todas las posibilidades que pueden aparecer en la primera fase de la construcción del diagrama y termina en vértices denominados nodos. A su vez de estos nodos pueden nacer nuevas ramas, denominadas ramas de segunda generación que vuelven a terminar en nuevos nodos hasta llegar a los nodos terminales de donde ya no salen más ramas, lo cual representa el final del fenómeno representado.

Axiomas de probabilidad

  1. A todo suceso A le corresponde una probabilidad de \(P(A)\), número comprendido entre \(0\enspace y\enspace 1\).
  2. La probabilidad del suceso seguro es 1.
  3. La probabilidad de un seceso que es unión de sucesos incompatibles (eventos que no pueden suceder al mismo tiempo) es la suma de las probabilidades de los sucesos que lo componen.

Reglas para estimar probabilidades

Regla de la Adición Para aplicar esta regla los eventos deben de ser mutuamente excluyentes.

\[P (A o B) = PA + PB\]

Regla del Complemento Para aplicar esta regla los eventos deben de ser mutuamente excluyentes.

\[P (A) = 1- P (~A)\]

Regla General de la Adición Se refiere a los eventos que no son mutuamente excluyentes.

\[P (A o B) = P(A) + P (B) – P (A y B)\]

Regla Especial de la Multiplicación Requiere que dos eventos sean independientes (A y B) la ocurrencia de uno no altera la probabilidad de que el otro suceda.

\[P (A y B) = P(A) P(B)\]

Regla General de la multiplicación Se basa en la probabilidad condicional.

\[P (A y B) = P (A) P (B | A)\]

Distribuciónes de probabilidad para variables discretas

Variable aleatoria. Una variable aleatoria es aquella cuyos valores dependen del resultado de un experimento aleatorio. Frecuentemente el resultado de un experimento se expresa de forma numérica y, en consecuencia, tal resultado es una variable aleatoria. Por ejemplo: “observar la temperatura diaria a las 8 h”, si esta observación se realiza durante una semana se podrán obtener diferentes valores para la variable temperatura, ya que este sería un experimento aleatorio.

Distribuciones de probabilidad. Los eventos de interés de un experimento tienen una determinada probabilidad de ocurrir, el conjunto de probabilidades del espacio muestral recibe el nombre de “Distribución de Probabilidad” de la variable aleatoria discreta. Numerosos experimentos muestran características similares y generan variables aleatorias con el mismo tipo de distribución de probabilidad. En consecuencia, el conocimiento de las distribuciones de probabilidad para variables aleatorias asociadas con tipos comunes de experimentos eliminará la necesidad de resolver los mismos problemas de probabilidad una y otra vez.

Parámetros de la distribución. Al estudiar las variables estadísticas, se consideran una serie de valores o características que sirven de resumen de la distribución de frecuencias. Igualmente es de interés definir las características de una variable aleatoria, como una serie de valores que resumen toda la distribución. Uno o varios de estos valores sirven, además, para especificar completamente la distribución de probabilidad y se suelen llamar parámetros de la distribución.

Distribución binomial.

Algunos experimentos consisten en la observación de una secuencia de intentos idénticos e independientes, cada uno de los cuales puede resultar en una de dos salidas posibles. Por ejemplo cada artículo que sale de la línea de producción de manufacturas puede clasificarse como defectuoso o no defectuoso.

Un experimento binomial presenta las siguientes propiedades:

  1. Consiste en un número fijo, \(n\), de pruebas idénticas.
  2. Cada prueba resulta en uno de dos resultados: éxito o fracaso.
  3. La probabilidad de éxito en una sola prueba es igual a algún valor \(p\) y es el mismo de una prueba a la otra. La probabilidad de fracaso es igual a \(q=(1-p)\).
  4. Las pruebas son independientes.
  5. La variable aleatoria de interés, es el número de éxitos observado durante las \(n\) pruebas.

Es importante señalar que “éxito” no es necesariamente algo bueno, como podría interpretarse comúnmente. En este caso es simplemente un nombre para uno de los dos posibles resultados (el que interesa analizar) de un experimento binomial.

La distribución de probabilidad binomial tiene muchas aplicaciones por que el experimento binomial se presenta al muestrear defectos en control de calidad industrial, en el muestreo de preferencias de los consumidores o en poblaciones de votantes entre otras.

Distribución hipergeométrica.

Está distribución se utiliza cuando n es grande respecto a \(N\) y se puede estimar a través de teoremas combinatorios, donde se establece el número de formas de seleccionar un subconjunto de \(n\) de entre una población \(N\), otra característica de esta distribución implica que las probabilidades son condicionales por lo tanto las pruebas no son independientes.

Distribución de poisson.

Las probabilidades de esta distribución representan los éxitos observados en el experimento en un intervalo de tiempo definido. La media en este caso se estima con la siguiente expresión: \(μ=np\).

Distribuciones de probabilidad para variables continuas

Uno de los modelos estadísticos más importantes es la “Distribución Normal” debido a su utilidad para describir variables que surgen en problemas reales en distintos campos, por ejemplo:

Características de la distribución.

Forma:

Tiene forma de campana, en el centro de la distribución se localizan la media, mediana y moda, es asíntota al eje \(x\), los valores van desde \(-∞ <X<+∞\). La función de densidad de una variable aleatoria x, con media \(μ\) y desviación \(σ\), es:

Simetría:

La función de densidad normal es simétrica, respecto a un eje que pasa por \(µ\), debido a que en su fórmula aparece una exponencial al cuadrado. La simetría es importante en la distribución normal, pues permite que el cálculo de áreas resulte más sencillo. A continuación veremos algunas propiedades derivadas de la simetría:

La distribución normal es simétrica respecto del eje vertical que pasa por su valor medio. Las dos áreas que se forman al dividir la gráfica por el eje de simetría (área superior e inferior), son iguales y cada una de ellas representa el 50 % de casos en el conjunto de datos. Es decir: existe la misma proporción de casos por encima y por debajo de la media, siendo el área total bajo la curva igual 1.

La mediana en un conjunto de datos es el valor tal que la mitad de los datos son menores o iguales y el resto mayores o iguales que la mediana. En consecuencia, la mediana de una curva de densidad es el punto que la divide en áreas iguales y la probabilidad de ser menor a ella es igual a ½. En la distribución normal, por tanto, la mediana coincide con la media.

La moda, que es el punto sobre el eje horizontal donde la curva tiene su máximo, en la distribución normal coincide con la media. Por tanto los valores cercanos a la media son los que alcanzan la máxima probabilidad.

Puesto que la media, mediana y moda, en las distribuciones simétricas coinciden en un mismo punto, por lo tanto son iguales en las distribuciones normales.

Efectos de la media y desviación estándar:

Dos curvas normales con la misma desviación típica pero diferentes medias, son idénticas pero se centran en diferentes posiciones a lo largo del eje horizontal. Si las curvas tienen igual media y distintas desviaciones típicas, la curva con desviación típica mayor es más baja y más extendida, porque los datos están más dispersos, pero ambas curvas tienen su centro sobre el mismo valor del eje horizontal.

Distribución de casos en relación con la desviación

Una característica importante de las distribuciones normales es que la proporción de casos que se encuentran en el intervalo \((µ - kσ,µ + kσ)\) es siempre constante. Esta propiedad sirve para determinar entre qué valores podemos situar un porcentaje dado de casos centrales. También se utiliza para identificar la posición de un valor determinado con respecto a la media, o para saber si un determinado valor o intervalo es representativo o no de la distribución.

En cualquier distribución normal con media \(µ\) y desviación \(σ\), se establece lo siguiente:

• El 68 % de las observaciones están a una distancia de la media \(µ\) igual o menor que la desviación \(σ\). • El 95 % de los datos están a una distancia igual o menor que \(2σ\) de la media \(µ\). • El 99,7 % de los datos están a una distancia igual \(3σ\) de la media µ.

###Distribución Normal Tipificada La regla 68 – 95 – 99,7 sugiere que todas las distribuciones normales son, en cierto modo, equivalentes, si se usa como unidades de medida la desviación típica σ, y como origen de coordenadas la media µ. Esto puede ser útil en situaciones de comparación de variables diferentes. Cuando se realiza lo anterior se lleva a cabo una tipificación. Para tipificar un valor, se resta a éste la media de la distribución y se divide por la desviación típica.

En resumen: si \(x\) es una observación de una distribución que tiene media \(µ\) y desviación típica \(σ\), el valor tipificado de \(x\) es: \[z=\frac{x-μ}{σ}\] Cuando se tipifica una variable que tiene una distribución normal, se obtiene una nueva variable que tiene distribución normal estándar o tipificada. Una distribución normal típica tiene media \(0\) y desviación típica igual a \(1\).

En síntesis, cuando se tipifican varias variables con distribución normal, que, en principio tenían escalas diferentes, se consigue pasar a un nuevo conjunto de variables que tienen una escala común. Para comparar dos valores originales de variables diferentes, se puede pasar a los valores transformados, ya que se conservan las probabilidades, con la ventaja de poder ahora trabajar en una escala única. La principal razón para tipificar valores de una variable aleatoria es tener escalas comparables.

Referencias:

Wackerly, D. (2010). Estadística matemática con aplicaciones. Cengage Learning Editores, México, D. F