La probabilidad clásica es un enfoque para calcular la probabilidad de un evento como la proporción entre el número de casos favorables a ese evento y el número total de casos posibles, siempre que todos los casos posibles sean igualmente probables. Es también conocida como probabilidad teórica, matemática o a priori. La fórmula básica para su cálculo es:
La fórmula básica es: \[ P(A) = \frac{\text{número de casos favorables al evento } A}{\text{número total de casos posibles}} \]
Por ejemplo, la probabilidad de obtener un número par al lanzar un dado es
3/6
## [1] 0.5
porque hay tres resultados favorables (2, 4 y 6) entre seis posibles (1, 2, 3, 4, 5, 6).
Esta forma de calcular la probabilidad es válida cuando:
Todos los resultados posibles son igualmente probables.
El espacio muestral es finito.
Ejemplo:
Consideremos seleccionar dos hobres y dos mujeres de un total de 100 personadas discriminadas en la siguiente tabla
genero <- c(rep("Mujer", 60), rep("Hombre", 40))
tabla_contingencia <- table(genero)
print(tabla_contingencia)
## genero
## Hombre Mujer
## 40 60
barplot(tabla_contingencia, col=c("black","red"))
¿ cual es la probabildiad de seleccionar 3 mujeres y 2 Hombres ?
D=choose(100,5)
W=choose(60,3)
M=choose(40,2)
p=(W*M)/D
p
## [1] 0.3545289
¿ cual es la probabildiad de seleccionar 2 mujeres al inicio y 2 Hombres al final?
D <-factorial(100)/(100-4)
W=factorial(60)/factorial(60-2)
M=factorial(40)/factorial(40-2)
P=(W*M)/D
P
## [1] 5.680616e-150
¿ cual es la probabildiad de seleccionar 3 mujeres y 2 Hombres al final?
D <-factorial(100)/(100-5)
W=factorial(60)/factorial(60-3)
M=factorial(40)/factorial(40-2)
P=(W*M)/D
P
## [1] 3.260437e-148
Los axiomas fundamentales de la probabilidad, también llamados axiomas de Kolmogórov, establecen las reglas básicas para definir la probabilidad como una medida numérica sobre un espacio muestral. Estos axiomas son:
\[P(A) \geq 0 \quad \forall A\]
\[P(\Omega) = 1\].
\[ P(A \cup B) = P(A) + P(B) \quad \text{si } A \cap B = \emptyset \]
\[ P(A \cup B) = P(A) + P(B) - P(A \cap B) \]
Donde:
tabla_contingencia <- table(genero, gusto) print(tabla_contingencia)
Dos eventos \(A\) y \(B\) son independientes si la ocurrencia de uno no afecta la probabilidad de que ocurra el otro. Matemáticamente, esto se expresa como:
\[ P(A \cap B) = P(A) \times P(B) \]
Esto significa que la probabilidad de que ambos eventos ocurran simultáneamente es igual al producto de sus probabilidades individuales.
En el diseño de un sistema eléctrico, consideremos dos componentes electrónicos independientes:
Evento A: que el componente 1 falle durante el primer año de operación.
Evento B: que el componente 2 falle durante el primer año de operación.
Si estos componentes están diseñados y ubicados de manera que el fallo de uno no influye en el fallo del otro, entonces los eventos A y B son independientes.
Por ejemplo, si la probabilidad de que falle el componente 1 en un año es \(P(A) = 0.02\) y para el componente 2 es \(P(B) = 0.03\), entonces la probabilidad de que ambos fallen en el mismo periodo es:
\[ P(A \cap B) = P(A) \times P(B) = 0.02 \times 0.03 = 0.0006 \]
La probabilidad condicional es la probabilidad de que ocurra un evento A, dado que ya ha ocurrido otro evento B. Se representa como P(A∣B), que se lee “la probabilidad de A dado B”. Esta medida ajusta la probabilidad del evento A al considerar la información adicional de que B ha ocurrido.
La fórmula para calcular la probabilidad condicional es:
\[ P(A \mid B) = \frac{P(A \cap B)}{P(B)} \quad \text{con } P(B) > 0 \]
La regla del complemento en probabilidad establece que la probabilidad de que un evento A no ocurra (su complemento, denotado como A′A′) es igual a 1 menos la probabilidad de que ocurra A. Matemáticamente se expresa como:
La regla del complemento establece que:
\[ P(A') = 1 - P(A) \]
o equivalentemente:
\[ P(A) + P(A') = 1 \]
El Teorema de Bayes es una fórmula fundamental en estadística y probabilidad que permite calcular la probabilidad de que ocurra un evento \[A_i \]dado que ha ocurrido otro evento B, basándose en la probabilidad inversa de B dado\[A_i \] y las probabilidades individuales de A y B. Matemáticamente se expresa como:
\[ P(A_i|B) = \frac{P(B|A_i) \cdot P(A_i)}{P(B)} \]
Donde:
- \(P(A|B)\) es la probabilidad de A
dado que B ha ocurrido (probabilidad posterior).
- \(P(B|A)\) es la probabilidad de B
dado que A ha ocurrido (verosimilitud).
- \(P(A)\) es la probabilidad de A
(probabilidad a priori).
- \(P(B)\) es la probabilidad de B
(probabilidad total de la evidencia).
La probabilidad de un evento \(B\) se puede expresar como la sumatoria de las probabilidades de las intersecciones de \(B\) con los sucesos que forman una partición del espacio muestral. Si denotamos la partición del espacio muestral por \(A_1, A_2, \dots, A_n\), donde estos sucesos son mutuamente excluyentes y cubren todo el espacio, entonces:
\[ P(B) = \sum_{i=1}^n P(B \cap A_i) \]
Usando la regla del producto para probabilidades, esto se puede reescribir como:
\[ P(B) = \sum_{i=1}^n P(B \mid A_i) \cdot P(A_i) \]