Con Mi Profe: Julio Hurtado Marquez; EMAIL_TAREAS: juliohurtado210307@gmail.com
La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos aleatorios. Su desarrollo ha sido impulsado por la necesidad de comprender y modelar situaciones inciertas, desde juegos de azar hasta fenómenos naturales y sociales.
Aunque los juegos de azar existen desde la antigüedad, el análisis matemático del azar comenzó en el siglo XVII. En 1654, los matemáticos franceses Pierre de Fermat y Blaise Pascal intercambiaron correspondencia sobre problemas relacionados con juegos de dados, sentando las bases de la teoría de la probabilidad. Uno de los problemas discutidos fue el “problema de los puntos”, que trata sobre cómo dividir las apuestas de un juego interrumpido.
El siglo XVIII vio avances significativos:
\[\lim_{n\longrightarrow \infty }\frac{S_{n}}{n}=p\]
Donde Sₙ es el número de éxitos en n ensayos independientes con probabilidad de éxito p.
\(\lim_{n \to \infty} P\left( \frac{S_n - np}{\sqrt{np(1-p)}} \le x \right) = \Phi(x)\)
Donde Φ(x) es la función de distribución de la normal estándar.
\(P(A|B) = P(B|A) · P(A) / P(B)\)
A principios del siglo XX, la teoría de la probabilidad carecía de una base axiomática rigurosa. En 1933, el matemático ruso Andréi Kolmogórov publicó Fundamentos de la Teoría de la Probabilidad, donde estableció una axiomatización basada en la teoría de conjuntos y la medida, proporcionando una base sólida para la probabilidad moderna.
Los axiomas de Kolmogórov son:
\(P\left( \bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i)\)
Esta formalización permitió el desarrollo riguroso de áreas como la estadística matemática, los procesos estocásticos y la teoría de la información.
Hoy en día, la teoría de la probabilidad es fundamental en diversas disciplinas:
🔗 MAPYCD: Historia de la Probabilidad
https://forms.gle/3U5ZNTMqYGKr4JkE8
🔗 Acceso al Laboratorio 1
https://forms.gle/XGZBGAGZYZa3QA3f6
1654 1713 1718 1933
● ● ● ●
| | | |
Fermat y Pascal Bernoulli De Moivre Kolmogórov
↓ ↓ ↓ ↓
Juegos de azar Teorema de los Distribución Axiomatización
Grandes Números Normal moderna
Figura 1: Principales hitos en el desarrollo de la teoría de la probabilidad.
| Matemático | Aporte principal | Año clave |
|---|---|---|
| Pascal y Fermat | Bases de probabilidad (problema de los puntos) | 1654 |
| Jacob Bernoulli | Teorema de los Grandes Números | 1713 |
| Abraham de Moivre | Distribución normal | 1718 |
| Thomas Bayes | Teorema de Bayes | ~1763 |
| Andréi Kolmogórov | Axiomatización moderna | 1933 |
Un experimento aleatorio es cualquier proceso o acción cuyo resultado no se puede predecir con certeza antes de su realización. Aunque conozcamos todos los posibles resultados, no sabemos cuál de ellos ocurrirá en una ejecución particular.
🪙
Espacio muestral: Ω = {Cara, Sello} o Ω = {C, S}
Un experimento aleatorio con 2 posibles resultados igualmente probables
🎲
Espacio muestral: Ω = {1, 2, 3, 4, 5, 6}
Un experimento aleatorio con 6 posibles resultados igualmente probables
🎲 + 🪙
Espacio muestral: Ω = {1C, 2C, 3C, 4C, 5C, 6C, 1X, 2X, 3X, 4X, 5X, 6X}
Un experimento aleatorio con 12 posibles resultados (6 × 2)
🔗 Acceso al material:
https://forms.gle/XVyqi95Zuwxks1Tj7
🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=c9rrAcSwHrs
El espacio muestral (denotado generalmente por Ω o S) de un experimento aleatorio es el conjunto de todos los posibles resultados distintos de ese experimento. Cada resultado individual en el espacio muestral se denomina punto muestral o resultado elemental.
Ejemplos:
Los espacios muestrales pueden ser finitos, infinitos numerables o infinitos no numerables.
En la teoría de la probabilidad, un evento es un subconjunto del espacio muestral (Ω), que representa un conjunto de posibles resultados de un experimento aleatorio.
Al igual que con los conjuntos, podemos realizar operaciones con eventos para formar nuevos eventos. Las principales operaciones son:
1. Unión (A ∪ B): El evento que ocurre si A ocurre, o B ocurre, o ambos ocurren. Contiene todos los resultados que están en A o en B o en ambos.
A ∪ B = {x ∈ Ω | x ∈ A o x ∈ B}
Área total coloreada: Unión (A ∪ B)
2. Intersección (A ∩ B): El evento que ocurre si tanto A como B ocurren al mismo tiempo. Contiene todos los resultados que están en A y en B.
A ∩ B = {x ∈ Ω | x ∈ A y x ∈ B}
Área central: Intersección (A ∩ B)
3. Complemento (Aᶜ o \(\bar{A}\)): El evento que ocurre si A no ocurre. Contiene todos los resultados en el espacio muestral Ω que no están en A.
Aᶜ = {x ∈ Ω | x ∉ A}
Área fuera del círculo A: Complemento (Aᶜ)
4. Diferencia (A - B o A B): El evento que ocurre si A ocurre pero B no ocurre. Contiene todos los resultados que están en A pero no en B.
A - B = A ∩ Bᶜ = {x ∈ Ω | x ∈ A y x ∉ B}
Área azul: Elementos en A que no están en B (A - B)
| Tipo de espacio muestral | Característica | Ejemplo |
|---|---|---|
| Finito | Número limitado de resultados | Lanzamiento de un dado: {1,2,3,4,5,6} |
| Infinito numerable | Se pueden listar en secuencia | N° de lanzamientos hasta primera cara: {1,2,3,…} |
| Infinito no numerable | No se pueden listar | Temperatura en un rango continuo: {t ∈ ℝ | a ≤ t ≤ b} |
| Operación | Notación | Significado | Fórmula |
|---|---|---|---|
| Unión | A ∪ B | A o B ocurre | {x | x ∈ A o x ∈ B} |
| Intersección | A ∩ B | A y B ocurren | {x | x ∈ A y x ∈ B} |
| Complemento | Aᶜ o \(\bar{A}\) | A no ocurre | {x | x ∉ A} |
| Diferencia | A - B o A B | A ocurre, B no | {x | x ∈ A y x ∉ B} |
| Matemático | Aporte principal | Año clave |
|---|---|---|
| Pascal y Fermat | Bases de probabilidad (problema de los puntos) | 1654 |
| Jacob Bernoulli | Teorema de los Grandes Números | 1713 |
| Abraham de Moivre | Distribución normal | 1718 |
| Thomas Bayes | Teorema de Bayes | ~1763 |
| Andréi Kolmogórov | Axiomatización moderna | 1933 |
Los diagramas de Venn son representaciones gráficas útiles para visualizar eventos y las relaciones entre ellos. El espacio muestral se representa generalmente como un rectángulo, y los eventos como círculos u otras formas dentro de este rectángulo. Las operaciones con eventos se ilustran mediante el sombreado de las regiones correspondientes.
Experimento: Lanzar un dado justo de seis caras
Espacio muestral: Ω = {1, 2, 3, 4, 5, 6}
Eventos definidos:
a) Unión de A y B (A ∪ B):
A ∪ B = {2, 4, 6} ∪ {4, 5, 6} = {2, 4, 5, 6}
b) Intersección de A y B (A ∩ B):
A ∩ B = {2, 4, 6} ∩ {4, 5, 6} = {4, 6}
c) Complemento de A (Aᶜ):
Aᶜ = Ω - A = {1, 2, 3, 4, 5, 6} - {2, 4, 6} = {1, 3, 5}
d) Diferencia de B y C (B - C):
B - C = B ∩ Cᶜ = {4, 5, 6} - {2, 3, 5} = {4, 6}
📋 Código en R:
# Espacio muestral omega <- 1:6 # Eventos A <- c(2, 4, 6) B <- c(4, 5, 6) C <- c(2, 3, 5) # a) Unión de A y B union_AB <- union(A, B) cat("Unión de A y B:", union_AB, "\n") # b) Intersección de A y B interseccion_AB <- intersect(A, B) cat("Intersección de A y B:", interseccion_AB, "\n") # c) Complemento de A complemento_A <- setdiff(omega, A) cat("Complemento de A:", complemento_A, "\n") # d) Diferencia de B y C diferencia_BC <- setdiff(B, C) cat("Diferencia de B y C:", diferencia_BC, "\n")
Enunciado: En una encuesta a 100 personas sobre sus preferencias de helado, se encontraron los siguientes datos:
a) Personas que prefieren chocolate o vainilla (|Ch ∪ V|):
|Ch ∪ V| = |Ch| + |V| - |Ch ∩ V| = 60 + 50 - 30 = 80
b) Personas que prefieren solo chocolate (|Ch - V|):
|Ch - V| = |Ch| - |Ch ∩ V| = 60 - 30 = 30
c) Personas que no prefieren chocolate (|Chᶜ|):
|Chᶜ| = Total - |Ch| = 100 - 60 = 40
📋 Código en R:
# Total de personas total_personas <- 100 # Número de personas por preferencia n_chocolate <- 60 n_vainilla <- 50 n_ambos <- 30 # a) Unión (chocolate o vainilla) n_union_CV <- n_chocolate + n_vainilla - n_ambos cat("Chocolate o vainilla:", n_union_CV, "\n") # b) Solo chocolate n_solo_chocolate <- n_chocolate - n_ambos cat("Solo chocolate:", n_solo_chocolate, "\n") # c) No prefieren chocolate n_no_chocolate <- total_personas - n_chocolate cat("No prefieren chocolate:", n_no_chocolate, "\n")
Enunciado: En un sistema electrónico con tres componentes (A, B, C), se definen los siguientes eventos:
a) Al menos un componente falla:
Ocurre si A falla o B falla o C falla (o cualquier combinación).
E_A ∪ E_B ∪ E_C
b) Solo el componente A falla:
Ocurre si A falla y B no falla y C no falla.
E_A ∩ E_Bᶜ ∩ E_Cᶜ = E_A - (E_B ∪ E_C)
c) Los tres componentes fallan:
Ocurre si A falla y B falla y C falla.
E_A ∩ E_B ∩ E_C
d) Ningún componente falla:
Ocurre si A no falla y B no falla y C no falla.
E_Aᶜ ∩ E_Bᶜ ∩ E_Cᶜ = (E_A ∪ E_B ∪ E_C)ᶜ
📋 Código en R:
# Representación simbólica de los eventos evento_A <- "Falla A" evento_B <- "Falla B" evento_C <- "Falla C" # a) Al menos un componente falla (Unión) al_menos_uno <- paste(evento_A, "U", evento_B, "U", evento_C) cat("Al menos uno falla:", al_menos_uno, "\n") # b) Solo A falla solo_A <- paste(evento_A, "∩ no", evento_B, "∩ no", evento_C) cat("Solo A falla:", solo_A, "\n") # c) Los tres fallan tres_fallan <- paste(evento_A, "∩", evento_B, "∩", evento_C) cat("Los tres fallan:", tres_fallan, "\n") # d) Ninguno falla ninguno <- paste("no (", evento_A, "U", evento_B, "U", evento_C, ")") cat("Ninguno falla:", ninguno, "\n")
| Operación | Notación | Significado | Fórmula de cardinalidad |
|---|---|---|---|
| Unión | A ∪ B | A o B ocurre | |A ∪ B| = |A| + |B| - |A ∩ B| |
| Intersección | A ∩ B | A y B ocurren | |A ∩ B| |
| Complemento | Aᶜ o \(\bar{A}\) | A no ocurre | |Aᶜ| = |Ω| - |A| |
| Diferencia | A - B o A B | A ocurre, B no | |A - B| = |A| - |A ∩ B| |
Dos o más eventos se consideran ajenos o mutuamente excluyentes si no pueden ocurrir simultáneamente. En términos de conjuntos, esto significa que la intersección de cualesquiera dos de estos eventos es el conjunto vacío (∅).
Si A y B son eventos mutuamente excluyentes, entonces:
A ∩ B = ∅
La probabilidad de que ocurra la unión de eventos mutuamente excluyentes es la suma de sus probabilidades individuales:
Si A₁, A₂, …, Aₙ son eventos mutuamente excluyentes, entonces:
P(A₁ ∪ A₂ ∪ … ∪ Aₙ) = P(A₁) + P(A₂) + … + P(Aₙ) = Σᵢ₌₁ⁿ P(Aᵢ)
Características clave de los eventos ajenos:
Diagrama: Eventos A y B no se superponen (mutuamente excluyentes)
🔗 Acceso al material:
https://forms.gle/3cGdDiDK6EmvLQvQ7
🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=FDxjdcE3jng
La Probabilidad Clásica es un enfoque para calcular la probabilidad de un evento basado en el supuesto de que todos los resultados posibles de un experimento aleatorio son igualmente probables. Si un experimento tiene N resultados posibles, y un evento A ocurre en k de estos resultados, entonces la probabilidad del evento A, denotada como P(A), se calcula como la razón entre el número de resultados favorables al evento y el número total de resultados posibles:
P(A) = k / N
Este enfoque es aplicable cuando el espacio muestral Ω es finito y todos los resultados elementales tienen la misma probabilidad de ocurrir.
Elementos clave de la Probabilidad Clásica:
Experimento: Lanzamiento de un dado justo de seis caras
Espacio muestral: Ω = {1, 2, 3, 4, 5, 6}, N = 6 resultados posibles, todos igualmente probables.
a) Probabilidad de obtener un número par:
Evento A = {obtener un número par} = {2, 4, 6}, k = 3
P(A) = 3/6 = 0.5
b) Probabilidad de obtener un número mayor que 4:
Evento B = {obtener un número mayor que 4} = {5, 6}, k = 2
P(B) = 2/6 ≈ 0.333
📋 Código en R:
# Espacio muestral del dado espacio_muestral_dado <- 1:6 total_resultados_dado <- length(espacio_muestral_dado) # Probabilidad de obtener un número par resultados_par <- c(2, 4, 6) resultados_favorables_par <- length(resultados_par) prob_par <- resultados_favorables_par / total_resultados_dado cat("Probabilidad de obtener un número par:", prob_par, "\n") # Probabilidad de obtener un número mayor que 4 resultados_mayor_4 <- c(5, 6) resultados_favorables_mayor_4 <- length(resultados_mayor_4) prob_mayor_4 <- resultados_favorables_mayor_4 / total_resultados_dado cat("Probabilidad de obtener un número mayor que 4:", prob_mayor_4, "\n")
Experimento: Seleccionar una carta al azar de una baraja estándar de 52 cartas
Baraja: 4 palos (corazones, diamantes, tréboles, espadas), cada uno con 13 cartas (2,3,…,10, Jota, Reina, Rey, As)
a) Probabilidad de seleccionar un As:
Evento A = {seleccionar un As}, k = 4 ases, N = 52 cartas
P(A) = 4/52 = 1/13 ≈ 0.077
b) Probabilidad de seleccionar una carta de corazones:
Evento B = {seleccionar una carta de corazones}, k = 13 cartas de corazones, N = 52
P(B) = 13/52 = 1/4 = 0.25
📋 Código en R:
# Espacio muestral de la baraja palos <- c("Corazones", "Diamantes", "Tréboles", "Espadas") rangos <- c("2", "3", "4", "5", "6", "7", "8", "9", "10", "Jota", "Reina", "Rey", "As") baraja <- paste(rep(rangos, each = 4), "de", palos) total_cartas <- length(baraja) # Probabilidad de seleccionar un As ases <- grep("As de", baraja) prob_as <- length(ases) / total_cartas cat("Probabilidad de seleccionar un As:", prob_as, "\n") # Probabilidad de seleccionar una carta de corazones corazones <- grep("de Corazones", baraja) prob_corazones <- length(corazones) / total_cartas cat("Probabilidad de corazones:", prob_corazones, "\n")
Experimento: Seleccionar una bola al azar de una urna con 5 bolas rojas y 3 bolas azules
Total de bolas: N = 8, todas igualmente probables
a) Probabilidad de seleccionar una bola roja:
Evento A = {seleccionar una bola roja}, k = 5 bolas rojas
P(A) = 5/8 = 0.625
b) Probabilidad de seleccionar una bola azul:
Evento B = {seleccionar una bola azul}, k = 3 bolas azules
P(B) = 3/8 = 0.375
📋 Código en R:
# Urna con bolas urna <- c(rep("Roja", 5), rep("Azul", 3)) total_bolas <- length(urna) # Probabilidad de seleccionar una bola roja prob_roja <- sum(urna == "Roja") / total_bolas cat("Probabilidad de bola roja:", prob_roja, "\n") # Probabilidad de seleccionar una bola azul prob_azul <- sum(urna == "Azul") / total_bolas cat("Probabilidad de bola azul:", prob_azul, "\n")
Experimento: Lanzar dos monedas justas
Espacio muestral: Ω = {CC, CS, SC, SS}, N = 4 resultados posibles, todos igualmente probables
a) Probabilidad de obtener dos caras:
Evento A = {obtener dos caras} = {CC}, k = 1
P(A) = 1/4 = 0.25
b) Probabilidad de obtener al menos una cara:
Evento B = {obtener al menos una cara} = {CC, CS, SC}, k = 3
P(B) = 3/4 = 0.75
📋 Código en R:
# Espacio muestral de dos monedas monedas <- c("Cara", "Cruz") lanzamientos <- expand.grid(Moneda1 = monedas, Moneda2 = monedas) total_monedas <- nrow(lanzamientos) # Probabilidad de obtener dos caras dos_caras <- sum(lanzamientos$Moneda1 == "Cara" & lanzamientos$Moneda2 == "Cara") prob_dos_caras <- dos_caras / total_monedas cat("Probabilidad de dos caras:", prob_dos_caras, "\n") # Probabilidad de al menos una cara al_menos_una_cara <- sum(lanzamientos$Moneda1 == "Cara" | lanzamientos$Moneda2 == "Cara") prob_al_menos_una_cara <- al_menos_una_cara / total_monedas cat("Probabilidad de al menos una cara:", prob_al_menos_una_cara, "\n")
Experimento: Seleccionar una carta al azar de una baraja estándar de 52 cartas
Eventos definidos:
a) Probabilidad de la unión de D y F: P(D ∪ F)
P(D ∪ F) = P(D) + P(F) - P(D ∩ F) = 13/52 + 12/52 - 3/52 = 22/52 ≈ 0.423
D ∩ F = figuras de diamantes (Jota, Reina, Rey de diamantes), 3 cartas
b) Probabilidad de la intersección de F y A: P(F ∩ A)
P(F ∩ A) = 0
Los As no son figuras → eventos mutuamente excluyentes
📋 Código en R:
# Total de cartas total_cartas <- 52 # Probabilidades individuales prob_D <- 13 / total_cartas # Diamantes prob_F <- 12 / total_cartas # Figuras prob_A <- 4 / total_cartas # Ases # Intersección D ∩ F (Figuras de diamantes) prob_interseccion_DF <- 3 / total_cartas # a) Unión de D y F prob_union_DF <- prob_D + prob_F - prob_interseccion_DF cat("P(D ∪ F):", prob_union_DF, "\n") # b) Intersección de F y A (eventos mutuamente excluyentes) prob_interseccion_FA <- 0 cat("P(F ∩ A):", prob_interseccion_FA, "\n")
| Concepto | Fórmula | Descripción |
|---|---|---|
| Probabilidad clásica | P(A) = k/N | k = resultados favorables, N = total resultados |
| Eventos mutuamente excluyentes | P(A ∪ B) = P(A) + P(B) | A ∩ B = ∅ |
| Probabilidad del complemento | P(Aᶜ) = 1 - P(A) | Aᶜ = Ω - A |
| Regla general de la unión | P(A ∪ B) = P(A) + P(B) - P(A ∩ B) | A y B no necesariamente excluyentes |
| Ejemplo | Experimento | Evento | Probabilidad |
|---|---|---|---|
| 6.1 | Lanzar un dado | Número par | 3/6 = 0.5 |
| 6.1 | Lanzar un dado | Número > 4 | 2/6 ≈ 0.333 |
| 6.2 | Baraja 52 cartas | Seleccionar un As | 4/52 ≈ 0.077 |
| 6.2 | Baraja 52 cartas | Seleccionar corazones | 13/52 = 0.25 |
| 6.3 | Urna (5R, 3A) | Bola roja | 5/8 = 0.625 |
| 6.3 | Urna (5R, 3A) | Bola azul | 3/8 = 0.375 |
| 6.4 | Dos monedas | Dos caras | 1/4 = 0.25 |
| 6.4 | Dos monedas | Al menos una cara | 3/4 = 0.75 |
| 6.5 | Baraja 52 cartas | D ∪ F | 22/52 ≈ 0.423 |
| 6.5 | Baraja 52 cartas | F ∩ A | 0 |
La Probabilidad Geométrica es un enfoque para calcular la probabilidad de un evento cuando el espacio muestral Ω y el evento A son subconjuntos de un espacio geométrico continuo (como una línea, un área o un volumen). La probabilidad de que un punto aleatorio caiga dentro del evento A se define como la razón entre la “medida” (longitud, área, volumen) de A y la “medida” de Ω:
P(A) = Medida(A) / Medida(Ω)
Donde “Medida” se refiere a la longitud si el espacio es unidimensional, al área si es bidimensional, y al volumen si es tridimensional. El supuesto fundamental aquí es que la probabilidad es uniforme sobre el espacio muestral Ω, lo que significa que cualquier punto dentro de Ω tiene la misma probabilidad de ser el resultado.
Elementos clave de la Probabilidad Geométrica:
Diagrama: Probabilidad geométrica como razón de áreas
Enunciado: Consideremos un segmento de línea de longitud L. Se elige un punto aleatorio sobre este segmento. ¿Cuál es la probabilidad de que el punto se encuentre dentro de un subsegmento de longitud l contenido en el segmento original?
Solución:
P(A) = Longitud(A) / Longitud(Ω) = l / L
Ejemplo específico: Si L = 10 cm y l = 2 cm, entonces:
P(A) = 2/10 = 0.2
📋 Código en R (Visualización):
# Parámetros L <- 10 l <- 2 # Visualización plot(c(0, L), c(0, 1), type = "n", xlab = "Longitud", ylab = "", yaxt = "n", main = "Probabilidad Geométrica: Punto en un Segmento") segments(0, 0.5, L, 0.5, lwd = 4) # Segmento total segments((L - l)/2, 0.4, (L + l)/2, 0.4, col = "red", lwd = 6) # Subsegmento text(L/2, 0.6, paste("Longitud L =", L), cex = 0.8) text(L/2, 0.3, paste("Longitud l =", l), col = "red", cex = 0.8)
Enunciado: Consideremos un cuadrado de lado s. Se elige un punto aleatorio dentro del cuadrado. ¿Cuál es la probabilidad de que el punto se encuentre dentro de un círculo de radio r completamente contenido en el cuadrado?
Solución:
P(A) = Área(A) / Área(Ω) = πr² / s²
Ejemplo específico: Si s = 10 cm y r = 3 cm (círculo centrado en el cuadrado):
P(A) = π(3)² / (10)² = 9π/100 ≈ 0.283
📋 Código en R (Visualización):
# Parámetros s <- 10 r <- 3 # Visualización plot(c(0, s), c(0, s), type = "n", xlab = "x", ylab = "y", main = "Probabilidad Geométrica: Punto en un Área") rect(0, 0, s, s) # Cuadrado symbols(s/2, s/2, circles = r, inches = FALSE, add = TRUE, fg = "red") # Círculo text(s/2, s * 0.9, paste("Área Cuadrado =", s^2), cex = 0.8) text(s/2, s * 0.1, paste("Área Círculo =", round(pi * r^2, 2)), col = "red", cex = 0.8)
Enunciado: Dos amigos acuerdan encontrarse en un lugar entre las 12:00 PM y la 1:00 PM. El primero que llega esperará 15 minutos al otro, después de lo cual se irá. Si ambos llegan en algún momento aleatorio dentro de esta hora, ¿cuál es la probabilidad de que se encuentren?
Solución:
Cálculo del área de encuentro:
Área donde NO se encuentran = 2 × (1/2 × 45 × 45) = 2 × 1012.5 =
2025
Área donde SÍ se encuentran = 3600 - 2025 = 1575
P(A) = 1575 / 3600 = 7/16 = 0.4375
📋 Código en R (Visualización):
# Visualización del problema de encuentro x <- seq(0, 60, length.out = 200) y <- seq(0, 60, length.out = 200) grid_xy <- expand.grid(x = x, y = y) se_encuentran <- abs(grid_xy$x - grid_xy$y) <= 15 plot(grid_xy$x, grid_xy$y, col = ifelse(se_encuentran, "green", "red"), xlab = "Tiempo Amigo 1 (min)", ylab = "Tiempo Amigo 2 (min)", main = "Probabilidad Geométrica: Tiempo de Encuentro", pch = ".") rect(0, 0, 60, 60)
Enunciado: Se rompe una vara de longitud 1 en dos puntos elegidos al azar y de forma independiente a lo largo de su longitud. ¿Cuál es la probabilidad de que los tres segmentos resultantes puedan formar un triángulo?
Solución:
Cálculo de áreas:
P(A) = (1/8) / (1/2) = 1/4 = 0.25
📋 Código en R (Visualización):
# Visualización del problema de la vara x <- seq(0, 1, length.out = 200) y <- seq(0, 1, length.out = 200) grid_xy <- expand.grid(x = x, y = y) grid_filtrado <- grid_xy[grid_xy$x < grid_xy$y, ] forman_triangulo <- (grid_filtrado$y > 0.5) & (grid_filtrado$y < grid_filtrado$x + 0.5) & (grid_filtrado$x < 0.5) plot(grid_filtrado$x, grid_filtrado$y, col = ifelse(forman_triangulo, "green", "red"), xlab = "Punto de ruptura 1", ylab = "Punto de ruptura 2", main = "Probabilidad Geométrica: Formar un Triángulo", pch = ".") polygon(c(0, 0, 1), c(0, 1, 1), border = "black") polygon(c(0, 0.5, 0.5), c(0.5, 0.5, 1), border = "blue")
| Dimensión | Medida | Fórmula | Ejemplo |
|---|---|---|---|
| 1D (línea) | Longitud | P(A) = Longitud(A) / Longitud(Ω) | Punto en un segmento |
| 2D (área) | Área | P(A) = Área(A) / Área(Ω) | Punto en un círculo dentro de un cuadrado |
| 3D (volumen) | Volumen | P(A) = Volumen(A) / Volumen(Ω) | Punto en una esfera dentro de un cubo |
| Ejemplo | Experimento | Evento | Probabilidad |
|---|---|---|---|
| 7.1 | Punto en segmento L | Punto en subsegmento l | l/L |
| 7.2 | Punto en cuadrado s | Punto en círculo radio r | πr²/s² |
| 7.4 | Encuentro de 2 amigos (0-60 min) | x - y | |
| 7.5 | Romper vara longitud 1 en 2 puntos | Formar triángulo | 1/4 = 0.25 |
La Probabilidad Frecuentista (o empírica) define la probabilidad de un evento como el límite de la frecuencia relativa de ese evento en una larga serie de ensayos repetidos e independientes bajo condiciones similares. Si un experimento se repite n veces y un evento A ocurre k veces, la frecuencia relativa de A es k/n. La probabilidad frecuentista de A, denotada como P(A), se define como:
P(A) = limₙ→∞ (Número de veces que ocurre A) / (Número total de ensayos) = limₙ→∞ k/n
Este enfoque se basa en la idea de que a medida que el número de ensayos aumenta, la frecuencia relativa de un evento se estabilizará y se acercará a la verdadera probabilidad del evento.
Elementos clave de la Probabilidad Frecuentista:
Gráfico: Convergencia de la frecuencia relativa hacia la verdadera probabilidad
Enunciado: Supongamos que tenemos una moneda cuya probabilidad de obtener cara no conocemos (podría estar sesgada). Para estimar esta probabilidad utilizando el enfoque frecuentista, lanzamos la moneda un gran número de veces y observamos la frecuencia relativa de obtener cara.
Solución en R:
# Probabilidad verdadera de cara (desconocida para el experimentador) prob_verdadera_cara <- 0.6 # Número de lanzamientos en cada etapa n_lanzamientos <- c(10, 50, 100, 500, 1000, 5000) frecuencias_relativas_cara <- numeric(length(n_lanzamientos)) set.seed(123) # Para reproducibilidad for (i in 1:length(n_lanzamientos)) { lanzamientos <- rbinom(n_lanzamientos[i], 1, prob_verdadera_cara) # 1 = cara, 0 = cruz frecuencias_relativas_cara[i] <- mean(lanzamientos) } # Visualización de la convergencia plot(n_lanzamientos, frecuencias_relativas_cara, type = "b", pch = 16, xlab = "Número de Lanzamientos", ylab = "Frecuencia Relativa de Caras", main = "Probabilidad Frecuentista: Lanzamiento de Moneda") abline(h = prob_verdadera_cara, col = "red", lty = 2)
La frecuencia relativa se acerca a la probabilidad verdadera (p=0.6) a medida que aumentan los lanzamientos
Enunciado: En una fábrica, se inspeccionan artículos producidos para detectar defectos. Para estimar la probabilidad de que un artículo sea defectuoso, se examina una gran muestra de artículos y se calcula la proporción de artículos defectuosos.
Solución en R:
# Probabilidad verdadera de defecto prob_verdadera_defecto <- 0.02 # Número de artículos inspeccionados en cada etapa n_inspeccionados <- c(100, 500, 1000, 5000, 10000, 50000) frecuencias_relativas_defecto <- numeric(length(n_inspeccionados)) set.seed(456) # Para reproducibilidad for (i in 1:length(n_inspeccionados)) { defectuosos <- rbinom(n_inspeccionados[i], 1, prob_verdadera_defecto) frecuencias_relativas_defecto[i] <- mean(defectuosos) } # Visualización plot(n_inspeccionados, frecuencias_relativas_defecto, type = "b", pch = 16, xlab = "Número de Artículos Inspeccionados", ylab = "Frecuencia Relativa de Defectos", main = "Probabilidad Frecuentista: Defectos de Producción") abline(h = prob_verdadera_defecto, col = "red", lty = 2)
Convergencia de la frecuencia de defectos hacia el 2% real
Enunciado: Consideremos un juego de azar donde la probabilidad de ganar es desconocida. Para estimarla, jugamos el juego un gran número de veces y registramos la frecuencia relativa de victorias.
Solución en R:
# Probabilidad verdadera de ganar prob_verdadera_ganar <- 0.3 # Número de juegos jugados en cada etapa n_juegos <- c(50, 100, 500, 1000, 5000, 10000) frecuencias_relativas_ganar <- numeric(length(n_juegos)) set.seed(789) # Para reproducibilidad for (i in 1:length(n_juegos)) { ganados <- rbinom(n_juegos[i], 1, prob_verdadera_ganar) frecuencias_relativas_ganar[i] <- mean(ganados) } # Visualización plot(n_juegos, frecuencias_relativas_ganar, type = "b", pch = 16, xlab = "Número de Juegos Jugados", ylab = "Frecuencia Relativa de Victorias", main = "Probabilidad Frecuentista: Juego de Azar") abline(h = prob_verdadera_ganar, col = "red", lty = 2) legend("topright", legend = paste("Probabilidad Verdadera (", prob_verdadera_ganar, ")", sep=""), col = "red", lty = 2)
Enunciado: Para estimar la probabilidad de que llueva en un día específico en Cartagena durante el mes de abril, se recopilan datos históricos de los últimos años sobre la ocurrencia de lluvia en ese día. La probabilidad se estima como la frecuencia relativa de días lluviosos en el conjunto de datos históricos.
Solución en R (Simulación basada en una probabilidad histórica):
# Probabilidad histórica de lluvia (estimada como la verdadera para la simulación) prob_hist_lluvia <- 0.25 # Número de años de datos históricos (simulados como ensayos) n_anios <- c(20, 50, 100, 200, 500, 1000) frecuencias_relativas_lluvia <- numeric(length(n_anios)) set.seed(101) # Para reproducibilidad for (i in 1:length(n_anios)) { dias_lluviosos <- rbinom(n_anios[i], 1, prob_hist_lluvia) frecuencias_relativas_lluvia[i] <- mean(dias_lluviosos) } # Visualización plot(n_anios, frecuencias_relativas_lluvia, type = "b", pch = 16, xlab = "Número de Años de Datos", ylab = "Frecuencia Relativa de Días Lluviosos", main = "Probabilidad Frecuentista: Lluvia en Cartagena (Abril)") abline(h = prob_hist_lluvia, col = "red", lty = 2)
| Característica | Probabilidad Clásica | Probabilidad Frecuentista | Probabilidad Geométrica |
|---|---|---|---|
| Espacio muestral | Finito | No necesariamente finito | Continuo (longitud, área, volumen) |
| Supuesto base | Equiprobabilidad | Convergencia de frecuencias | Uniformidad en el espacio |
| Cálculo | P(A) = k/N | P(A) = limₙ→∞ k/n | P(A) = Medida(A)/Medida(Ω) |
| Ejemplo | Dado justo | Moneda sesgada (experimentos repetidos) | Punto en un círculo |
| Naturaleza | Teórica (a priori) | Empírica (a posteriori) | Geométrica (espacial) |
La Ley de los Grandes Números (Jacob Bernoulli, 1713) establece que:
limₙ→∞ P(|k/n - p| < ε) = 1
Donde:
Interpretación: A medida que el número de ensayos aumenta, la probabilidad de que la frecuencia relativa difiera de la probabilidad verdadera por más de ε tiende a cero.
# Demostración simple de la Ley de Grandes Números n_values <- c(10, 100, 1000, 10000, 100000) p_real <- 0.5 for (n in n_values) { lanzamientos <- sample(c(0,1), n, replace = TRUE, prob = c(0.5,0.5)) frecuencia <- mean(lanzamientos) cat("n =", n, "→ Frecuencia =", frecuencia, "\n") }
| Ejemplo | Experimento | Probabilidad verdadera | Observaciones |
|---|---|---|---|
| 8.1 | Moneda sesgada | p(cara) = 0.6 | Convergencia desde n=10 hasta n=5000 |
| 8.2 | Defectos fábrica | p(defecto) = 0.02 | Convergencia desde n=100 hasta n=50000 |
| 8.3 | Juego de azar | p(ganar) = 0.3 | Convergencia desde n=50 hasta n=10000 |
| 8.4 | Lluvia en Cartagena | p(lluvia) = 0.25 | Convergencia desde 20 hasta 1000 años |
La probabilidad axiomática proporciona una base matemática rigurosa para la teoría de la probabilidad. Se define como una función P que asigna a cada evento A en el espacio muestral Ω un número real P(A) que satisface los siguientes axiomas de Kolmogorov:
P(⋃_{i=1}^{∞} Aᵢ) = Σ_{i=1}^{∞} P(Aᵢ)
A partir de estos axiomas se pueden deducir otras propiedades importantes de la probabilidad.
Los tres axiomas de Kolmogórov: base de la probabilidad moderna
Enunciado: Consideremos el experimento de lanzar un dado justo de seis caras. Los siguientes eventos son mutuamente excluyentes:
Probabilidades individuales:
P(A) = P(B) = P(C) = P(D) = P(E) = P(F) = 1/6
Probabilidad de obtener un número par (evento Par = B ∪ D ∪ F):
P(Par) = P(B) + P(D) + P(F) = 1/6 + 1/6 + 1/6 = 3/6 = 0.5
📋 Código en R:
# Probabilidades de cada resultado al lanzar un dado justo prob_1 <- 1/6 prob_2 <- 1/6 prob_3 <- 1/6 prob_4 <- 1/6 prob_5 <- 1/6 prob_6 <- 1/6 # Probabilidad de obtener un número par (2, 4 o 6) prob_par <- prob_2 + prob_4 + prob_6 cat("Probabilidad de obtener un número par:", prob_par, "\n")
Enunciado: Al seleccionar una carta al azar de una baraja estándar de 52 cartas, los eventos de seleccionar una carta de cada palo son mutuamente excluyentes:
Probabilidades individuales:
P(Corazones) = P(Diamantes) = P(Tréboles) = P(Espadas) = 13/52 = 1/4
Probabilidad de seleccionar una carta roja (evento Roja = Corazones ∪ Diamantes):
P(Roja) = P(Corazones) + P(Diamantes) = 1/4 + 1/4 = 2/4 = 0.5
📋 Código en R:
# Probabilidades de seleccionar cada palo prob_corazones <- 13/52 prob_diamantes <- 13/52 prob_treboles <- 13/52 prob_espadas <- 13/52 # Probabilidad de seleccionar una carta roja (corazones o diamantes) prob_roja <- prob_corazones + prob_diamantes cat("Probabilidad de seleccionar una carta roja:", prob_roja, "\n")
Enunciado: En una encuesta, se preguntó a las personas cuál era su sabor de helado favorito, y se les permitió elegir solo uno. Los resultados fueron:
Probabilidad de no preferir chocolate (evento Chᶜ = V ∪ F ∪ DL ∪ O):
P(Chᶜ) = P(V) + P(F) + P(DL) + P(O) = 0.25 + 0.20 + 0.15 + 0.10 = 0.70
Alternativamente:
P(Chᶜ) = 1 - P(Ch) = 1 - 0.30 = 0.70
📋 Código en R:
# Probabilidades de cada preferencia de helado prob_chocolate <- 0.30 prob_vainilla <- 0.25 prob_fresa <- 0.20 prob_dulce_leche <- 0.15 prob_otros <- 0.10 # Probabilidad de no preferir chocolate prob_no_chocolate <- prob_vainilla + prob_fresa + prob_dulce_leche + prob_otros cat("Probabilidad de no preferir chocolate:", prob_no_chocolate, "\n") # Alternativamente prob_no_chocolate_alt <- 1 - prob_chocolate cat("Alternativa:", prob_no_chocolate_alt, "\n")
Enunciado: Los tipos de sangre ABO (A, B, AB, O) son mutuamente excluyentes para un individuo (una persona solo puede tener un tipo de sangre ABO). Las probabilidades de los diferentes tipos de sangre en una población son aproximadamente:
a) Probabilidad de tener tipo de sangre A u O (evento A ∪ O):
P(A ∪ O) = P(A) + P(O) = 0.40 + 0.45 = 0.85
b) Probabilidad de no tener tipo de sangre O (evento Oᶜ = A ∪ B ∪ AB):
P(Oᶜ) = P(A) + P(B) + P(AB) = 0.40 + 0.10 + 0.05 = 0.55
Alternativamente: P(Oᶜ) = 1 - P(O) = 1 - 0.45 = 0.55
📋 Código en R:
# Probabilidades de los tipos de sangre prob_A <- 0.40 prob_B <- 0.10 prob_AB <- 0.05 prob_O <- 0.45 # Probabilidad de tener tipo de sangre A u O prob_A_o_O <- prob_A + prob_O cat("Probabilidad de tener tipo de sangre A u O:", prob_A_o_O, "\n") # Probabilidad de no tener tipo de sangre O prob_no_O <- prob_A + prob_B + prob_AB cat("Probabilidad de no tener tipo de sangre O:", prob_no_O, "\n") # Alternativamente prob_no_O_alt <- 1 - prob_O cat("Alternativa:", prob_no_O_alt, "\n")
| Propiedad | Fórmula | Descripción |
|---|---|---|
| Probabilidad del complemento | P(Aᶜ) = 1 - P(A) | La probabilidad de que no ocurra A |
| Probabilidad del evento imposible | P(∅) = 0 | El evento vacío tiene probabilidad cero |
| Monotonía | Si A ⊆ B, entonces P(A) ≤ P(B) | Eventos más grandes tienen mayor probabilidad |
| Regla de la unión | P(A ∪ B) = P(A) + P(B) - P(A ∩ B) | Válida para cualquier par de eventos |
| Desigualdad de Boole | P(∪Aᵢ) ≤ ΣP(Aᵢ) | La unión no supera la suma de probabilidades |
| Ejemplo | Experimento | Eventos mutuamente excluyentes | Probabilidad calculada |
|---|---|---|---|
| 9.1 | Lanzamiento de dado | {1}, {2}, {3}, {4}, {5}, {6} | P(par) = 3/6 = 0.5 |
| 9.2 | Baraja de cartas | Corazones, Diamantes, Tréboles, Espadas | P(roja) = 0.5 |
| 9.3 | Encuesta helados | Ch, V, F, DL, O | P(no Ch) = 0.70 |
| 9.4 | Tipos de sangre | A, B, AB, O | P(A ∪ O) = 0.85 |
# Verificación de los axiomas para un dado justo # Axioma 1: No negatividad all(c(1/6, 1/6, 1/6, 1/6, 1/6, 1/6) >= 0) # TRUE # Axioma 2: Probabilidad del espacio muestral sum(c(1/6, 1/6, 1/6, 1/6, 1/6, 1/6)) == 1 # TRUE # Axioma 3: Aditividad para eventos ajenos # P(par) = P(2) + P(4) + P(6) = 1/6 + 1/6 + 1/6 = 0.5
Las reglas básicas de probabilidad establecen los principios matemáticos para cuantificar la incertidumbre en experimentos aleatorios.
Para dos eventos A y B:
P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
Caso especial: Eventos mutuamente excluyentes (A ∩ B = ∅):
P(A ∪ B) = P(A) + P(B)
P(A ∩ B) = P(A) · P(B|A) = P(B) · P(A|B)
Eventos independientes:
P(A ∩ B) = P(A) · P(B)
P(A|B) = P(A ∩ B) / P(B) si P(B) > 0
P(Aᶜ) = 1 - P(A)
Para una partición {B₁, B₂, …, Bₙ} de Ω:
P(A) = Σᵢ₌₁ⁿ P(A|Bᵢ) · P(Bᵢ)
P(Bᵢ|A) = P(A|Bᵢ) · P(Bᵢ) / Σⱼ₌₁ⁿ P(A|Bⱼ) · P(Bⱼ)
Enunciado: En una escuela, 40% de estudiantes juegan fútbol, 30% juegan baloncesto y 20% juegan ambos. ¿Cuál es la probabilidad de que un estudiante juegue al menos uno de estos deportes?
Solución:
Aplicando la regla de la suma:
P(F ∪ B) = P(F) + P(B) - P(F ∩ B) = 0.4 + 0.3 - 0.2 = 0.5
📋 Código en R:
# Probabilidades P_F <- 0.4 P_B <- 0.3 P_FyB <- 0.2 # Regla de la suma P_FoB <- P_F + P_B - P_FyB cat("P(Fútbol ∪ Baloncesto) =", P_FoB, "\n")
Resultado: P(F ∪ B) = 0.4 + 0.3 - 0.2 = 0.5
Enunciado: En una fábrica, 5% de los productos son defectuosos. Si un producto es defectuoso, la probabilidad de que sea detectado por el inspector es 0.9. ¿Cuál es la probabilidad de que un producto sea defectuoso y sea detectado?
Solución:
Aplicando la regla del producto:
P(D ∩ T) = P(D) · P(T|D) = 0.05 × 0.90 = 0.045
📋 Código en R:
# Probabilidades P_D <- 0.05 P_T_dado_D <- 0.9 # Regla del producto P_DyT <- P_D * P_T_dado_D cat("P(Defectuoso ∩ Detectado) =", P_DyT, "\n")
Resultado: P(D ∩ T) = 0.05 × 0.90 = 0.045
Enunciado: Se lanzan dos dados justos. ¿Cuál es la probabilidad de obtener un 3 en el primero y un número par en el segundo?
Solución:
Aplicando regla del producto para eventos independientes:
P(3 ∩ Par) = P(3) · P(Par) = (1/6) × (3/6) = 3/36 = 1/12 ≈ 0.0833
📋 Código en R:
# Probabilidades P_3 <- 1/6 P_par <- 3/6 # {2,4,6} # Eventos independientes P_3yPar <- P_3 * P_par cat("P(3 en primero ∩ par en segundo) =", P_3yPar, "\n")
Resultado: P = 1/6 × 3/6 = 1/12 ≈ 0.0833
Enunciado: Una enfermedad afecta al 1% de la población. Una prueba detecta la enfermedad en el 99% de los casos, pero da falsos positivos en el 5%. Si una persona da positivo, ¿cuál es la probabilidad de que realmente tenga la enfermedad?
Solución:
Aplicando el Teorema de Bayes:
P(E|Pos) = P(Pos|E)·P(E) / [P(Pos|E)·P(E) + P(Pos|NoE)·P(NoE)]
P(E|Pos) = (0.99 × 0.01) / (0.99 × 0.01 + 0.05 × 0.99) = 0.0099 / (0.0099 + 0.0495) ≈ 0.1667
📋 Código en R:
# Probabilidades P_E <- 0.01 P_Pos_dadoE <- 0.99 P_Pos_dadoNoE <- 0.05 # Teorema de Bayes P_EdadoPos <- (P_Pos_dadoE * P_E) / (P_Pos_dadoE * P_E + P_Pos_dadoNoE * (1 - P_E)) cat("P(Enfermo|Positivo) =", round(P_EdadoPos, 4), "\n")
Resultado: P(E|Pos) ≈ 0.1667 (solo ~16.67% de los positivos son realmente enfermos)
Interpretación:
| Regla | Fórmula | Condición |
|---|---|---|
| Suma (general) | P(A ∪ B) = P(A) + P(B) - P(A ∩ B) | Cualquier A, B |
| Suma (excluyentes) | P(A ∪ B) = P(A) + P(B) | A ∩ B = ∅ |
| Producto (general) | P(A ∩ B) = P(A) · P(B|A) | Cualquier A, B |
| Producto (independientes) | P(A ∩ B) = P(A) · P(B) | A y B independientes |
| Probabilidad condicional | P(A|B) = P(A ∩ B) / P(B) | P(B) > 0 |
| Complemento | P(Aᶜ) = 1 - P(A) | Cualquier A |
| Probabilidad total | P(A) = Σ P(A|Bᵢ) · P(Bᵢ) | {Bᵢ} partición de Ω |
| Teorema de Bayes | P(Bᵢ|A) = P(A|Bᵢ)·P(Bᵢ) / Σ P(A|Bⱼ)·P(Bⱼ) | P(A) > 0 |
# Verificación del Ejemplo 10.1 (Regla de la suma) P_A <- 0.4 P_B <- 0.3 P_A_int_B <- 0.2 P_A_union_B <- P_A + P_B - P_A_int_B cat("P(A ∪ B) =", P_A_union_B, "\n") # Verificación del Teorema de Bayes (Ejemplo 10.4) P_E <- 0.01 P_Pos_E <- 0.99 P_Pos_NE <- 0.05 P_E_Pos <- (P_Pos_E * P_E) / (P_Pos_E * P_E + P_Pos_NE * (1 - P_E)) cat("P(E|Pos) =", round(P_E_Pos, 4), "\n")
Las aplicaciones de la probabilidad abarcan desde problemas clásicos de juegos de azar hasta situaciones de la vida cotidiana como control de calidad, diagnósticos médicos y predicciones climáticas. A continuación se presentan ejemplos prácticos que ilustran los diferentes enfoques de la probabilidad.
Problema: Se lanzan dos monedas justas. ¿Cuál es la probabilidad de obtener al menos una cara?
Solución:
El espacio muestral para el lanzamiento de dos monedas es:
Ω = {CC, CX, XC, XX}
donde C representa cara y X representa cruz. Cada resultado tiene una probabilidad de 1/4 asumiendo que las monedas son justas e independientes.
El evento A = “obtener al menos una cara” está compuesto por:
A = {CC, CX, XC}
Usando la probabilidad clásica:
P(A) = |A| / |Ω| = 3/4 = 0.75
Alternativamente (usando el complemento):
Aᶜ = “no obtener ninguna cara” = “obtener dos cruces” = {XX}
P(Aᶜ) = 1/4 → P(A) = 1 - P(Aᶜ) = 1 - 1/4 = 3/4 = 0.75
Espacio muestral: 4 resultados igualmente probables
📋 Código en R:
# Espacio muestral omega <- c("CC", "CX", "XC", "XX") # Evento A: al menos una cara A <- c("CC", "CX", "XC") # Probabilidad clásica prob_A <- length(A) / length(omega) cat("Probabilidad de obtener al menos una cara:", prob_A, "\n") # Probabilidad del complemento A_complemento <- setdiff(omega, A) prob_A_complemento <- length(A_complemento) / length(omega) cat("Probabilidad de no obtener ninguna cara:", prob_A_complemento, "\n") # Usando complemento prob_A_usando_complemento <- 1 - prob_A_complemento cat("P(A) usando complemento:", prob_A_usando_complemento, "\n")
Resultado: P(al menos una cara) = 3/4 = 0.75
Problema: Se elige un punto al azar en un segmento de recta de longitud 10 cm. ¿Cuál es la probabilidad de que el punto se encuentre a una distancia no mayor de 2 cm de uno de los extremos del segmento?
Solución:
El espacio muestral Ω es el segmento de longitud 10 cm, representado como el intervalo [0, 10]:
|Ω| = 10
El evento A = “el punto se encuentra a una distancia no mayor de 2 cm de uno de los extremos”:
|A| = 2 + 2 = 4 cm
Usando probabilidad geométrica:
P(A) = |A| / |Ω| = 4 / 10 = 0.4
📋 Código en R (simulación):
# Número de simulaciones n_simulaciones <- 10000 # Simular la elección de puntos en el segmento [0, 10] puntos <- runif(n_simulaciones, min = 0, max = 10) # Verificar si cada punto está a no más de 2 cm de los extremos evento_A <- (puntos >= 0 & puntos <= 2) | (puntos >= 8 & puntos <= 10) # Calcular la frecuencia relativa del evento A prob_A_simulada <- sum(evento_A) / n_simulaciones cat("Probabilidad simulada:", prob_A_simulada, "\n")
Resultado teórico: P(A) = 0.4 (la simulación dará un valor cercano)
Problema: En una caja hay 3 bolas rojas, 4 bolas azules y 2 bolas verdes. Se extrae una bola al azar. Sean los eventos:
Calcula la probabilidad de cada evento y la probabilidad de extraer una bola roja o azul.
Solución:
El espacio muestral Ω consiste en todas las bolas de la caja. El número total de bolas es:
Total = 3 + 4 + 2 = 9 bolas
Los eventos R, A y V son mutuamente excluyentes (ajenos), ya que una bola no puede ser de dos colores al mismo tiempo.
Probabilidades individuales:
P(R) = 3/9 = 1/3 ≈ 0.333 P(A) = 4/9 ≈ 0.444 P(V) = 2/9 ≈ 0.222
Probabilidad de extraer una bola roja o azul (R ∪ A):
Como R y A son eventos ajenos, usando la propiedad de aditividad:
P(R ∪ A) = P(R) + P(A) = 3/9 + 4/9 = 7/9 ≈ 0.7778
Eventos mutuamente excluyentes (no hay superposición)
📋 Código en R:
# Número de bolas de cada color n_rojas <- 3 n_azules <- 4 n_verdes <- 2 total_bolas <- n_rojas + n_azules + n_verdes # Probabilidad de cada evento prob_roja <- n_rojas / total_bolas prob_azul <- n_azules / total_bolas prob_verde <- n_verdes / total_bolas cat("P(Roja) =", prob_roja, "\n") cat("P(Azul) =", prob_azul, "\n") cat("P(Verde) =", prob_verde, "\n") # Probabilidad de extraer una bola roja o azul (eventos ajenos) prob_roja_o_azul <- prob_roja + prob_azul cat("P(Roja ∪ Azul) =", prob_roja_o_azul, "\n")
Resultados:
🔗 Acceso al material:
https://forms.gle/YXX963Vw6rQjpYpq5
🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=fA3B7euqFZA
| Ejemplo | Experimento | Enfoque | Evento | Probabilidad |
|---|---|---|---|---|
| 11.1 | Dos monedas justas | Clásico | Al menos una cara | 3/4 = 0.75 |
| 11.2 | Punto en segmento [0,10] | Geométrico | Distancia ≤ 2 cm a un extremo | 4/10 = 0.4 |
| 11.3 | Extraer bola de caja (3R,4A,2V) | Clásico + Axiomático | Bola roja o azul | 7/9 ≈ 0.778 |
La propiedad de continuidad de la probabilidad establece dos resultados importantes relacionados con secuencias de eventos:
P(⋃_{i=1}^{∞} Aᵢ) = lim_{n→∞} P(Aₙ)
P(⋂_{i=1}^{∞} Bᵢ) = lim_{n→∞} P(Bₙ)
Esta propiedad es fundamental para trabajar con probabilidades de límites de eventos.
Una σ-álgebra (sigma álgebra) sobre un conjunto Ω es una colección 𝓕 de subconjuntos de Ω que satisface las siguientes tres propiedades:
De estas propiedades se pueden deducir otras, como la cerradura bajo intersecciones numerables: ⋂{i=1}^{∞} Aᵢ = (⋃{i=1}^{∞} Aᵢᶜ)ᶜ ∈ 𝓕.
El par (Ω, 𝓕) se denomina espacio medible. Los conjuntos en 𝓕 se denominan conjuntos medibles.
La σ-álgebra de Borel 𝓑(ℝ) sobre el conjunto de los números reales ℝ (o sobre cualquier espacio topológico) es la σ-álgebra generada por los intervalos abiertos de ℝ. Esto significa que 𝓑(ℝ) es la σ-álgebra más pequeña que contiene a todos los intervalos abiertos de la forma (a, b), donde a, b ∈ ℝ y a < b.
La σ-álgebra de Borel también contiene:
En esencia, la σ-álgebra de Borel contiene todos los subconjuntos de ℝ que son “razonables” desde un punto de vista analítico.
Un espacio de probabilidad es una tripleta (Ω, 𝓕, P), donde:
P(⋃_{i=1}^{∞} Aᵢ) = Σ_{i=1}^{∞} P(Aᵢ)
El principio de multiplicación establece que si una tarea se puede realizar en n₁ formas diferentes, y después de realizarla, una segunda tarea se puede realizar en n₂ formas diferentes, y así sucesivamente hasta una k-ésima tarea que se puede realizar en nₖ formas diferentes (independientemente de las elecciones anteriores), entonces el número total de formas en que se pueden realizar todas las tareas en secuencia es el producto de los números de formas individuales:
N = n₁ × n₂ × ... × nₖ
Ejemplo: Si tienes 3 opciones de camisa y 2 opciones de pantalón, tienes 3 × 2 = 6 formas diferentes de vestirte.
Una ordenación con repetición de n objetos tomados de un conjunto de m objetos distintos, donde se permite la repetición, es una secuencia ordenada de longitud n formada por elementos del conjunto de m objetos. El número total de tales ordenaciones es:
N = mⁿ
Ejemplo: El número de secuencias de longitud 3 que se pueden formar con las letras {A, B} (con repetición permitida) es 2³ = 8: AAA, AAB, ABA, ABB, BAA, BAB, BBA, BBB.
Una ordenación sin repetición de n objetos tomados de un conjunto de m objetos distintos (donde n ≤ m) es una secuencia ordenada de longitud n formada por elementos distintos del conjunto de m objetos. El número total de tales ordenaciones se denota por P(m, n) o mPn y se calcula como:
P(m, n) = m! / (m - n)! = m × (m - 1) × ... × (m - n + 1)
Si se ordenan los m objetos distintos, el número de permutaciones de los m objetos es P(m, m) = m!.
Ejemplo: El número de formas de elegir y ordenar 2 letras distintas del conjunto {A, B, C} es P(3, 2) = 3!/(3-2)! = 6/1 = 6: AB, AC, BA, BC, CA, CB.
Una combinación de n objetos tomados de un conjunto de m objetos distintos (donde n ≤ m) es una selección de n objetos sin importar el orden. El número total de tales combinaciones se denota por C(m, n), o mCn y se calcula como:
C(m, n) = (m¦n) = m! / (n! (m - n)!)
Ejemplo: El número de formas de elegir 2 letras del conjunto {A, B, C} sin importar el orden es = 3!/(2!×1!) = 6/2 = 3: {A, B}, {A, C}, {B, C}.
Una muestra sin orden y con reemplazo de tamaño n tomada de un conjunto de m objetos distintos es una selección de n objetos donde el orden no importa y se permite seleccionar el mismo objeto más de una vez. El número total de tales muestras es dado por la fórmula de “combinaciones con repetición”:
\binom{m + n - 1}{n} = (m + n - 1)! / (n! (m - 1)!)
Ejemplo: Si queremos elegir 2 helados de 3 sabores (chocolate, vainilla, fresa) y podemos repetir sabores, las posibles combinaciones son (sin importar el orden): {C, C}, {C, V}, {C, F}, {V, V}, {V, F}, {F, F}. Usando la fórmula: = = 4!/(2!×2!) = 24/4 = 6.
Problema: Considera el experimento de lanzar una moneda justa una vez.
Solución:
El espacio muestral para el lanzamiento de una moneda es Ω = {C, X}, donde C es cara y X es cruz.
La σ-álgebra 𝓕 de todos los subconjuntos de Ω (el álgebra de partes, 𝓟(Ω)) es:
𝓕 = {∅, {C}, {X}, {C, X}}
Definimos una función de probabilidad P tal que, para una moneda justa:
Usando los axiomas de probabilidad:
Verificación de aditividad: P({C} ∪ {X}) = P({C}) + P({X}) = 0.5 + 0.5 = 1 = P({C, X}).
Por lo tanto, el espacio de probabilidad es ({C, X}, {∅, {C}, {X}, {C, X}}, P), donde P(∅)=0, P({C})=0.5, P({X})=0.5, y P({C, X})=1.
📋 Código en R:
# Espacio muestral omega <- c("C", "X") # Sigma álgebra (lista de todos los subconjuntos) sigma_algebra <- list(NULL, "C", "X", omega) names(sigma_algebra) <- c("vacio", "Cara", "Cruz", "Omega") # Función de probabilidad probabilidad <- function(evento) { if (is.null(evento)) { return(0) } else if (identical(evento, "C")) { return(0.5) } else if (identical(evento, "X")) { return(0.5) } else if (identical(evento, omega)) { return(1) } else { return(NA) # Para eventos no en la sigma álgebra definida } } # Calcular la probabilidad de cada evento cat("P(∅) =", probabilidad(sigma_algebra$vacio), "\n") cat("P({C}) =", probabilidad(sigma_algebra$Cara), "\n") cat("P({X}) =", probabilidad(sigma_algebra$Cruz), "\n") cat("P(Ω) =", probabilidad(sigma_algebra$Omega), "\n")
Resultados: P(∅)=0, P({C})=0.5, P({X})=0.5, P(Ω)=1
Problema: ¿Cuántos números de 3 dígitos se pueden formar utilizando los dígitos {1, 2, 3, 4, 5} si:
Solución:
a) Con repetición: Tenemos 5 opciones para el primer dígito, 5 para el segundo y 5 para el tercero (principio de multiplicación y ordenaciones con repetición con m=5 y n=3).
N = 5 × 5 × 5 = 5³ = 125
b) Sin repetición: Tenemos 5 opciones para el primer dígito, 4 para el segundo y 3 para el tercero (permutaciones sin repetición, P(5, 3)).
N = P(5, 3) = 5! / (5 - 3)! = 120 / 2 = 60
📋 Código en R:
# a) Con repetición m <- 5 # Número de dígitos disponibles n <- 3 # Longitud del número con_repeticion <- m^n cat("Con repetición:", con_repeticion, "\n") # b) Sin repetición sin_repeticion <- factorial(m) / factorial(m - n) cat("Sin repetición:", sin_repeticion, "\n")
Resultados: Con repetición = 125 | Sin repetición = 60
Problema: Se debe formar un comité de 4 personas a partir de un grupo de 10 personas. ¿De cuántas formas se puede formar el comité si:
Solución:
a) Sin restricciones: Seleccionamos 4 personas de 10 sin importar el orden (combinaciones sin repetición, ).
N = \binom{10}{4} = 10! / (4! × 6!) = 210
b) Dos personas específicas deben estar en el comité: Si dos personas ya están en el comité, seleccionamos las 2 restantes de las 8 restantes.
N = \binom{8}{2} = 8! / (2! × 6!) = 28
📋 Código en R:
# a) Sin restricciones n_total <- 10 n_seleccionar <- 4 combinaciones_sin_restricciones <- choose(n_total, n_seleccionar) cat("Sin restricciones:", combinaciones_sin_restricciones, "\n") # b) Con dos personas específicas personas_fijas <- 2 n_restantes_total <- n_total - personas_fijas n_restantes_seleccionar <- n_seleccionar - personas_fijas combinaciones_con_restricciones <- choose(n_restantes_total, n_restantes_seleccionar) cat("Con dos personas específicas:", combinaciones_con_restricciones, "\n")
Resultados: Sin restricciones = 210 | Con dos personas específicas = 28
| Técnica | Fórmula | ¿Orden importa? | ¿Repetición permitida? | Ejemplo |
|---|---|---|---|---|
| Principio de multiplicación | N = n₁ × n₂ × … | Sí | - | 3 camisas × 2 pantalones = 6 outfits |
| Ordenaciones con repetición | N = mⁿ | Sí | Sí | 2³ = 8 secuencias de {A,B} |
| Permutaciones (sin repetición) | P(m,n) = m!/(m-n)! | Sí | No | P(3,2) = 6 pares ordenados |
| Combinaciones (sin repetición) | C(m,n) = m!/(n!(m-n)!) | No | No | C(3,2) = 3 pares no ordenados |
| Combinaciones con repetición | C(m+n-1, n) | No | Sí | C(3+2-1,2) = 6 selecciones |
La probabilidad condicional de un evento A dado que ha ocurrido un evento B se denota por P(A|B) y se define como:
P(A|B) = P(A ∩ B) / P(B), si P(B) > 0
Esta fórmula nos dice cómo la probabilidad de un evento A se ve afectada por el conocimiento de que otro evento B ha sucedido.
Sea {B₁, B₂, …, Bₙ} un conjunto de eventos mutuamente excluyentes y exhaustivos (es decir, forman una partición del espacio muestral Ω, donde ⋃_{i=1}^{n} Bᵢ = Ω y Bᵢ ∩ Bⱼ = ∅ para i ≠ j), y sea A cualquier otro evento. Entonces, la probabilidad de A se puede calcular como:
P(A) = Σ_{i=1}^{n} P(A|Bᵢ) · P(Bᵢ)
Este teorema es útil cuando la probabilidad de un evento A es difícil de calcular directamente, pero es más fácil conocer sus probabilidades condicionales dado un conjunto de eventos que particionan el espacio muestral.
El Teorema de Bayes relaciona la probabilidad condicional de un evento A dado B con la probabilidad condicional de B dado A. Utilizando la misma partición {B₁, B₂, …, Bₙ} del espacio muestral Ω, y para cualquier evento A con P(A) > 0, el teorema establece que:
P(Bᵢ|A) = P(A|Bᵢ) · P(Bᵢ) / P(A) = P(A|Bᵢ) · P(Bᵢ) / Σ_{j=1}^{n} P(A|Bⱼ) · P(Bⱼ)
El Teorema de Bayes es fundamental para actualizar nuestras creencias (probabilidades a priori) a la luz de nueva evidencia (obteniendo probabilidades a posteriori).
Dos eventos A y B se dicen independientes si la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro. Matemáticamente, A y B son independientes si y solo si se cumple alguna de las siguientes condiciones (asumiendo probabilidades mayores que cero):
Para un conjunto de n eventos {A₁, A₂, …, Aₙ}, se dice que son mutuamente independientes si para cualquier subconjunto de estos eventos {Aᵢ₁, Aᵢ₂, …, Aᵢₖ} (donde 1 ≤ k ≤ n), se cumple:
P(Aᵢ₁ ∩ Aᵢ₂ ∩ ... ∩ Aᵢₖ) = P(Aᵢ₁) · P(Aᵢ₂) · ... · P(Aᵢₖ)
🔗 Acceso al material:
https://forms.gle/kvqiKUr2ezpJaZDSA
🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=AzCOKCAGZ_o
Problema: En una fábrica, 5% de los productos tienen defectos. Una revisión detecta 90% de los productos defectuosos y 95% de los productos buenos (no defectuosos) pasan la revisión sin observaciones. ¿Cuál es la probabilidad de que un producto sea defectuoso dado que fue detectado por la revisión?
Solución:
Definimos eventos:
Aplicando Teorema de Bayes:
P(D|E) = P(E|D)·P(D) / [P(E|D)·P(D) + P(E|Dᶜ)·P(Dᶜ)] P(D|E) = (0.90×0.05) / (0.90×0.05 + 0.05×0.95) = 0.045 / (0.045 + 0.0475) ≈ 0.4865
Resultado: P(D|E) ≈ 48.65% (la probabilidad de que un producto detectado sea defectuoso es ~49%).
Problema: Una fábrica tiene tres máquinas. La máquina 1 produce 20% de los artículos, la máquina 2 produce 30% y la máquina 3 produce 50%. Las tasas de defectos son: 2% para M1, 3% para M2 y 4% para M3. ¿Cuál es la probabilidad total de que un artículo seleccionado al azar sea defectuoso?
Solución:
Definimos eventos:
Aplicando Teorema de Probabilidad Total:
P(D) = P(D|M₁)P(M₁) + P(D|M₂)P(M₂) + P(D|M₃)P(M₃) P(D) = 0.02×0.20 + 0.03×0.30 + 0.04×0.50 = 0.004 + 0.009 + 0.02 = 0.033 = 3.3%
Resultado: P(D) = 3.3% (probabilidad total de defecto)
Problema: Se lanza un dado y una moneda justos. ¿Son independientes los eventos “obtener un 6 en el dado” y “obtener cara en la moneda”?
Solución:
Eventos:
Verificamos la condición de independencia:
P(A) · P(B) = (1/6) × (1/2) = 1/12 = P(A ∩ B)
Resultado: Como se cumple P(A∩B) = P(A)·P(B), los eventos son independientes.
| Concepto | Fórmula | Condición |
|---|---|---|
| Probabilidad condicional | P(A|B) = P(A∩B)/P(B) | P(B) > 0 |
| Probabilidad total | P(A) = Σ P(A|Bᵢ)·P(Bᵢ) | {Bᵢ} partición de Ω |
| Teorema de Bayes | P(Bᵢ|A) = P(A|Bᵢ)·P(Bᵢ) / Σ P(A|Bⱼ)·P(Bⱼ) | P(A) > 0 |
| Independencia | P(A∩B) = P(A)·P(B) | A y B independientes |
| Independencia condicional | P(A∩B|C) = P(A|C)·P(B|C) | A y B independientes dado C |
Una variable aleatoria (v.a.) es una función que asigna un valor numérico real a cada resultado en el espacio muestral Ω de un experimento aleatorio. Formalmente, una variable aleatoria X es una función X: Ω → ℝ.
Para una variable aleatoria discreta X que toma valores en un conjunto contable {x₁, x₂, …}, la función de probabilidad (probability mass function, pmf) es una función pₓ(x) definida como:
pₓ(x) = P(X = x)
La función de probabilidad satisface las siguientes propiedades:
Para una variable aleatoria continua X que toma valores en un intervalo (o una unión de intervalos), la función de densidad de probabilidad (probability density function, pdf) es una función fₓ(x) tal que la probabilidad de que X tome un valor en un intervalo [a, b] está dada por la integral de la función de densidad sobre ese intervalo:
P(a ≤ X ≤ b) = ∫ₐᵇ fₓ(x) dx
La función de densidad de probabilidad satisface las siguientes propiedades:
La función de distribución acumulativa (cumulative distribution function, cdf) de una variable aleatoria X, denotada por Fₓ(x), se define como la probabilidad de que la variable aleatoria X tome un valor menor o igual a x:
Fₓ(x) = P(X ≤ x)
Esta definición es válida tanto para variables aleatorias discretas como continuas.
La función de distribución acumulativa Fₓ(x) tiene las siguientes propiedades:
Para variables aleatorias discretas, Fₓ(x) es una función escalonada que aumenta en los puntos donde la pmf es positiva. Para variables aleatorias continuas, Fₓ(x) es una función continua y se relaciona con la pdf por:
Fₓ(x) = ∫₋∞ˣ fₓ(t) dt
La función de distribución acumulativa se puede utilizar para calcular probabilidades de diversos eventos relacionados con la variable aleatoria X:
Problema: Una compañía tiene dos máquinas, M₁ y M₂, que producen el 40% y el 60% de los artículos respectivamente. Se sabe que el 5% de los artículos producidos por M₁ son defectuosos, mientras que el 3% de los artículos producidos por M₂ son defectuosos. Si se selecciona un artículo al azar y resulta ser defectuoso, ¿cuál es la probabilidad de que haya sido producido por la máquina M₁?
Solución:
Definimos los eventos:
Queremos encontrar P(M₁|D). Usando el Teorema de Bayes:
Paso 1: Calcular P(D) usando el Teorema de Probabilidad Total:
P(D) = P(D|M₁)·P(M₁) + P(D|M₂)·P(M₂) = (0.05)(0.40) + (0.03)(0.60) = 0.020 + 0.018 = 0.038
Paso 2: Calcular P(M₁|D):
P(M₁|D) = P(D|M₁)·P(M₁) / P(D) = (0.05)(0.40) / 0.038 = 0.020 / 0.038 ≈ 0.5263
Resultado: La probabilidad de que un artículo defectuoso haya sido producido por la máquina M₁ es aproximadamente 52.63%.
📋 Código en R:
# Probabilidades dadas P_M1 <- 0.40 P_M2 <- 0.60 P_D_dado_M1 <- 0.05 P_D_dado_M2 <- 0.03 # Calcular P(D) usando el Teorema de Probabilidad Total P_D <- (P_D_dado_M1 * P_M1) + (P_D_dado_M2 * P_M2) cat("P(D) =", P_D, "\n") # Calcular P(M1|D) usando el Teorema de Bayes P_M1_dado_D <- (P_D_dado_M1 * P_M1) / P_D cat("P(M1|D) =", P_M1_dado_D, "\n")
Problema: Se lanzan dos dados justos. Sea A el evento de que la suma de los resultados es 7, y sea B el evento de que el resultado del primer dado es 4. ¿Son A y B eventos independientes?
Solución:
El espacio muestral Ω tiene 6 × 6 = 36 resultados posibles, todos igualmente probables con probabilidad 1/36.
Verificamos la condición de independencia:
P(A) · P(B) = (1/6) × (1/6) = 1/36 = P(A ∩ B)
Resultado: Como P(A∩B) = P(A)·P(B), los eventos A y B son independientes.
📋 Código en R:
# Probabilidades P_A <- 6 / 36 P_B <- 6 / 36 P_A_interseccion_B <- 1 / 36 # Verificar independencia independientes <- (P_A_interseccion_B == (P_A * P_B)) cat("P(A) =", P_A, "\n") cat("P(B) =", P_B, "\n") cat("P(A ∩ B) =", P_A_interseccion_B, "\n") cat("¿Son independientes?", independientes, "\n")
Problema: Considera el experimento de lanzar una moneda justa tres veces. Sea X la variable aleatoria que representa el número de caras obtenidas.
Solución:
El espacio muestral tiene 8 resultados igualmente probables. X puede tomar valores 0, 1, 2, 3.
a) Función de probabilidad pₓ(x):
b) Función de distribución acumulativa Fₓ(x):
c) P(X ≤ 2):
P(X ≤ 2) = Fₓ(2) = 7/8 = 0.875
📋 Código en R:
# Función de probabilidad pmf <- c("P(X=0)" = 1/8, "P(X=1)" = 3/8, "P(X=2)" = 3/8, "P(X=3)" = 1/8) print(pmf) # Función de distribución acumulativa cdf <- cumsum(pmf) print(cdf) # P(X ≤ 2) P_X_leq_2 <- cdf["P(X=2)"] cat("P(X ≤ 2) =", P_X_leq_2, "\n")
🔗 Acceso al material:
https://forms.gle/E6wgLUzPYrexiDmD6
🔗 Acceso al laboratorio:
https://youtu.be/45boYA_GcWc
| Característica | Variable Discreta | Variable Continua |
|---|---|---|
| Valores posibles | Conjunto contable (finito o infinito) | Intervalo o unión de intervalos |
| Función de probabilidad | Función de masa pₓ(x) | Función de densidad fₓ(x) |
| Probabilidad puntual | P(X = a) ≥ 0 | P(X = a) = 0 |
| Probabilidad en intervalo | Suma de pₓ(x) en A | ∫ₐᵇ fₓ(x) dx |
| Función de distribución | Fₓ(x) = Σ_{t≤x} pₓ(t) | Fₓ(x) = ∫₋∞ˣ fₓ(t) dt |
| Ejemplo | Número de caras | Altura, tiempo, peso |
¡Excelente! Aquí tienes más ejemplos de variables aleatorias (Binomial, Poisson, Normal) y ejercicios prácticos con el mismo formato visual.
La distribución binomial modela el número de éxitos en n ensayos independientes, donde cada ensayo tiene probabilidad de éxito p.
Función de probabilidad:
P(X = k) = C(n, k) · pᵏ · (1-p)ⁿ⁻ᵏ, k = 0, 1, 2, ..., n
Parámetros:
Problema: Una fábrica produce artículos con una tasa de defectos del 10%. Se seleccionan 8 artículos al azar. ¿Cuál es la probabilidad de que exactamente 2 sean defectuosos?
Solución:
X: número de artículos defectuosos → X ~ Binomial(n=8, p=0.10)
P(X=2) = C(8,2) · (0.10)² · (0.90)⁶ P(X=2) = 28 × 0.01 × 0.531441 = 28 × 0.00531441 = 0.1488
Resultado: P(X=2) = 0.1488 (14.88%)
📋 Código en R:
# Distribución Binomial n <- 8 p <- 0.10 k <- 2 # Probabilidad exacta de k defectuosos prob_exacta <- dbinom(k, n, p) cat("P(X = 2) =", prob_exacta, "\n") # Probabilidad de hasta 2 defectuosos prob_hasta_2 <- pbinom(2, n, p) cat("P(X ≤ 2) =", prob_hasta_2, "\n")
Resultados adicionales: P(X ≤ 2) = 0.9619 (96.19% de probabilidad de tener 2 o menos defectuosos)
La distribución de Poisson modela el número de eventos raros que ocurren en un intervalo fijo de tiempo o espacio.
Función de probabilidad:
P(X = k) = e⁻ˡ · λᵏ / k!, k = 0, 1, 2, ...
Parámetros:
Problema: Un centro de atención recibe un promedio de 5 llamadas por minuto. ¿Cuál es la probabilidad de recibir exactamente 3 llamadas en un minuto específico?
Solución:
X: número de llamadas por minuto → X ~ Poisson(λ = 5)
P(X=3) = e⁻⁵ · 5³ / 3! = 0.0067379 × 125 / 6 = 0.8422375 / 6 = 0.1404
Resultado: P(X=3) = 0.1404 (14.04%)
📋 Código en R:
# Distribución de Poisson lambda <- 5 k <- 3 # Probabilidad exacta de 3 llamadas prob_exacta <- dpois(k, lambda) cat("P(X = 3) =", round(prob_exacta, 4), "\n") # Probabilidad de máximo 3 llamadas prob_max_3 <- ppois(3, lambda) cat("P(X ≤ 3) =", round(prob_max_3, 4), "\n") # Generar valores de la distribución x_vals <- 0:15 prob_vals <- dpois(x_vals, lambda) barplot(prob_vals, names.arg = x_vals, xlab = "Número de llamadas", ylab = "Probabilidad", main = "Distribución Poisson (λ = 5)")
La distribución normal (campana de Gauss) es la más importante en estadística. Modela fenómenos naturales como alturas, pesos, errores de medición.
Función de densidad:
f(x) = 1 / (σ√(2π)) · e⁻⁽ˣ⁻μ⁾²/⁽²σ²⁾, -∞ < x < ∞
Parámetros:
Problema: Los pesos de los estudiantes de una universidad siguen una distribución normal con media μ = 70 kg y desviación estándar σ = 8 kg. ¿Cuál es la probabilidad de que un estudiante elegido al azar pese entre 66 kg y 78 kg?
Solución:
X ~ N(μ=70, σ=8). Estandarizamos: Z = (X - μ)/σ
z₁ = (66 - 70)/8 = -0.5 z₂ = (78 - 70)/8 = 1.0 P(66 ≤ X ≤ 78) = P(-0.5 ≤ Z ≤ 1.0) = P(Z ≤ 1.0) - P(Z ≤ -0.5) P(Z ≤ 1.0) = 0.8413 P(Z ≤ -0.5) = 0.3085 P = 0.8413 - 0.3085 = 0.5328
Resultado: P(66 ≤ X ≤ 78) = 0.5328 (53.28%)
📋 Código en R:
# Distribución Normal media <- 70 desv <- 8 # Probabilidad entre 66 y 78 prob_entre <- pnorm(78, media, desv) - pnorm(66, media, desv) cat("P(66 ≤ X ≤ 78) =", round(prob_entre, 4), "\n") # Probabilidad de pesar más de 80 kg prob_mas_80 <- 1 - pnorm(80, media, desv) cat("P(X > 80) =", round(prob_mas_80, 4), "\n") # Percentil 90 (peso que supera el 90% de estudiantes) percentil_90 <- qnorm(0.90, media, desv) cat("Percentil 90 =", round(percentil_90, 2), "kg", "\n")
Resultados adicionales: P(X > 80) = 0.1056 (10.56%), Percentil 90 = 80.25 kg
Problema: Un examen tiene 10 preguntas de verdadero/falso. Un estudiante responde al azar todas las preguntas.
Solución en R:
# Parámetros n <- 10 p <- 0.5 # a) Exactamente 6 correctas prob_6 <- dbinom(6, n, p) cat("a) P(X = 6) =", round(prob_6, 4), "\n") # b) Al menos 6 correctas (aprueba) prob_aprueba <- 1 - pbinom(5, n, p) cat("b) P(X ≥ 6) =", round(prob_aprueba, 4), "\n") # c) Número esperado esperado <- n * p cat("c) E(X) =", esperado, "\n")
Respuestas: a) 0.2051 | b) 0.3770 | c) 5 respuestas
Problema: Un cajero automático recibe un promedio de 2 clientes por minuto.
Solución en R:
# Parámetros lambda_1min <- 2 # a) Exactamente 4 clientes en 1 minuto prob_4 <- dpois(4, lambda_1min) cat("a) P(X = 4) =", round(prob_4, 4), "\n") # b) Más de 3 clientes en 1 minuto prob_mas_3 <- 1 - ppois(3, lambda_1min) cat("b) P(X > 3) =", round(prob_mas_3, 4), "\n") # c) 6 clientes en 3 minutos (λ = 2 × 3 = 6) prob_6_3min <- dpois(6, 6) cat("c) P(Y = 6 en 3 min) =", round(prob_6_3min, 4), "\n")
Respuestas: a) 0.0902 | b) 0.1429 | c) 0.1606
Problema: Las calificaciones de un examen siguen una distribución normal con media 75 y desviación estándar 10.
Solución en R:
# Parámetros media <- 75 desv <- 10 # a) Porcentaje entre 65 y 85 prob_entre <- pnorm(85, media, desv) - pnorm(65, media, desv) cat("a) Porcentaje entre 65 y 85:", round(prob_entre * 100, 2), "%", "\n") # b) Percentil 10 (supera al 90% - el 10% inferior) percentil_10 <- qnorm(0.10, media, desv) cat("b) Calificación que supera al 90%:", round(percentil_10, 2), "\n") # c) Probabilidad de que 5 estudiantes tengan > 80 p_uno_mas_80 <- 1 - pnorm(80, media, desv) prob_cinco <- p_uno_mas_80^5 cat("c) P(todos > 80) =", round(prob_cinco, 4), "\n")
Respuestas: a) 68.27% | b) 62.18 | c) 0.0216 (2.16%)
| Distribución | Parámetros | Media μ | Varianza σ² | Tipos de datos | Ejemplo |
|---|---|---|---|---|---|
| Binomial | n, p | n·p | n·p·(1-p) | Discretos (conteos) | Número de éxitos en n ensayos |
| Poisson | λ | λ | λ | Discretos (eventos raros) | Llamadas por minuto |
| Normal | μ, σ | μ | σ² | Continuos | Altura, peso, calificaciones |
🔴 Ejercicio Binomial: Una máquina produce piezas con 5% de defectos. Si se toman 15 piezas, calcula:
🔵 Ejercicio Poisson: En una intersección ocurren 3 accidentes por mes en promedio. Calcula:
🟢 Ejercicio Normal: Las estaturas de estudiantes siguen N(165, 10²) en cm. Calcula:
Dos variables aleatorias X e Y se dicen independientes si el conocimiento del valor que toma una de ellas no proporciona información sobre el valor que puede tomar la otra. Formalmente, X e Y son independientes si para todos los posibles valores x e y:
Un conjunto de n variables aleatorias X₁, X₂, …, Xₙ son mutuamente independientes si para cualquier subconjunto se cumple la propiedad multiplicativa.
La esperanza de una variable aleatoria X, denotada por E[X] o μX, es el valor promedio de X. Se calcula de la siguiente manera:
E[X] = Σᵢ xᵢ · pX(xᵢ)
E[X] = ∫₋∞^∞ x · fX(x) dx
La esperanza también se conoce como la media o el valor esperado de la variable aleatoria.
Si g(X) es una función de la variable aleatoria X, entonces la esperanza de g(X) se calcula como:
Si tenemos una función de dos variables aleatorias g(X, Y), entonces:
Ejemplo: Si g(X) = X², entonces E[X²] = Σ xᵢ²·p(xᵢ) o ∫ x²·f(x) dx
La esperanza tiene varias propiedades importantes:
E[aX + bY] = a·E[X] + b·E[Y]
La varianza de una variable aleatoria X, denotada por Var(X), σX² o σ², mide la dispersión de los valores de X alrededor de su media μX = E[X]. Se define como la esperanza del cuadrado de la desviación de X respecto a su media:
Var(X) = E[(X - μX)²]
La varianza también se puede calcular usando la siguiente fórmula:
Var(X) = E[X²] - (E[X])² = E[X²] - μX²
La desviación estándar de X, denotada por SD(X) o σX o σ, es la raíz cuadrada positiva de la varianza:
SD(X) = √Var(X)
La varianza tiene las siguientes propiedades:
El n-ésimo momento de orden k alrededor de a de una variable aleatoria X se define como E[(X - a)ᵏ].
La función generadora de momentos (MGF) de una variable aleatoria X, denotada por MX(t), se define como:
MX(t) = E[e^{tX}]
Propiedades de la MGF:
La función generadora de probabilidad (PGF) se utiliza principalmente para variables aleatorias discretas que toman valores no negativos enteros (0, 1, 2, …). Se define como:
GX(z) = E[z^X] = Σ_{k=0}^{∞} P(X = k)·z^{k}
Propiedades de la PGF:
🔗 Acceso al material:
https://forms.gle/AMwDNXjjfBVJM1uL8
🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=eiLm8kaH7-E
Problema: Sea X el resultado del lanzamiento de un dado justo. Calcula la esperanza y la varianza de X.
Solución:
X puede tomar valores {1, 2, 3, 4, 5, 6} con probabilidad p(x) = 1/6.
E[X] = (1+2+3+4+5+6)/6 = 21/6 = 3.5 E[X²] = (1²+2²+3²+4²+5²+6²)/6 = (1+4+9+16+25+36)/6 = 91/6 ≈ 15.1667 Var(X) = E[X²] - (E[X])² = 15.1667 - (3.5)² = 15.1667 - 12.25 = 2.9167 SD(X) = √2.9167 ≈ 1.7078
📋 Código en R:
# Dado justo valores <- 1:6 prob <- rep(1/6, 6) # Esperanza esperanza <- sum(valores * prob) cat("E[X] =", esperanza, "\n") # Varianza esperanza_cuadrados <- sum(valores^2 * prob) varianza <- esperanza_cuadrados - esperanza^2 cat("Var(X) =", varianza, "\n") # Desviación estándar sd <- sqrt(varianza) cat("SD(X) =", sd, "\n")
Resultados: E[X] = 3.5 | Var(X) = 2.9167 | SD(X) = 1.7078
Problema: Sea X una variable aleatoria con E[X] = 10 y Var(X) = 4. Calcula:
Solución:
a) E[3X + 5] = 3·E[X] + 5 = 3×10 + 5 = 35 b) Var(2X - 3) = 2²·Var(X) = 4 × 4 = 16 c) E[X²] = Var(X) + (E[X])² = 4 + 10² = 4 + 100 = 104
📋 Código en R:
# Parámetros E_X <- 10 Var_X <- 4 # a) Esperanza lineal E_3X_5 <- 3 * E_X + 5 cat("E[3X+5] =", E_3X_5, "\n") # b) Varianza transformación lineal Var_2X_3 <- 4 * Var_X cat("Var(2X-3) =", Var_2X_3, "\n") # c) Segundo momento E_X2 <- Var_X + E_X^2 cat("E[X²] =", E_X2, "\n")
Resultados: a) 35 | b) 16 | c) 104
Problema: Sea X ~ Binomial(n=10, p=0.4). Calcula la esperanza y la varianza de X.
Solución:
Para una distribución Binomial(n, p):
E[X] = n·p = 10 × 0.4 = 4 Var(X) = n·p·(1-p) = 10 × 0.4 × 0.6 = 2.4 SD(X) = √2.4 ≈ 1.5492
📋 Código en R:
# Distribución Binomial n <- 10 p <- 0.4 # Esperanza y varianza teóricas E_X <- n * p Var_X <- n * p * (1 - p) cat("E[X] =", E_X, "\n") cat("Var(X) =", Var_X, "\n") # Simulación para verificar set.seed(123) muestra <- rbinom(10000, n, p) cat("Media muestral =", mean(muestra), "\n") cat("Varianza muestral =", var(muestra), "\n")
Resultados: E[X] = 4 | Var(X) = 2.4 | SD(X) = 1.5492
| Concepto | Fórmula | Aplicación |
|---|---|---|
| Esperanza (discreta) | E[X] = Σ x·p(x) | Valor promedio |
| Esperanza (continua) | E[X] = ∫ x·f(x) dx | Valor promedio |
| Linealidad | E[aX + bY] = a·E[X] + b·E[Y] | Combinaciones lineales |
| Independencia | E[XY] = E[X]·E[Y] | Producto de v.a. independientes |
| Varianza | Var(X) = E[(X-μ)²] = E[X²] - (E[X])² | Dispersión |
| Varianza lineal | Var(aX + b) = a²·Var(X) | Transformaciones lineales |
| Varianza suma (indep.) | Var(X+Y) = Var(X) + Var(Y) | Suma de v.a. independientes |
| Covarianza | Cov(X,Y) = E[XY] - E[X]·E[Y] | Relación lineal entre X e Y |
| Distribución | MGF M(t) | PGF G(z) | E[X] | Var(X) |
|---|---|---|---|---|
| Binomial(n, p) | (1-p + peᵗ)ⁿ | (1-p + pz)ⁿ | np | np(1-p) |
| Poisson(λ) | e^{λ(eᵗ-1)} | e^{λ(z-1)} | λ | λ |
| Geométrica(p) | peᵗ / (1-(1-p)eᵗ) | pz / (1-(1-p)z) | 1/p | (1-p)/p² |
| Normal(μ, σ²) | e^{μt + σ²t²/2} | No aplica | μ | σ² |
| Exponencial(λ) | λ/(λ-t) | No aplica | 1/λ | 1/λ² |
Una variable aleatoria X tiene una distribución uniforme discreta en el conjunto {x₁, x₂, …, xₙ} si toma cada uno de estos valores con igual probabilidad:
P(X = xᵢ) = 1/n, para i = 1, 2, ..., n
Parámetros:
Una variable aleatoria X tiene una distribución de Bernoulli con parámetro p (0 ≤ p ≤ 1) si toma solo dos valores posibles: 1 (éxito) con probabilidad p, y 0 (fracaso) con probabilidad 1-p = q:
P(X = 1) = p P(X = 0) = 1 - p = q
Parámetros:
Una variable aleatoria X tiene una distribución binomial con parámetros n (número de ensayos independientes) y p (probabilidad de éxito en cada ensayo), denotada por Bin(n, p), si representa el número de éxitos en n ensayos de Bernoulli independientes e idénticamente distribuidos.
P(X = k) = C(n, k) · pᵏ · (1-p)ⁿ⁻ᵏ, para k = 0, 1, ..., n
Parámetros:
Problema: Sean X e Y dos variables aleatorias independientes con E[X]=2 y E[Y]=-1. Calcula E[Z] = E[3X - 2Y + 5].
Solución: E[Z] = 3·E[X] - 2·E[Y] + 5 = 3(2) - 2(-1) + 5 = 6 + 2 + 5 = 13
EX <- 2; EY <- -1
EZ <- 3 * EX - 2 * EY + 5
print(paste("E[Z] =", EZ))
Problema: X e Y independientes con Var(X)=4 y Var(Y)=9. Calcula Var(W)=Var(2X+Y-3).
Solución: Var(W) = 4·Var(X) + Var(Y) = 4(4) + 9 = 25
Problema: Se lanzan 5 monedas justas. X = número de caras.
n <- 5; p <- 0.5 dbinom(3, n, p) # 0.3125 n * p # 2.5 n * p * (1-p) # 1.25
Una variable aleatoria X tiene una distribución geométrica con parámetro p (0 < p ≤ 1) si representa el número de ensayos de Bernoulli independientes necesarios hasta obtener el primer éxito.
P(X = k) = (1-p)ᵏ⁻¹·p = qᵏ⁻¹·p, para k = 1, 2, 3, ...
Parámetros:
Una variable aleatoria X tiene una distribución binomial negativa con parámetros r (número de éxitos deseados) y p (probabilidad de éxito) si representa el número de ensayos necesarios hasta obtener el r-ésimo éxito.
P(X = k) = C(k-1, r-1)·pʳ·(1-p)ᵏ⁻ʳ, para k = r, r+1, r+2, ...
Parámetros:
Una variable aleatoria X tiene una distribución hipergeométrica con parámetros N (población), K (éxitos en la población) y n (tamaño de muestra sin reemplazo) si representa el número de éxitos en la muestra.
P(X = k) = C(K, k)·C(N-K, n-k) / C(N, n)
Parámetros:
Problema: Lanzar un dado hasta obtener un 6 (p=1/6).
Problema: p=0.7, r=3, k=5. P(X=5) = C(4,2)·(0.7)³·(0.3)² ≈ 0.1852
Problema: N=15, K=10, n=4, k=3. P(X=3) = C(10,3)·C(5,1)/C(15,4) = 600/1365 ≈ 0.4396
Una variable aleatoria X tiene una distribución de Poisson con parámetro λ > 0 si representa el número de eventos que ocurren en un intervalo fijo de tiempo o espacio.
P(X = k) = e⁻ˡ·λᵏ / k!, para k = 0, 1, 2, ...
Parámetros:
P(X=3) = e⁻⁵·5³/6 ≈ 0.1404
P(X=0) = e⁻³ ≈ 0.0498
P(X>20) = 1 - P(X≤20) ≈ 0.4409
dpois(3, 5) # 0.1404 dpois(0, 2) # 0.1353 1 - ppois(1, 2) # 0.5940 dpois(0, 3) # 0.0498 1 - ppois(20, 20) # 0.4409
| Distribución | Parámetros | P(X=k) | E[X] | Var(X) |
|---|---|---|---|---|
| Uniforme Discreta | n | 1/n | (n+1)/2 | (n²-1)/12 |
| Bernoulli | p | p si k=1, q si k=0 | p | pq |
| Binomial | n, p | C(n,k)·pᵏ·qⁿ⁻ᵏ | np | npq |
| Geométrica | p | qᵏ⁻¹·p | 1/p | q/p² |
| Binomial Negativa | r, p | C(k-1,r-1)·pʳ·qᵏ⁻ʳ | r/p | rq/p² |
| Hipergeométrica | N, K, n | C(K,k)C(N-K,n-k)/C(N,n) | nK/N | n(K/N)(1-K/N)(N-n)/(N-1) |
| Poisson | λ | e⁻ˡ·λᵏ/k! | λ | λ |
Una distribución de probabilidad continua describe las probabilidades de los posibles valores de una variable aleatoria continua (una variable que puede tomar cualquier valor dentro de un rango específico). A diferencia de las distribuciones discretas, donde la probabilidad se concentra en puntos específicos, en las distribuciones continuas la probabilidad se distribuye a lo largo de un intervalo, y la probabilidad de que la variable tome un valor exacto es cero.
La probabilidad de que la variable aleatoria X caiga dentro de un intervalo [a, b] se calcula integrando la función de densidad de probabilidad (pdf), fₓ(x), sobre ese intervalo:
P(a ≤ X ≤ b) = ∫ₐᵇ fₓ(x) dx
La pdf debe satisfacer las siguientes condiciones:
Una variable aleatoria X tiene una distribución uniforme continua en el intervalo [a, b] si su función de densidad de probabilidad es constante en ese intervalo y cero fuera de él. La pdf está dada por:
fₓ(x) = { 1/(b-a) para a ≤ x ≤ b
{ 0 en otro caso
donde a y b son los parámetros de la distribución, con a < b.
Parámetros:
La distribución uniforme continua modela situaciones donde todos los valores dentro de un intervalo dado son igualmente probables.
Una variable aleatoria X tiene una distribución exponencial con parámetro λ > 0 si su función de densidad de probabilidad está dada por:
fₓ(x) = { λ·e⁻ˡˣ para x ≥ 0
{ 0 para x < 0
donde λ es la tasa de ocurrencia del evento.
Parámetros:
La distribución exponencial se utiliza a menudo para modelar el tiempo hasta que ocurre un evento, como:
Propiedad importante: La distribución exponencial tiene la propiedad de falta de memoria: P(X > s+t | X > s) = P(X > t). Esto significa que la probabilidad condicional de que un evento ocurra en el futuro no depende de cuánto tiempo haya pasado desde el último evento.
Problema: Un autobús pasa por una parada cada 20 minutos exactamente. Si una persona llega a la parada en un momento aleatorio, ¿cuál es la probabilidad de que espere menos de 5 minutos?
Solución:
El tiempo de espera X sigue una distribución uniforme continua en [0, 20] minutos.
fₓ(x) = 1/20, 0 ≤ x ≤ 20 P(X < 5) = ∫₀⁵ (1/20) dx = (5/20) = 0.25
Resultado: La probabilidad de esperar menos de 5 minutos es 0.25 (25%).
📋 Código en R:
# Distribución Uniforme Continua U(0,20) a <- 0 b <- 20 # P(X < 5) prob_menos_5 <- punif(5, a, b) cat("P(X < 5) =", prob_menos_5, "\n") # Esperanza y varianza esperanza <- (a + b)/2 varianza <- (b - a)^2 / 12 cat("E[X] =", esperanza, "minutos\n") cat("Var(X) =", varianza, "\n")
Problema: Un médico atiende a sus pacientes entre las 9:00 AM y las 12:00 PM. Si un paciente llega a una hora aleatoria, ¿cuál es la probabilidad de que sea atendido después de las 10:30 AM?
Solución:
Tiempo X ~ Uniforme(9, 12) en horas.
P(X > 10.5) = (12 - 10.5) / (12 - 9) = 1.5 / 3 = 0.5
Resultado: Probabilidad de ser atendido después de las 10:30 AM es 0.5 (50%).
# Paciente atendido después de las 10:30 (10.5 horas) a <- 9; b <- 12 prob_despues <- 1 - punif(10.5, a, b) cat("P(X > 10.5) =", prob_despues, "\n")
Problema: La vida útil de un componente electrónico sigue una distribución exponencial con una vida media de 500 horas (λ = 1/500 = 0.002). ¿Cuál es la probabilidad de que el componente dure más de 600 horas?
Solución:
P(X > 600) = 1 - F(600) = 1 - (1 - e^{-0.002×600}) = e^{-1.2} ≈ 0.3012
Resultado: La probabilidad de que dure más de 600 horas es aproximadamente 0.3012 (30.12%).
📋 Código en R:
# Distribución Exponencial con media 500 horas media <- 500 lambda <- 1 / media # P(X > 600) prob_mas_600 <- exp(-lambda * 600) cat("P(X > 600) =", prob_mas_600, "\n") # Esperanza y varianza cat("E[X] =", 1/lambda, "horas\n") cat("Var(X) =", 1/lambda^2, "\n") # Tiempo medio de vida vida_media <- qexp(0.5, lambda) cat("Vida media (mediana):", vida_media, "horas\n")
Problema: En un call center, las llamadas llegan a una tasa promedio de 10 llamadas por hora (λ = 10 llamadas/hora). El tiempo entre llamadas sigue una distribución exponencial. ¿Cuál es la probabilidad de que el tiempo entre dos llamadas consecutivas sea mayor a 0.2 horas (12 minutos)?
Solución:
P(X > 0.2) = e^{-λ·t} = e^{-10 × 0.2} = e^{-2} ≈ 0.1353
Resultado: La probabilidad de esperar más de 12 minutos entre llamadas es aproximadamente 0.1353 (13.53%).
📋 Código en R:
# Tasa de llamadas tasa <- 10 # llamadas por hora lambda <- tasa t <- 0.2 # 12 minutos en horas # P(X > 0.2) usando la distribución exponencial prob_mayor <- exp(-lambda * t) cat("P(X > 0.2 horas) =", prob_mayor, "\n") # Alternativa con función pexp prob_mayor_alt <- 1 - pexp(t, lambda) cat("Alternativa:", prob_mayor_alt, "\n")
Problema: Un componente electrónico tiene una vida útil exponencial con media 500 horas. Si ha funcionado correctamente durante 300 horas, ¿cuál es la probabilidad de que dure al menos 200 horas más?
Solución:
Por la propiedad de falta de memoria de la distribución exponencial:
P(X > 500 | X > 300) = P(X > 200) = e^{-λ·200} = e^{-0.002×200} = e^{-0.4} ≈ 0.6703
Resultado: La probabilidad es aproximadamente 0.6703 (67.03%), la misma que si fuera un componente nuevo.
📋 Código en R:
# Verificación de la falta de memoria lambda <- 1/500 # P(X > 500 | X > 300) es igual a P(X > 200) prob_condicional <- exp(-lambda * 200) prob_nuevo <- 1 - pexp(200, lambda) cat("P(X > 500 | X > 300) =", prob_condicional, "\n") cat("P(X > 200) =", prob_nuevo, "\n")
| Distribución | Parámetros | PDF f(x) | E[X] | Var(X) | CDF F(x) |
|---|---|---|---|---|---|
| Uniforme Continua | a, b (a < b) | 1/(b-a), a≤x≤b | (a+b)/2 | (b-a)²/12 | (x-a)/(b-a), a≤x≤b |
| Exponencial | λ > 0 | λ·e⁻ˡˣ, x≥0 | 1/λ | 1/λ² | 1 - e⁻ˡˣ, x≥0 |
| Propiedad | Uniforme Continua | Exponencial |
|---|---|---|
| Rango | [a, b] (finito) | [0, ∞) (semi-infinito) |
| Simetría | Simétrica | Asimétrica (sesgo positivo) |
| Forma de la PDF | Rectangular | Decreciente exponencial |
| Falta de memoria | No | Sí |
| Tasa de fallo | Constante (hazard) | Constante (λ) |
| Relación con Poisson | No | Sí (tiempos entre eventos) |
Problema: Un autobús llega a una parada en cualquier momento entre las 10:00 AM y las 10:15 AM, con igual probabilidad. Si una persona llega a la parada exactamente a las 10:05 AM, ¿cuál es la probabilidad de que tenga que esperar más de 5 minutos por el autobús?
Solución en Markdown:
El tiempo de llegada del autobús sigue una distribución uniforme continua en el intervalo [0, 15] minutos después de las 10:00 AM. Aquí, a = 0 y b = 15.
La persona llega a los 5 minutos. Tendrá que esperar más de 5 minutos si el autobús llega después de los 5 + 5 = 10 minutos. Queremos encontrar P(X > 10), donde X es el tiempo de llegada del autobús en minutos después de las 10:00 AM.
La pdf es fₓ(x) = 1/(15 - 0) = 1/15 para 0 ≤ x ≤ 15.
P(X > 10) = ∫₁₀¹⁵ (1/15) dx = (15/15) - (10/15) = 1 - 2/3 = 1/3 ≈ 0.3333
Resultado: La probabilidad de esperar más de 5 minutos es 1/3 ≈ 0.3333.
📋 Código en R:
# Parámetros de la distribución uniforme a <- 0 b <- 15 # Probabilidad de que la llegada sea mayor que 10 prob_mayor_10 <- punif(10, min = a, max = b, lower.tail = FALSE) cat("P(X > 10) =", round(prob_mayor_10, 4), "\n") # Crear secuencia de tiempo x <- seq(0, 15, length.out = 300) densidad <- dunif(x, min = 0, max = 15) # Dibujar la función de densidad plot(x, densidad, type = "l", lwd = 2, col = "blue", main = "Distribución Uniforme: llegada del autobús", ylab = "Densidad", xlab = "Minutos después de las 10:00 AM") # Rellenar la región de interés: X > 10 x_sombra <- seq(10, 15, length.out = 200) y_sombra <- dunif(x_sombra, min = 0, max = 15) polygon(c(10, x_sombra, 15), c(0, y_sombra, 0), col = rgb(1, 0, 0, 0.3), border = NA) # Agregar líneas de referencia abline(v = 5, col = "darkgreen", lty = 2) abline(v = 10, col = "red", lty = 2) # Agregar texto explicativo text(7.5, 0.065, "Esperando < 5 minutos", col = "blue") text(12.5, 0.065, "Esperando > 5 minutos", col = "red")
Problema: La vida útil de un componente electrónico sigue una distribución exponencial con una tasa de falla promedio de λ = 0.02 por hora. ¿Cuál es la probabilidad de que el componente dure al menos 50 horas?
Solución en Markdown:
La variable aleatoria X es el tiempo de vida del componente en horas, con una tasa λ = 0.02. Queremos encontrar P(X ≥ 50). La función de distribución acumulativa (cdf) de una distribución exponencial es F(x) = 1 - e-λx para x ≥ 0.
P(X ≥ 50) = 1 - P(X < 50) = 1 - F(50) = 1 - (1 - e^{-0.02·50}) = e^{-1} ≈ 0.3679
Resultado: La probabilidad de que el componente dure al menos 50 horas es aproximadamente 0.3679.
📋 Código en R:
# Parámetro de la distribución exponencial lambda <- 0.02 # Probabilidad de que dure al menos 50 horas prob_mayor_igual_50 <- pexp(50, rate = lambda, lower.tail = FALSE) cat("P(X ≥ 50) =", round(prob_mayor_igual_50, 4), "\n") # Secuencia de tiempo t <- seq(0, 150, length.out = 500) f_t <- dexp(t, rate = lambda) # Graficar función de densidad plot(t, f_t, type = "l", lwd = 2, col = "blue", main = "Distribución Exponencial (λ = 0.02)", ylab = "Densidad", xlab = "Horas") # Rellenar región T ≥ 50 t_sombra <- seq(50, 150, length.out = 300) f_sombra <- dexp(t_sombra, rate = lambda) polygon(c(50, t_sombra, 150), c(0, f_sombra, 0), col = rgb(1, 0, 0, 0.3), border = NA) abline(v = 50, col = "red", lty = 2) text(100, 0.01, "Área sombreada = P(T ≥ 50)", col = "red")
Problema: En un centro de llamadas, las llamadas llegan a una tasa promedio de 2 por minuto. Suponiendo que el tiempo entre llegadas sigue una distribución exponencial, ¿cuál es la probabilidad de que el tiempo entre dos llamadas consecutivas sea menor de 30 segundos (0.5 minutos)?
Solución en Markdown:
La tasa promedio de llegadas es λ = 2 llamadas por minuto. El tiempo entre llegadas sigue una distribución exponencial con la misma tasa λ = 2. Queremos encontrar la probabilidad de que el tiempo entre dos llamadas consecutivas sea menor de x = 0.5 minutos, es decir, P(X < 0.5).
Usando la cdf de la distribución exponencial:
P(X < 0.5) = F(0.5) = 1 - e^{-λx} = 1 - e^{-2·0.5} = 1 - e^{-1} ≈ 1 - 0.3679 = 0.6321
Resultado: La probabilidad de que el tiempo entre dos llamadas consecutivas sea menor de 30 segundos es aproximadamente 0.6321.
📋 Código en R:
# Parámetro de la distribución exponencial lambda <- 2 # Probabilidad de que el tiempo entre llamadas sea menor de 0.5 minutos prob_menor_0_5 <- pexp(0.5, rate = lambda, lower.tail = TRUE) cat("P(T < 0.5) =", round(prob_menor_0_5, 4), "\n") # Secuencia de tiempo (en minutos) t <- seq(0, 2, length.out = 500) f_t <- dexp(t, rate = lambda) # Graficar función de densidad plot(t, f_t, type = "l", lwd = 2, col = "blue", main = "Distribución Exponencial (λ = 2 llamadas/min)", ylab = "Densidad", xlab = "Tiempo entre llamadas (min)") # Rellenar región T < 0.5 t_sombra <- seq(0, 0.5, length.out = 300) f_sombra <- dexp(t_sombra, rate = lambda) polygon(c(0, t_sombra, 0.5), c(0, f_sombra, 0), col = rgb(1, 0, 0, 0.3), border = NA) abline(v = 0.5, col = "red", lty = 2) text(1.2, 1.5, "Área sombreada = P(T < 0.5)", col = "red")
| Distribución | Función de densidad (d*) | Función de distribución (p*) | Función cuantil (q*) | Generación aleatoria (r*) |
|---|---|---|---|---|
| Uniforme | dunif(x, min, max) | punif(q, min, max) | qunif(p, min, max) | runif(n, min, max) |
| Exponencial | dexp(x, rate) | pexp(q, rate) | qexp(p, rate) | rexp(n, rate) |
| Normal | dnorm(x, mean, sd) | pnorm(q, mean, sd) | qnorm(p, mean, sd) | rnorm(n, mean, sd) |
| Gamma | dgamma(x, shape, rate) | pgamma(q, shape, rate) | qgamma(p, shape, rate) | rgamma(n, shape, rate) |
| Beta | dbeta(x, shape1, shape2) | pbeta(q, shape1, shape2) | qbeta(p, shape1, shape2) | rbeta(n, shape1, shape2) |
| Weibull | dweibull(x, shape, scale) | pweibull(q, shape, scale) | qweibull(p, shape, scale) | rweibull(n, shape, scale) |
lower.tail = FALSE en R calcula directamente P(X
> x)
La función gama, denotada por Γ(z), es una extensión de la función factorial a los números complejos. Para un número complejo z con parte real positiva (Re(z) > 0), se define mediante la integral impropia:
Γ(z) = ∫₀^∞ t^{z-1} e^{-t} dt
Propiedades importantes de la función gama:
La función gama aparece en muchas áreas de las matemáticas, la estadística y la física, incluyendo la definición de varias distribuciones de probabilidad continuas.
Una variable aleatoria X tiene una distribución gama con parámetros de forma α > 0 y de tasa β > 0 (o parámetro de escala θ = 1/β > 0) si su función de densidad de probabilidad (pdf) está dada por:
f(x; α, β) = β^α / Γ(α) · x^{α-1} · e^{-β·x}, para x > 0
donde:
Alternativamente, utilizando el parámetro de escala θ = 1/β:
f(x; α, θ) = 1/(Γ(α)·θ^α) · x^{α-1} · e^{-x/θ}, para x > 0
Parámetros:
Casos especiales de la distribución gama:
La distribución gama es muy flexible y se utiliza para modelar una amplia variedad de fenómenos, como tiempos de espera, duración de eventos y variables económicas.
Problema: El tiempo hasta el fallo de un cierto tipo de componente electrónico (en horas) se modela mediante una distribución gama con parámetro de forma α = 2 y parámetro de tasa β = 0.01. ¿Cuál es la probabilidad de que un componente falle antes de las 100 horas?
Solución en Markdown:
Tenemos una distribución gama con α = 2, β = 0.01. Queremos encontrar P(X < 100). La cdf de la distribución gama es generalmente compleja y se expresa en términos de la función gama incompleta.
Resultado: La probabilidad de fallo antes de 100 horas es aproximadamente 0.2642.
📋 Código en R:
# Parámetros de la distribución gama alpha <- 2 beta <- 0.01 # Probabilidad de fallo antes de 100 horas prob_fallo_antes_100 <- pgamma(100, shape = alpha, rate = beta) cat("P(X < 100) =", round(prob_fallo_antes_100, 4), "\n") # Secuencia de tiempo y gráfico t <- seq(0, 400, length.out = 500) f_t <- dgamma(t, shape = alpha, rate = beta) plot(t, f_t, type = "l", lwd = 2, col = "blue", main = "Distribución Gamma (α = 2, β = 0.01)", ylab = "Densidad", xlab = "Tiempo hasta el fallo (horas)") # Rellenar la región T < 100 t_sombra <- seq(0, 100, length.out = 300) f_sombra <- dgamma(t_sombra, shape = alpha, rate = beta) polygon(c(0, t_sombra, 100), c(0, f_sombra, 0), col = rgb(1, 0, 0, 0.3), border = NA) abline(v = 100, col = "red", lty = 2)
Problema: La duración de un evento (en minutos) se modela con una distribución gama con parámetro de forma α = 3 y parámetro de escala θ = 5. ¿Cuál es la probabilidad de que el evento dure entre 10 y 20 minutos?
Solución en Markdown:
Tenemos una distribución gama con α = 3 y θ = 5 (lo que implica β = 1/5 = 0.2). Queremos encontrar P(10 ≤ X ≤ 20) = P(X ≤ 20) - P(X < 10).
Resultado: La probabilidad es aproximadamente 0.6161.
📋 Código en R:
# Parámetros de la distribución gama (usando escala) alpha <- 3 scale <- 5 rate <- 1 / scale # Probabilidad entre 10 y 20 minutos prob_hasta_20 <- pgamma(20, shape = alpha, scale = scale) prob_hasta_10 <- pgamma(10, shape = alpha, scale = scale) prob_entre <- prob_hasta_20 - prob_hasta_10 cat("P(10 < X < 20) =", round(prob_entre, 4), "\n") # Gráfico t <- seq(0, 50, length.out = 500) f_t <- dgamma(t, shape = alpha, rate = rate) plot(t, f_t, type = "l", lwd = 2, col = "blue", main = "Distribución Gamma (α = 3, θ = 5)", ylab = "Densidad", xlab = "Duración (minutos)") # Sombrear área entre 10 y 20 t_sombra <- seq(10, 20, length.out = 300) f_sombra <- dgamma(t_sombra, shape = alpha, rate = rate) polygon(c(10, t_sombra, 20), c(0, f_sombra, 0), col = rgb(1, 0, 0, 0.3), border = NA) abline(v = 10, col = "red", lty = 2) abline(v = 20, col = "red", lty = 2)
Problema: Supongamos que el tiempo entre llegadas de clientes a una tienda sigue una distribución exponencial con una tasa de λ = 0.1 por minuto. El tiempo total para que lleguen los próximos 4 clientes sigue una distribución gama. ¿Cuáles son los parámetros de esta distribución gama y cuál es la probabilidad de que los próximos 4 clientes lleguen en menos de 30 minutos?
Solución en Markdown:
Si el tiempo entre llegadas sigue una distribución exponencial con tasa λ, entonces el tiempo para que ocurran α eventos sigue una distribución gama con forma α y tasa λ. En este caso, α = 4 (4 clientes) y λ = β = 0.1 por minuto.
Resultado: P(X < 30) ≈ 0.3528.
📋 Código en R:
# Parámetros de la distribución gama alpha <- 4 # número de clientes (forma) beta <- 0.1 # tasa (λ) # Probabilidad de que lleguen en menos de 30 minutos prob_menos_30 <- pgamma(30, shape = alpha, rate = beta) cat("P(T < 30) =", round(prob_menos_30, 4), "\n") # Gráfico t <- seq(0, 100, length.out = 500) f_t <- dgamma(t, shape = alpha, rate = beta) plot(t, f_t, type = "l", lwd = 2, col = "blue", main = "Distribución Gamma: Tiempo hasta 4 clientes", ylab = "Densidad", xlab = "Tiempo total (minutos)") # Rellenar área T < 30 t_sombra <- seq(0, 30, length.out = 300) f_sombra <- dgamma(t_sombra, shape = alpha, rate = beta) polygon(c(0, t_sombra, 30), c(0, f_sombra, 0), col = rgb(1, 0, 0, 0.3), border = NA) abline(v = 30, col = "red", lty = 2)
| Característica | Valor |
|---|---|
| Parámetros | α > 0 (forma), β > 0 (tasa) o θ = 1/β (escala) |
| Soporte | x ∈ [0, ∞) |
| Función de densidad | f(x) = β^α/Γ(α) · x^{α-1} · e^{-βx} |
| Esperanza (media) | E[X] = α/β = α·θ |
| Varianza | Var(X) = α/β² = α·θ² |
| Función generadora de momentos | M(t) = (β/(β-t))^α, para t < β |
pgamma() en R calcula la probabilidad acumulada
P(X ≤ x)
La distribución normal es una de las distribuciones de probabilidad continua más importantes en estadística. Se caracteriza por su forma de campana simétrica y está completamente definida por dos parámetros: la media μ y la desviación estándar σ (o su cuadrado, la varianza σ²). Una variable aleatoria X que sigue una distribución normal se denota como X ~ N(μ, σ²).
La función de densidad de probabilidad (pdf) de una distribución normal es:
f(x; μ, σ²) = 1/(σ√(2π)) · e^{ -½·((x-μ)/σ)² }, para -∞ < x < ∞
donde:
Un caso especial importante es la distribución normal estándar, que tiene media μ = 0 y desviación estándar σ = 1 (varianza σ² = 1). Se denota como Z ~ N(0, 1). Su pdf es:
φ(z) = 1/√(2π) · e^{-z²/2}, para -∞ < z < ∞
Cualquier variable aleatoria normal X ~ N(μ, σ²) puede ser estandarizada a una variable normal estándar Z mediante la transformación:
Z = (X - μ) / σ
Esta transformación es útil para calcular probabilidades utilizando tablas de la distribución normal estándar o funciones de software.
Problema: Las calificaciones de un examen siguen una distribución normal con media μ = 75 y desviación estándar σ = 10. ¿Cuál es la probabilidad de que un estudiante obtenga una calificación entre 80 y 90?
Solución en Markdown:
X ~ N(75, 10²). Estandarizando: z₁ = (80-75)/10 = 0.5, z₂ = (90-75)/10 = 1.5
P(80 ≤ X ≤ 90) = P(0.5 ≤ Z ≤ 1.5) = P(Z ≤ 1.5) - P(Z ≤ 0.5) = 0.9332 - 0.6915 = 0.2417
Resultado: P = 0.2417
mu <- 75; sigma <- 10
prob_entre <- pnorm(90, mu, sigma) - pnorm(80, mu, sigma)
cat("P(80 < X < 90) =", round(prob_entre, 4))
# Gráfico
x <- seq(40, 110, length.out = 500)
plot(x, dnorm(x, mu, sigma), type = "l", col = "blue", lwd = 2)
x_sombra <- seq(80, 90, length.out = 100)
polygon(c(80, x_sombra, 90), c(0, dnorm(x_sombra, mu, sigma), 0), col=rgb(1,0,0,0.3))
Problema: El tiempo de reacción a un estímulo sigue una normal con μ = 0.25 s y σ = 0.05 s. ¿Cuál es el tiempo por debajo del cual se encuentra el 90% de los individuos?
Solución: Buscamos el percentil 90: z ≈ 1.28, x = μ + z·σ = 0.25 + 1.28×0.05 = 0.314 s
mu <- 0.25; sigma <- 0.05 qnorm(0.90, mu, sigma) # 0.3141
Problema: Si Z ~ N(0,1), calcula a) P(Z > 1.96) y b) P(-1 ≤ Z ≤ 1).
Solución:
a) P(Z > 1.96) = 1 - Φ(1.96) = 1 - 0.9750 = 0.0250 b) P(-1 ≤ Z ≤ 1) = Φ(1) - Φ(-1) = 0.8413 - 0.1587 = 0.6826
pnorm(1.96, lower.tail = FALSE) # 0.0250 pnorm(1) - pnorm(-1) # 0.6827
Problema: Encuentra el valor z tal que P(Z ≤ z) = 0.95 (percentil 95).
z ≈ 1.645
qnorm(0.95) # 1.644854
| Función | Propósito | Ejemplo |
|---|---|---|
dnorm(x, mean, sd) |
Densidad f(x) | Curva normal |
pnorm(q, mean, sd) |
Probabilidad acumulada P(X ≤ q) | P(X ≤ 90) |
qnorm(p, mean, sd) |
Cuantil (percentil p) | Percentil 90 |
rnorm(n, mean, sd) |
Genera n valores aleatorios | Simulación |
Parámetros por defecto: mean = 0, sd = 1 (normal estándar)
Uso de lower.tail: FALSE → P(X > x)
La distribución beta es una distribución de probabilidad continua definida en el intervalo (0, 1) y parametrizada por dos parámetros positivos, α (alfa) y β (beta), que controlan la forma de la distribución. Su función de densidad de probabilidad (pdf) es:
f(x; α, β) = [1/B(α,β)] · x^{α-1} · (1-x)^{β-1}, para 0 < x < 1
donde B(α, β) es la función beta, definida como:
B(α, β) = ∫₀¹ t^{α-1} (1-t)^{β-1} dt = Γ(α)·Γ(β) / Γ(α+β)
Parámetros:
La distribución beta es muy versátil y se utiliza a menudo para modelar proporciones, probabilidades, porcentajes o cualquier cantidad limitada al intervalo (0, 1).
Casos especiales:
La distribución de Weibull es una distribución de probabilidad continua versátil que se utiliza ampliamente para modelar el tiempo hasta la falla de sistemas mecánicos y eléctricos, así como en otras áreas como la meteorología y la economía. Se caracteriza por dos parámetros:
Función de densidad de probabilidad (pdf):
f(x; k, λ) = (k/λ) · (x/λ)^{k-1} · e^{-(x/λ)ᵏ}, para x ≥ 0
Función de distribución acumulativa (cdf):
F(x; k, λ) = 1 - e^{-(x/λ)ᵏ}, para x ≥ 0
Parámetros:
La forma de la distribución de Weibull depende significativamente del parámetro de forma k:
Problema: La proporción de clientes que prefieren un nuevo producto se modela mediante una distribución beta con α = 5 y β = 2. ¿Cuál es la probabilidad de que la proporción esté entre 60% y 80% (0.6 y 0.8)?
Solución: P(0.6 ≤ X ≤ 0.8) = P(X ≤ 0.8) - P(X < 0.6)
alpha <- 5; beta <- 2
prob_entre <- pbeta(0.8, alpha, beta) - pbeta(0.6, alpha, beta)
cat("P(0.6 ≤ X ≤ 0.8) =", round(prob_entre, 4)) # 0.4506
Resultado: 0.4506
x <- seq(0, 1, length.out=500) plot(x, dbeta(x, 5, 2), type="l", col="purple", lwd=2) x_sombra <- seq(0.6, 0.8, length.out=200) polygon(c(0.6, x_sombra, 0.8), c(0, dbeta(x_sombra,5,2), 0), col=rgb(0.6,0,0.6,0.3))
Problema: Un analista cree que la probabilidad de éxito de un nuevo proyecto se puede modelar mediante una distribución beta con α = 3 y β = 4. ¿Cuál es la probabilidad esperada de éxito?
Solución: E[X] = α/(α+β) = 3/(3+4) = 3/7 ≈ 0.4286
alpha <- 3; beta <- 4 esperanza <- alpha/(alpha+beta) # 0.4285714
Problema: El tiempo hasta el fallo (en horas) de un componente sigue una Weibull con forma k = 2 y escala λ = 1000. ¿Cuál es la probabilidad de que falle antes de las 500 horas?
Solución: F(500) = 1 - e^{-(500/1000)²} = 1 - e^{-0.25} ≈ 0.2212
pweibull(500, shape=2, scale=1000) # 0.2212
Problema: Un sistema tiene tiempo hasta el fallo (años) con Weibull k = 1.5 y λ = 5. ¿Cuál es la probabilidad de que funcione al menos 3 años (confiabilidad en t = 3)?
Solución: R(3) = e{-(3/5){1.5}} = e^{-0.4648} ≈ 0.6284
pweibull(3, shape=1.5, scale=5, lower.tail=FALSE) # 0.6284
| Característica | Distribución Beta | Distribución Weibull |
|---|---|---|
| Soporte | x ∈ (0, 1) | x ∈ [0, ∞) |
| Parámetros | α > 0, β > 0 | k > 0 (forma), λ > 0 (escala) |
| f(x) ∝ x{α-1}(1-x){β-1} | f(x) = (k/λ)(x/λ){k-1}e{-(x/λ)^k} | |
| CDF | F(x) = I_x(α, β) | F(x) = 1 - e{-(x/λ)k} |
| Esperanza | α/(α+β) | λ·Γ(1 + 1/k) |
| Varianza | αβ/[(α+β)²(α+β+1)] | λ²[Γ(1+2/k) - (Γ(1+1/k))²] |
| Usos principales | Proporciones, probabilidades, porcentajes | Tiempos de vida, confiabilidad, análisis de fallas |
| Distribución | Densidad (d*) | Distribución (p*) | Cuantil (q*) | Aleatorio (r*) |
|---|---|---|---|---|
| Beta | dbeta(x, shape1, shape2) |
pbeta(q, shape1, shape2) |
qbeta(p, shape1, shape2) |
rbeta(n, shape1, shape2) |
| Weibull | dweibull(x, shape, scale) |
pweibull(q, shape, scale) |
qweibull(p, shape, scale) |
rweibull(n, shape, scale) |
¡Hola! Saludos desde esta tarde caribeña en Cartagena. A continuación, se desarrolla el concepto de la distribución ji-cuadrada (o chi-cuadrado) con la notación matemática adecuada, incluyendo ejemplos resueltos en Markdown y R.
La distribución ji-cuadrada es una distribución de probabilidad continua que surge frecuentemente en estadística, especialmente en pruebas de hipótesis y construcción de intervalos de confianza. Se define como la distribución de la suma de los cuadrados de k variables aleatorias independientes que siguen una distribución normal estándar. El parámetro k se conoce como los grados de libertad de la distribución. Una variable aleatoria X que sigue una distribución ji-cuadrada con k grados de libertad se denota como X ~ χ²(k).
La función de densidad de probabilidad (pdf) de una distribución ji-cuadrada con k grados de libertad es:
f(x; k) = 1 / (2^{k/2} · Γ(k/2)) · x^{k/2 - 1} · e^{-x/2}, para x > 0
Propiedades importantes:
La distribución ji-cuadrada se utiliza en pruebas como: bondad de ajuste, independencia en tablas de contingencia e intervalos de confianza para la varianza.
Problema: Una variable aleatoria X sigue una distribución ji-cuadrada con 5 grados de libertad. ¿Cuál es la probabilidad de que X sea mayor que 11.07?
Solución en R:
df <- 5; valor <- 11.07
prob_mayor <- pchisq(valor, df = df, lower.tail = FALSE)
cat("P(X > 11.07) =", round(prob_mayor, 4)) # 0.05
Resultado: 0.05 (valor crítico común para α = 0.05)
x <- seq(0, 20, length.out=500) plot(x, dchisq(x, 5), type="l", col="darkred", lwd=2) x_sombra <- seq(11.07, 20, length.out=200) polygon(c(11.07, x_sombra, 20), c(0, dchisq(x_sombra,5), 0), col=rgb(0.7,0,0,0.3))
Problema: Encuentra el valor x tal que el área a la derecha bajo la curva χ² con 10 grados de libertad sea 0.01 (χ²₀.₀₁,₁₀).
Solución en R:
df <- 10; alpha <- 0.01
valor_critico <- qchisq(alpha, df, lower.tail=FALSE)
cat("χ²(0.01,10) =", round(valor_critico, 3)) # 23.209
Resultado: 23.209
x <- seq(0, 35, length.out=500) plot(x, dchisq(x, 10), type="l", col="purple", lwd=2) x_crit <- qchisq(0.99, 10) x_sombra <- seq(x_crit, 35, length.out=200) polygon(c(x_crit, x_sombra, 35), c(0, dchisq(x_sombra,10), 0), col=rgb(0.5,0,0.5,0.3)) abline(v=x_crit, col="red", lty=2)
Problema: Muestra n=20 de población normal, varianza muestral s²=15. Construye intervalo de confianza del 95% para σ².
Fórmula: IC = [ (n-1)s²/χ²(α/2, n-1), (n-1)s²/χ²(1-α/2, n-1) ]
Solución en R:
n <- 20; s2 <- 15; df <- n-1; alpha <- 0.05
chi2_lower <- qchisq(1-alpha/2, df)
chi2_upper <- qchisq(alpha/2, df)
IC_lower <- df*s2/chi2_upper
IC_upper <- df*s2/chi2_lower
cat("[", round(IC_lower,3), ",", round(IC_upper,3), "]") # [8.074, 32.696]
Resultado: IC95% = 8.074 ≤ σ² ≤ 32.696
Problema: Lanzamiento de un dado 60 veces. Freq: 8,12,9,11,10,10. ¿Es justo? (α=0.05)
Hipótesis: H₀: dado justo (p=1/6), H₁: dado no justo
Solución en R:
obs <- c(8,12,9,11,10,10) chisq_test <- chisq.test(obs, p=rep(1/6,6)) chisq_test
Resultados:
Chi-squared = 1.0, df = 5, p-value = 0.9626 Valor crítico (α=0.05, df=5) = 11.07
Conclusión: Como χ² = 1.0 < 11.07 y p-valor = 0.9626 > 0.05, no se rechaza H₀. El dado es justo.
| Característica | Valor |
|---|---|
| Parámetros | k > 0 (grados de libertad) |
| Soporte | x ∈ [0, ∞) |
| Función de densidad | f(x) = [1/(2^{k/2}Γ(k/2))]·x^{k/2 - 1}·e^{-x/2} |
| Función de distribución | F(x) = P(X ≤ x) = γ(k/2, x/2)/Γ(k/2) |
| Esperanza | E[X] = k |
| Varianza | Var(X) = 2k |
| Función generadora de momentos | M(t) = (1 - 2t)^{-k/2}, para t < 1/2 |
| Función | Propósito | Ejemplo |
|---|---|---|
dchisq(x, df) |
Densidad f(x) | Curva χ² |
pchisq(q, df) |
Probabilidad acumulada P(X ≤ q) | P(X ≤ 11.07) |
pchisq(q, df, lower.tail=FALSE) |
Probabilidad P(X > q) | P(X > 11.07) |
qchisq(p, df) |
Cuantil (percentil p) | Percentil 95 |
qchisq(alpha, df, lower.tail=FALSE) |
Valor crítico | χ²(0.05,5) |
rchisq(n, df) |
Genera n valores aleatorios | Simulación |
La función de densidad de probabilidad de una variable aleatoria X con distribución ji-cuadrada con k grados de libertad es:
f(x; k) = { 1/(2^{k/2}·Γ(k/2)) · x^{(k/2)-1} · e^{-x/2}, para x > 0
{ 0, para x ≤ 0
donde Γ(z) es la función Gamma.
La función de distribución acumulada P(X ≤ x) para una variable aleatoria X con distribución ji-cuadrada con k grados de libertad es:
F(x; k) = P(χ²_k ≤ x) = ∫₀ˣ f(t; k) dt
La distribución ji-cuadrada se utiliza ampliamente en diversas pruebas de hipótesis, incluyendo:
Problema: ¿Cuál es la probabilidad de que una variable aleatoria con distribución ji-cuadrada con 5 grados de libertad sea menor o igual a 3?
Solución: X ~ χ²(5), buscamos P(X ≤ 3).
pchisq(3, df = 5) # 0.4422
Resultado: 0.4422
Problema: Encuentra el valor crítico χ²(α, k) para α = 0.05 y k = 10 grados de libertad (área a la derecha = 0.05).
Solución: Buscamos c tal que P(χ²(10) > c) = 0.05 (percentil 95).
qchisq(0.95, df = 10) # 18.307
Resultado: 18.307
Problema: Muestra n=20 de población normal, s²=15. Probar H₀: σ²=10 vs H₁: σ²>10 con α=0.05.
Estadístico de prueba: χ² = (n-1)·s²/σ₀² = 19×15/10 = 28.5
Grados de libertad: k = n-1 = 19
n <- 20; s2 <- 15; sigma0_2 <- 10; df <- n-1 chi_stat <- df * s2 / sigma0_2 # 28.5 p_valor <- pchisq(chi_stat, df, lower.tail=FALSE) # 0.075
Resultado: p-valor = 0.075 > 0.05 → No se rechaza H₀
Problema: Encuesta a 200 personas sobre nivel de educación y preferencia de producto. Tabla de contingencia:
| Nivel de Educación | Prefiere (Sí) | No Prefiere (No) | Total |
|---|---|---|---|
| Bachillerato | 30 | 20 | 50 |
| Licenciatura | 60 | 40 | 100 |
| Posgrado | 40 | 10 | 50 |
| Total | 130 | 70 | 200 |
Solución en R:
observados <- matrix(c(30,20,60,40,40,10), nrow=3, byrow=TRUE) prueba_chi2 <- chisq.test(observados) prueba_chi2
Resultados: χ² = 7.7778, df = 2, p-valor = 0.0204
Conclusión: p-valor = 0.0204 < 0.05 → Se rechaza H₀. Existe relación entre educación y preferencia.
| Tipo de Prueba | Hipótesis Nula (H₀) | Estadístico | Grados de Libertad |
|---|---|---|---|
| Bondad de Ajuste | Los datos siguen una distribución específica | Σ(O-E)²/E | k - 1 - p |
| Independencia | Las variables categóricas son independientes | Σ(O-E)²/E | (r-1)(c-1) |
| Homogeneidad | Las distribuciones son iguales entre poblaciones | Σ(O-E)²/E | (r-1)(c-1) |
| Varianza (una muestra) | σ² = σ₀² | (n-1)s²/σ₀² | n-1 |
| Ejemplo | Aplicación | Grados de Libertad | Valor χ² | Conclusión |
|---|---|---|---|---|
| 5 | Probabilidad P(X ≤ 3) | 5 | 3 | P = 0.4422 |
| 6 | Valor crítico α=0.05 | 10 | 18.307 | Percentil 95 |
| 7 | Prueba varianza (σ²>10) | 19 | 28.5 | p=0.075 → No rechaza H₀ |
| 8 | Prueba independencia | 2 | 7.778 | p=0.0204 → Rechaza H₀ |
La distribución t, también conocida como distribución t de Student, es una distribución de probabilidad continua que surge cuando se estima la media de una población normalmente distribuida en situaciones donde el tamaño de la muestra es pequeño y la desviación estándar de la población es desconocida. Fue desarrollada por William Sealy Gosset bajo el seudónimo de “Student”.
La distribución t tiene una forma acampanada y simétrica alrededor de la media (que es 0), similar a la distribución normal estándar. Sin embargo, tiene colas más pesadas, lo que significa que es más probable observar valores extremos en comparación con la normal estándar. La forma específica depende de un parámetro llamado grados de libertad (df o ν).
f(x; ν) = [Γ((ν+1)/2)] / [√(νπ)·Γ(ν/2)] · (1 + x²/ν)^{-(ν+1)/2}
Problema: ¿Cuál es la probabilidad de que una variable aleatoria con distribución t con 10 grados de libertad sea menor que -1.5?
pt(-1.5, df = 10) # 0.0807
Resultado: 0.0807
Problema: Encuentra el valor crítico t(α, df) para α=0.05 (cola superior) y df=20.
qt(0.95, df = 20) # 1.726
Resultado: 1.726
Problema: Muestra n=15, x̄=50, s=10. Intervalo de confianza 95% para μ.
Fórmula: x̄ ± t(α/2, n-1) · s/√n
t(0.025, 14) = 2.145, Margen error = 2.145 × 10/√15 = 5.533
n <- 15; x_bar <- 50; s <- 10; alpha <- 0.05; df <- n-1 t_crit <- qt(1 - alpha/2, df) # 2.145 ME <- t_crit * s / sqrt(n) # 5.533 IC <- c(x_bar - ME, x_bar + ME) # (44.467, 55.533)
Resultado: IC95% = (44.467, 55.533)
Problema: Bombillas: afirman μ=10000h. Muestra n=25, x̄=9800, s=500. Prueba H₀: μ=10000 vs H₁: μ≠10000, α=0.01.
Estadístico: t = (9800-10000)/(500/√25) = -200/100 = -2.0
df = 24, t crítico (bilateral, α=0.01) = ±2.797
p-valor = 2 × P(T > 2.0) = 0.0567
n <- 25; x_bar <- 9800; mu0 <- 10000; s <- 500 t_stat <- (x_bar - mu0) / (s / sqrt(n)) # -2.0 p_valor <- 2 * pt(-abs(t_stat), n-1) # 0.0567
Conclusión: p-valor = 0.0567 > 0.01 → No se rechaza H₀. No hay evidencia para decir que la media es diferente de 10000.
| Característica | Valor |
|---|---|
| Parámetros | ν > 0 (grados de libertad) |
| Soporte | x ∈ (-∞, ∞) |
| Media | E[t] = 0 (para ν > 0) |
| Varianza | Var(t) = ν/(ν-2) (para ν > 2) |
| Relación con Normal | t(ν) → N(0,1) cuando ν → ∞ |
| Función | Propósito | Ejemplo |
|---|---|---|
dt(x, df) |
Densidad f(x) | Curva t |
pt(q, df) |
P(T ≤ q) | Probabilidad acumulada |
pt(q, df, lower.tail=FALSE) |
P(T > q) | Probabilidad en cola superior |
qt(p, df) |
Cuantil (percentil p) | Percentil 95 |
qt(alpha, df, lower.tail=FALSE) |
Valor crítico | t(0.05,10) |
La distribución F, también conocida como distribución F de Fisher-Snedecor, es una distribución de probabilidad continua que surge frecuentemente en estadística, especialmente en el análisis de varianza (ANOVA) y en pruebas de hipótesis que involucran la comparación de varianzas de dos poblaciones normales e independientes.
La distribución F está definida por dos parámetros de grados de libertad:
Una variable aleatoria F con distribución F con ν₁ y ν₂ grados de libertad se denota como F ~ F(ν₁, ν₂). La distribución F se define como la razón de dos variables aleatorias ji-cuadrado independientes, cada una dividida por sus respectivos grados de libertad:
F = (X₁/ν₁) / (X₂/ν₂) ~ F(ν₁, ν₂)
f(x; ν₁, ν₂) = [Γ((ν₁+ν₂)/2) / (Γ(ν₁/2)Γ(ν₂/2))] · (ν₁x/ν₁x+ν₂)^{ν₁/2} · (ν₂/ν₁x+ν₂)^{ν₂/2} · x⁻¹, x > 0
Problema: ¿Cuál es la probabilidad de que F con 3 grados de libertad (numerador) y 10 (denominador) sea mayor que 2.5?
1 - pf(2.5, df1=3, df2=10) # 0.1196
Resultado: 0.1196
Problema: Encuentra F(α=0.05, ν₁=5, ν₂=15) (cola superior).
qf(0.95, df1=5, df2=15) # 2.901
Resultado: 2.901
Problema: n₁=10, s₁²=12; n₂=15, s₂²=8. Prueba H₀: σ₁²=σ₂² vs H₁: σ₁²≠σ₂², α=0.10.
Estadístico: F = s₁²/s₂² = 12/8 = 1.5
df₁ = 9, df₂ = 14. F críticos: qf(0.05,9,14)=0.307, qf(0.95,9,14)=3.179
f <- 12/8 # 1.5 p_valor <- 2 * min(pf(f,9,14), 1-pf(f,9,14)) # 0.518
Conclusión: p-valor = 0.518 > 0.10 → No se rechaza H₀
Problema: Comparar rendimiento de 3 fertilizantes (n=5 cada uno).
Datos: A: 10,12,11,13,14 | B: 15,16,14,15,17 | C: 9,8,10,11,12
altura <- c(10,12,11,13,14,15,16,14,15,17,9,8,10,11,12)
grupo <- rep(c("A","B","C"), each=5)
summary(aov(altura ~ grupo))
Resultados ANOVA:
Df Sum Sq Mean Sq F value Pr(>F)
grupo 2 94.53 47.27 22.27 8.5e-05 ***
Residuals 12 25.47 2.12
Conclusión: F = 22.27, p-valor = 8.5×10⁻⁵ < 0.05 → Se rechaza H₀. Hay diferencias significativas entre fertilizantes.
| Característica | Valor |
|---|---|
| Parámetros | ν₁ > 0, ν₂ > 0 (grados de libertad) |
| Soporte | x ∈ [0, ∞) |
| Media | ν₂/(ν₂-2), para ν₂ > 2 |
| Varianza | 2ν₂²(ν₁+ν₂-2) / [ν₁(ν₂-2)²(ν₂-4)], para ν₂ > 4 |
| Relación con t | t²(ν) = F(1, ν) |
| Función | Propósito | Ejemplo |
|---|---|---|
df(x, df1, df2) |
Densidad f(x) | Curva F |
pf(q, df1, df2) |
P(F ≤ q) | Probabilidad acumulada |
pf(q, df1, df2, lower.tail=FALSE) |
P(F > q) | Probabilidad en cola superior |
qf(p, df1, df2) |
Cuantil (percentil p) | Percentil 95 |
qf(alpha, df1, df2, lower.tail=FALSE) |
Valor crítico | F(0.05,5,10) |
| Distribución | Parámetros | Función de densidad f(x) | E[X] | Var(X) |
|---|---|---|---|---|
| Uniforme | a, b | 1/(b-a), a≤x≤b | (a+b)/2 | (b-a)²/12 |
| Exponencial | λ | λe^{-λx}, x≥0 | 1/λ | 1/λ² |
| Normal | μ, σ | 1/(σ√(2π))·e^{-(x-μ)²/(2σ²)} | μ | σ² |
| t-Student | ν | dependiente de ν | 0 (ν>1) | ν/(ν-2) (ν>2) |
| χ² | ν | 1/(2{ν/2}Γ(ν/2))·x{ν/2-1}e^{-x/2} | ν | 2ν |
| F | ν₁, ν₂ | dependiente de ν₁, ν₂ | ν₂/(ν₂-2) | compleja |
| Gamma | α, β | βα/Γ(α)·x{α-1}e^{-βx} | α/β | α/β² |
| Beta | α, β | 1/B(α,β)·x{α-1}(1-x){β-1} | α/(α+β) | αβ/[(α+β)²(α+β+1)] |
Un vector aleatorio es una generalización del concepto de variable aleatoria a múltiples dimensiones. Formalmente, un vector aleatorio X de dimensión n es una función que mapea cada resultado ω en el espacio muestral Ω a un vector de números reales en ℝⁿ:
X(ω) = [X₁(ω), X₂(ω), ..., Xₙ(ω)]ᵀ
donde X₁, X₂, …, Xₙ son variables aleatorias individuales definidas en el mismo espacio muestral Ω.
La distribución de probabilidad conjunta de un vector aleatorio X = (X₁, X₂, …, Xₙ)ᵀ describe cómo se distribuyen las probabilidades entre los posibles valores que pueden tomar las variables aleatorias componentes simultáneamente.
La distribución marginal de una variable aleatoria componente se obtiene agregando (sumando o integrando) sobre todas las demás variables.
Las variables son independientes si la distribución conjunta es el producto de las marginales:
Problema: X₁ = resultado del primer dado, X₂ = resultado del segundo dado.
a) Distribución conjunta: P(X₁=x₁, X₂=x₂) = 1/36 para todo x₁, x₂ ∈ {1,…,6}
b) Marginales: P(X₁=x₁) = 1/6, P(X₂=x₂) = 1/6
c) P(X₁ + X₂ = 7): 6/36 = 1/6 ≈ 0.1667
resultados <- 1:6 expand.grid(X1=resultados, X2=resultados) sum(espacio$Prob[espacio$X1 + espacio$X2 == 7]) # 0.1667
Problema: Vector aleatorio con densidad uniforme en [0,2]×[0,1]
a) PDF conjunta: f(x₁, x₂) = 1/2 en el rectángulo, 0 fuera
b) Marginales: fX₁(x₁) = 1/2 (0≤x₁≤2), fX₂(x₂) = 1 (0≤x₂≤1)
c) P(X₁ ≤ 1, X₂ ≥ 0.5): Área = 1×0.5 = 0.5 → Prob = 0.5 × 1/2 = 0.25
f <- function(x1,x2) ifelse(x1>=0 & x1<=2 & x2>=0 & x2<=1, 1/2, 0) integral2(f, 0, 1, 0.5, 1)$Q # 0.25
Problema: X₁~Exp(λ₁=1), X₂~Exp(λ₂=2), independientes
a) PDF conjunta: f(x₁, x₂) = 2·e^{-x₁ - 2x₂}, para x₁≥0, x₂≥0
b) Marginales: fX₁(x₁)=e^{-x₁}, fX₂(x₂)=2e^{-2x₂}
c) P(X₁ ≤ 1, X₂ ≤ 1): (1-e{-1})×(1-e{-2}) ≈ 0.6321×0.8647 = 0.5466
pexp(1,1) * pexp(1,2) # 0.5466
Problema: Urna con bolas rojas (p=0.4) y azules (p=0.6). Extracciones con reemplazo. X₁ = # rojas en 2 primeras extracciones, X₂ = # rojas en 3ra extracción.
X₁ ~ Bin(2, 0.4), X₂ ~ Bin(1, 0.4), independientes
Distribución conjunta:
| X₁₂ | 0 | 1 |
|---|---|---|
| 0 | 0.216 | 0.144 |
| 1 | 0.288 | 0.192 |
| 2 | 0.096 | 0.064 |
P(X₁=1, X₂=1) = 0.192
for (x1 in 0:2) for (x2 in 0:1) prob[x1+1, x2+1] <- dbinom(x1,2,0.4) * dbinom(x2,1,0.4)
| Característica | Vector Aleatorio Discreto | Vector Aleatorio Continuo |
|---|---|---|
| Función | Masa de probabilidad conjunta p(x₁,…,xₙ) | Densidad conjunta f(x₁,…,xₙ) |
| Marginal | Sumatoria sobre otras variables | Integral sobre otras variables |
| Probabilidad en un punto | p(x₁,…,xₙ) ≥ 0 | P(X₁=a₁,…,Xₙ=aₙ) = 0 |
| Independencia | p(x₁,…,xₙ) = Π pᵢ(xᵢ) | f(x₁,…,xₙ) = Π fᵢ(xᵢ) |
Consideremos un vector aleatorio X = (X, Y)ᵀ que consta de dos variables aleatorias, X e Y, definidas en el mismo espacio muestral. Podemos extender estos conceptos a vectores aleatorios de mayor dimensión.
La función de probabilidad conjunta describe la probabilidad de que X tome un valor específico x e Y tome un valor específico y simultáneamente.
<li>Σ<sub>x</sub> Σ<sub>y</sub> p<sub>XY</sub>(x, y) = 1</li>
<li>P((X,Y) ∈ A) = Σ<sub>(x,y)∈A</sub> p<sub>XY</sub>(x, y)</li></ul>
<li>∫∫ f<sub>XY</sub>(x, y) dx dy = 1</li>
<li>P((X,Y) ∈ A) = ∬<sub>A</sub> f<sub>XY</sub>(x, y) dx dy</li></ul>
La función de probabilidad marginal se obtiene integrando o sumando la función conjunta sobre los valores de la otra variable.
La función de probabilidad condicional describe cómo se modifica la probabilidad al conocer el valor de la otra variable.
Problema: Distribución conjunta de X e Y:
| X | 1 | 2 | 3 |
|---|---|---|---|
| 0 | 0.10 | 0.15 | 0.05 |
| 1 | 0.20 | 0.30 | 0.20 |
Marginales: P(X=0)=0.30, P(X=1)=0.70, P(Y=1)=0.30, P(Y=2)=0.45, P(Y=3)=0.25
Condicionales: P(X=0|Y=1)=0.10/0.30=1/3, P(Y=2|X=1)=0.30/0.70=3/7
prob <- matrix(c(0.10,0.15,0.05,0.20,0.30,0.20), nrow=2, byrow=TRUE) rowSums(prob); colSums(prob) prob[1,1]/colSums(prob)[1] # 0.3333 prob[2,2]/rowSums(prob)[2] # 0.4286
Problema: f(x, y) = 1, para 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
Marginales: fX(x)=1 (0≤x≤1), fY(y)=1 (0≤y≤1)
Condicionales: f(x|y)=1, f(y|x)=1 → X e Y son independientes
f <- function(x,y) ifelse(x>=0 & x<=1 & y>=0 & y<=1, 1, 0) integral2(f, 0, 0.5, 0, 0.5)$Q # 0.25
Problema: X~Exp(λ₁=1), Y~Exp(λ₂=2), independientes
Conjunta: f(x, y) = 2·e^{-x-2y}, para x≥0, y≥0
Marginales: fX(x)=e^{-x}, fY(y)=2e^{-2y}
Condicionales: f(x|y)=e^{-x}, f(y|x)=2e^{-2y}
f <- function(x,y) ifelse(x>=0 & y>=0, 2*exp(-x-2*y), 0) integral2(f, 0, 1, 0, 1)$Q # 0.5466
| Concepto | Fórmula (Discreto) | Fórmula (Continuo) | Interpretación |
|---|---|---|---|
| Conjunta | P(X=x, Y=y) | f(x, y) | Probabilidad simultánea |
| Marginal de X | Σy P(X=x, Y=y) | ∫ f(x, y) dy | Probabilidad de X sola |
| **Condicional X | Y** | P(X=x, Y=y)/P(Y=y) | f(x, y)/fY(y) |
| Independencia | P(X,Y)=P(X)P(Y) | f(x,y)=fX(x)fY(y) | La conjunta = producto |
Distribución Conjunta
|
+--------------+--------------+
| | |
↓ ↓ ↓
Marginal de X Marginal de Y Condicional X|Y
(integra Y) (integra X) (conjunta/marginal)
Relaciones clave: