Con Mi Profe: Julio Hurtado Marquez; EMAIL_TAREAS:


1 📜 HISTORIA DE LA PROBABILIDAD

📚 0.1. Historia de la Probabilidad

La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos aleatorios. Su desarrollo ha sido impulsado por la necesidad de comprender y modelar situaciones inciertas, desde juegos de azar hasta fenómenos naturales y sociales.

🎲 0.2. Orígenes en los Juegos de Azar

Aunque los juegos de azar existen desde la antigüedad, el análisis matemático del azar comenzó en el siglo XVII. En 1654, los matemáticos franceses Pierre de Fermat y Blaise Pascal intercambiaron correspondencia sobre problemas relacionados con juegos de dados, sentando las bases de la teoría de la probabilidad. Uno de los problemas discutidos fue el “problema de los puntos”, que trata sobre cómo dividir las apuestas de un juego interrumpido.

📘 0.3. Avances en los Siglos XVII y XVIII

El siglo XVIII vio avances significativos:

  • Jacob Bernoulli: Publicó Ars Conjectandi en 1713, introduciendo el Teorema de los Grandes Números, que establece que la frecuencia relativa de un evento converge a su probabilidad teórica a medida que aumenta el número de ensayos.

\[\lim_{n\longrightarrow \infty }\frac{S_{n}}{n}=p\]

Donde Sₙ es el número de éxitos en n ensayos independientes con probabilidad de éxito p.

  • Abraham de Moivre: En The Doctrine of Chances (1718), introdujo la distribución normal como una aproximación a la distribución binomial para un gran número de ensayos, anticipando el Teorema Central del Límite.

\(\lim_{n \to \infty} P\left( \frac{S_n - np}{\sqrt{np(1-p)}} \le x \right) = \Phi(x)\)

Donde Φ(x) es la función de distribución de la normal estándar.

  • Thomas Bayes: Desarrolló el Teorema de Bayes, que permite actualizar la probabilidad de una hipótesis a la luz de nueva evidencia. Este teorema es fundamental en la estadística bayesiana.

\(P(A|B) = P(B|A) · P(A) / P(B)\)

📐 0.4. Formalización en el Siglo XX

A principios del siglo XX, la teoría de la probabilidad carecía de una base axiomática rigurosa. En 1933, el matemático ruso Andréi Kolmogórov publicó Fundamentos de la Teoría de la Probabilidad, donde estableció una axiomatización basada en la teoría de conjuntos y la medida, proporcionando una base sólida para la probabilidad moderna.

Los axiomas de Kolmogórov son:

  1. No negatividad: Para cualquier evento \(A\), \(P(A) ≥ 0\).
  2. Normalización: La probabilidad del espacio muestral es 1, es decir, \(P(Ω) = 1\).
  3. Aditividad: Para eventos mutuamente excluyentes $A₁, A₂, …, $ se cumple:

\(P\left( \bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i)\)

Esta formalización permitió el desarrollo riguroso de áreas como la estadística matemática, los procesos estocásticos y la teoría de la información.

🌐 0.5. Aplicaciones Modernas

Hoy en día, la teoría de la probabilidad es fundamental en diversas disciplinas:

  • Estadística: Inferencia estadística, pruebas de hipótesis y estimación de parámetros.
  • Finanzas: Modelado de riesgos, valoración de derivados y teoría de carteras.
  • Ingeniería: Análisis de confiabilidad y teoría de colas.
  • Ciencias Sociales: Modelos de elección y análisis de encuestas.
  • Inteligencia Artificial: Redes bayesianas y aprendizaje automático.

2 🧠 MAPYCD: Historia de la Probabilidad

📋 Acceso al Material y Actividades

🔗 MAPYCD: Historia de la Probabilidad
https://forms.gle/3U5ZNTMqYGKr4JkE8

🧪 MAPYCD: LABORATORIO 1 - Datos y Recolección de Datos 2025

🔗 Acceso al Laboratorio 1
https://forms.gle/XGZBGAGZYZa3QA3f6


2.1 📊 LÍNEA DE TIEMPO - HISTORIA DE LA PROBABILIDAD

1654                1713                1718                1933
  ●                   ●                   ●                   ●
  |                   |                   |                   |
Fermat y Pascal   Bernoulli        De Moivre          Kolmogórov
  ↓                   ↓                   ↓                   ↓
Juegos de azar   Teorema de los    Distribución      Axiomatización
                 Grandes Números    Normal            moderna

Figura 1: Principales hitos en el desarrollo de la teoría de la probabilidad.

2.2 🎯 RESUMEN DE PERSONAJES CLAVE

Matemático Aporte principal Año clave
Pascal y Fermat Bases de probabilidad (problema de los puntos) 1654
Jacob Bernoulli Teorema de los Grandes Números 1713
Abraham de Moivre Distribución normal 1718
Thomas Bayes Teorema de Bayes ~1763
Andréi Kolmogórov Axiomatización moderna 1933


3 📊 INTRODUCCIÓN A LA TEORÍA DE PROBABILIDAD

🎲 1. Experimentos Aleatorios

Un experimento aleatorio es cualquier proceso o acción cuyo resultado no se puede predecir con certeza antes de su realización. Aunque conozcamos todos los posibles resultados, no sabemos cuál de ellos ocurrirá en una ejecución particular.

🪙 1.1. Ejemplo - Lanzamiento de una moneda

🪙

Espacio muestral: Ω = {Cara, Sello} o Ω = {C, S}

Un experimento aleatorio con 2 posibles resultados igualmente probables

Lanzar una moneda
Lanzar una moneda

🎲 1.2. Ejemplo - Lanzamiento de un dado perfecto

🎲

Espacio muestral: Ω = {1, 2, 3, 4, 5, 6}

Un experimento aleatorio con 6 posibles resultados igualmente probables

Lanzamiento de un dado perfecto
Lanzamiento de un dado perfecto

🎲🪙 1.3. Ejemplo - Lanzamiento de un dado perfecto y una moneda

🎲 + 🪙

Espacio muestral: Ω = {1C, 2C, 3C, 4C, 5C, 6C, 1X, 2X, 3X, 4X, 5X, 6X}

Un experimento aleatorio con 12 posibles resultados (6 × 2)

4 Lanzamiento de un dado perfecto y una moneda

Experimentos Aleatorios - Simulando el Juego del Baloto

🧠 1.4. MAPYCD - Experimentos Aleatorios y Deterministas

🔗 Acceso al material:
https://forms.gle/XVyqi95Zuwxks1Tj7

🧪 1.5. MAPYCD - LABORATORIO 2 EN POWER BI

🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=c9rrAcSwHrs


📐 2. Espacios Muestrales

El espacio muestral (denotado generalmente por Ω o S) de un experimento aleatorio es el conjunto de todos los posibles resultados distintos de ese experimento. Cada resultado individual en el espacio muestral se denomina punto muestral o resultado elemental.

Ejemplos:

  • Para el lanzamiento de un dado de seis caras: Ω = {1, 2, 3, 4, 5, 6}
  • Para el lanzamiento de una moneda: Ω = {Cara, Cruz} o Ω = {C, X}

📊 3. Espacios Muestrales: Tipos

Los espacios muestrales pueden ser finitos, infinitos numerables o infinitos no numerables.

  • Finito: El número de posibles resultados es limitado (ejemplo: lanzamiento de un dado).
  • Infinito numerable: El número de posibles resultados es infinito, pero se pueden listar en una secuencia (ejemplo: el número de lanzamientos de una moneda hasta obtener la primera cara: Ω = {1, 2, 3, …}).
  • Infinito no numerable: El número de posibles resultados es infinito y no se pueden listar en una secuencia (ejemplo: la temperatura ambiente en un rango continuo, Ω = {t ∈ ℝ | a ≤ t ≤ b}).

📋 4. Eventos y Operaciones con Eventos

En la teoría de la probabilidad, un evento es un subconjunto del espacio muestral (Ω), que representa un conjunto de posibles resultados de un experimento aleatorio.

🏷️ 4.1. Tipos de Eventos

  1. Evento Simple (o Elemental): Un evento que contiene un solo resultado del espacio muestral.
  2. Evento Compuesto: Un evento que contiene más de un resultado del espacio muestral.
  3. Evento Seguro: El evento que contiene todos los resultados posibles del espacio muestral (Ω). Siempre ocurre.
  4. Evento Imposible: El evento que no contiene ningún resultado del espacio muestral (∅). Nunca ocurre.
  5. Eventos Mutuamente Excluyentes (o Disjuntos): Dos eventos A y B son mutuamente excluyentes si no tienen ningún resultado en común, es decir, su intersección es el conjunto vacío (A ∩ B = ∅). Si ocurre uno, el otro no puede ocurrir.

⚙️ 4.2. Operaciones con Eventos

Al igual que con los conjuntos, podemos realizar operaciones con eventos para formar nuevos eventos. Las principales operaciones son:


1. Unión (A ∪ B): El evento que ocurre si A ocurre, o B ocurre, o ambos ocurren. Contiene todos los resultados que están en A o en B o en ambos.

A ∪ B = {x ∈ Ω | x ∈ A o x ∈ B}
A B Unión: A ∪ B

Área total coloreada: Unión (A ∪ B)


2. Intersección (A ∩ B): El evento que ocurre si tanto A como B ocurren al mismo tiempo. Contiene todos los resultados que están en A y en B.

A ∩ B = {x ∈ Ω | x ∈ A y x ∈ B}
A ∩ B A B Intersección: A ∩ B

Área central: Intersección (A ∩ B)


3. Complemento (Aᶜ o \(\bar{A}\)): El evento que ocurre si A no ocurre. Contiene todos los resultados en el espacio muestral Ω que no están en A.

Aᶜ = {x ∈ Ω | x ∉ A}
A Complemento: Aᶜ (Área fuera de A)

Área fuera del círculo A: Complemento (Aᶜ)


4. Diferencia (A - B o A  B): El evento que ocurre si A ocurre pero B no ocurre. Contiene todos los resultados que están en A pero no en B.

A - B = A ∩ Bᶜ = {x ∈ Ω | x ∈ A y x ∉ B}
A B Diferencia: A - B A - B B - A

Área azul: Elementos en A que no están en B (A - B)


5 📊 RESUMEN DE TIPOS DE ESPACIOS MUESTRALES

📋 Tabla comparativa

Tipo de espacio muestral Característica Ejemplo
Finito Número limitado de resultados Lanzamiento de un dado: {1,2,3,4,5,6}
Infinito numerable Se pueden listar en secuencia N° de lanzamientos hasta primera cara: {1,2,3,…}
Infinito no numerable No se pueden listar Temperatura en un rango continuo: {t ∈ ℝ | a ≤ t ≤ b}

6 📊 RESUMEN DE OPERACIONES CON EVENTOS

📋 Tabla de operaciones

Operación Notación Significado Fórmula
Unión A ∪ B A o B ocurre {x | x ∈ A o x ∈ B}
Intersección A ∩ B A y B ocurren {x | x ∈ A y x ∈ B}
Complemento Aᶜ o \(\bar{A}\) A no ocurre {x | x ∉ A}
Diferencia A - B o A  B A ocurre, B no {x | x ∈ A y x ∉ B}

7 🎯 RESUMEN DE PERSONAJES CLAVE EN PROBABILIDAD

Matemático Aporte principal Año clave
Pascal y Fermat Bases de probabilidad (problema de los puntos) 1654
Jacob Bernoulli Teorema de los Grandes Números 1713
Abraham de Moivre Distribución normal 1718
Thomas Bayes Teorema de Bayes ~1763
Andréi Kolmogórov Axiomatización moderna 1933

8 📊 DIAGRAMAS DE VENN Y EJEMPLOS PRÁCTICOS

🔄 4.3. Diagramas de Venn

Los diagramas de Venn son representaciones gráficas útiles para visualizar eventos y las relaciones entre ellos. El espacio muestral se representa generalmente como un rectángulo, y los eventos como círculos u otras formas dentro de este rectángulo. Las operaciones con eventos se ilustran mediante el sombreado de las regiones correspondientes.

A B Espacio Muestral Ω Diagrama de Venn: Eventos A y B dentro de Ω

🎲 4.4. Ejemplo 1: Lanzamiento de un dado justo

Experimento: Lanzar un dado justo de seis caras

Espacio muestral: Ω = {1, 2, 3, 4, 5, 6}

Eventos definidos:

  • A: Obtener un número par = {2, 4, 6}
  • B: Obtener un número mayor que 3 = {4, 5, 6}
  • C: Obtener un número primo = {2, 3, 5}

a) Unión de A y B (A ∪ B):

A ∪ B = {2, 4, 6} ∪ {4, 5, 6} = {2, 4, 5, 6}
A B A ∪ B = {2,4,5,6}

b) Intersección de A y B (A ∩ B):

A ∩ B = {2, 4, 6} ∩ {4, 5, 6} = {4, 6}
{4,6} A B A ∩ B = {4,6}

c) Complemento de A (Aᶜ):

Aᶜ = Ω - A = {1, 2, 3, 4, 5, 6} - {2, 4, 6} = {1, 3, 5}
A Aᶜ = {1,3,5} (Área fuera de A)

d) Diferencia de B y C (B - C):

B - C = B ∩ Cᶜ = {4, 5, 6} - {2, 3, 5} = {4, 6}
B C B - C = {4,6}

📋 Código en R:

# Espacio muestral
omega <- 1:6

# Eventos
A <- c(2, 4, 6)
B <- c(4, 5, 6)
C <- c(2, 3, 5)

# a) Unión de A y B
union_AB <- union(A, B)
cat("Unión de A y B:", union_AB, "\n")

# b) Intersección de A y B
interseccion_AB <- intersect(A, B)
cat("Intersección de A y B:", interseccion_AB, "\n")

# c) Complemento de A
complemento_A <- setdiff(omega, A)
cat("Complemento de A:", complemento_A, "\n")

# d) Diferencia de B y C
diferencia_BC <- setdiff(B, C)
cat("Diferencia de B y C:", diferencia_BC, "\n")

🍦 4.5. Ejemplo 2: Preferencias de helado

Enunciado: En una encuesta a 100 personas sobre sus preferencias de helado, se encontraron los siguientes datos:

  • 60 personas prefieren chocolate (evento Ch)
  • 50 personas prefieren vainilla (evento V)
  • 30 personas prefieren ambos (evento Ch ∩ V)
Ch V 30 30 20 Fuera: 20 personas (no prefieren ninguno) Preferencias de helado

a) Personas que prefieren chocolate o vainilla (|Ch ∪ V|):

|Ch ∪ V| = |Ch| + |V| - |Ch ∩ V| = 60 + 50 - 30 = 80

b) Personas que prefieren solo chocolate (|Ch - V|):

|Ch - V| = |Ch| - |Ch ∩ V| = 60 - 30 = 30

c) Personas que no prefieren chocolate (|Chᶜ|):

|Chᶜ| = Total - |Ch| = 100 - 60 = 40

📋 Código en R:

# Total de personas
total_personas <- 100

# Número de personas por preferencia
n_chocolate <- 60
n_vainilla <- 50
n_ambos <- 30

# a) Unión (chocolate o vainilla)
n_union_CV <- n_chocolate + n_vainilla - n_ambos
cat("Chocolate o vainilla:", n_union_CV, "\n")

# b) Solo chocolate
n_solo_chocolate <- n_chocolate - n_ambos
cat("Solo chocolate:", n_solo_chocolate, "\n")

# c) No prefieren chocolate
n_no_chocolate <- total_personas - n_chocolate
cat("No prefieren chocolate:", n_no_chocolate, "\n")

💻 4.7. Ejemplo 3: Fallas en componentes electrónicos

Enunciado: En un sistema electrónico con tres componentes (A, B, C), se definen los siguientes eventos:

  • E_A: El componente A falla
  • E_B: El componente B falla
  • E_C: El componente C falla
E_A E_B E_C Fallas en componentes

a) Al menos un componente falla:

Ocurre si A falla o B falla o C falla (o cualquier combinación).

E_A ∪ E_B ∪ E_C

b) Solo el componente A falla:

Ocurre si A falla y B no falla y C no falla.

E_A ∩ E_Bᶜ ∩ E_Cᶜ = E_A - (E_B ∪ E_C)

c) Los tres componentes fallan:

Ocurre si A falla y B falla y C falla.

E_A ∩ E_B ∩ E_C

d) Ningún componente falla:

Ocurre si A no falla y B no falla y C no falla.

E_Aᶜ ∩ E_Bᶜ ∩ E_Cᶜ = (E_A ∪ E_B ∪ E_C)ᶜ

📋 Código en R:

# Representación simbólica de los eventos
evento_A <- "Falla A"
evento_B <- "Falla B"
evento_C <- "Falla C"

# a) Al menos un componente falla (Unión)
al_menos_uno <- paste(evento_A, "U", evento_B, "U", evento_C)
cat("Al menos uno falla:", al_menos_uno, "\n")

# b) Solo A falla
solo_A <- paste(evento_A, "∩ no", evento_B, "∩ no", evento_C)
cat("Solo A falla:", solo_A, "\n")

# c) Los tres fallan
tres_fallan <- paste(evento_A, "∩", evento_B, "∩", evento_C)
cat("Los tres fallan:", tres_fallan, "\n")

# d) Ninguno falla
ninguno <- paste("no (", evento_A, "U", evento_B, "U", evento_C, ")")
cat("Ninguno falla:", ninguno, "\n")

9 📊 RESUMEN DE OPERACIONES CON EVENTOS

📋 Tabla resumen de operaciones

Operación Notación Significado Fórmula de cardinalidad
Unión A ∪ B A o B ocurre |A ∪ B| = |A| + |B| - |A ∩ B|
Intersección A ∩ B A y B ocurren |A ∩ B|
Complemento Aᶜ o \(\bar{A}\) A no ocurre |Aᶜ| = |Ω| - |A|
Diferencia A - B o A  B A ocurre, B no |A - B| = |A| - |A ∩ B|

10 🎯 PROPIEDADES IMPORTANTES

📐 Leyes fundamentales de conjuntos

  • Leyes de De Morgan:
    • (A ∪ B)ᶜ = Aᶜ ∩ Bᶜ
    • (A ∩ B)ᶜ = Aᶜ ∪ Bᶜ
  • Propiedad conmutativa:
    • A ∪ B = B ∪ A
    • A ∩ B = B ∩ A
  • Propiedad asociativa:
    • (A ∪ B) ∪ C = A ∪ (B ∪ C)
    • (A ∩ B) ∩ C = A ∩ (B ∩ C)
  • Propiedad distributiva:
    • A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
    • A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)


11 📊 EVENTOS AJENOS (MUTUAMENTE EXCLUYENTES)

🚫 5. Eventos Ajenos (Mutuamente Excluyentes)

Dos o más eventos se consideran ajenos o mutuamente excluyentes si no pueden ocurrir simultáneamente. En términos de conjuntos, esto significa que la intersección de cualesquiera dos de estos eventos es el conjunto vacío (∅).

Si A y B son eventos mutuamente excluyentes, entonces:

A ∩ B = ∅

La probabilidad de que ocurra la unión de eventos mutuamente excluyentes es la suma de sus probabilidades individuales:

Si A₁, A₂, …, Aₙ son eventos mutuamente excluyentes, entonces:

P(A₁ ∪ A₂ ∪ … ∪ Aₙ) = P(A₁) + P(A₂) + … + P(Aₙ) = Σᵢ₌₁ⁿ P(Aᵢ)

Características clave de los eventos ajenos:

  1. No ocurren simultáneamente: Si un evento ocurre, ninguno de los otros eventos mutuamente excluyentes puede ocurrir al mismo tiempo.
  2. Intersección vacía: La intersección de cualquier par de eventos mutuamente excluyentes es el conjunto vacío.
  3. Probabilidad de la unión: La probabilidad de la unión es la suma de las probabilidades individuales.
A B Eventos mutuamente excluyentes A ∩ B = ∅

Diagrama: Eventos A y B no se superponen (mutuamente excluyentes)


🧠 5.1. MAPYCD - Eventos en términos de conjuntos

🔗 Acceso al material:
https://forms.gle/3cGdDiDK6EmvLQvQ7

🧪 5.2. MAPYCD - Laboratorio 3: Limpieza de Datos en Power BI

🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=FDxjdcE3jng


12 📊 CONCEPCIONES DE PROBABILIDAD

📐 6. Probabilidad Clásica

La Probabilidad Clásica es un enfoque para calcular la probabilidad de un evento basado en el supuesto de que todos los resultados posibles de un experimento aleatorio son igualmente probables. Si un experimento tiene N resultados posibles, y un evento A ocurre en k de estos resultados, entonces la probabilidad del evento A, denotada como P(A), se calcula como la razón entre el número de resultados favorables al evento y el número total de resultados posibles:

P(A) = k / N

Este enfoque es aplicable cuando el espacio muestral Ω es finito y todos los resultados elementales tienen la misma probabilidad de ocurrir.

Elementos clave de la Probabilidad Clásica:

  1. Espacio Muestral (Ω): El conjunto de todos los posibles resultados del experimento. Debe ser finito.
  2. Resultados Elementales: Cada uno de los resultados individuales en el espacio muestral.
  3. Equiprobabilidad: El supuesto fundamental de que cada resultado elemental tiene la misma probabilidad de ocurrir.
  4. Evento (A): Un subconjunto del espacio muestral, que representa el conjunto de resultados favorables al evento de interés.
  5. Número de Resultados Favorables (k): La cantidad de resultados elementales que pertenecen al evento A.
  6. Número Total de Resultados Posibles (N): La cantidad total de resultados elementales en el espacio muestral Ω.

🎲 6.1. Ejemplo 1: Probabilidad al lanzar un dado justo

Experimento: Lanzamiento de un dado justo de seis caras

Espacio muestral: Ω = {1, 2, 3, 4, 5, 6}, N = 6 resultados posibles, todos igualmente probables.

a) Probabilidad de obtener un número par:

Evento A = {obtener un número par} = {2, 4, 6}, k = 3

P(A) = 3/6 = 0.5

b) Probabilidad de obtener un número mayor que 4:

Evento B = {obtener un número mayor que 4} = {5, 6}, k = 2

P(B) = 2/6 ≈ 0.333
1 2 3 4 5 6 Distribución uniforme del dado

📋 Código en R:

# Espacio muestral del dado
espacio_muestral_dado <- 1:6
total_resultados_dado <- length(espacio_muestral_dado)

# Probabilidad de obtener un número par
resultados_par <- c(2, 4, 6)
resultados_favorables_par <- length(resultados_par)
prob_par <- resultados_favorables_par / total_resultados_dado
cat("Probabilidad de obtener un número par:", prob_par, "\n")

# Probabilidad de obtener un número mayor que 4
resultados_mayor_4 <- c(5, 6)
resultados_favorables_mayor_4 <- length(resultados_mayor_4)
prob_mayor_4 <- resultados_favorables_mayor_4 / total_resultados_dado
cat("Probabilidad de obtener un número mayor que 4:", prob_mayor_4, "\n")

🃏 6.2. Ejemplo 2: Probabilidad al seleccionar una carta de una baraja estándar

Experimento: Seleccionar una carta al azar de una baraja estándar de 52 cartas

Baraja: 4 palos (corazones, diamantes, tréboles, espadas), cada uno con 13 cartas (2,3,…,10, Jota, Reina, Rey, As)

a) Probabilidad de seleccionar un As:

Evento A = {seleccionar un As}, k = 4 ases, N = 52 cartas

P(A) = 4/52 = 1/13 ≈ 0.077

b) Probabilidad de seleccionar una carta de corazones:

Evento B = {seleccionar una carta de corazones}, k = 13 cartas de corazones, N = 52

P(B) = 13/52 = 1/4 = 0.25
Corazones Diamantes Tréboles Espadas Probabilidad por palo (1/4 cada uno)

📋 Código en R:

# Espacio muestral de la baraja
palos <- c("Corazones", "Diamantes", "Tréboles", "Espadas")
rangos <- c("2", "3", "4", "5", "6", "7", "8", "9", "10", "Jota", "Reina", "Rey", "As")
baraja <- paste(rep(rangos, each = 4), "de", palos)
total_cartas <- length(baraja)

# Probabilidad de seleccionar un As
ases <- grep("As de", baraja)
prob_as <- length(ases) / total_cartas
cat("Probabilidad de seleccionar un As:", prob_as, "\n")

# Probabilidad de seleccionar una carta de corazones
corazones <- grep("de Corazones", baraja)
prob_corazones <- length(corazones) / total_cartas
cat("Probabilidad de corazones:", prob_corazones, "\n")

🔴 6.3. Ejemplo 3: Probabilidad al seleccionar bolas de una urna

Experimento: Seleccionar una bola al azar de una urna con 5 bolas rojas y 3 bolas azules

Total de bolas: N = 8, todas igualmente probables

a) Probabilidad de seleccionar una bola roja:

Evento A = {seleccionar una bola roja}, k = 5 bolas rojas

P(A) = 5/8 = 0.625

b) Probabilidad de seleccionar una bola azul:

Evento B = {seleccionar una bola azul}, k = 3 bolas azules

P(B) = 3/8 = 0.375
5 Rojas + 3 Azules = 8 bolas

📋 Código en R:

# Urna con bolas
urna <- c(rep("Roja", 5), rep("Azul", 3))
total_bolas <- length(urna)

# Probabilidad de seleccionar una bola roja
prob_roja <- sum(urna == "Roja") / total_bolas
cat("Probabilidad de bola roja:", prob_roja, "\n")

# Probabilidad de seleccionar una bola azul
prob_azul <- sum(urna == "Azul") / total_bolas
cat("Probabilidad de bola azul:", prob_azul, "\n")

🪙 6.4. Ejemplo 4: Probabilidad al lanzar dos monedas justas

Experimento: Lanzar dos monedas justas

Espacio muestral: Ω = {CC, CS, SC, SS}, N = 4 resultados posibles, todos igualmente probables

a) Probabilidad de obtener dos caras:

Evento A = {obtener dos caras} = {CC}, k = 1

P(A) = 1/4 = 0.25

b) Probabilidad de obtener al menos una cara:

Evento B = {obtener al menos una cara} = {CC, CS, SC}, k = 3

P(B) = 3/4 = 0.75
CC CS SC SS

📋 Código en R:

# Espacio muestral de dos monedas
monedas <- c("Cara", "Cruz")
lanzamientos <- expand.grid(Moneda1 = monedas, Moneda2 = monedas)
total_monedas <- nrow(lanzamientos)

# Probabilidad de obtener dos caras
dos_caras <- sum(lanzamientos$Moneda1 == "Cara" & lanzamientos$Moneda2 == "Cara")
prob_dos_caras <- dos_caras / total_monedas
cat("Probabilidad de dos caras:", prob_dos_caras, "\n")

# Probabilidad de al menos una cara
al_menos_una_cara <- sum(lanzamientos$Moneda1 == "Cara" | lanzamientos$Moneda2 == "Cara")
prob_al_menos_una_cara <- al_menos_una_cara / total_monedas
cat("Probabilidad de al menos una cara:", prob_al_menos_una_cara, "\n")

🃏 6.5. Ejemplo 5: Eventos con cartas de una baraja

Experimento: Seleccionar una carta al azar de una baraja estándar de 52 cartas

Eventos definidos:

  • D: Seleccionar un diamante (13 cartas)
  • F: Seleccionar una figura (Jota, Reina, Rey) (12 cartas en total)
  • A: Seleccionar un As (4 cartas)

a) Probabilidad de la unión de D y F: P(D ∪ F)

P(D ∪ F) = P(D) + P(F) - P(D ∩ F) = 13/52 + 12/52 - 3/52 = 22/52 ≈ 0.423

D ∩ F = figuras de diamantes (Jota, Reina, Rey de diamantes), 3 cartas

b) Probabilidad de la intersección de F y A: P(F ∩ A)

P(F ∩ A) = 0

Los As no son figuras → eventos mutuamente excluyentes

D F 3 A (As) está fuera de F

📋 Código en R:

# Total de cartas
total_cartas <- 52

# Probabilidades individuales
prob_D <- 13 / total_cartas   # Diamantes
prob_F <- 12 / total_cartas   # Figuras
prob_A <- 4 / total_cartas    # Ases

# Intersección D ∩ F (Figuras de diamantes)
prob_interseccion_DF <- 3 / total_cartas

# a) Unión de D y F
prob_union_DF <- prob_D + prob_F - prob_interseccion_DF
cat("P(D ∪ F):", prob_union_DF, "\n")

# b) Intersección de F y A (eventos mutuamente excluyentes)
prob_interseccion_FA <- 0
cat("P(F ∩ A):", prob_interseccion_FA, "\n")

13 📊 RESUMEN DE PROBABILIDAD CLÁSICA

📋 Fórmulas clave de probabilidad clásica

Concepto Fórmula Descripción
Probabilidad clásica P(A) = k/N k = resultados favorables, N = total resultados
Eventos mutuamente excluyentes P(A ∪ B) = P(A) + P(B) A ∩ B = ∅
Probabilidad del complemento P(Aᶜ) = 1 - P(A) Aᶜ = Ω - A
Regla general de la unión P(A ∪ B) = P(A) + P(B) - P(A ∩ B) A y B no necesariamente excluyentes

14 🎯 RESUMEN DE EJEMPLOS

Ejemplo Experimento Evento Probabilidad
6.1 Lanzar un dado Número par 3/6 = 0.5
6.1 Lanzar un dado Número > 4 2/6 ≈ 0.333
6.2 Baraja 52 cartas Seleccionar un As 4/52 ≈ 0.077
6.2 Baraja 52 cartas Seleccionar corazones 13/52 = 0.25
6.3 Urna (5R, 3A) Bola roja 5/8 = 0.625
6.3 Urna (5R, 3A) Bola azul 3/8 = 0.375
6.4 Dos monedas Dos caras 1/4 = 0.25
6.4 Dos monedas Al menos una cara 3/4 = 0.75
6.5 Baraja 52 cartas D ∪ F 22/52 ≈ 0.423
6.5 Baraja 52 cartas F ∩ A 0


15 📊 PROBABILIDAD GEOMÉTRICA

📐 7. Probabilidad Geométrica

La Probabilidad Geométrica es un enfoque para calcular la probabilidad de un evento cuando el espacio muestral Ω y el evento A son subconjuntos de un espacio geométrico continuo (como una línea, un área o un volumen). La probabilidad de que un punto aleatorio caiga dentro del evento A se define como la razón entre la “medida” (longitud, área, volumen) de A y la “medida” de Ω:

P(A) = Medida(A) / Medida(Ω)

Donde “Medida” se refiere a la longitud si el espacio es unidimensional, al área si es bidimensional, y al volumen si es tridimensional. El supuesto fundamental aquí es que la probabilidad es uniforme sobre el espacio muestral Ω, lo que significa que cualquier punto dentro de Ω tiene la misma probabilidad de ser el resultado.

Elementos clave de la Probabilidad Geométrica:

  1. Espacio Muestral Continuo (Ω): Un subconjunto de un espacio geométrico (línea, área, volumen).
  2. Evento (A): Un subconjunto del espacio muestral Ω.
  3. Uniformidad: La probabilidad es uniforme sobre Ω.
  4. Medida: La longitud, área o volumen de los conjuntos.
A Espacio Muestral Ω P(A) = Área(A) / Área(Ω)

Diagrama: Probabilidad geométrica como razón de áreas


📏 7.1. Ejemplo 1: Encontrar un punto en un segmento de línea

Enunciado: Consideremos un segmento de línea de longitud L. Se elige un punto aleatorio sobre este segmento. ¿Cuál es la probabilidad de que el punto se encuentre dentro de un subsegmento de longitud l contenido en el segmento original?

Solución:

  • Espacio muestral Ω: segmento de línea de longitud L → Medida = L
  • Evento A: subsegmento de longitud l → Medida = l
  • Supuesto: probabilidad uniforme sobre el segmento
P(A) = Longitud(A) / Longitud(Ω) = l / L

Ejemplo específico: Si L = 10 cm y l = 2 cm, entonces:

P(A) = 2/10 = 0.2
l = 2 cm L = 10 cm P(A) = l/L = 0.2

📋 Código en R (Visualización):

# Parámetros
L <- 10
l <- 2

# Visualización
plot(c(0, L), c(0, 1), type = "n", xlab = "Longitud", ylab = "", yaxt = "n",
     main = "Probabilidad Geométrica: Punto en un Segmento")
segments(0, 0.5, L, 0.5, lwd = 4)                     # Segmento total
segments((L - l)/2, 0.4, (L + l)/2, 0.4, col = "red", lwd = 6)  # Subsegmento
text(L/2, 0.6, paste("Longitud L =", L), cex = 0.8)
text(L/2, 0.3, paste("Longitud l =", l), col = "red", cex = 0.8)

⬛ 7.2. Ejemplo 2: Encontrar un punto en un área

Enunciado: Consideremos un cuadrado de lado s. Se elige un punto aleatorio dentro del cuadrado. ¿Cuál es la probabilidad de que el punto se encuentre dentro de un círculo de radio r completamente contenido en el cuadrado?

Solución:

  • Espacio muestral Ω: cuadrado de lado s → Área = s²
  • Evento A: círculo de radio r → Área = πr²
  • Supuesto: probabilidad uniforme sobre el cuadrado
P(A) = Área(A) / Área(Ω) = πr² / s²

Ejemplo específico: Si s = 10 cm y r = 3 cm (círculo centrado en el cuadrado):

P(A) = π(3)² / (10)² = 9π/100 ≈ 0.283
Círculo s = 10 cm, r = 3 cm P = πr²/s² ≈ 0.283

📋 Código en R (Visualización):

# Parámetros
s <- 10
r <- 3

# Visualización
plot(c(0, s), c(0, s), type = "n", xlab = "x", ylab = "y",
     main = "Probabilidad Geométrica: Punto en un Área")
rect(0, 0, s, s)                                 # Cuadrado
symbols(s/2, s/2, circles = r, inches = FALSE, add = TRUE, fg = "red")  # Círculo
text(s/2, s * 0.9, paste("Área Cuadrado =", s^2), cex = 0.8)
text(s/2, s * 0.1, paste("Área Círculo =", round(pi * r^2, 2)), col = "red", cex = 0.8)

⏰ 7.4. Ejemplo 3: Problema del tiempo de encuentro

Enunciado: Dos amigos acuerdan encontrarse en un lugar entre las 12:00 PM y la 1:00 PM. El primero que llega esperará 15 minutos al otro, después de lo cual se irá. Si ambos llegan en algún momento aleatorio dentro de esta hora, ¿cuál es la probabilidad de que se encuentren?

Solución:

  • Sea x = tiempo de llegada del amigo 1 (minutos después de las 12:00)
  • Sea y = tiempo de llegada del amigo 2 (minutos después de las 12:00)
  • Ambos x e y están uniformemente distribuidos entre 0 y 60
  • Espacio muestral Ω: cuadrado de lado 60 → Área = 60 × 60 = 3600
  • Se encuentran si |x - y| ≤ 15

Cálculo del área de encuentro:

Área donde NO se encuentran = 2 × (1/2 × 45 × 45) = 2 × 1012.5 = 2025
Área donde SÍ se encuentran = 3600 - 2025 = 1575

P(A) = 1575 / 3600 = 7/16 = 0.4375
Región verde: se encuentran |x - y| ≤ 15 P = 7/16 = 0.4375

📋 Código en R (Visualización):

# Visualización del problema de encuentro
x <- seq(0, 60, length.out = 200)
y <- seq(0, 60, length.out = 200)
grid_xy <- expand.grid(x = x, y = y)
se_encuentran <- abs(grid_xy$x - grid_xy$y) <= 15

plot(grid_xy$x, grid_xy$y, col = ifelse(se_encuentran, "green", "red"),
     xlab = "Tiempo Amigo 1 (min)", ylab = "Tiempo Amigo 2 (min)",
     main = "Probabilidad Geométrica: Tiempo de Encuentro", pch = ".")
rect(0, 0, 60, 60)

🟢 7.5. Ejemplo 4: Romper una vara aleatoriamente

Enunciado: Se rompe una vara de longitud 1 en dos puntos elegidos al azar y de forma independiente a lo largo de su longitud. ¿Cuál es la probabilidad de que los tres segmentos resultantes puedan formar un triángulo?

Solución:

  • Sean x e y las posiciones de los dos puntos de ruptura (0 < x < y < 1)
  • Longitudes de los segmentos: a = x, b = y - x, c = 1 - y
  • Condiciones del triángulo (desigualdad triangular):
    • a + b > c → y > 1/2
    • a + c > b → x < 1/2
    • b + c > a → y < x + 1/2

Cálculo de áreas:

  • Espacio muestral Ω (asumiendo x < y): triángulo de área 1/2
  • Región favorable A: triángulo de área 1/8
P(A) = (1/8) / (1/2) = 1/4 = 0.25
Región azul: se forma triángulo P = 1/4 = 0.25

📋 Código en R (Visualización):

# Visualización del problema de la vara
x <- seq(0, 1, length.out = 200)
y <- seq(0, 1, length.out = 200)
grid_xy <- expand.grid(x = x, y = y)
grid_filtrado <- grid_xy[grid_xy$x < grid_xy$y, ]

forman_triangulo <- (grid_filtrado$y > 0.5) & 
                    (grid_filtrado$y < grid_filtrado$x + 0.5) & 
                    (grid_filtrado$x < 0.5)

plot(grid_filtrado$x, grid_filtrado$y, 
     col = ifelse(forman_triangulo, "green", "red"),
     xlab = "Punto de ruptura 1", ylab = "Punto de ruptura 2",
     main = "Probabilidad Geométrica: Formar un Triángulo", pch = ".")
polygon(c(0, 0, 1), c(0, 1, 1), border = "black")
polygon(c(0, 0.5, 0.5), c(0.5, 0.5, 1), border = "blue")

16 📊 RESUMEN DE PROBABILIDAD GEOMÉTRICA

📋 Fórmulas clave de probabilidad geométrica

Dimensión Medida Fórmula Ejemplo
1D (línea) Longitud P(A) = Longitud(A) / Longitud(Ω) Punto en un segmento
2D (área) Área P(A) = Área(A) / Área(Ω) Punto en un círculo dentro de un cuadrado
3D (volumen) Volumen P(A) = Volumen(A) / Volumen(Ω) Punto en una esfera dentro de un cubo

17 🎯 RESUMEN DE EJEMPLOS DE PROBABILIDAD GEOMÉTRICA

Ejemplo Experimento Evento Probabilidad
7.1 Punto en segmento L Punto en subsegmento l l/L
7.2 Punto en cuadrado s Punto en círculo radio r πr²/s²
7.4 Encuentro de 2 amigos (0-60 min) x - y
7.5 Romper vara longitud 1 en 2 puntos Formar triángulo 1/4 = 0.25

18 📐 PROPIEDADES IMPORTANTES DE PROBABILIDAD GEOMÉTRICA

📐 Características clave

  • Espacio muestral continuo: Ω es un subconjunto de ℝ, ℝ² o ℝ³
  • Uniformidad: Todos los puntos tienen la misma probabilidad
  • Razón de medidas: P(A) = Medida(A)/Medida(Ω)
  • Complemento: P(Aᶜ) = 1 - P(A)
  • Unión de eventos disjuntos: P(A ∪ B) = P(A) + P(B) (si no se traslapan las regiones)

19 📊 PROBABILIDAD FRECUENTISTA

📊 8. Probabilidad Frecuentista

La Probabilidad Frecuentista (o empírica) define la probabilidad de un evento como el límite de la frecuencia relativa de ese evento en una larga serie de ensayos repetidos e independientes bajo condiciones similares. Si un experimento se repite n veces y un evento A ocurre k veces, la frecuencia relativa de A es k/n. La probabilidad frecuentista de A, denotada como P(A), se define como:

P(A) = limₙ→∞ (Número de veces que ocurre A) / (Número total de ensayos) = limₙ→∞ k/n

Este enfoque se basa en la idea de que a medida que el número de ensayos aumenta, la frecuencia relativa de un evento se estabilizará y se acercará a la verdadera probabilidad del evento.

Elementos clave de la Probabilidad Frecuentista:

  1. Repetición de Ensayos: El experimento debe poder repetirse muchas veces bajo condiciones similares.
  2. Independencia: Los resultados de los ensayos deben ser independientes entre sí.
  3. Frecuencia Relativa: La proporción de veces que ocurre el evento de interés en un número dado de ensayos.
  4. Convergencia: La probabilidad se estima por el valor al que converge la frecuencia relativa a medida que el número de ensayos tiende a infinito (en la práctica, un número muy grande).
Número de ensayos (n) Frecuencia relativa (k/n) Ley de los Grandes Números P(A)

Gráfico: Convergencia de la frecuencia relativa hacia la verdadera probabilidad


🪙 8.1. Ejemplo 1: Estimación de la probabilidad de obtener cara en una moneda (posiblemente sesgada)

Enunciado: Supongamos que tenemos una moneda cuya probabilidad de obtener cara no conocemos (podría estar sesgada). Para estimar esta probabilidad utilizando el enfoque frecuentista, lanzamos la moneda un gran número de veces y observamos la frecuencia relativa de obtener cara.

Solución en R:

# Probabilidad verdadera de cara (desconocida para el experimentador)
prob_verdadera_cara <- 0.6

# Número de lanzamientos en cada etapa
n_lanzamientos <- c(10, 50, 100, 500, 1000, 5000)
frecuencias_relativas_cara <- numeric(length(n_lanzamientos))

set.seed(123) # Para reproducibilidad

for (i in 1:length(n_lanzamientos)) {
  lanzamientos <- rbinom(n_lanzamientos[i], 1, prob_verdadera_cara) # 1 = cara, 0 = cruz
  frecuencias_relativas_cara[i] <- mean(lanzamientos)
}

# Visualización de la convergencia
plot(n_lanzamientos, frecuencias_relativas_cara, type = "b", pch = 16,
     xlab = "Número de Lanzamientos", ylab = "Frecuencia Relativa de Caras",
     main = "Probabilidad Frecuentista: Lanzamiento de Moneda")
abline(h = prob_verdadera_cara, col = "red", lty = 2)
Convergencia de la frecuencia relativa (moneda con p=0.6) Número de lanzamientos Frecuencia relativa p = 0.6

La frecuencia relativa se acerca a la probabilidad verdadera (p=0.6) a medida que aumentan los lanzamientos


🏭 8.2. Ejemplo 2: Estimación de la probabilidad de un defecto en un proceso de producción

Enunciado: En una fábrica, se inspeccionan artículos producidos para detectar defectos. Para estimar la probabilidad de que un artículo sea defectuoso, se examina una gran muestra de artículos y se calcula la proporción de artículos defectuosos.

Solución en R:

# Probabilidad verdadera de defecto
prob_verdadera_defecto <- 0.02

# Número de artículos inspeccionados en cada etapa
n_inspeccionados <- c(100, 500, 1000, 5000, 10000, 50000)
frecuencias_relativas_defecto <- numeric(length(n_inspeccionados))

set.seed(456) # Para reproducibilidad

for (i in 1:length(n_inspeccionados)) {
  defectuosos <- rbinom(n_inspeccionados[i], 1, prob_verdadera_defecto)
  frecuencias_relativas_defecto[i] <- mean(defectuosos)
}

# Visualización
plot(n_inspeccionados, frecuencias_relativas_defecto, type = "b", pch = 16,
     xlab = "Número de Artículos Inspeccionados", 
     ylab = "Frecuencia Relativa de Defectos",
     main = "Probabilidad Frecuentista: Defectos de Producción")
abline(h = prob_verdadera_defecto, col = "red", lty = 2)
Convergencia: Defectos en producción (p=0.02) Número de artículos inspeccionados Frecuencia de defectos p = 0.02

Convergencia de la frecuencia de defectos hacia el 2% real


🎰 8.3. Ejemplo 3: Estimación de la probabilidad de ganar en un juego de azar

Enunciado: Consideremos un juego de azar donde la probabilidad de ganar es desconocida. Para estimarla, jugamos el juego un gran número de veces y registramos la frecuencia relativa de victorias.

Solución en R:

# Probabilidad verdadera de ganar
prob_verdadera_ganar <- 0.3

# Número de juegos jugados en cada etapa
n_juegos <- c(50, 100, 500, 1000, 5000, 10000)
frecuencias_relativas_ganar <- numeric(length(n_juegos))

set.seed(789) # Para reproducibilidad

for (i in 1:length(n_juegos)) {
  ganados <- rbinom(n_juegos[i], 1, prob_verdadera_ganar)
  frecuencias_relativas_ganar[i] <- mean(ganados)
}

# Visualización
plot(n_juegos, frecuencias_relativas_ganar, type = "b", pch = 16,
     xlab = "Número de Juegos Jugados", 
     ylab = "Frecuencia Relativa de Victorias",
     main = "Probabilidad Frecuentista: Juego de Azar")
abline(h = prob_verdadera_ganar, col = "red", lty = 2)
legend("topright", legend = paste("Probabilidad Verdadera (", prob_verdadera_ganar, ")", sep=""), 
       col = "red", lty = 2)
Convergencia: Juego con probabilidad de ganar p=0.3 Número de juegos Frecuencia de victorias p = 0.3

🌧️ 8.4. Ejemplo 4: Estimación de la probabilidad de un evento climático

Enunciado: Para estimar la probabilidad de que llueva en un día específico en Cartagena durante el mes de abril, se recopilan datos históricos de los últimos años sobre la ocurrencia de lluvia en ese día. La probabilidad se estima como la frecuencia relativa de días lluviosos en el conjunto de datos históricos.

Solución en R (Simulación basada en una probabilidad histórica):

# Probabilidad histórica de lluvia (estimada como la verdadera para la simulación)
prob_hist_lluvia <- 0.25

# Número de años de datos históricos (simulados como ensayos)
n_anios <- c(20, 50, 100, 200, 500, 1000)
frecuencias_relativas_lluvia <- numeric(length(n_anios))

set.seed(101) # Para reproducibilidad

for (i in 1:length(n_anios)) {
  dias_lluviosos <- rbinom(n_anios[i], 1, prob_hist_lluvia)
  frecuencias_relativas_lluvia[i] <- mean(dias_lluviosos)
}

# Visualización
plot(n_anios, frecuencias_relativas_lluvia, type = "b", pch = 16,
     xlab = "Número de Años de Datos", 
     ylab = "Frecuencia Relativa de Días Lluviosos",
     main = "Probabilidad Frecuentista: Lluvia en Cartagena (Abril)")
abline(h = prob_hist_lluvia, col = "red", lty = 2)
Convergencia: Lluvia en Cartagena (p=0.25) Número de años de datos Frecuencia de lluvia p = 0.25

20 📊 COMPARACIÓN DE ENFOQUES DE PROBABILIDAD

📋 Comparación: Clásica vs Frecuentista vs Geométrica

Característica Probabilidad Clásica Probabilidad Frecuentista Probabilidad Geométrica
Espacio muestral Finito No necesariamente finito Continuo (longitud, área, volumen)
Supuesto base Equiprobabilidad Convergencia de frecuencias Uniformidad en el espacio
Cálculo P(A) = k/N P(A) = limₙ→∞ k/n P(A) = Medida(A)/Medida(Ω)
Ejemplo Dado justo Moneda sesgada (experimentos repetidos) Punto en un círculo
Naturaleza Teórica (a priori) Empírica (a posteriori) Geométrica (espacial)

21 🎯 LEY DE LOS GRANDES NÚMEROS

📐 Teorema Fundamental

La Ley de los Grandes Números (Jacob Bernoulli, 1713) establece que:

limₙ→∞ P(|k/n - p| < ε) = 1

Donde:

  • n = número de ensayos
  • k = número de éxitos
  • p = probabilidad verdadera
  • ε = margen de error

Interpretación: A medida que el número de ensayos aumenta, la probabilidad de que la frecuencia relativa difiera de la probabilidad verdadera por más de ε tiende a cero.

# Demostración simple de la Ley de Grandes Números
n_values <- c(10, 100, 1000, 10000, 100000)
p_real <- 0.5

for (n in n_values) {
  lanzamientos <- sample(c(0,1), n, replace = TRUE, prob = c(0.5,0.5))
  frecuencia <- mean(lanzamientos)
  cat("n =", n, "→ Frecuencia =", frecuencia, "\n")
}

22 📊 RESUMEN DE EJEMPLOS FRECUENTISTAS

Ejemplo Experimento Probabilidad verdadera Observaciones
8.1 Moneda sesgada p(cara) = 0.6 Convergencia desde n=10 hasta n=5000
8.2 Defectos fábrica p(defecto) = 0.02 Convergencia desde n=100 hasta n=50000
8.3 Juego de azar p(ganar) = 0.3 Convergencia desde n=50 hasta n=10000
8.4 Lluvia en Cartagena p(lluvia) = 0.25 Convergencia desde 20 hasta 1000 años

23 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La probabilidad frecuentista es empírica (se basa en datos observados)
  • Requiere experimentos repetibles e independientes
  • La Ley de Grandes Números garantiza la convergencia
  • Útil cuando no se conoce la probabilidad teórica (monedas sesgadas, procesos reales)
  • Base de la estadística inferencial moderna


24 📊 PROBABILIDAD AXIOMÁTICA

📐 9. Probabilidad Axiomática

La probabilidad axiomática proporciona una base matemática rigurosa para la teoría de la probabilidad. Se define como una función P que asigna a cada evento A en el espacio muestral Ω un número real P(A) que satisface los siguientes axiomas de Kolmogorov:

  1. No negatividad: Para cualquier evento A, P(A) ≥ 0.
  2. Probabilidad del espacio muestral: La probabilidad del espacio muestral completo es 1, P(Ω) = 1.
  3. Aditividad para eventos ajenos: Si A₁, A₂, A₃, … es una secuencia de eventos mutuamente excluyentes (Aᵢ ∩ Aⱼ = ∅ para i ≠ j), entonces la probabilidad de su unión es la suma de sus probabilidades:
P(⋃_{i=1}^{∞} Aᵢ) = Σ_{i=1}^{∞} P(Aᵢ)

A partir de estos axiomas se pueden deducir otras propiedades importantes de la probabilidad.

Andréi Kolmogórov (1903-1987) Fundamentos de la Teoría de la Probabilidad (1933) Axioma 1: P(A) ≥ 0 Axioma 2: P(Ω) = 1 Axioma 3: P(∪Aᵢ) = ΣP(Aᵢ) si Aᵢ son disjuntos

Los tres axiomas de Kolmogórov: base de la probabilidad moderna


🎲 9.1. Ejemplo 1: Resultados al lanzar un dado justo

Enunciado: Consideremos el experimento de lanzar un dado justo de seis caras. Los siguientes eventos son mutuamente excluyentes:

  • A: Obtener un 1
  • B: Obtener un 2
  • C: Obtener un 3
  • D: Obtener un 4
  • E: Obtener un 5
  • F: Obtener un 6

Probabilidades individuales:

P(A) = P(B) = P(C) = P(D) = P(E) = P(F) = 1/6

Probabilidad de obtener un número par (evento Par = B ∪ D ∪ F):

P(Par) = P(B) + P(D) + P(F) = 1/6 + 1/6 + 1/6 = 3/6 = 0.5
1 2 3 4 5 6 Eventos mutuamente excluyentes: no hay superposición

📋 Código en R:

# Probabilidades de cada resultado al lanzar un dado justo
prob_1 <- 1/6
prob_2 <- 1/6
prob_3 <- 1/6
prob_4 <- 1/6
prob_5 <- 1/6
prob_6 <- 1/6

# Probabilidad de obtener un número par (2, 4 o 6)
prob_par <- prob_2 + prob_4 + prob_6
cat("Probabilidad de obtener un número par:", prob_par, "\n")

🃏 9.2. Ejemplo 2: Selección de una carta de una baraja

Enunciado: Al seleccionar una carta al azar de una baraja estándar de 52 cartas, los eventos de seleccionar una carta de cada palo son mutuamente excluyentes:

  • Corazones
  • Diamantes
  • Tréboles
  • Espadas

Probabilidades individuales:

P(Corazones) = P(Diamantes) = P(Tréboles) = P(Espadas) = 13/52 = 1/4

Probabilidad de seleccionar una carta roja (evento Roja = Corazones ∪ Diamantes):

P(Roja) = P(Corazones) + P(Diamantes) = 1/4 + 1/4 = 2/4 = 0.5
Corazones Diamantes Tréboles Espadas Los palos son mutuamente excluyentes

📋 Código en R:

# Probabilidades de seleccionar cada palo
prob_corazones <- 13/52
prob_diamantes <- 13/52
prob_treboles <- 13/52
prob_espadas <- 13/52

# Probabilidad de seleccionar una carta roja (corazones o diamantes)
prob_roja <- prob_corazones + prob_diamantes
cat("Probabilidad de seleccionar una carta roja:", prob_roja, "\n")

🍦 9.3. Ejemplo 3: Resultados de una encuesta (opciones únicas)

Enunciado: En una encuesta, se preguntó a las personas cuál era su sabor de helado favorito, y se les permitió elegir solo uno. Los resultados fueron:

  • 30% prefieren chocolate (Ch)
  • 25% prefieren vainilla (V)
  • 20% prefieren fresa (F)
  • 15% prefieren dulce de leche (DL)
  • 10% prefieren otros sabores (O)

Probabilidad de no preferir chocolate (evento Chᶜ = V ∪ F ∪ DL ∪ O):

P(Chᶜ) = P(V) + P(F) + P(DL) + P(O) = 0.25 + 0.20 + 0.15 + 0.10 = 0.70

Alternativamente:

P(Chᶜ) = 1 - P(Ch) = 1 - 0.30 = 0.70
Ch V F DL O Categorías mutuamente excluyentes (cada persona elige solo una)

📋 Código en R:

# Probabilidades de cada preferencia de helado
prob_chocolate <- 0.30
prob_vainilla <- 0.25
prob_fresa <- 0.20
prob_dulce_leche <- 0.15
prob_otros <- 0.10

# Probabilidad de no preferir chocolate
prob_no_chocolate <- prob_vainilla + prob_fresa + prob_dulce_leche + prob_otros
cat("Probabilidad de no preferir chocolate:", prob_no_chocolate, "\n")

# Alternativamente
prob_no_chocolate_alt <- 1 - prob_chocolate
cat("Alternativa:", prob_no_chocolate_alt, "\n")

🩸 9.4. Ejemplo 4: Tipos de sangre

Enunciado: Los tipos de sangre ABO (A, B, AB, O) son mutuamente excluyentes para un individuo (una persona solo puede tener un tipo de sangre ABO). Las probabilidades de los diferentes tipos de sangre en una población son aproximadamente:

  • P(A) = 0.40
  • P(B) = 0.10
  • P(AB) = 0.05
  • P(O) = 0.45

a) Probabilidad de tener tipo de sangre A u O (evento A ∪ O):

P(A ∪ O) = P(A) + P(O) = 0.40 + 0.45 = 0.85

b) Probabilidad de no tener tipo de sangre O (evento Oᶜ = A ∪ B ∪ AB):

P(Oᶜ) = P(A) + P(B) + P(AB) = 0.40 + 0.10 + 0.05 = 0.55

Alternativamente: P(Oᶜ) = 1 - P(O) = 1 - 0.45 = 0.55

A B AB O Tipos de sangre: eventos mutuamente excluyentes

📋 Código en R:

# Probabilidades de los tipos de sangre
prob_A <- 0.40
prob_B <- 0.10
prob_AB <- 0.05
prob_O <- 0.45

# Probabilidad de tener tipo de sangre A u O
prob_A_o_O <- prob_A + prob_O
cat("Probabilidad de tener tipo de sangre A u O:", prob_A_o_O, "\n")

# Probabilidad de no tener tipo de sangre O
prob_no_O <- prob_A + prob_B + prob_AB
cat("Probabilidad de no tener tipo de sangre O:", prob_no_O, "\n")

# Alternativamente
prob_no_O_alt <- 1 - prob_O
cat("Alternativa:", prob_no_O_alt, "\n")

25 📊 PROPIEDADES DEDUCIDAS DE LOS AXIOMAS

📋 Propiedades importantes

Propiedad Fórmula Descripción
Probabilidad del complemento P(Aᶜ) = 1 - P(A) La probabilidad de que no ocurra A
Probabilidad del evento imposible P(∅) = 0 El evento vacío tiene probabilidad cero
Monotonía Si A ⊆ B, entonces P(A) ≤ P(B) Eventos más grandes tienen mayor probabilidad
Regla de la unión P(A ∪ B) = P(A) + P(B) - P(A ∩ B) Válida para cualquier par de eventos
Desigualdad de Boole P(∪Aᵢ) ≤ ΣP(Aᵢ) La unión no supera la suma de probabilidades

26 🎯 RESUMEN DE EJEMPLOS DE PROBABILIDAD AXIOMÁTICA

Ejemplo Experimento Eventos mutuamente excluyentes Probabilidad calculada
9.1 Lanzamiento de dado {1}, {2}, {3}, {4}, {5}, {6} P(par) = 3/6 = 0.5
9.2 Baraja de cartas Corazones, Diamantes, Tréboles, Espadas P(roja) = 0.5
9.3 Encuesta helados Ch, V, F, DL, O P(no Ch) = 0.70
9.4 Tipos de sangre A, B, AB, O P(A ∪ O) = 0.85

27 💡 CONCLUSIONES CLAVE

✅ Importancia de la probabilidad axiomática

  • Proporciona una base matemática rigurosa para la teoría de la probabilidad
  • Permite deducir propiedades adicionales a partir de solo tres axiomas
  • Es válida para cualquier espacio muestral (finito, numerable o continuo)
  • Unifica los enfoques clásico, frecuentista y geométrico bajo un mismo marco teórico
  • Fundamental para el desarrollo de la estadística matemática moderna
# Verificación de los axiomas para un dado justo
# Axioma 1: No negatividad
all(c(1/6, 1/6, 1/6, 1/6, 1/6, 1/6) >= 0)  # TRUE

# Axioma 2: Probabilidad del espacio muestral
sum(c(1/6, 1/6, 1/6, 1/6, 1/6, 1/6)) == 1  # TRUE

# Axioma 3: Aditividad para eventos ajenos
# P(par) = P(2) + P(4) + P(6) = 1/6 + 1/6 + 1/6 = 0.5


28 📊 REGLAS BÁSICAS DE PROBABILIDAD

📐 10. Reglas Básicas de Probabilidad

Las reglas básicas de probabilidad establecen los principios matemáticos para cuantificar la incertidumbre en experimentos aleatorios.

  1. Regla de la Suma (Unión de Eventos)

Para dos eventos A y B:

P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

Caso especial: Eventos mutuamente excluyentes (A ∩ B = ∅):

P(A ∪ B) = P(A) + P(B)

  1. Regla del Producto (Intersección de Eventos)

P(A ∩ B) = P(A) · P(B|A) = P(B) · P(A|B)

Eventos independientes:

P(A ∩ B) = P(A) · P(B)

  1. Probabilidad Condicional

P(A|B) = P(A ∩ B) / P(B)   si P(B) > 0

  1. Regla del Complemento

P(Aᶜ) = 1 - P(A)

  1. Ley de la Probabilidad Total

Para una partición {B₁, B₂, …, Bₙ} de Ω:

P(A) = Σᵢ₌₁ⁿ P(A|Bᵢ) · P(Bᵢ)

  1. Teorema de Bayes

P(Bᵢ|A) = P(A|Bᵢ) · P(Bᵢ) / Σⱼ₌₁ⁿ P(A|Bⱼ) · P(Bⱼ)
A B A ∩ B Diagrama de Venn: Unión, Intersección y Complemento

⚽ 10.1. Ejemplo 1: Regla de la Suma

Enunciado: En una escuela, 40% de estudiantes juegan fútbol, 30% juegan baloncesto y 20% juegan ambos. ¿Cuál es la probabilidad de que un estudiante juegue al menos uno de estos deportes?

Solución:

  • P(Fútbol) = 0.40
  • P(Baloncesto) = 0.30
  • P(Fútbol ∩ Baloncesto) = 0.20

Aplicando la regla de la suma:

P(F ∪ B) = P(F) + P(B) - P(F ∩ B) = 0.4 + 0.3 - 0.2 = 0.5
Fútbol Baloncesto 20% 20% 10% 50% juegan al menos uno (unión) P(F ∪ B) = 0.5

📋 Código en R:

# Probabilidades
P_F <- 0.4
P_B <- 0.3
P_FyB <- 0.2

# Regla de la suma
P_FoB <- P_F + P_B - P_FyB
cat("P(Fútbol ∪ Baloncesto) =", P_FoB, "\n")

Resultado: P(F ∪ B) = 0.4 + 0.3 - 0.2 = 0.5


🏭 10.2. Ejemplo 2: Probabilidad Condicional

Enunciado: En una fábrica, 5% de los productos son defectuosos. Si un producto es defectuoso, la probabilidad de que sea detectado por el inspector es 0.9. ¿Cuál es la probabilidad de que un producto sea defectuoso y sea detectado?

Solución:

  • P(Defectuoso) = 0.05
  • P(Detectado | Defectuoso) = 0.90

Aplicando la regla del producto:

P(D ∩ T) = P(D) · P(T|D) = 0.05 × 0.90 = 0.045
Probabilidad de ser defectuoso Y detectado Defectuoso 5% Detectado 90% P(D ∩ T) = 0.05 × 0.90 = 0.045

📋 Código en R:

# Probabilidades
P_D <- 0.05
P_T_dado_D <- 0.9

# Regla del producto
P_DyT <- P_D * P_T_dado_D
cat("P(Defectuoso ∩ Detectado) =", P_DyT, "\n")

Resultado: P(D ∩ T) = 0.05 × 0.90 = 0.045


🎲 10.3. Ejemplo 3: Independencia

Enunciado: Se lanzan dos dados justos. ¿Cuál es la probabilidad de obtener un 3 en el primero y un número par en el segundo?

Solución:

  • P(3 en primer dado) = 1/6
  • P(par en segundo dado) = 3/6 = 1/2
  • Eventos independientes

Aplicando regla del producto para eventos independientes:

P(3 ∩ Par) = P(3) · P(Par) = (1/6) × (3/6) = 3/36 = 1/12 ≈ 0.0833
P(3) = 1/6 P(Par) = 1/2 P = 1/6 × 1/2 = 1/12 ≈ 0.0833

📋 Código en R:

# Probabilidades
P_3 <- 1/6
P_par <- 3/6      # {2,4,6}

# Eventos independientes
P_3yPar <- P_3 * P_par
cat("P(3 en primero ∩ par en segundo) =", P_3yPar, "\n")

Resultado: P = 1/6 × 3/6 = 1/12 ≈ 0.0833


🏥 10.4. Ejemplo 4: Teorema de Bayes

Enunciado: Una enfermedad afecta al 1% de la población. Una prueba detecta la enfermedad en el 99% de los casos, pero da falsos positivos en el 5%. Si una persona da positivo, ¿cuál es la probabilidad de que realmente tenga la enfermedad?

Solución:

  • P(Enfermo) = 0.01
  • P(Positivo | Enfermo) = 0.99
  • P(Positivo | No Enfermo) = 0.05

Aplicando el Teorema de Bayes:

P(E|Pos) = P(Pos|E)·P(E) / [P(Pos|E)·P(E) + P(Pos|NoE)·P(NoE)]


P(E|Pos) = (0.99 × 0.01) / (0.99 × 0.01 + 0.05 × 0.99) = 0.0099 / (0.0099 + 0.0495) ≈ 0.1667
Paradoja de la prueba médica Enfermos (1%) Sanos (99%) 99% detectados → 0.99 × 0.01 = 0.0099 5% falsos positivos → 0.05 × 0.99 = 0.0495 Probabilidad real: ~16.67%

📋 Código en R:

# Probabilidades
P_E <- 0.01
P_Pos_dadoE <- 0.99
P_Pos_dadoNoE <- 0.05

# Teorema de Bayes
P_EdadoPos <- (P_Pos_dadoE * P_E) / (P_Pos_dadoE * P_E + P_Pos_dadoNoE * (1 - P_E))
cat("P(Enfermo|Positivo) =", round(P_EdadoPos, 4), "\n")

Resultado: P(E|Pos) ≈ 0.1667 (solo ~16.67% de los positivos son realmente enfermos)


29 📊 VISUALIZACIÓN DE REGLAS BÁSICAS

📊 Diagrama de Venn para la Regla de la Suma

Diagrama de Venn: Regla de la Suma A B A ∩ B Solo A Solo B P(A ∪ B) = P(A) + P(B) - P(A ∩ B) Ejemplo (10.1): 0.5 = 0.4 + 0.3 - 0.2

Interpretación:

  • Rojo: Solo Fútbol (20%)
  • Verde: Solo Baloncesto (10%)
  • Intersección: Ambos deportes (20%)
  • Área total coloreada: 50% (resultado del Ejemplo 10.1)

30 📊 RESUMEN DE REGLAS DE PROBABILIDAD

📋 Tabla resumen de reglas

Regla Fórmula Condición
Suma (general) P(A ∪ B) = P(A) + P(B) - P(A ∩ B) Cualquier A, B
Suma (excluyentes) P(A ∪ B) = P(A) + P(B) A ∩ B = ∅
Producto (general) P(A ∩ B) = P(A) · P(B|A) Cualquier A, B
Producto (independientes) P(A ∩ B) = P(A) · P(B) A y B independientes
Probabilidad condicional P(A|B) = P(A ∩ B) / P(B) P(B) > 0
Complemento P(Aᶜ) = 1 - P(A) Cualquier A
Probabilidad total P(A) = Σ P(A|Bᵢ) · P(Bᵢ) {Bᵢ} partición de Ω
Teorema de Bayes P(Bᵢ|A) = P(A|Bᵢ)·P(Bᵢ) / Σ P(A|Bⱼ)·P(Bⱼ) P(A) > 0

31VERIFICACIÓN DE LOS AXIOMAS EN LOS EJEMPLOS

🔍 Comprobación de propiedades

# Verificación del Ejemplo 10.1 (Regla de la suma)
P_A <- 0.4
P_B <- 0.3
P_A_int_B <- 0.2
P_A_union_B <- P_A + P_B - P_A_int_B
cat("P(A ∪ B) =", P_A_union_B, "\n")

# Verificación del Teorema de Bayes (Ejemplo 10.4)
P_E <- 0.01
P_Pos_E <- 0.99
P_Pos_NE <- 0.05
P_E_Pos <- (P_Pos_E * P_E) / (P_Pos_E * P_E + P_Pos_NE * (1 - P_E))
cat("P(E|Pos) =", round(P_E_Pos, 4), "\n")

32 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La regla de la suma permite calcular la probabilidad de que ocurra al menos uno de varios eventos
  • La regla del producto es fundamental para calcular probabilidades conjuntas
  • La probabilidad condicional actualiza la probabilidad de un evento dada información adicional
  • El Teorema de Bayes es crucial para la inferencia estadística y el aprendizaje automático
  • La Ley de Probabilidad Total permite descomponer problemas complejos en partes más simples

33 📊 APLICACIONES DE PROBABILIDAD

🎯 11. Aplicaciones de Probabilidad

Las aplicaciones de la probabilidad abarcan desde problemas clásicos de juegos de azar hasta situaciones de la vida cotidiana como control de calidad, diagnósticos médicos y predicciones climáticas. A continuación se presentan ejemplos prácticos que ilustran los diferentes enfoques de la probabilidad.


🪙 11.1. Ejemplo 1: Lanzamiento de dos monedas

Problema: Se lanzan dos monedas justas. ¿Cuál es la probabilidad de obtener al menos una cara?

Solución:

El espacio muestral para el lanzamiento de dos monedas es:

Ω = {CC, CX, XC, XX}

donde C representa cara y X representa cruz. Cada resultado tiene una probabilidad de 1/4 asumiendo que las monedas son justas e independientes.

El evento A = “obtener al menos una cara” está compuesto por:

A = {CC, CX, XC}

Usando la probabilidad clásica:

P(A) = |A| / |Ω| = 3/4 = 0.75

Alternativamente (usando el complemento):

Aᶜ = “no obtener ninguna cara” = “obtener dos cruces” = {XX}

P(Aᶜ) = 1/4 → P(A) = 1 - P(Aᶜ) = 1 - 1/4 = 3/4 = 0.75
CC CX XC XX

Espacio muestral: 4 resultados igualmente probables


📋 Código en R:

# Espacio muestral
omega <- c("CC", "CX", "XC", "XX")

# Evento A: al menos una cara
A <- c("CC", "CX", "XC")

# Probabilidad clásica
prob_A <- length(A) / length(omega)
cat("Probabilidad de obtener al menos una cara:", prob_A, "\n")

# Probabilidad del complemento
A_complemento <- setdiff(omega, A)
prob_A_complemento <- length(A_complemento) / length(omega)
cat("Probabilidad de no obtener ninguna cara:", prob_A_complemento, "\n")

# Usando complemento
prob_A_usando_complemento <- 1 - prob_A_complemento
cat("P(A) usando complemento:", prob_A_usando_complemento, "\n")

Resultado: P(al menos una cara) = 3/4 = 0.75


📏 11.2. Ejemplo 2: Probabilidad Geométrica en un segmento

Problema: Se elige un punto al azar en un segmento de recta de longitud 10 cm. ¿Cuál es la probabilidad de que el punto se encuentre a una distancia no mayor de 2 cm de uno de los extremos del segmento?

Solución:

El espacio muestral Ω es el segmento de longitud 10 cm, representado como el intervalo [0, 10]:

|Ω| = 10

El evento A = “el punto se encuentra a una distancia no mayor de 2 cm de uno de los extremos”:

  • Extremo izquierdo: intervalo [0, 2] → longitud = 2 cm
  • Extremo derecho: intervalo [8, 10] → longitud = 2 cm
|A| = 2 + 2 = 4 cm

Usando probabilidad geométrica:

P(A) = |A| / |Ω| = 4 / 10 = 0.4
Segmento de longitud 10 cm 0-2 cm 8-10 cm P(A) = 4/10 = 0.4

📋 Código en R (simulación):

# Número de simulaciones
n_simulaciones <- 10000

# Simular la elección de puntos en el segmento [0, 10]
puntos <- runif(n_simulaciones, min = 0, max = 10)

# Verificar si cada punto está a no más de 2 cm de los extremos
evento_A <- (puntos >= 0 & puntos <= 2) | (puntos >= 8 & puntos <= 10)

# Calcular la frecuencia relativa del evento A
prob_A_simulada <- sum(evento_A) / n_simulaciones
cat("Probabilidad simulada:", prob_A_simulada, "\n")

Resultado teórico: P(A) = 0.4 (la simulación dará un valor cercano)


🔴🔵🟢 11.3. Ejemplo 3: Eventos Ajenos y Probabilidad Axiomática

Problema: En una caja hay 3 bolas rojas, 4 bolas azules y 2 bolas verdes. Se extrae una bola al azar. Sean los eventos:

  • R: La bola extraída es roja.
  • A: La bola extraída es azul.
  • V: La bola extraída es verde.

Calcula la probabilidad de cada evento y la probabilidad de extraer una bola roja o azul.

Solución:

El espacio muestral Ω consiste en todas las bolas de la caja. El número total de bolas es:

Total = 3 + 4 + 2 = 9 bolas

Los eventos R, A y V son mutuamente excluyentes (ajenos), ya que una bola no puede ser de dos colores al mismo tiempo.

Probabilidades individuales:

P(R) = 3/9 = 1/3 ≈ 0.333
P(A) = 4/9 ≈ 0.444
P(V) = 2/9 ≈ 0.222

Probabilidad de extraer una bola roja o azul (R ∪ A):

Como R y A son eventos ajenos, usando la propiedad de aditividad:

P(R ∪ A) = P(R) + P(A) = 3/9 + 4/9 = 7/9 ≈ 0.7778
R A V 3 rojas 4 azules 2 verdes P(R ∪ A) = 3/9 + 4/9 = 7/9 ≈ 0.7778

Eventos mutuamente excluyentes (no hay superposición)


📋 Código en R:

# Número de bolas de cada color
n_rojas <- 3
n_azules <- 4
n_verdes <- 2
total_bolas <- n_rojas + n_azules + n_verdes

# Probabilidad de cada evento
prob_roja <- n_rojas / total_bolas
prob_azul <- n_azules / total_bolas
prob_verde <- n_verdes / total_bolas

cat("P(Roja) =", prob_roja, "\n")
cat("P(Azul) =", prob_azul, "\n")
cat("P(Verde) =", prob_verde, "\n")

# Probabilidad de extraer una bola roja o azul (eventos ajenos)
prob_roja_o_azul <- prob_roja + prob_azul
cat("P(Roja ∪ Azul) =", prob_roja_o_azul, "\n")

Resultados:

  • P(Roja) = 3/9 = 1/3 ≈ 0.333
  • P(Azul) = 4/9 ≈ 0.444
  • P(Verde) = 2/9 ≈ 0.222
  • P(Roja ∪ Azul) = 7/9 ≈ 0.778

🧠 11.4. MAPYCD - Probabilidad Parte I

🔗 Acceso al material:
https://forms.gle/YXX963Vw6rQjpYpq5

🧪 11.5. MAPYCD - LABORATORIO 4: EXCEL - Muestreo de medias y varianzas

🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=fA3B7euqFZA


34 📊 RESUMEN DE APLICACIONES

📋 Tabla resumen de ejemplos

Ejemplo Experimento Enfoque Evento Probabilidad
11.1 Dos monedas justas Clásico Al menos una cara 3/4 = 0.75
11.2 Punto en segmento [0,10] Geométrico Distancia ≤ 2 cm a un extremo 4/10 = 0.4
11.3 Extraer bola de caja (3R,4A,2V) Clásico + Axiomático Bola roja o azul 7/9 ≈ 0.778

35 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La probabilidad clásica es útil cuando el espacio muestral es finito y todos los resultados son equiprobables
  • La probabilidad geométrica extiende el concepto a espacios continuos usando longitudes, áreas o volúmenes
  • La propiedad de aditividad de los axiomas de Kolmogórov simplifica el cálculo cuando los eventos son mutuamente excluyentes
  • El complemento es una herramienta útil cuando calcular el evento de interés directamente es complicado
  • La simulación computacional permite aproximar probabilidades cuando el cálculo teórico es complejo

36 📊 SIGMAS ÁLGEBRAS Y TÉCNICAS DE CONTEO

📐 12. Propiedad de Continuidad de la Probabilidad - Sigmas Álgebras

12.1 Propiedad de Continuidad de la Probabilidad

La propiedad de continuidad de la probabilidad establece dos resultados importantes relacionados con secuencias de eventos:

  1. Sucesión creciente de eventos: Si A₁ ⊆ A₂ ⊆ A₃ ⊆ … es una secuencia creciente de eventos, entonces:
P(⋃_{i=1}^{∞} Aᵢ) = lim_{n→∞} P(Aₙ)
  1. Sucesión decreciente de eventos: Si B₁ ⊇ B₂ ⊇ B₃ ⊇ … es una secuencia decreciente de eventos, entonces:
P(⋂_{i=1}^{∞} Bᵢ) = lim_{n→∞} P(Bₙ)

Esta propiedad es fundamental para trabajar con probabilidades de límites de eventos.


📊 12.2. Sigmas Álgebras (σ-álgebra)

Una σ-álgebra (sigma álgebra) sobre un conjunto Ω es una colección 𝓕 de subconjuntos de Ω que satisface las siguientes tres propiedades:

  1. Conjunto vacío: El conjunto vacío pertenece a 𝓕: ∅ ∈ 𝓕.
  2. Cerradura bajo complementación: Si un conjunto A pertenece a 𝓕 (A ∈ 𝓕), entonces su complemento Aᶜ = Ω  A también pertenece a 𝓕 (Aᶜ ∈ 𝓕).
  3. Cerradura bajo uniones numerables: Si A₁, A₂, A₃, … es una secuencia numerable de conjuntos que pertenecen a 𝓕 (Aᵢ ∈ 𝓕 para todo i ≥ 1), entonces su unión ⋃_{i=1}^{∞} Aᵢ también pertenece a 𝓕.

De estas propiedades se pueden deducir otras, como la cerradura bajo intersecciones numerables: ⋂{i=1}^{∞} Aᵢ = (⋃{i=1}^{∞} Aᵢᶜ)ᶜ ∈ 𝓕.

El par (Ω, 𝓕) se denomina espacio medible. Los conjuntos en 𝓕 se denominan conjuntos medibles.

σ-álgebra 𝓕 sobre Ω Ω 𝓕 contiene ∅, Ω, complementos y uniones numerables

📈 13. Sigma Álgebra de Borel

La σ-álgebra de Borel 𝓑(ℝ) sobre el conjunto de los números reales ℝ (o sobre cualquier espacio topológico) es la σ-álgebra generada por los intervalos abiertos de ℝ. Esto significa que 𝓑(ℝ) es la σ-álgebra más pequeña que contiene a todos los intervalos abiertos de la forma (a, b), donde a, b ∈ ℝ y a < b.

La σ-álgebra de Borel también contiene:

  • Intervalos cerrados [a, b]
  • Intervalos semi-abiertos (a, b] y [a, b)
  • Conjuntos abiertos y cerrados en general
  • Uniones e intersecciones numerables de estos conjuntos

En esencia, la σ-álgebra de Borel contiene todos los subconjuntos de ℝ que son “razonables” desde un punto de vista analítico.


🎲 14. Espacios de Probabilidad

Un espacio de probabilidad es una tripleta (Ω, 𝓕, P), donde:

  1. Ω es el espacio muestral, el conjunto de todos los posibles resultados de un experimento aleatorio.
  2. 𝓕 es una σ-álgebra de subconjuntos de Ω. Los conjuntos en 𝓕 son los eventos a los que se les puede asignar una probabilidad.
  3. P: 𝓕 → [0, 1] es una función de probabilidad que satisface los axiomas de Kolmogorov:
    • No negatividad: Para todo A ∈ 𝓕, P(A) ≥ 0.
    • Probabilidad del espacio muestral: P(Ω) = 1.
    • Aditividad numerable: Si A₁, A₂, A₃, … es una secuencia de eventos mutuamente excluyentes (Aᵢ ∩ Aⱼ = ∅ para i ≠ j), entonces:
P(⋃_{i=1}^{∞} Aᵢ) = Σ_{i=1}^{∞} P(Aᵢ)
Espacio de Probabilidad (Ω, 𝓕, P) Ω: Espacio muestral 𝓕: σ-álgebra (eventos medibles) P: Función de probabilidad P(Ω) = 1, P(A) ≥ 0, P(∪Aᵢ) = ΣP(Aᵢ)

37 📊 TÉCNICAS DE CONTEO

✖️ 15. Técnicas de Conteo: Principio de Multiplicación

El principio de multiplicación establece que si una tarea se puede realizar en n₁ formas diferentes, y después de realizarla, una segunda tarea se puede realizar en n₂ formas diferentes, y así sucesivamente hasta una k-ésima tarea que se puede realizar en nₖ formas diferentes (independientemente de las elecciones anteriores), entonces el número total de formas en que se pueden realizar todas las tareas en secuencia es el producto de los números de formas individuales:

N = n₁ × n₂ × ... × nₖ

Ejemplo: Si tienes 3 opciones de camisa y 2 opciones de pantalón, tienes 3 × 2 = 6 formas diferentes de vestirte.


🔄 16. Técnicas de Conteo: Ordenaciones con Repetición

Una ordenación con repetición de n objetos tomados de un conjunto de m objetos distintos, donde se permite la repetición, es una secuencia ordenada de longitud n formada por elementos del conjunto de m objetos. El número total de tales ordenaciones es:

N = mⁿ

Ejemplo: El número de secuencias de longitud 3 que se pueden formar con las letras {A, B} (con repetición permitida) es 2³ = 8: AAA, AAB, ABA, ABB, BAA, BAB, BBA, BBB.


📋 17. Técnicas de Conteo: Ordenaciones sin Repetición (Permutaciones)

Una ordenación sin repetición de n objetos tomados de un conjunto de m objetos distintos (donde n ≤ m) es una secuencia ordenada de longitud n formada por elementos distintos del conjunto de m objetos. El número total de tales ordenaciones se denota por P(m, n) o mPn y se calcula como:

P(m, n) = m! / (m - n)! = m × (m - 1) × ... × (m - n + 1)

Si se ordenan los m objetos distintos, el número de permutaciones de los m objetos es P(m, m) = m!.

Ejemplo: El número de formas de elegir y ordenar 2 letras distintas del conjunto {A, B, C} es P(3, 2) = 3!/(3-2)! = 6/1 = 6: AB, AC, BA, BC, CA, CB.


🎲 18. Técnicas de Conteo: Combinaciones

Una combinación de n objetos tomados de un conjunto de m objetos distintos (donde n ≤ m) es una selección de n objetos sin importar el orden. El número total de tales combinaciones se denota por C(m, n), o mCn y se calcula como:

C(m, n) = (m¦n) = m! / (n! (m - n)!)

Ejemplo: El número de formas de elegir 2 letras del conjunto {A, B, C} sin importar el orden es = 3!/(2!×1!) = 6/2 = 3: {A, B}, {A, C}, {B, C}.


🔄 19. Técnicas de Conteo: Muestras sin Orden y con Reemplazo

Una muestra sin orden y con reemplazo de tamaño n tomada de un conjunto de m objetos distintos es una selección de n objetos donde el orden no importa y se permite seleccionar el mismo objeto más de una vez. El número total de tales muestras es dado por la fórmula de “combinaciones con repetición”:

\binom{m + n - 1}{n} = (m + n - 1)! / (n! (m - 1)!)

Ejemplo: Si queremos elegir 2 helados de 3 sabores (chocolate, vainilla, fresa) y podemos repetir sabores, las posibles combinaciones son (sin importar el orden): {C, C}, {C, V}, {C, F}, {V, V}, {V, F}, {F, F}. Usando la fórmula: = = 4!/(2!×2!) = 24/4 = 6.


38 📊 APLICACIONES EN MARKDOWN Y R - PARTE 2

🪙 20.1. Ejemplo 1: Espacio de Probabilidad con Sigma Álgebra Fina

Problema: Considera el experimento de lanzar una moneda justa una vez.

  • Define el espacio muestral Ω.
  • Define la σ-álgebra 𝓕 de todos los subconjuntos de Ω (el álgebra de partes).
  • Define una función de probabilidad P sobre (Ω, 𝓕).
  • Calcula la probabilidad de cada evento en 𝓕.

Solución:

El espacio muestral para el lanzamiento de una moneda es Ω = {C, X}, donde C es cara y X es cruz.

La σ-álgebra 𝓕 de todos los subconjuntos de Ω (el álgebra de partes, 𝓟(Ω)) es:

𝓕 = {∅, {C}, {X}, {C, X}}

Definimos una función de probabilidad P tal que, para una moneda justa:

  • P({C}) = 0.5
  • P({X}) = 0.5

Usando los axiomas de probabilidad:

  • P(∅) = 0
  • P({C, X}) = P(Ω) = 1

Verificación de aditividad: P({C} ∪ {X}) = P({C}) + P({X}) = 0.5 + 0.5 = 1 = P({C, X}).

Por lo tanto, el espacio de probabilidad es ({C, X}, {∅, {C}, {X}, {C, X}}, P), donde P(∅)=0, P({C})=0.5, P({X})=0.5, y P({C, X})=1.


📋 Código en R:

# Espacio muestral
omega <- c("C", "X")

# Sigma álgebra (lista de todos los subconjuntos)
sigma_algebra <- list(NULL, "C", "X", omega)
names(sigma_algebra) <- c("vacio", "Cara", "Cruz", "Omega")

# Función de probabilidad
probabilidad <- function(evento) {
  if (is.null(evento)) {
    return(0)
  } else if (identical(evento, "C")) {
    return(0.5)
  } else if (identical(evento, "X")) {
    return(0.5)
  } else if (identical(evento, omega)) {
    return(1)
  } else {
    return(NA) # Para eventos no en la sigma álgebra definida
  }
}

# Calcular la probabilidad de cada evento
cat("P(∅) =", probabilidad(sigma_algebra$vacio), "\n")
cat("P({C}) =", probabilidad(sigma_algebra$Cara), "\n")
cat("P({X}) =", probabilidad(sigma_algebra$Cruz), "\n")
cat("P(Ω) =", probabilidad(sigma_algebra$Omega), "\n")

Resultados: P(∅)=0, P({C})=0.5, P({X})=0.5, P(Ω)=1


🔢 20.2. Ejemplo 2: Técnicas de Conteo - Formación de Números

Problema: ¿Cuántos números de 3 dígitos se pueden formar utilizando los dígitos {1, 2, 3, 4, 5} si:

  1. Los dígitos se pueden repetir?
  2. Los dígitos no se pueden repetir?

Solución:

a) Con repetición: Tenemos 5 opciones para el primer dígito, 5 para el segundo y 5 para el tercero (principio de multiplicación y ordenaciones con repetición con m=5 y n=3).

N = 5 × 5 × 5 = 5³ = 125

b) Sin repetición: Tenemos 5 opciones para el primer dígito, 4 para el segundo y 3 para el tercero (permutaciones sin repetición, P(5, 3)).

N = P(5, 3) = 5! / (5 - 3)! = 120 / 2 = 60

📋 Código en R:

# a) Con repetición
m <- 5      # Número de dígitos disponibles
n <- 3      # Longitud del número
con_repeticion <- m^n
cat("Con repetición:", con_repeticion, "\n")

# b) Sin repetición
sin_repeticion <- factorial(m) / factorial(m - n)
cat("Sin repetición:", sin_repeticion, "\n")

Resultados: Con repetición = 125 | Sin repetición = 60


👥 20.3. Ejemplo 3: Técnicas de Conteo - Selección de un Comité

Problema: Se debe formar un comité de 4 personas a partir de un grupo de 10 personas. ¿De cuántas formas se puede formar el comité si:

  1. No hay restricciones en la selección?
  2. Dos personas específicas deben estar en el comité?

Solución:

a) Sin restricciones: Seleccionamos 4 personas de 10 sin importar el orden (combinaciones sin repetición, ).

N = \binom{10}{4} = 10! / (4! × 6!) = 210

b) Dos personas específicas deben estar en el comité: Si dos personas ya están en el comité, seleccionamos las 2 restantes de las 8 restantes.

N = \binom{8}{2} = 8! / (2! × 6!) = 28

📋 Código en R:

# a) Sin restricciones
n_total <- 10
n_seleccionar <- 4
combinaciones_sin_restricciones <- choose(n_total, n_seleccionar)
cat("Sin restricciones:", combinaciones_sin_restricciones, "\n")

# b) Con dos personas específicas
personas_fijas <- 2
n_restantes_total <- n_total - personas_fijas
n_restantes_seleccionar <- n_seleccionar - personas_fijas
combinaciones_con_restricciones <- choose(n_restantes_total, n_restantes_seleccionar)
cat("Con dos personas específicas:", combinaciones_con_restricciones, "\n")

Resultados: Sin restricciones = 210 | Con dos personas específicas = 28


39 📊 RESUMEN DE TÉCNICAS DE CONTEO

📋 Tabla resumen de fórmulas de conteo

Técnica Fórmula ¿Orden importa? ¿Repetición permitida? Ejemplo
Principio de multiplicación N = n₁ × n₂ × … - 3 camisas × 2 pantalones = 6 outfits
Ordenaciones con repetición N = mⁿ 2³ = 8 secuencias de {A,B}
Permutaciones (sin repetición) P(m,n) = m!/(m-n)! No P(3,2) = 6 pares ordenados
Combinaciones (sin repetición) C(m,n) = m!/(n!(m-n)!) No No C(3,2) = 3 pares no ordenados
Combinaciones con repetición C(m+n-1, n) No C(3+2-1,2) = 6 selecciones

40 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Una σ-álgebra es la estructura matemática que define qué subconjuntos del espacio muestral son considerados eventos medibles
  • La σ-álgebra de Borel es la σ-álgebra más importante en ℝ y contiene todos los intervalos abiertos, cerrados y sus combinaciones
  • Un espacio de probabilidad (Ω, 𝓕, P) es la base de toda la teoría moderna de probabilidad
  • Las técnicas de conteo son herramientas esenciales para calcular probabilidades en espacios muestrales finitos
  • La elección entre permutaciones, combinaciones, con/sin repetición depende de si el orden importa y si se permite repetir elementos


41 📊 PROBABILIDAD CONDICIONAL - PROBABILIDAD TOTAL Y TEOREMA DE BAYES

📐 D. Probabilidad Condicional de Eventos - Probabilidad Total y Teorema de Bayes

  1. Probabilidad Condicional - Definición

La probabilidad condicional de un evento A dado que ha ocurrido un evento B se denota por P(A|B) y se define como:

P(A|B) = P(A ∩ B) / P(B),   si P(B) > 0

Esta fórmula nos dice cómo la probabilidad de un evento A se ve afectada por el conocimiento de que otro evento B ha sucedido.

Probabilidad Condicional P(A|B) A B A∩B P(A|B) = P(A∩B)/P(B)

📊 22. Teorema de Probabilidad Total

Sea {B₁, B₂, …, Bₙ} un conjunto de eventos mutuamente excluyentes y exhaustivos (es decir, forman una partición del espacio muestral Ω, donde ⋃_{i=1}^{n} Bᵢ = Ω y Bᵢ ∩ Bⱼ = ∅ para i ≠ j), y sea A cualquier otro evento. Entonces, la probabilidad de A se puede calcular como:

P(A) = Σ_{i=1}^{n} P(A|Bᵢ) · P(Bᵢ)

Este teorema es útil cuando la probabilidad de un evento A es difícil de calcular directamente, pero es más fácil conocer sus probabilidades condicionales dado un conjunto de eventos que particionan el espacio muestral.

Teorema de Probabilidad Total: Partición del espacio muestral B₁ B₂ B₃ B₄ P(A) = P(A|B₁)P(B₁) + P(A|B₂)P(B₂) + …

🔄 23. Teorema de Bayes

El Teorema de Bayes relaciona la probabilidad condicional de un evento A dado B con la probabilidad condicional de B dado A. Utilizando la misma partición {B₁, B₂, …, Bₙ} del espacio muestral Ω, y para cualquier evento A con P(A) > 0, el teorema establece que:

P(Bᵢ|A) = P(A|Bᵢ) · P(Bᵢ) / P(A) = P(A|Bᵢ) · P(Bᵢ) / Σ_{j=1}^{n} P(A|Bⱼ) · P(Bⱼ)

El Teorema de Bayes es fundamental para actualizar nuestras creencias (probabilidades a priori) a la luz de nueva evidencia (obteniendo probabilidades a posteriori).

Teorema de Bayes: Actualización de creencias Probabilidad a priori Probabilidad a posteriori P(Bᵢ|A) = P(A|Bᵢ) · P(Bᵢ) / P(A) (Actualización con nueva evidencia A)

🔗 24. Independencia de Eventos

Dos eventos A y B se dicen independientes si la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro. Matemáticamente, A y B son independientes si y solo si se cumple alguna de las siguientes condiciones (asumiendo probabilidades mayores que cero):

  • P(A|B) = P(A)
  • P(B|A) = P(B)
  • P(A ∩ B) = P(A) · P(B)

Para un conjunto de n eventos {A₁, A₂, …, Aₙ}, se dice que son mutuamente independientes si para cualquier subconjunto de estos eventos {Aᵢ₁, Aᵢ₂, …, Aᵢₖ} (donde 1 ≤ k ≤ n), se cumple:

P(Aᵢ₁ ∩ Aᵢ₂ ∩ ... ∩ Aᵢₖ) = P(Aᵢ₁) · P(Aᵢ₂) · ... · P(Aᵢₖ)
Eventos Independientes A B P(A ∩ B) = P(A) · P(B)

🧠 24.1. MAPYCD - PROBABILIDAD PARTE II

🔗 Acceso al material:
https://forms.gle/kvqiKUr2ezpJaZDSA

🧪 24.2. LABORATORIO 4 - Parte 2: Colab: Python - Muestreo de medias y varianzas

🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=AzCOKCAGZ_o


42 📊 EJEMPLOS APLICADOS

📋 Ejemplo 1: Probabilidad Condicional - Control de Calidad

Problema: En una fábrica, 5% de los productos tienen defectos. Una revisión detecta 90% de los productos defectuosos y 95% de los productos buenos (no defectuosos) pasan la revisión sin observaciones. ¿Cuál es la probabilidad de que un producto sea defectuoso dado que fue detectado por la revisión?

Solución:

Definimos eventos:

  • D: Producto defectuoso → P(D) = 0.05, P(Dᶜ) = 0.95
  • E: Producto detectado por la revisión → P(E|D) = 0.90, P(E|Dᶜ) = 0.05 (falso positivo)

Aplicando Teorema de Bayes:

P(D|E) = P(E|D)·P(D) / [P(E|D)·P(D) + P(E|Dᶜ)·P(Dᶜ)]
P(D|E) = (0.90×0.05) / (0.90×0.05 + 0.05×0.95) = 0.045 / (0.045 + 0.0475) ≈ 0.4865

Resultado: P(D|E) ≈ 48.65% (la probabilidad de que un producto detectado sea defectuoso es ~49%).


📋 Ejemplo 2: Probabilidad Total - Máquinas de producción

Problema: Una fábrica tiene tres máquinas. La máquina 1 produce 20% de los artículos, la máquina 2 produce 30% y la máquina 3 produce 50%. Las tasas de defectos son: 2% para M1, 3% para M2 y 4% para M3. ¿Cuál es la probabilidad total de que un artículo seleccionado al azar sea defectuoso?

Solución:

Definimos eventos:

  • D: Artículo defectuoso
  • M₁, M₂, M₃: Artículo producido por máquina 1, 2 o 3
  • P(M₁)=0.20, P(M₂)=0.30, P(M₃)=0.50
  • P(D|M₁)=0.02, P(D|M₂)=0.03, P(D|M₃)=0.04

Aplicando Teorema de Probabilidad Total:

P(D) = P(D|M₁)P(M₁) + P(D|M₂)P(M₂) + P(D|M₃)P(M₃)
P(D) = 0.02×0.20 + 0.03×0.30 + 0.04×0.50 = 0.004 + 0.009 + 0.02 = 0.033 = 3.3%

Resultado: P(D) = 3.3% (probabilidad total de defecto)


📋 Ejemplo 3: Independencia - Lanzamiento de dado y moneda

Problema: Se lanza un dado y una moneda justos. ¿Son independientes los eventos “obtener un 6 en el dado” y “obtener cara en la moneda”?

Solución:

Eventos:

  • A: Obtener 6 en el dado → P(A) = 1/6
  • B: Obtener cara en la moneda → P(B) = 1/2
  • A ∩ B: Obtener 6 y cara → P(A ∩ B) = 1/12

Verificamos la condición de independencia:

P(A) · P(B) = (1/6) × (1/2) = 1/12 = P(A ∩ B)

Resultado: Como se cumple P(A∩B) = P(A)·P(B), los eventos son independientes.


43 📊 RESUMEN DE FÓRMULAS

📋 Tabla resumen de fórmulas

Concepto Fórmula Condición
Probabilidad condicional P(A|B) = P(A∩B)/P(B) P(B) > 0
Probabilidad total P(A) = Σ P(A|Bᵢ)·P(Bᵢ) {Bᵢ} partición de Ω
Teorema de Bayes P(Bᵢ|A) = P(A|Bᵢ)·P(Bᵢ) / Σ P(A|Bⱼ)·P(Bⱼ) P(A) > 0
Independencia P(A∩B) = P(A)·P(B) A y B independientes
Independencia condicional P(A∩B|C) = P(A|C)·P(B|C) A y B independientes dado C

44 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La probabilidad condicional actualiza la probabilidad de un evento dada información adicional
  • El Teorema de Probabilidad Total permite calcular probabilidades particionando el espacio muestral
  • El Teorema de Bayes es fundamental para la inferencia estadística (actualización de creencias a priori → a posteriori)
  • La independencia implica que la ocurrencia de un evento no afecta la probabilidad del otro
  • Para eventos independientes, la probabilidad conjunta es el producto de las probabilidades individuales


45 📊 VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD

📐 E. Variables Aleatorias y Distribuciones de Probabilidad

  1. Variables Aleatorias: Definición

Una variable aleatoria (v.a.) es una función que asigna un valor numérico real a cada resultado en el espacio muestral Ω de un experimento aleatorio. Formalmente, una variable aleatoria X es una función X: Ω → ℝ.

Variable Aleatoria X: Ω → ℝ Ω Espacio Muestral Números Reales

Variables Aleatorias: Ejemplos

  • Número de caras al lanzar 3 monedas: El espacio muestral es {CCC, CCX, CXC, XCC, CXX, XCX, XXC, XXX}. La variable aleatoria X podría ser el número de caras en cada resultado: X(CCC)=3, X(CCX)=2, …, X(XXX)=0.
  • Altura de una persona elegida al azar: El espacio muestral es el conjunto de todas las personas. La variable aleatoria Y podría ser la altura de la persona en centímetros.
  • Tiempo de espera en una fila: El espacio muestral son los posibles resultados del experimento de observar el tiempo de espera. La variable aleatoria T podría ser el tiempo de espera en minutos, que puede tomar cualquier valor no negativo.

📊 26. Función de Probabilidad: Caso Discreto

Para una variable aleatoria discreta X que toma valores en un conjunto contable {x₁, x₂, …}, la función de probabilidad (probability mass function, pmf) es una función pₓ(x) definida como:

pₓ(x) = P(X = x)

La función de probabilidad satisface las siguientes propiedades:

  1. pₓ(xᵢ) ≥ 0 para todo i.
  2. Σᵢ pₓ(xᵢ) = 1.
  3. Para cualquier conjunto de valores A, P(X ∈ A) = Σ_{xᵢ ∈ A} pₓ(xᵢ).
Función de Probabilidad Discreta Valores de X pₓ(x) x₁ x₂ x₃ x₄

📈 27. Función de Probabilidad: Caso Continuo

Para una variable aleatoria continua X que toma valores en un intervalo (o una unión de intervalos), la función de densidad de probabilidad (probability density function, pdf) es una función fₓ(x) tal que la probabilidad de que X tome un valor en un intervalo [a, b] está dada por la integral de la función de densidad sobre ese intervalo:

P(a ≤ X ≤ b) = ∫ₐᵇ fₓ(x) dx

La función de densidad de probabilidad satisface las siguientes propiedades:

  1. fₓ(x) ≥ 0 para todo x ∈ ℝ.
  2. ∫₋∞^∞ fₓ(x) dx = 1.
  3. P(X = a) = ∫ₐᵃ fₓ(x) dx = 0 para cualquier valor específico a.
Función de Densidad de Probabilidad x fₓ(x) Área bajo la curva = 1

📋 28. Función de Distribución: Definición

La función de distribución acumulativa (cumulative distribution function, cdf) de una variable aleatoria X, denotada por Fₓ(x), se define como la probabilidad de que la variable aleatoria X tome un valor menor o igual a x:

Fₓ(x) = P(X ≤ x)

Esta definición es válida tanto para variables aleatorias discretas como continuas.


📐 29. Función de Distribución: Propiedades

La función de distribución acumulativa Fₓ(x) tiene las siguientes propiedades:

  1. 0 ≤ Fₓ(x) ≤ 1 para todo x ∈ ℝ.
  2. Fₓ(x) es una función no decreciente: si x₁ ≤ x₂, entonces Fₓ(x₁) ≤ Fₓ(x₂).
  3. lim_{x→-∞} Fₓ(x) = 0.
  4. lim_{x→∞} Fₓ(x) = 1.
  5. Fₓ(x) es continua por la derecha: lim_{h→0⁺} Fₓ(x + h) = Fₓ(x).

Para variables aleatorias discretas, Fₓ(x) es una función escalonada que aumenta en los puntos donde la pmf es positiva. Para variables aleatorias continuas, Fₓ(x) es una función continua y se relaciona con la pdf por:

Fₓ(x) = ∫₋∞ˣ fₓ(t) dt
Función de Distribución Acumulativa x Fₓ(x) Aproximación asintótica a 1

📊 30. Función de Distribución: Probabilidades

La función de distribución acumulativa se puede utilizar para calcular probabilidades de diversos eventos relacionados con la variable aleatoria X:

  • P(X > a) = 1 - Fₓ(a)
  • P(a < X ≤ b) = Fₓ(b) - Fₓ(a)
  • P(a ≤ X ≤ b) = Fₓ(b) - Fₓ(a) + P(X = a) (para el caso general, si X es continua, P(X=a)=0)
  • P(a < X < b) = Fₓ(b⁻) - Fₓ(a) (donde Fₓ(b⁻) = lim_{x→b⁻} Fₓ(x))
  • P(X = a) = Fₓ(a) - Fₓ(a⁻) (para variables discretas, esta probabilidad es la altura del salto en a)
Cálculo de probabilidades con la CDF x Fₓ(x) a b P(a < X ≤ b) = F(b) - F(a)

46 📊 APLICACIONES EN MARKDOWN Y R

🏭 31.1. Ejemplo 1: Probabilidad Condicional y Teorema de Bayes

Problema: Una compañía tiene dos máquinas, M₁ y M₂, que producen el 40% y el 60% de los artículos respectivamente. Se sabe que el 5% de los artículos producidos por M₁ son defectuosos, mientras que el 3% de los artículos producidos por M₂ son defectuosos. Si se selecciona un artículo al azar y resulta ser defectuoso, ¿cuál es la probabilidad de que haya sido producido por la máquina M₁?

Solución:

Definimos los eventos:

  • M₁: El artículo fue producido por la máquina M₁ → P(M₁) = 0.40
  • M₂: El artículo fue producido por la máquina M₂ → P(M₂) = 0.60
  • D: El artículo es defectuoso → P(D|M₁) = 0.05, P(D|M₂) = 0.03

Queremos encontrar P(M₁|D). Usando el Teorema de Bayes:

Paso 1: Calcular P(D) usando el Teorema de Probabilidad Total:

P(D) = P(D|M₁)·P(M₁) + P(D|M₂)·P(M₂) = (0.05)(0.40) + (0.03)(0.60) = 0.020 + 0.018 = 0.038

Paso 2: Calcular P(M₁|D):

P(M₁|D) = P(D|M₁)·P(M₁) / P(D) = (0.05)(0.40) / 0.038 = 0.020 / 0.038 ≈ 0.5263

Resultado: La probabilidad de que un artículo defectuoso haya sido producido por la máquina M₁ es aproximadamente 52.63%.


📋 Código en R:

# Probabilidades dadas
P_M1 <- 0.40
P_M2 <- 0.60
P_D_dado_M1 <- 0.05
P_D_dado_M2 <- 0.03

# Calcular P(D) usando el Teorema de Probabilidad Total
P_D <- (P_D_dado_M1 * P_M1) + (P_D_dado_M2 * P_M2)
cat("P(D) =", P_D, "\n")

# Calcular P(M1|D) usando el Teorema de Bayes
P_M1_dado_D <- (P_D_dado_M1 * P_M1) / P_D
cat("P(M1|D) =", P_M1_dado_D, "\n")

🎲 31.2. Ejemplo 2: Independencia de Eventos

Problema: Se lanzan dos dados justos. Sea A el evento de que la suma de los resultados es 7, y sea B el evento de que el resultado del primer dado es 4. ¿Son A y B eventos independientes?

Solución:

El espacio muestral Ω tiene 6 × 6 = 36 resultados posibles, todos igualmente probables con probabilidad 1/36.

  • Evento A (suma es 7): {(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)} → P(A) = 6/36 = 1/6
  • Evento B (primer dado es 4): {(4,1), (4,2), (4,3), (4,4), (4,5), (4,6)} → P(B) = 6/36 = 1/6
  • Intersección A ∩ B (suma 7 y primer dado 4): {(4,3)} → P(A ∩ B) = 1/36

Verificamos la condición de independencia:

P(A) · P(B) = (1/6) × (1/6) = 1/36 = P(A ∩ B)

Resultado: Como P(A∩B) = P(A)·P(B), los eventos A y B son independientes.


📋 Código en R:

# Probabilidades
P_A <- 6 / 36
P_B <- 6 / 36
P_A_interseccion_B <- 1 / 36

# Verificar independencia
independientes <- (P_A_interseccion_B == (P_A * P_B))
cat("P(A) =", P_A, "\n")
cat("P(B) =", P_B, "\n")
cat("P(A ∩ B) =", P_A_interseccion_B, "\n")
cat("¿Son independientes?", independientes, "\n")

🪙 31.3. Ejemplo 3: Función de Probabilidad Discreta y Función de Distribución

Problema: Considera el experimento de lanzar una moneda justa tres veces. Sea X la variable aleatoria que representa el número de caras obtenidas.

  1. Encuentra la función de probabilidad pₓ(x).
  2. Encuentra la función de distribución acumulativa Fₓ(x).
  3. Calcula P(X ≤ 2).

Solución:

El espacio muestral tiene 8 resultados igualmente probables. X puede tomar valores 0, 1, 2, 3.

a) Función de probabilidad pₓ(x):

  • P(X=0) = 1/8
  • P(X=1) = 3/8
  • P(X=2) = 3/8
  • P(X=3) = 1/8

b) Función de distribución acumulativa Fₓ(x):

  • Para x < 0: Fₓ(x) = 0
  • Para 0 ≤ x < 1: Fₓ(x) = 1/8
  • Para 1 ≤ x < 2: Fₓ(x) = 1/8 + 3/8 = 4/8 = 1/2
  • Para 2 ≤ x < 3: Fₓ(x) = 1/8 + 3/8 + 3/8 = 7/8
  • Para x ≥ 3: Fₓ(x) = 1

c) P(X ≤ 2):

P(X ≤ 2) = Fₓ(2) = 7/8 = 0.875

📋 Código en R:

# Función de probabilidad
pmf <- c("P(X=0)" = 1/8, "P(X=1)" = 3/8, "P(X=2)" = 3/8, "P(X=3)" = 1/8)
print(pmf)

# Función de distribución acumulativa
cdf <- cumsum(pmf)
print(cdf)

# P(X ≤ 2)
P_X_leq_2 <- cdf["P(X=2)"]
cat("P(X ≤ 2) =", P_X_leq_2, "\n")

🧠 31.4. MEAYCD - Técnicas de Conteo

🔗 Acceso al material:
https://forms.gle/E6wgLUzPYrexiDmD6

🧪 31.5. LABORATORIO 5 - Evaluación 1 (25%)

🔗 Acceso al laboratorio:
https://youtu.be/45boYA_GcWc


47 📊 RESUMEN DE CONCEPTOS CLAVE

📋 Tabla resumen de variables aleatorias

Característica Variable Discreta Variable Continua
Valores posibles Conjunto contable (finito o infinito) Intervalo o unión de intervalos
Función de probabilidad Función de masa pₓ(x) Función de densidad fₓ(x)
Probabilidad puntual P(X = a) ≥ 0 P(X = a) = 0
Probabilidad en intervalo Suma de pₓ(x) en A ∫ₐᵇ fₓ(x) dx
Función de distribución Fₓ(x) = Σ_{t≤x} pₓ(t) Fₓ(x) = ∫₋∞ˣ fₓ(t) dt
Ejemplo Número de caras Altura, tiempo, peso

48 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Una variable aleatoria transforma resultados cualitativos en valores numéricos para facilitar el análisis matemático
  • Las variables aleatorias se clasifican en discretas (conteos) y continuas (mediciones)
  • La función de probabilidad (pmf) asigna probabilidades a valores específicos en variables discretas
  • La función de densidad (pdf) describe la probabilidad en variables continuas mediante áreas bajo la curva
  • La función de distribución acumulativa (cdf) unifica ambos casos y permite calcular probabilidades acumuladas
  • La cdf tiene propiedades fundamentales: no decreciente, límites 0 y 1, continuidad por la derecha

¡Excelente! Aquí tienes más ejemplos de variables aleatorias (Binomial, Poisson, Normal) y ejercicios prácticos con el mismo formato visual.


49 📊 VARIABLES ALEATORIAS: DISTRIBUCIONES ESPECIALES

📈 32. Distribución Binomial

La distribución binomial modela el número de éxitos en n ensayos independientes, donde cada ensayo tiene probabilidad de éxito p.

Función de probabilidad:

P(X = k) = C(n, k) · pᵏ · (1-p)ⁿ⁻ᵏ,   k = 0, 1, 2, ..., n

Parámetros:

  • n: número de ensayos
  • p: probabilidad de éxito
  • Media: μ = n·p
  • Varianza: σ² = n·p·(1-p)
Distribución Binomial (n=10, p=0.5) Número de éxitos (k) P(X=k)

🎲 32.1. Ejemplo Binomial: Control de Calidad

Problema: Una fábrica produce artículos con una tasa de defectos del 10%. Se seleccionan 8 artículos al azar. ¿Cuál es la probabilidad de que exactamente 2 sean defectuosos?

Solución:

X: número de artículos defectuosos → X ~ Binomial(n=8, p=0.10)

P(X=2) = C(8,2) · (0.10)² · (0.90)⁶
P(X=2) = 28 × 0.01 × 0.531441 = 28 × 0.00531441 = 0.1488

Resultado: P(X=2) = 0.1488 (14.88%)


📋 Código en R:

# Distribución Binomial
n <- 8
p <- 0.10
k <- 2

# Probabilidad exacta de k defectuosos
prob_exacta <- dbinom(k, n, p)
cat("P(X = 2) =", prob_exacta, "\n")

# Probabilidad de hasta 2 defectuosos
prob_hasta_2 <- pbinom(2, n, p)
cat("P(X ≤ 2) =", prob_hasta_2, "\n")

Resultados adicionales: P(X ≤ 2) = 0.9619 (96.19% de probabilidad de tener 2 o menos defectuosos)


📊 33. Distribución de Poisson

La distribución de Poisson modela el número de eventos raros que ocurren en un intervalo fijo de tiempo o espacio.

Función de probabilidad:

P(X = k) = e⁻ˡ · λᵏ / k!,   k = 0, 1, 2, ...

Parámetros:

  • λ: tasa promedio de ocurrencia (media)
  • Media: μ = λ
  • Varianza: σ² = λ
Distribución de Poisson (λ = 3) Número de eventos (k) P(X=k)

📞 33.1. Ejemplo Poisson: Llamadas telefónicas

Problema: Un centro de atención recibe un promedio de 5 llamadas por minuto. ¿Cuál es la probabilidad de recibir exactamente 3 llamadas en un minuto específico?

Solución:

X: número de llamadas por minuto → X ~ Poisson(λ = 5)

P(X=3) = e⁻⁵ · 5³ / 3! = 0.0067379 × 125 / 6 = 0.8422375 / 6 = 0.1404

Resultado: P(X=3) = 0.1404 (14.04%)


📋 Código en R:

# Distribución de Poisson
lambda <- 5
k <- 3

# Probabilidad exacta de 3 llamadas
prob_exacta <- dpois(k, lambda)
cat("P(X = 3) =", round(prob_exacta, 4), "\n")

# Probabilidad de máximo 3 llamadas
prob_max_3 <- ppois(3, lambda)
cat("P(X ≤ 3) =", round(prob_max_3, 4), "\n")

# Generar valores de la distribución
x_vals <- 0:15
prob_vals <- dpois(x_vals, lambda)
barplot(prob_vals, names.arg = x_vals, 
        xlab = "Número de llamadas", 
        ylab = "Probabilidad",
        main = "Distribución Poisson (λ = 5)")

📊 34. Distribución Normal

La distribución normal (campana de Gauss) es la más importante en estadística. Modela fenómenos naturales como alturas, pesos, errores de medición.

Función de densidad:

f(x) = 1 / (σ√(2π)) · e⁻⁽ˣ⁻μ⁾²/⁽²σ²⁾,   -∞ < x < ∞

Parámetros:

  • μ: media (centro de la distribución)
  • σ: desviación estándar (dispersión)
  • Notación: X ~ N(μ, σ²)
Distribución Normal Estándar N(0,1) x φ(x) μ = 0

📏 34.1. Ejemplo Normal: Pesos de estudiantes

Problema: Los pesos de los estudiantes de una universidad siguen una distribución normal con media μ = 70 kg y desviación estándar σ = 8 kg. ¿Cuál es la probabilidad de que un estudiante elegido al azar pese entre 66 kg y 78 kg?

Solución:

X ~ N(μ=70, σ=8). Estandarizamos: Z = (X - μ)/σ

z₁ = (66 - 70)/8 = -0.5
z₂ = (78 - 70)/8 = 1.0
P(66 ≤ X ≤ 78) = P(-0.5 ≤ Z ≤ 1.0) = P(Z ≤ 1.0) - P(Z ≤ -0.5)
P(Z ≤ 1.0) = 0.8413
P(Z ≤ -0.5) = 0.3085
P = 0.8413 - 0.3085 = 0.5328

Resultado: P(66 ≤ X ≤ 78) = 0.5328 (53.28%)


📋 Código en R:

# Distribución Normal
media <- 70
desv <- 8

# Probabilidad entre 66 y 78
prob_entre <- pnorm(78, media, desv) - pnorm(66, media, desv)
cat("P(66 ≤ X ≤ 78) =", round(prob_entre, 4), "\n")

# Probabilidad de pesar más de 80 kg
prob_mas_80 <- 1 - pnorm(80, media, desv)
cat("P(X > 80) =", round(prob_mas_80, 4), "\n")

# Percentil 90 (peso que supera el 90% de estudiantes)
percentil_90 <- qnorm(0.90, media, desv)
cat("Percentil 90 =", round(percentil_90, 2), "kg", "\n")

Resultados adicionales: P(X > 80) = 0.1056 (10.56%), Percentil 90 = 80.25 kg


50 📊 EJERCICIOS PRÁCTICOS

✏️ Ejercicio 1: Distribución Binomial

Problema: Un examen tiene 10 preguntas de verdadero/falso. Un estudiante responde al azar todas las preguntas.

  1. ¿Cuál es la probabilidad de que acierte exactamente 6 preguntas?
  2. ¿Cuál es la probabilidad de que apruebe (necesita al menos 6 correctas)?
  3. ¿Cuál es el número esperado de respuestas correctas?

Solución en R:

# Parámetros
n <- 10
p <- 0.5

# a) Exactamente 6 correctas
prob_6 <- dbinom(6, n, p)
cat("a) P(X = 6) =", round(prob_6, 4), "\n")

# b) Al menos 6 correctas (aprueba)
prob_aprueba <- 1 - pbinom(5, n, p)
cat("b) P(X ≥ 6) =", round(prob_aprueba, 4), "\n")

# c) Número esperado
esperado <- n * p
cat("c) E(X) =", esperado, "\n")

Respuestas: a) 0.2051 | b) 0.3770 | c) 5 respuestas


✏️ Ejercicio 2: Distribución de Poisson

Problema: Un cajero automático recibe un promedio de 2 clientes por minuto.

  1. ¿Cuál es la probabilidad de que lleguen exactamente 4 clientes en un minuto?
  2. ¿Cuál es la probabilidad de que lleguen más de 3 clientes en un minuto?
  3. ¿Cuál es la probabilidad de que lleguen 6 clientes en 3 minutos?

Solución en R:

# Parámetros
lambda_1min <- 2

# a) Exactamente 4 clientes en 1 minuto
prob_4 <- dpois(4, lambda_1min)
cat("a) P(X = 4) =", round(prob_4, 4), "\n")

# b) Más de 3 clientes en 1 minuto
prob_mas_3 <- 1 - ppois(3, lambda_1min)
cat("b) P(X > 3) =", round(prob_mas_3, 4), "\n")

# c) 6 clientes en 3 minutos (λ = 2 × 3 = 6)
prob_6_3min <- dpois(6, 6)
cat("c) P(Y = 6 en 3 min) =", round(prob_6_3min, 4), "\n")

Respuestas: a) 0.0902 | b) 0.1429 | c) 0.1606


✏️ Ejercicio 3: Distribución Normal

Problema: Las calificaciones de un examen siguen una distribución normal con media 75 y desviación estándar 10.

  1. ¿Qué porcentaje de estudiantes obtuvo calificación entre 65 y 85?
  2. ¿Qué calificación supera el 90% de los estudiantes?
  3. Si se seleccionan 5 estudiantes al azar, ¿cuál es la probabilidad de que todos tengan calificación superior a 80?

Solución en R:

# Parámetros
media <- 75
desv <- 10

# a) Porcentaje entre 65 y 85
prob_entre <- pnorm(85, media, desv) - pnorm(65, media, desv)
cat("a) Porcentaje entre 65 y 85:", round(prob_entre * 100, 2), "%", "\n")

# b) Percentil 10 (supera al 90% - el 10% inferior)
percentil_10 <- qnorm(0.10, media, desv)
cat("b) Calificación que supera al 90%:", round(percentil_10, 2), "\n")

# c) Probabilidad de que 5 estudiantes tengan > 80
p_uno_mas_80 <- 1 - pnorm(80, media, desv)
prob_cinco <- p_uno_mas_80^5
cat("c) P(todos > 80) =", round(prob_cinco, 4), "\n")

Respuestas: a) 68.27% | b) 62.18 | c) 0.0216 (2.16%)


51 📊 RESUMEN DE DISTRIBUCIONES

📋 Tabla comparativa de distribuciones

Distribución Parámetros Media μ Varianza σ² Tipos de datos Ejemplo
Binomial n, p n·p n·p·(1-p) Discretos (conteos) Número de éxitos en n ensayos
Poisson λ λ λ Discretos (eventos raros) Llamadas por minuto
Normal μ, σ μ σ² Continuos Altura, peso, calificaciones

52 💡 EJERCICIOS PROPUESTOS PARA EL ESTUDIANTE

🔴 Ejercicio Binomial: Una máquina produce piezas con 5% de defectos. Si se toman 15 piezas, calcula:

    1. Probabilidad de exactamente 2 defectuosas
      1. Probabilidad de máximo 3 defectuosas
        1. Probabilidad de al menos 1 defectuosa

🔵 Ejercicio Poisson: En una intersección ocurren 3 accidentes por mes en promedio. Calcula:

    1. Probabilidad de exactamente 2 accidentes en un mes
      1. Probabilidad de más de 4 accidentes en un mes
        1. Probabilidad de 6 accidentes en 2 meses

🟢 Ejercicio Normal: Las estaturas de estudiantes siguen N(165, 10²) en cm. Calcula:

    1. Probabilidad de medir entre 160 y 170 cm
      1. Probabilidad de medir más de 180 cm
        1. Estatura que supera al 95% de estudiantes


53 📊 VALOR ESPERADO Y VARIANZA DE UNA VARIABLE ALEATORIA

📐 F. Valor esperado y Varianza de una Variable Aleatoria

  1. Independencia de Variables Aleatorias: Introducción

Dos variables aleatorias X e Y se dicen independientes si el conocimiento del valor que toma una de ellas no proporciona información sobre el valor que puede tomar la otra. Formalmente, X e Y son independientes si para todos los posibles valores x e y:

  • Caso Discreto: P(X = x, Y = y) = P(X = x) · P(Y = y), o equivalentemente, pX,Y(x, y) = pX(x) · pY(y)
  • Caso Continuo: fX,Y(x, y) = fX(x) · fY(y)

Un conjunto de n variables aleatorias X₁, X₂, …, Xₙ son mutuamente independientes si para cualquier subconjunto se cumple la propiedad multiplicativa.

Variables Aleatorias Independientes X Y P(X∩Y) = P(X)·P(Y) | fXY(x,y) = fX(x)·fY(y)

📊 33. Esperanza: Definición

La esperanza de una variable aleatoria X, denotada por E[X] o μX, es el valor promedio de X. Se calcula de la siguiente manera:

  • Caso Discreto: Si X toma valores {x₁, x₂, …} con probabilidades {pX(x₁), pX(x₂), …}, entonces:
E[X] = Σᵢ xᵢ · pX(xᵢ)
  • Caso Continuo: Si X tiene una función de densidad de probabilidad fX(x), entonces:
E[X] = ∫₋∞^∞ x · fX(x) dx

La esperanza también se conoce como la media o el valor esperado de la variable aleatoria.

Esperanza como centro de masa (distribución Normal N(0,1)) μ = E[X]

📈 34. Esperanza de Funciones de Variables Aleatorias

Si g(X) es una función de la variable aleatoria X, entonces la esperanza de g(X) se calcula como:

  • Caso Discreto: E[g(X)] = Σᵢ g(xᵢ) · pX(xᵢ)
  • Caso Continuo: E[g(X)] = ∫₋∞^∞ g(x) · fX(x) dx

Si tenemos una función de dos variables aleatorias g(X, Y), entonces:

  • Caso Discreto: E[g(X, Y)] = Σx Σy g(x, y) · pX,Y(x, y)
  • Caso Continuo: E[g(X, Y)] = ∫₋∞^∞ ∫₋∞^∞ g(x, y) · fX,Y(x, y) dx dy
Ejemplo: Si g(X) = X², entonces E[X²] = Σ xᵢ²·p(xᵢ) o ∫ x²·f(x) dx

📋 35. Esperanza: Propiedades

La esperanza tiene varias propiedades importantes:

  1. Linealidad de la Esperanza: Para cualquier constante a y b, y variables aleatorias X e Y (no necesariamente independientes):
E[aX + bY] = a·E[X] + b·E[Y]
  1. Esperanza de una constante: E[c] = c
  2. Si X ≥ 0, entonces E[X] ≥ 0.
  3. Si a ≤ X ≤ b, entonces a ≤ E[X] ≤ b.
  4. Si X e Y son independientes, entonces E[XY] = E[X]·E[Y]. (La inversa no siempre es cierta).
Propiedad de Linealidad E[aX + bY] = a·E[X] + b·E[Y] Se extiende a combinaciones lineales de más de dos variables

📊 36. Varianza: Definición

La varianza de una variable aleatoria X, denotada por Var(X), σX² o σ², mide la dispersión de los valores de X alrededor de su media μX = E[X]. Se define como la esperanza del cuadrado de la desviación de X respecto a su media:

Var(X) = E[(X - μX)²]

La varianza también se puede calcular usando la siguiente fórmula:

Var(X) = E[X²] - (E[X])² = E[X²] - μX²

La desviación estándar de X, denotada por SD(X) o σX o σ, es la raíz cuadrada positiva de la varianza:

SD(X) = √Var(X)
Varianza: Dispersión alrededor de la media μ σ σ

📐 37. Varianza: Propiedades

La varianza tiene las siguientes propiedades:

  1. Var(X) ≥ 0.
  2. Var(c) = 0 para cualquier constante c.
  3. Var(aX + b) = a²·Var(X) para cualquier constante a y b.
  4. Si X e Y son independientes, entonces Var(X + Y) = Var(X) + Var(Y). (Esta propiedad no se cumple en general si X e Y no son independientes).
  5. En general, Var(X + Y) = Var(X) + Var(Y) + 2·Cov(X, Y), donde Cov(X, Y) = E[(X - E[X])(Y - E[Y])] = E[XY] - E[X]·E[Y] es la covarianza entre X e Y. Si X e Y son independientes, Cov(X, Y) = 0.
Propiedades de la Varianza Var(aX + b) = a²·Var(X) Var(X + Y) = Var(X) + Var(Y) + 2·Cov(X, Y)

📈 38. Momentos y la Función Generadora de Momentos (MGF)

El n-ésimo momento de orden k alrededor de a de una variable aleatoria X se define como E[(X - a)ᵏ].

  • El k-ésimo momento alrededor de cero es E[Xᵏ].
  • El k-ésimo momento central (alrededor de la media μX) es E[(X - μX)ᵏ]. El primer momento central es 0, el segundo momento central es la varianza.

La función generadora de momentos (MGF) de una variable aleatoria X, denotada por MX(t), se define como:

MX(t) = E[e^{tX}]

Propiedades de la MGF:

  • Si existe, determina únicamente la distribución de probabilidad.
  • Los momentos se obtienen derivando: E[Xᵏ] = dᵏ/dtᵏ MX(t) |t=0
  • Si X e Y son independientes, entonces MX+Y(t) = MX(t)·MY(t)
Función Generadora de Momentos MX(t) = E[e^{tX}] E[X] = M’(0), E[X²] = M’‘(0), Var(X) = M’’(0) - [M’(0)]² Ejemplo: Normal → M(t) = e^{μt + σ²t²/2}

🎲 39. Función Generadora de Probabilidad (PGF)

La función generadora de probabilidad (PGF) se utiliza principalmente para variables aleatorias discretas que toman valores no negativos enteros (0, 1, 2, …). Se define como:

GX(z) = E[z^X] = Σ_{k=0}^{∞} P(X = k)·z^{k}

Propiedades de la PGF:

  • GX(1) = 1
  • P(X = k) = (1/k!) · dᵏ/dzᵏ GX(z) |z=0
  • E[X] = GX’(1)
  • Var(X) = GX’‘(1) + GX’(1) - [GX’(1)]²
  • Si X e Y son independientes: GX+Y(z) = GX(z)·GY(z)
Función Generadora de Probabilidad GX(z) = E[z^X] = Σ P(X=k)·z^{k} E[X] = G’(1), Var(X) = G’‘(1) + G’(1) - [G’(1)]² Ejemplo: Poisson(λ) → G(z) = e^{λ(z-1)}

🧠 39.1. MEAYCD - Variables Aleatorias

🔗 Acceso al material:
https://forms.gle/AMwDNXjjfBVJM1uL8

🧪 39.2. LABORATORIO 6 - Estadística Descriptiva con Google Colab

🔗 Acceso al laboratorio:
https://www.youtube.com/watch?v=eiLm8kaH7-E


54 📊 EJEMPLOS PRÁCTICOS

🎲 Ejemplo 1: Esperanza y Varianza - Lanzamiento de un dado

Problema: Sea X el resultado del lanzamiento de un dado justo. Calcula la esperanza y la varianza de X.

Solución:

X puede tomar valores {1, 2, 3, 4, 5, 6} con probabilidad p(x) = 1/6.

E[X] = (1+2+3+4+5+6)/6 = 21/6 = 3.5

E[X²] = (1²+2²+3²+4²+5²+6²)/6 = (1+4+9+16+25+36)/6 = 91/6 ≈ 15.1667

Var(X) = E[X²] - (E[X])² = 15.1667 - (3.5)² = 15.1667 - 12.25 = 2.9167

SD(X) = √2.9167 ≈ 1.7078

📋 Código en R:

# Dado justo
valores <- 1:6
prob <- rep(1/6, 6)

# Esperanza
esperanza <- sum(valores * prob)
cat("E[X] =", esperanza, "\n")

# Varianza
esperanza_cuadrados <- sum(valores^2 * prob)
varianza <- esperanza_cuadrados - esperanza^2
cat("Var(X) =", varianza, "\n")

# Desviación estándar
sd <- sqrt(varianza)
cat("SD(X) =", sd, "\n")

Resultados: E[X] = 3.5 | Var(X) = 2.9167 | SD(X) = 1.7078


🪙 Ejemplo 2: Propiedades de Esperanza y Varianza

Problema: Sea X una variable aleatoria con E[X] = 10 y Var(X) = 4. Calcula:

  1. E[3X + 5]
    b) Var(2X - 3)
    c) E[X²]

Solución:

a) E[3X + 5] = 3·E[X] + 5 = 3×10 + 5 = 35

b) Var(2X - 3) = 2²·Var(X) = 4 × 4 = 16

c) E[X²] = Var(X) + (E[X])² = 4 + 10² = 4 + 100 = 104

📋 Código en R:

# Parámetros
E_X <- 10
Var_X <- 4

# a) Esperanza lineal
E_3X_5 <- 3 * E_X + 5
cat("E[3X+5] =", E_3X_5, "\n")

# b) Varianza transformación lineal
Var_2X_3 <- 4 * Var_X
cat("Var(2X-3) =", Var_2X_3, "\n")

# c) Segundo momento
E_X2 <- Var_X + E_X^2
cat("E[X²] =", E_X2, "\n")

Resultados: a) 35 | b) 16 | c) 104


📊 Ejemplo 3: Esperanza y Varianza - Distribución Binomial

Problema: Sea X ~ Binomial(n=10, p=0.4). Calcula la esperanza y la varianza de X.

Solución:

Para una distribución Binomial(n, p):

E[X] = n·p = 10 × 0.4 = 4
Var(X) = n·p·(1-p) = 10 × 0.4 × 0.6 = 2.4
SD(X) = √2.4 ≈ 1.5492

📋 Código en R:

# Distribución Binomial
n <- 10
p <- 0.4

# Esperanza y varianza teóricas
E_X <- n * p
Var_X <- n * p * (1 - p)
cat("E[X] =", E_X, "\n")
cat("Var(X) =", Var_X, "\n")

# Simulación para verificar
set.seed(123)
muestra <- rbinom(10000, n, p)
cat("Media muestral =", mean(muestra), "\n")
cat("Varianza muestral =", var(muestra), "\n")

Resultados: E[X] = 4 | Var(X) = 2.4 | SD(X) = 1.5492


55 📊 RESUMEN DE FÓRMULAS CLAVE

📋 Tabla resumen de fórmulas

Concepto Fórmula Aplicación
Esperanza (discreta) E[X] = Σ x·p(x) Valor promedio
Esperanza (continua) E[X] = ∫ x·f(x) dx Valor promedio
Linealidad E[aX + bY] = a·E[X] + b·E[Y] Combinaciones lineales
Independencia E[XY] = E[X]·E[Y] Producto de v.a. independientes
Varianza Var(X) = E[(X-μ)²] = E[X²] - (E[X])² Dispersión
Varianza lineal Var(aX + b) = a²·Var(X) Transformaciones lineales
Varianza suma (indep.) Var(X+Y) = Var(X) + Var(Y) Suma de v.a. independientes
Covarianza Cov(X,Y) = E[XY] - E[X]·E[Y] Relación lineal entre X e Y

56 📊 FUNCIONES GENERADORAS: DISTRIBUCIONES COMUNES

📋 Tabla de MGF y PGF por distribución

Distribución MGF M(t) PGF G(z) E[X] Var(X)
Binomial(n, p) (1-p + peᵗ)ⁿ (1-p + pz)ⁿ np np(1-p)
Poisson(λ) e^{λ(eᵗ-1)} e^{λ(z-1)} λ λ
Geométrica(p) peᵗ / (1-(1-p)eᵗ) pz / (1-(1-p)z) 1/p (1-p)/p²
Normal(μ, σ²) e^{μt + σ²t²/2} No aplica μ σ²
Exponencial(λ) λ/(λ-t) No aplica 1/λ 1/λ²

57 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La esperanza E[X] es el centro de masa de la distribución (valor promedio)
  • La varianza Var(X) mide la dispersión alrededor de la media
  • La linealidad de la esperanza se cumple siempre (sin necesidad de independencia)
  • La varianza de una suma requiere independencia o conocer la covarianza
  • La función generadora de momentos (MGF) determina la distribución de forma única
  • La función generadora de probabilidad (PGF) es útil para variables discretas no negativas


58 📊 DISTRIBUCIONES DE PROBABILIDAD DISCRETA

📐 G. Distribuciones de Probabilidad Discreta

  1. Distribución Uniforme Discreta

Una variable aleatoria X tiene una distribución uniforme discreta en el conjunto {x₁, x₂, …, xₙ} si toma cada uno de estos valores con igual probabilidad:

P(X = xᵢ) = 1/n,  para i = 1, 2, ..., n

Parámetros:

  • Esperanza: E[X] = (1/n) Σᵢ xᵢ
  • Varianza: Var(X) = (1/n) Σᵢ (xᵢ - E[X])²
  • Caso especial: Si los valores son {1, 2, …, n}: E[X] = (n+1)/2, Var(X) = (n²-1)/12
Distribución Uniforme Discreta (n=6) Valores de X P(X=x) 1 2 3 4 5 6 P(X=x) = 1/6

🎲 41. Distribución Bernoulli

Una variable aleatoria X tiene una distribución de Bernoulli con parámetro p (0 ≤ p ≤ 1) si toma solo dos valores posibles: 1 (éxito) con probabilidad p, y 0 (fracaso) con probabilidad 1-p = q:

P(X = 1) = p
P(X = 0) = 1 - p = q

Parámetros:

  • Esperanza: E[X] = p
  • Varianza: Var(X) = p(1-p) = pq
Distribución Bernoulli (p=0.7) Valores de X P(X=x) 0 1 q = 0.3 p = 0.7

📊 42. Distribución Binomial

Una variable aleatoria X tiene una distribución binomial con parámetros n (número de ensayos independientes) y p (probabilidad de éxito en cada ensayo), denotada por Bin(n, p), si representa el número de éxitos en n ensayos de Bernoulli independientes e idénticamente distribuidos.

P(X = k) = C(n, k) · pᵏ · (1-p)ⁿ⁻ᵏ,  para k = 0, 1, ..., n

Parámetros:

  • Esperanza: E[X] = n·p
  • Varianza: Var(X) = n·p·(1-p) = n·p·q
Distribución Binomial (n=10, p=0.5) Número de éxitos (k)

📋 43. Aplicaciones en Markdown y R

43.1. Ejemplo: Independencia y Esperanza

Problema: Sean X e Y dos variables aleatorias independientes con E[X]=2 y E[Y]=-1. Calcula E[Z] = E[3X - 2Y + 5].

Solución: E[Z] = 3·E[X] - 2·E[Y] + 5 = 3(2) - 2(-1) + 5 = 6 + 2 + 5 = 13

EX <- 2; EY <- -1
EZ <- 3 * EX - 2 * EY + 5
print(paste("E[Z] =", EZ))

43.2. Ejemplo: Varianza de Combinación Lineal

Problema: X e Y independientes con Var(X)=4 y Var(Y)=9. Calcula Var(W)=Var(2X+Y-3).

Solución: Var(W) = 4·Var(X) + Var(Y) = 4(4) + 9 = 25

43.3. Ejemplo: Distribución Binomial

Problema: Se lanzan 5 monedas justas. X = número de caras.

  1. P(X=3) = C(5,3)·(0.5)³·(0.5)² = 10·0.125·0.25 = 0.3125

    1. E[X] = n·p = 5·0.5 = 2.5

      1. Var(X) = n·p·q = 5·0.5·0.5 = 1.25

n <- 5; p <- 0.5
dbinom(3, n, p)  # 0.3125
n * p            # 2.5
n * p * (1-p)    # 1.25

📈 44. Distribución Geométrica

Una variable aleatoria X tiene una distribución geométrica con parámetro p (0 < p ≤ 1) si representa el número de ensayos de Bernoulli independientes necesarios hasta obtener el primer éxito.

P(X = k) = (1-p)ᵏ⁻¹·p = qᵏ⁻¹·p,  para k = 1, 2, 3, ...

Parámetros:

  • Esperanza: E[X] = 1/p
  • Varianza: Var(X) = (1-p)/p² = q/p²
Distribución Geométrica (p=0.3) p q·p

📊 45. Distribución Binomial Negativa

Una variable aleatoria X tiene una distribución binomial negativa con parámetros r (número de éxitos deseados) y p (probabilidad de éxito) si representa el número de ensayos necesarios hasta obtener el r-ésimo éxito.

P(X = k) = C(k-1, r-1)·pʳ·(1-p)ᵏ⁻ʳ,  para k = r, r+1, r+2, ...

Parámetros:

  • Esperanza: E[X] = r/p
  • Varianza: Var(X) = r·(1-p)/p² = r·q/p²

🎲 46. Distribución Hipergeométrica

Una variable aleatoria X tiene una distribución hipergeométrica con parámetros N (población), K (éxitos en la población) y n (tamaño de muestra sin reemplazo) si representa el número de éxitos en la muestra.

P(X = k) = C(K, k)·C(N-K, n-k) / C(N, n)

Parámetros:

  • Esperanza: E[X] = n·K/N
  • Varianza: Var(X) = n·(K/N)·(1-K/N)·(N-n)/(N-1)

📋 47. Aplicaciones: Geométrica, Binomial Negativa, Hipergeométrica

47.1. Geométrica (Dado)

Problema: Lanzar un dado hasta obtener un 6 (p=1/6).

  1. P(X=3) = (5/6)²·(1/6) = 25/216 ≈ 0.1157

    1. E[X] = 1/p = 6

47.2. Binomial Negativa (Baloncesto)

Problema: p=0.7, r=3, k=5. P(X=5) = C(4,2)·(0.7)³·(0.3)² ≈ 0.1852

47.3. Hipergeométrica (Urna)

Problema: N=15, K=10, n=4, k=3. P(X=3) = C(10,3)·C(5,1)/C(15,4) = 600/1365 ≈ 0.4396


📊 48. Distribución Poisson

Una variable aleatoria X tiene una distribución de Poisson con parámetro λ > 0 si representa el número de eventos que ocurren en un intervalo fijo de tiempo o espacio.

P(X = k) = e⁻ˡ·λᵏ / k!,  para k = 0, 1, 2, ...

Parámetros:

  • Esperanza: E[X] = λ
  • Varianza: Var(X) = λ
Distribución Poisson (λ=3)

📋 49. Aplicaciones: Distribución Poisson

49.1. Llegada de clientes (λ=5)

P(X=3) = e⁻⁵·5³/6 ≈ 0.1404

49.2. Errores de impresión (λ=2)

  1. P(X=0) = e⁻² ≈ 0.1353

    1. P(X≥2) = 1 - [P(0)+P(1)] = 1 - (0.1353+0.2707) = 0.5940

49.3. Accidentes (λ=3)

P(X=0) = e⁻³ ≈ 0.0498

49.4. Llamadas (λ=20 en 10 min)

P(X>20) = 1 - P(X≤20) ≈ 0.4409

dpois(3, 5)           # 0.1404
dpois(0, 2)           # 0.1353
1 - ppois(1, 2)       # 0.5940
dpois(0, 3)           # 0.0498
1 - ppois(20, 20)     # 0.4409

🧠 49.5. MEAYCD - Modelos Probabilísticos Discretos

https://forms.gle/73yex2MRtC9vEk4r8

🧪 49.6. MAPYCD LABORATORIO 7 - Estadística Descriptiva con Statgraphics

https://www.youtube.com/watch?v=f2ZNjjSMf9A


59 📊 RESUMEN DE DISTRIBUCIONES DISCRETAS

📋 Tabla comparativa

Distribución Parámetros P(X=k) E[X] Var(X)
Uniforme Discreta n 1/n (n+1)/2 (n²-1)/12
Bernoulli p p si k=1, q si k=0 p pq
Binomial n, p C(n,k)·pᵏ·qⁿ⁻ᵏ np npq
Geométrica p qᵏ⁻¹·p 1/p q/p²
Binomial Negativa r, p C(k-1,r-1)·pʳ·qᵏ⁻ʳ r/p rq/p²
Hipergeométrica N, K, n C(K,k)C(N-K,n-k)/C(N,n) nK/N n(K/N)(1-K/N)(N-n)/(N-1)
Poisson λ e⁻ˡ·λᵏ/k! λ λ

60 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La Bernoulli es el bloque fundamental para experimentos de sí/no
  • La Binomial modela el número de éxitos en n ensayos fijos
  • La Geométrica modela el tiempo hasta el primer éxito
  • La Binomial Negativa generaliza la geométrica para r éxitos
  • La Hipergeométrica se usa para muestreo sin reemplazo
  • La Poisson modela eventos raros en tiempo/espacio


61 📊 DISTRIBUCIONES DE PROBABILIDAD CONTINUA MÁS COMUNES

📐 H. Distribuciones de Probabilidad Continua más comunes

  1. Distribuciones de Probabilidad Continua

Una distribución de probabilidad continua describe las probabilidades de los posibles valores de una variable aleatoria continua (una variable que puede tomar cualquier valor dentro de un rango específico). A diferencia de las distribuciones discretas, donde la probabilidad se concentra en puntos específicos, en las distribuciones continuas la probabilidad se distribuye a lo largo de un intervalo, y la probabilidad de que la variable tome un valor exacto es cero.

La probabilidad de que la variable aleatoria X caiga dentro de un intervalo [a, b] se calcula integrando la función de densidad de probabilidad (pdf), fₓ(x), sobre ese intervalo:

P(a ≤ X ≤ b) = ∫ₐᵇ fₓ(x) dx

La pdf debe satisfacer las siguientes condiciones:

  1. fₓ(x) ≥ 0 para todo x ∈ ℝ
  2. ∫₋∞^∞ fₓ(x) dx = 1
Función de Densidad de Probabilidad (PDF) x fₓ(x) Área = P(a ≤ X ≤ b) a b

📏 51. Distribución Uniforme Continua

Una variable aleatoria X tiene una distribución uniforme continua en el intervalo [a, b] si su función de densidad de probabilidad es constante en ese intervalo y cero fuera de él. La pdf está dada por:

fₓ(x) = { 1/(b-a)  para a ≤ x ≤ b
        { 0         en otro caso

donde a y b son los parámetros de la distribución, con a < b.

Parámetros:

  • Esperanza: E[X] = (a + b)/2
  • Varianza: Var(X) = (b - a)²/12
  • Función de distribución: F(x) = (x - a)/(b - a) para a ≤ x ≤ b

La distribución uniforme continua modela situaciones donde todos los valores dentro de un intervalo dado son igualmente probables.

Distribución Uniforme Continua U(a,b) x fₓ(x) 1/(b-a) a b

⏱️ 52. Distribución Exponencial

Una variable aleatoria X tiene una distribución exponencial con parámetro λ > 0 si su función de densidad de probabilidad está dada por:

fₓ(x) = { λ·e⁻ˡˣ  para x ≥ 0
        { 0         para x < 0

donde λ es la tasa de ocurrencia del evento.

Parámetros:

  • Esperanza: E[X] = 1/λ
  • Varianza: Var(X) = 1/λ²
  • Función de distribución: F(x) = 1 - e⁻ˡˣ para x ≥ 0

La distribución exponencial se utiliza a menudo para modelar el tiempo hasta que ocurre un evento, como:

  • El tiempo de vida de un componente electrónico
  • El tiempo entre llegadas en un proceso de Poisson
  • La duración de una llamada telefónica

Propiedad importante: La distribución exponencial tiene la propiedad de falta de memoria: P(X > s+t | X > s) = P(X > t). Esto significa que la probabilidad condicional de que un evento ocurra en el futuro no depende de cuánto tiempo haya pasado desde el último evento.

Distribución Exponencial (λ=1, 2, 3) x fₓ(x) λ=1 λ=2 λ=3

62 📊 EJEMPLOS PRÁCTICOS

📋 Ejemplo 1: Distribución Uniforme Continua - Llegada de autobuses

Problema: Un autobús pasa por una parada cada 20 minutos exactamente. Si una persona llega a la parada en un momento aleatorio, ¿cuál es la probabilidad de que espere menos de 5 minutos?

Solución:

El tiempo de espera X sigue una distribución uniforme continua en [0, 20] minutos.

fₓ(x) = 1/20,  0 ≤ x ≤ 20
P(X < 5) = ∫₀⁵ (1/20) dx = (5/20) = 0.25

Resultado: La probabilidad de esperar menos de 5 minutos es 0.25 (25%).


📋 Código en R:

# Distribución Uniforme Continua U(0,20)
a <- 0
b <- 20

# P(X < 5)
prob_menos_5 <- punif(5, a, b)
cat("P(X < 5) =", prob_menos_5, "\n")

# Esperanza y varianza
esperanza <- (a + b)/2
varianza <- (b - a)^2 / 12
cat("E[X] =", esperanza, "minutos\n")
cat("Var(X) =", varianza, "\n")

📋 Ejemplo 2: Distribución Uniforme Continua - Cita médica

Problema: Un médico atiende a sus pacientes entre las 9:00 AM y las 12:00 PM. Si un paciente llega a una hora aleatoria, ¿cuál es la probabilidad de que sea atendido después de las 10:30 AM?

Solución:

Tiempo X ~ Uniforme(9, 12) en horas.

P(X > 10.5) = (12 - 10.5) / (12 - 9) = 1.5 / 3 = 0.5

Resultado: Probabilidad de ser atendido después de las 10:30 AM es 0.5 (50%).

# Paciente atendido después de las 10:30 (10.5 horas)
a <- 9; b <- 12
prob_despues <- 1 - punif(10.5, a, b)
cat("P(X > 10.5) =", prob_despues, "\n")

📋 Ejemplo 3: Distribución Exponencial - Vida útil de un componente

Problema: La vida útil de un componente electrónico sigue una distribución exponencial con una vida media de 500 horas (λ = 1/500 = 0.002). ¿Cuál es la probabilidad de que el componente dure más de 600 horas?

Solución:

P(X > 600) = 1 - F(600) = 1 - (1 - e^{-0.002×600}) = e^{-1.2} ≈ 0.3012

Resultado: La probabilidad de que dure más de 600 horas es aproximadamente 0.3012 (30.12%).


📋 Código en R:

# Distribución Exponencial con media 500 horas
media <- 500
lambda <- 1 / media

# P(X > 600)
prob_mas_600 <- exp(-lambda * 600)
cat("P(X > 600) =", prob_mas_600, "\n")

# Esperanza y varianza
cat("E[X] =", 1/lambda, "horas\n")
cat("Var(X) =", 1/lambda^2, "\n")

# Tiempo medio de vida
vida_media <- qexp(0.5, lambda)
cat("Vida media (mediana):", vida_media, "horas\n")

📋 Ejemplo 4: Distribución Exponencial - Tiempo entre llamadas

Problema: En un call center, las llamadas llegan a una tasa promedio de 10 llamadas por hora (λ = 10 llamadas/hora). El tiempo entre llamadas sigue una distribución exponencial. ¿Cuál es la probabilidad de que el tiempo entre dos llamadas consecutivas sea mayor a 0.2 horas (12 minutos)?

Solución:

P(X > 0.2) = e^{-λ·t} = e^{-10 × 0.2} = e^{-2} ≈ 0.1353

Resultado: La probabilidad de esperar más de 12 minutos entre llamadas es aproximadamente 0.1353 (13.53%).


📋 Código en R:

# Tasa de llamadas
tasa <- 10  # llamadas por hora
lambda <- tasa
t <- 0.2   # 12 minutos en horas

# P(X > 0.2) usando la distribución exponencial
prob_mayor <- exp(-lambda * t)
cat("P(X > 0.2 horas) =", prob_mayor, "\n")

# Alternativa con función pexp
prob_mayor_alt <- 1 - pexp(t, lambda)
cat("Alternativa:", prob_mayor_alt, "\n")

📋 Ejemplo 5: Propiedad de Falta de Memoria

Problema: Un componente electrónico tiene una vida útil exponencial con media 500 horas. Si ha funcionado correctamente durante 300 horas, ¿cuál es la probabilidad de que dure al menos 200 horas más?

Solución:

Por la propiedad de falta de memoria de la distribución exponencial:

P(X > 500 | X > 300) = P(X > 200) = e^{-λ·200} = e^{-0.002×200} = e^{-0.4} ≈ 0.6703

Resultado: La probabilidad es aproximadamente 0.6703 (67.03%), la misma que si fuera un componente nuevo.


📋 Código en R:

# Verificación de la falta de memoria
lambda <- 1/500

# P(X > 500 | X > 300) es igual a P(X > 200)
prob_condicional <- exp(-lambda * 200)
prob_nuevo <- 1 - pexp(200, lambda)
cat("P(X > 500 | X > 300) =", prob_condicional, "\n")
cat("P(X > 200) =", prob_nuevo, "\n")

63 📊 RESUMEN DE DISTRIBUCIONES CONTINUAS

📋 Tabla comparativa

Distribución Parámetros PDF f(x) E[X] Var(X) CDF F(x)
Uniforme Continua a, b (a < b) 1/(b-a), a≤x≤b (a+b)/2 (b-a)²/12 (x-a)/(b-a), a≤x≤b
Exponencial λ > 0 λ·e⁻ˡˣ, x≥0 1/λ 1/λ² 1 - e⁻ˡˣ, x≥0

64 📊 PROPIEDADES CLAVE

📋 Comparación de propiedades

Propiedad Uniforme Continua Exponencial
Rango [a, b] (finito) [0, ∞) (semi-infinito)
Simetría Simétrica Asimétrica (sesgo positivo)
Forma de la PDF Rectangular Decreciente exponencial
Falta de memoria No
Tasa de fallo Constante (hazard) Constante (λ)
Relación con Poisson No Sí (tiempos entre eventos)

65 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • En distribuciones continuas, P(X = a) = 0 para cualquier valor específico a
  • La probabilidad se calcula como el área bajo la curva de la función de densidad
  • La distribución uniforme continua modela situaciones donde todos los valores en un intervalo son igualmente probables
  • La distribución exponencial modela tiempos de espera y tiene la propiedad de falta de memoria
  • La tasa λ en la exponencial es inversamente proporcional a la media (E[X] = 1/λ)
  • La exponencial es el análogo continuo de la distribución geométrica discreta

66 📊 APLICACIONES EN MARKDOWN Y R - DISTRIBUCIONES CONTINUAS

📐 53. Aplicaciones en Markdown y R


🚌 53.1. Ejemplo 1: Distribución Uniforme Continua

Problema: Un autobús llega a una parada en cualquier momento entre las 10:00 AM y las 10:15 AM, con igual probabilidad. Si una persona llega a la parada exactamente a las 10:05 AM, ¿cuál es la probabilidad de que tenga que esperar más de 5 minutos por el autobús?

Solución en Markdown:

El tiempo de llegada del autobús sigue una distribución uniforme continua en el intervalo [0, 15] minutos después de las 10:00 AM. Aquí, a = 0 y b = 15.

La persona llega a los 5 minutos. Tendrá que esperar más de 5 minutos si el autobús llega después de los 5 + 5 = 10 minutos. Queremos encontrar P(X > 10), donde X es el tiempo de llegada del autobús en minutos después de las 10:00 AM.

La pdf es fₓ(x) = 1/(15 - 0) = 1/15 para 0 ≤ x ≤ 15.

P(X > 10) = ∫₁₀¹⁵ (1/15) dx = (15/15) - (10/15) = 1 - 2/3 = 1/3 ≈ 0.3333

Resultado: La probabilidad de esperar más de 5 minutos es 1/3 ≈ 0.3333.


📋 Código en R:

# Parámetros de la distribución uniforme
a <- 0
b <- 15

# Probabilidad de que la llegada sea mayor que 10
prob_mayor_10 <- punif(10, min = a, max = b, lower.tail = FALSE)
cat("P(X > 10) =", round(prob_mayor_10, 4), "\n")

# Crear secuencia de tiempo
x <- seq(0, 15, length.out = 300)
densidad <- dunif(x, min = 0, max = 15)

# Dibujar la función de densidad
plot(x, densidad, type = "l", lwd = 2, col = "blue",
     main = "Distribución Uniforme: llegada del autobús",
     ylab = "Densidad", xlab = "Minutos después de las 10:00 AM")

# Rellenar la región de interés: X > 10
x_sombra <- seq(10, 15, length.out = 200)
y_sombra <- dunif(x_sombra, min = 0, max = 15)
polygon(c(10, x_sombra, 15), c(0, y_sombra, 0),
        col = rgb(1, 0, 0, 0.3), border = NA)

# Agregar líneas de referencia
abline(v = 5, col = "darkgreen", lty = 2)
abline(v = 10, col = "red", lty = 2)

# Agregar texto explicativo
text(7.5, 0.065, "Esperando < 5 minutos", col = "blue")
text(12.5, 0.065, "Esperando > 5 minutos", col = "red")
Distribución Uniforme: Llegada del Autobús Minutos después de las 10:00 AM Densidad Espera < 5 min Espera > 5 min 10:05 AM (llegada) 10:10 AM Área sombreada = 1/3

⚡ 53.2. Ejemplo 2: Distribución Exponencial - Tiempo de Vida

Problema: La vida útil de un componente electrónico sigue una distribución exponencial con una tasa de falla promedio de λ = 0.02 por hora. ¿Cuál es la probabilidad de que el componente dure al menos 50 horas?

Solución en Markdown:

La variable aleatoria X es el tiempo de vida del componente en horas, con una tasa λ = 0.02. Queremos encontrar P(X ≥ 50). La función de distribución acumulativa (cdf) de una distribución exponencial es F(x) = 1 - e-λx para x ≥ 0.

P(X ≥ 50) = 1 - P(X < 50) = 1 - F(50) = 1 - (1 - e^{-0.02·50}) = e^{-1} ≈ 0.3679

Resultado: La probabilidad de que el componente dure al menos 50 horas es aproximadamente 0.3679.


📋 Código en R:

# Parámetro de la distribución exponencial
lambda <- 0.02

# Probabilidad de que dure al menos 50 horas
prob_mayor_igual_50 <- pexp(50, rate = lambda, lower.tail = FALSE)
cat("P(X ≥ 50) =", round(prob_mayor_igual_50, 4), "\n")

# Secuencia de tiempo
t <- seq(0, 150, length.out = 500)
f_t <- dexp(t, rate = lambda)

# Graficar función de densidad
plot(t, f_t, type = "l", lwd = 2, col = "blue",
     main = "Distribución Exponencial (λ = 0.02)",
     ylab = "Densidad", xlab = "Horas")

# Rellenar región T ≥ 50
t_sombra <- seq(50, 150, length.out = 300)
f_sombra <- dexp(t_sombra, rate = lambda)
polygon(c(50, t_sombra, 150), c(0, f_sombra, 0),
        col = rgb(1, 0, 0, 0.3), border = NA)

abline(v = 50, col = "red", lty = 2)
text(100, 0.01, "Área sombreada = P(T ≥ 50)", col = "red")
Distribución Exponencial: Vida útil del componente Horas Densidad 50 horas Área sombreada = 0.3679

📞 53.3. Ejemplo 3: Distribución Exponencial - Tiempo entre Eventos

Problema: En un centro de llamadas, las llamadas llegan a una tasa promedio de 2 por minuto. Suponiendo que el tiempo entre llegadas sigue una distribución exponencial, ¿cuál es la probabilidad de que el tiempo entre dos llamadas consecutivas sea menor de 30 segundos (0.5 minutos)?

Solución en Markdown:

La tasa promedio de llegadas es λ = 2 llamadas por minuto. El tiempo entre llegadas sigue una distribución exponencial con la misma tasa λ = 2. Queremos encontrar la probabilidad de que el tiempo entre dos llamadas consecutivas sea menor de x = 0.5 minutos, es decir, P(X < 0.5).

Usando la cdf de la distribución exponencial:

P(X < 0.5) = F(0.5) = 1 - e^{-λx} = 1 - e^{-2·0.5} = 1 - e^{-1} ≈ 1 - 0.3679 = 0.6321

Resultado: La probabilidad de que el tiempo entre dos llamadas consecutivas sea menor de 30 segundos es aproximadamente 0.6321.


📋 Código en R:

# Parámetro de la distribución exponencial
lambda <- 2

# Probabilidad de que el tiempo entre llamadas sea menor de 0.5 minutos
prob_menor_0_5 <- pexp(0.5, rate = lambda, lower.tail = TRUE)
cat("P(T < 0.5) =", round(prob_menor_0_5, 4), "\n")

# Secuencia de tiempo (en minutos)
t <- seq(0, 2, length.out = 500)
f_t <- dexp(t, rate = lambda)

# Graficar función de densidad
plot(t, f_t, type = "l", lwd = 2, col = "blue",
     main = "Distribución Exponencial (λ = 2 llamadas/min)",
     ylab = "Densidad", xlab = "Tiempo entre llamadas (min)")

# Rellenar región T < 0.5
t_sombra <- seq(0, 0.5, length.out = 300)
f_sombra <- dexp(t_sombra, rate = lambda)
polygon(c(0, t_sombra, 0.5), c(0, f_sombra, 0),
        col = rgb(1, 0, 0, 0.3), border = NA)

abline(v = 0.5, col = "red", lty = 2)
text(1.2, 1.5, "Área sombreada = P(T < 0.5)", col = "red")
Distribución Exponencial: Tiempo entre llamadas Tiempo entre llamadas (minutos) Densidad 0.5 minutos Área = 0.6321

67 📊 RESUMEN DE FUNCIONES EN R PARA DISTRIBUCIONES CONTINUAS

📋 Funciones en R para distribuciones continuas

Distribución Función de densidad (d*) Función de distribución (p*) Función cuantil (q*) Generación aleatoria (r*)
Uniforme dunif(x, min, max) punif(q, min, max) qunif(p, min, max) runif(n, min, max)
Exponencial dexp(x, rate) pexp(q, rate) qexp(p, rate) rexp(n, rate)
Normal dnorm(x, mean, sd) pnorm(q, mean, sd) qnorm(p, mean, sd) rnorm(n, mean, sd)
Gamma dgamma(x, shape, rate) pgamma(q, shape, rate) qgamma(p, shape, rate) rgamma(n, shape, rate)
Beta dbeta(x, shape1, shape2) pbeta(q, shape1, shape2) qbeta(p, shape1, shape2) rbeta(n, shape1, shape2)
Weibull dweibull(x, shape, scale) pweibull(q, shape, scale) qweibull(p, shape, scale) rweibull(n, shape, scale)

68 💡 CONCLUSIONES CLAVE DE LAS APLICACIONES

✅ Puntos importantes

  • La distribución uniforme continua es útil para modelar llegadas aleatorias en un intervalo de tiempo fijo
  • La distribución exponencial modela tiempos de vida y tiempos entre eventos en procesos de Poisson
  • La probabilidad en distribuciones continuas se calcula como el área bajo la curva de la función de densidad
  • La función lower.tail = FALSE en R calcula directamente P(X > x)
  • La visualización gráfica ayuda a comprender el significado de la probabilidad como área


69 📊 FUNCIÓN GAMA Y DISTRIBUCIÓN GAMA

📐 54. La Función Gama

La función gama, denotada por Γ(z), es una extensión de la función factorial a los números complejos. Para un número complejo z con parte real positiva (Re(z) > 0), se define mediante la integral impropia:

Γ(z) = ∫₀^∞ t^{z-1} e^{-t} dt

Propiedades importantes de la función gama:

  1. Relación con el factorial: Para cualquier entero positivo n, Γ(n) = (n - 1)!
  2. Relación de recurrencia: Para cualquier número complejo z que no sea un entero no positivo, Γ(z + 1) = z·Γ(z)
  3. Valor en 1/2: Γ(1/2) = √π
  4. La función gama está definida para todos los números complejos excepto los enteros no positivos (0, -1, -2, …)

La función gama aparece en muchas áreas de las matemáticas, la estadística y la física, incluyendo la definición de varias distribuciones de probabilidad continuas.

Función Gama Γ(z) para z real positivo z Γ(z) Γ(3)=2 Γ(4)=6 Γ(5)=24

📊 55. Distribución Gama

Una variable aleatoria X tiene una distribución gama con parámetros de forma α > 0 y de tasa β > 0 (o parámetro de escala θ = 1/β > 0) si su función de densidad de probabilidad (pdf) está dada por:

f(x; α, β) = β^α / Γ(α) · x^{α-1} · e^{-β·x},   para x > 0

donde:

  • α es el parámetro de forma (shape parameter), que determina la forma de la distribución
  • β es el parámetro de tasa (rate parameter), que determina la escala de la distribución
  • Γ(α) es la función gama evaluada en α, que asegura que la integral de la pdf sobre su dominio sea igual a 1

Alternativamente, utilizando el parámetro de escala θ = 1/β:

f(x; α, θ) = 1/(Γ(α)·θ^α) · x^{α-1} · e^{-x/θ},   para x > 0

Parámetros:

  • Esperanza: E[X] = α/β = α·θ
  • Varianza: Var(X) = α/β² = α·θ²

Casos especiales de la distribución gama:

  • Si α = 1, la distribución gama se reduce a la distribución exponencial con tasa β = λ
  • Si α = k/2 (donde k es un entero positivo) y β = 1/2, la distribución gama se reduce a la distribución chi-cuadrado con k grados de libertad

La distribución gama es muy flexible y se utiliza para modelar una amplia variedad de fenómenos, como tiempos de espera, duración de eventos y variables económicas.

Distribución Gama: Diferentes valores de α x f(x) α = 1 α = 2 α = 5

📋 56. Aplicaciones en Markdown y R

56.1. Ejemplo 1: Distribución Gama - Tiempo de Fallo

Problema: El tiempo hasta el fallo de un cierto tipo de componente electrónico (en horas) se modela mediante una distribución gama con parámetro de forma α = 2 y parámetro de tasa β = 0.01. ¿Cuál es la probabilidad de que un componente falle antes de las 100 horas?

Solución en Markdown:

Tenemos una distribución gama con α = 2, β = 0.01. Queremos encontrar P(X < 100). La cdf de la distribución gama es generalmente compleja y se expresa en términos de la función gama incompleta.

Resultado: La probabilidad de fallo antes de 100 horas es aproximadamente 0.2642.


📋 Código en R:

# Parámetros de la distribución gama
alpha <- 2
beta <- 0.01

# Probabilidad de fallo antes de 100 horas
prob_fallo_antes_100 <- pgamma(100, shape = alpha, rate = beta)
cat("P(X < 100) =", round(prob_fallo_antes_100, 4), "\n")

# Secuencia de tiempo y gráfico
t <- seq(0, 400, length.out = 500)
f_t <- dgamma(t, shape = alpha, rate = beta)
plot(t, f_t, type = "l", lwd = 2, col = "blue",
     main = "Distribución Gamma (α = 2, β = 0.01)",
     ylab = "Densidad", xlab = "Tiempo hasta el fallo (horas)")

# Rellenar la región T < 100
t_sombra <- seq(0, 100, length.out = 300)
f_sombra <- dgamma(t_sombra, shape = alpha, rate = beta)
polygon(c(0, t_sombra, 100), c(0, f_sombra, 0),
        col = rgb(1, 0, 0, 0.3), border = NA)
abline(v = 100, col = "red", lty = 2)
Distribución Gamma: Tiempo de fallo (α=2, β=0.01) Horas Densidad 100 horas Área = 0.2642

📋 56.2. Ejemplo 2: Distribución Gama - Duración de un Evento

Problema: La duración de un evento (en minutos) se modela con una distribución gama con parámetro de forma α = 3 y parámetro de escala θ = 5. ¿Cuál es la probabilidad de que el evento dure entre 10 y 20 minutos?

Solución en Markdown:

Tenemos una distribución gama con α = 3 y θ = 5 (lo que implica β = 1/5 = 0.2). Queremos encontrar P(10 ≤ X ≤ 20) = P(X ≤ 20) - P(X < 10).

Resultado: La probabilidad es aproximadamente 0.6161.


📋 Código en R:

# Parámetros de la distribución gama (usando escala)
alpha <- 3
scale <- 5
rate <- 1 / scale

# Probabilidad entre 10 y 20 minutos
prob_hasta_20 <- pgamma(20, shape = alpha, scale = scale)
prob_hasta_10 <- pgamma(10, shape = alpha, scale = scale)
prob_entre <- prob_hasta_20 - prob_hasta_10
cat("P(10 < X < 20) =", round(prob_entre, 4), "\n")

# Gráfico
t <- seq(0, 50, length.out = 500)
f_t <- dgamma(t, shape = alpha, rate = rate)
plot(t, f_t, type = "l", lwd = 2, col = "blue",
     main = "Distribución Gamma (α = 3, θ = 5)",
     ylab = "Densidad", xlab = "Duración (minutos)")

# Sombrear área entre 10 y 20
t_sombra <- seq(10, 20, length.out = 300)
f_sombra <- dgamma(t_sombra, shape = alpha, rate = rate)
polygon(c(10, t_sombra, 20), c(0, f_sombra, 0),
        col = rgb(1, 0, 0, 0.3), border = NA)
abline(v = 10, col = "red", lty = 2)
abline(v = 20, col = "red", lty = 2)
Distribución Gamma: Duración del evento (α=3, θ=5) Minutos Densidad 10 min 20 min Área = 0.6161

📋 56.3. Ejemplo 3: Distribución Gama - Suma de Variables Exponenciales

Problema: Supongamos que el tiempo entre llegadas de clientes a una tienda sigue una distribución exponencial con una tasa de λ = 0.1 por minuto. El tiempo total para que lleguen los próximos 4 clientes sigue una distribución gama. ¿Cuáles son los parámetros de esta distribución gama y cuál es la probabilidad de que los próximos 4 clientes lleguen en menos de 30 minutos?

Solución en Markdown:

Si el tiempo entre llegadas sigue una distribución exponencial con tasa λ, entonces el tiempo para que ocurran α eventos sigue una distribución gama con forma α y tasa λ. En este caso, α = 4 (4 clientes) y λ = β = 0.1 por minuto.

Resultado: P(X < 30) ≈ 0.3528.


📋 Código en R:

# Parámetros de la distribución gama
alpha <- 4        # número de clientes (forma)
beta <- 0.1       # tasa (λ)

# Probabilidad de que lleguen en menos de 30 minutos
prob_menos_30 <- pgamma(30, shape = alpha, rate = beta)
cat("P(T < 30) =", round(prob_menos_30, 4), "\n")

# Gráfico
t <- seq(0, 100, length.out = 500)
f_t <- dgamma(t, shape = alpha, rate = beta)
plot(t, f_t, type = "l", lwd = 2, col = "blue",
     main = "Distribución Gamma: Tiempo hasta 4 clientes",
     ylab = "Densidad", xlab = "Tiempo total (minutos)")

# Rellenar área T < 30
t_sombra <- seq(0, 30, length.out = 300)
f_sombra <- dgamma(t_sombra, shape = alpha, rate = beta)
polygon(c(0, t_sombra, 30), c(0, f_sombra, 0),
        col = rgb(1, 0, 0, 0.3), border = NA)
abline(v = 30, col = "red", lty = 2)
Distribución Gamma: Tiempo hasta 4 clientes (λ=0.1) Minutos Densidad 30 minutos Área = 0.3528

70 📊 RESUMEN DE LA DISTRIBUCIÓN GAMA

📋 Tabla resumen

Característica Valor
Parámetros α > 0 (forma), β > 0 (tasa) o θ = 1/β (escala)
Soporte x ∈ [0, ∞)
Función de densidad f(x) = β^α/Γ(α) · x^{α-1} · e^{-βx}
Esperanza (media) E[X] = α/β = α·θ
Varianza Var(X) = α/β² = α·θ²
Función generadora de momentos M(t) = (β/(β-t))^α, para t < β

71 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La función gama Γ(z) generaliza el factorial: Γ(n) = (n-1)! para enteros positivos n
  • La distribución gama es una familia flexible de distribuciones continuas con soporte en [0, ∞)
  • Casos especiales: Exponencial (α=1) y Chi-cuadrado (α=k/2, β=1/2)
  • La suma de α variables exponenciales independientes con tasa β sigue una distribución Gama(α, β)
  • La función pgamma() en R calcula la probabilidad acumulada P(X ≤ x)
  • El parámetro α controla la forma (α pequeño = asimetría positiva, α grande ≈ normal)
  • El parámetro β escala la distribución: a mayor β, menor dispersión


72 📊 DISTRIBUCIÓN NORMAL (GAUSSIANA)

📐 57. Distribución Normal (Gaussiana)

La distribución normal es una de las distribuciones de probabilidad continua más importantes en estadística. Se caracteriza por su forma de campana simétrica y está completamente definida por dos parámetros: la media μ y la desviación estándar σ (o su cuadrado, la varianza σ²). Una variable aleatoria X que sigue una distribución normal se denota como X ~ N(μ, σ²).

La función de densidad de probabilidad (pdf) de una distribución normal es:

f(x; μ, σ²) = 1/(σ√(2π)) · e^{ -½·((x-μ)/σ)² },   para -∞ < x < ∞

donde:

  • μ es la media de la distribución (ubicación del centro de la campana)
  • σ es la desviación estándar (medida de la dispersión)
  • π ≈ 3.14159, e ≈ 2.71828
Distribución Normal: Efecto de μ y σ x f(x) μ=0, σ=20 μ=0, σ=15 μ=0, σ=10

📊 58. Propiedades importantes de la distribución normal

  1. Simetría: La distribución es simétrica alrededor de su media μ
  2. Unimodal: Tiene un único pico en la media
  3. Asintótica: La curva se acerca al eje x pero nunca lo toca conforme x → ±∞
  4. Regla empírica (68-95-99.7):
    • ≈ 68% de los datos está en μ ± 1σ
    • ≈ 95% de los datos está en μ ± 2σ
    • ≈ 99.7% de los datos está en μ ± 3σ
Regla Empírica 68-95-99.7 μ-3σ μ-2σ μ-σ μ

📐 59. Distribución Normal Estándar

Un caso especial importante es la distribución normal estándar, que tiene media μ = 0 y desviación estándar σ = 1 (varianza σ² = 1). Se denota como Z ~ N(0, 1). Su pdf es:

φ(z) = 1/√(2π) · e^{-z²/2},   para -∞ < z < ∞

Cualquier variable aleatoria normal X ~ N(μ, σ²) puede ser estandarizada a una variable normal estándar Z mediante la transformación:

Z = (X - μ) / σ

Esta transformación es útil para calcular probabilidades utilizando tablas de la distribución normal estándar o funciones de software.

Distribución Normal Estándar N(0,1) z φ(z) μ = 0

📋 60. Aplicaciones en Markdown y R

60.1. Ejemplo 1: Probabilidad en una Distribución Normal

Problema: Las calificaciones de un examen siguen una distribución normal con media μ = 75 y desviación estándar σ = 10. ¿Cuál es la probabilidad de que un estudiante obtenga una calificación entre 80 y 90?

Solución en Markdown:

X ~ N(75, 10²). Estandarizando: z₁ = (80-75)/10 = 0.5, z₂ = (90-75)/10 = 1.5

P(80 ≤ X ≤ 90) = P(0.5 ≤ Z ≤ 1.5) = P(Z ≤ 1.5) - P(Z ≤ 0.5) = 0.9332 - 0.6915 = 0.2417

Resultado: P = 0.2417


mu <- 75; sigma <- 10
prob_entre <- pnorm(90, mu, sigma) - pnorm(80, mu, sigma)
cat("P(80 < X < 90) =", round(prob_entre, 4))

# Gráfico
x <- seq(40, 110, length.out = 500)
plot(x, dnorm(x, mu, sigma), type = "l", col = "blue", lwd = 2)
x_sombra <- seq(80, 90, length.out = 100)
polygon(c(80, x_sombra, 90), c(0, dnorm(x_sombra, mu, sigma), 0), col=rgb(1,0,0,0.3))
P(80 ≤ X ≤ 90) = 0.2417

📋 60.2. Ejemplo 2: Valor Crítico de una Distribución Normal

Problema: El tiempo de reacción a un estímulo sigue una normal con μ = 0.25 s y σ = 0.05 s. ¿Cuál es el tiempo por debajo del cual se encuentra el 90% de los individuos?

Solución: Buscamos el percentil 90: z ≈ 1.28, x = μ + z·σ = 0.25 + 1.28×0.05 = 0.314 s

mu <- 0.25; sigma <- 0.05
qnorm(0.90, mu, sigma)  # 0.3141
Percentil 90 ≈ 0.314 s

📋 60.3. Ejemplo 3: Distribución Normal Estándar

Problema: Si Z ~ N(0,1), calcula a) P(Z > 1.96) y b) P(-1 ≤ Z ≤ 1).

Solución:

a) P(Z > 1.96) = 1 - Φ(1.96) = 1 - 0.9750 = 0.0250
b) P(-1 ≤ Z ≤ 1) = Φ(1) - Φ(-1) = 0.8413 - 0.1587 = 0.6826
pnorm(1.96, lower.tail = FALSE)              # 0.0250
pnorm(1) - pnorm(-1)                         # 0.6827
a) 0.025 b) 0.6827

📋 60.4. Ejemplo 4: Inversa en Distribución Normal Estándar

Problema: Encuentra el valor z tal que P(Z ≤ z) = 0.95 (percentil 95).

z ≈ 1.645
qnorm(0.95)   # 1.644854
z = 1.645

73 📊 RESUMEN DE FUNCIONES ÚTILES EN R

📋 Funciones en R para la distribución normal

Función Propósito Ejemplo
dnorm(x, mean, sd) Densidad f(x) Curva normal
pnorm(q, mean, sd) Probabilidad acumulada P(X ≤ q) P(X ≤ 90)
qnorm(p, mean, sd) Cuantil (percentil p) Percentil 90
rnorm(n, mean, sd) Genera n valores aleatorios Simulación

Parámetros por defecto: mean = 0, sd = 1 (normal estándar)

Uso de lower.tail: FALSE → P(X > x)


74 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La distribución normal es simétrica y tiene forma de campana
  • Está completamente determinada por μ (ubicación) y σ (dispersión)
  • La Regla 68-95-99.7 permite estimar rápidamente probabilidades
  • Cualquier normal X puede estandarizarse a Z ~ N(0,1)
  • La estandarización es útil para usar tablas o funciones teóricas
  • La distribución normal es la base del Teorema Central del Límite


75 📊 DISTRIBUCIÓN BETA Y DISTRIBUCIÓN DE WEIBULL

📐 61. Distribución Beta

La distribución beta es una distribución de probabilidad continua definida en el intervalo (0, 1) y parametrizada por dos parámetros positivos, α (alfa) y β (beta), que controlan la forma de la distribución. Su función de densidad de probabilidad (pdf) es:

f(x; α, β) = [1/B(α,β)] · x^{α-1} · (1-x)^{β-1},   para 0 < x < 1

donde B(α, β) es la función beta, definida como:

B(α, β) = ∫₀¹ t^{α-1} (1-t)^{β-1} dt = Γ(α)·Γ(β) / Γ(α+β)

Parámetros:

  • Esperanza: E[X] = α / (α + β)
  • Varianza: Var(X) = α·β / [(α+β)²·(α+β+1)]

La distribución beta es muy versátil y se utiliza a menudo para modelar proporciones, probabilidades, porcentajes o cualquier cantidad limitada al intervalo (0, 1).

Casos especiales:

  • Si α = 1 y β = 1 → distribución uniforme en (0, 1)
  • Si α > 1 y β > 1 → distribución unimodal (tiene un solo pico)
  • Si α < 1 o β < 1 → forma de U o J
Distribución Beta: Diferentes valores de α, β x f(x) α=2, β=5 α=5, β=2 α=0.5, β=0.5

📊 62. Distribución de Weibull

La distribución de Weibull es una distribución de probabilidad continua versátil que se utiliza ampliamente para modelar el tiempo hasta la falla de sistemas mecánicos y eléctricos, así como en otras áreas como la meteorología y la economía. Se caracteriza por dos parámetros:

  • k > 0: parámetro de forma (shape parameter), que determina la forma de la distribución
  • λ > 0: parámetro de escala (scale parameter), que determina la dispersión

Función de densidad de probabilidad (pdf):

f(x; k, λ) = (k/λ) · (x/λ)^{k-1} · e^{-(x/λ)ᵏ},   para x ≥ 0

Función de distribución acumulativa (cdf):

F(x; k, λ) = 1 - e^{-(x/λ)ᵏ},   para x ≥ 0

Parámetros:

  • Esperanza: E[X] = λ·Γ(1 + 1/k)
  • Varianza: Var(X) = λ²·[Γ(1 + 2/k) - (Γ(1 + 1/k))²]

La forma de la distribución de Weibull depende significativamente del parámetro de forma k:

  • k < 1: tasa de falla decreciente (falla temprana)
  • k = 1: se reduce a la distribución exponencial con tasa 1/λ (tasa constante)
  • k > 1: tasa de falla creciente (desgaste)
  • k ≈ 3.6: se aproxima a la distribución normal
Distribución de Weibull: Diferentes valores de k x f(x) k=0.5 k=1 (Exponencial) k=3

📋 63. Aplicaciones en Markdown y R

63.1. Ejemplo 1: Distribución Beta - Probabilidad de una Proporción

Problema: La proporción de clientes que prefieren un nuevo producto se modela mediante una distribución beta con α = 5 y β = 2. ¿Cuál es la probabilidad de que la proporción esté entre 60% y 80% (0.6 y 0.8)?

Solución: P(0.6 ≤ X ≤ 0.8) = P(X ≤ 0.8) - P(X < 0.6)

alpha <- 5; beta <- 2
prob_entre <- pbeta(0.8, alpha, beta) - pbeta(0.6, alpha, beta)
cat("P(0.6 ≤ X ≤ 0.8) =", round(prob_entre, 4))  # 0.4506

Resultado: 0.4506

x <- seq(0, 1, length.out=500)
plot(x, dbeta(x, 5, 2), type="l", col="purple", lwd=2)
x_sombra <- seq(0.6, 0.8, length.out=200)
polygon(c(0.6, x_sombra, 0.8), c(0, dbeta(x_sombra,5,2), 0), col=rgb(0.6,0,0.6,0.3))
Distribución Beta(5,2) P(0.6 ≤ X ≤ 0.8) = 0.4506

📋 63.2. Ejemplo 2: Distribución Beta - Valor Esperado

Problema: Un analista cree que la probabilidad de éxito de un nuevo proyecto se puede modelar mediante una distribución beta con α = 3 y β = 4. ¿Cuál es la probabilidad esperada de éxito?

Solución: E[X] = α/(α+β) = 3/(3+4) = 3/7 ≈ 0.4286

alpha <- 3; beta <- 4
esperanza <- alpha/(alpha+beta)  # 0.4285714
Distribución Beta(3,4) E[X] = 0.4286

📋 63.3. Ejemplo 3: Distribución de Weibull - Tiempo hasta el Fallo

Problema: El tiempo hasta el fallo (en horas) de un componente sigue una Weibull con forma k = 2 y escala λ = 1000. ¿Cuál es la probabilidad de que falle antes de las 500 horas?

Solución: F(500) = 1 - e^{-(500/1000)²} = 1 - e^{-0.25} ≈ 0.2212

pweibull(500, shape=2, scale=1000)  # 0.2212
Weibull(k=2, λ=1000) 500 horas

📋 63.4. Ejemplo 4: Distribución de Weibull - Confiabilidad

Problema: Un sistema tiene tiempo hasta el fallo (años) con Weibull k = 1.5 y λ = 5. ¿Cuál es la probabilidad de que funcione al menos 3 años (confiabilidad en t = 3)?

Solución: R(3) = e{-(3/5){1.5}} = e^{-0.4648} ≈ 0.6284

pweibull(3, shape=1.5, scale=5, lower.tail=FALSE)  # 0.6284
Weibull(k=1.5, λ=5) - Confiabilidad 3 años Confiabilidad = 0.6284

76 📊 RESUMEN DE DISTRIBUCIONES BETA Y WEIBULL

📋 Tabla comparativa

Característica Distribución Beta Distribución Weibull
Soporte x ∈ (0, 1) x ∈ [0, ∞)
Parámetros α > 0, β > 0 k > 0 (forma), λ > 0 (escala)
PDF f(x) ∝ x{α-1}(1-x){β-1} f(x) = (k/λ)(x/λ){k-1}e{-(x/λ)^k}
CDF F(x) = I_x(α, β) F(x) = 1 - e{-(x/λ)k}
Esperanza α/(α+β) λ·Γ(1 + 1/k)
Varianza αβ/[(α+β)²(α+β+1)] λ²[Γ(1+2/k) - (Γ(1+1/k))²]
Usos principales Proporciones, probabilidades, porcentajes Tiempos de vida, confiabilidad, análisis de fallas

77 📊 FUNCIONES EN R PARA BETA Y WEIBULL

📋 Funciones útiles en R

Distribución Densidad (d*) Distribución (p*) Cuantil (q*) Aleatorio (r*)
Beta dbeta(x, shape1, shape2) pbeta(q, shape1, shape2) qbeta(p, shape1, shape2) rbeta(n, shape1, shape2)
Weibull dweibull(x, shape, scale) pweibull(q, shape, scale) qweibull(p, shape, scale) rweibull(n, shape, scale)

78 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La distribución beta es ideal para modelar proporciones y probabilidades en el intervalo (0, 1)
  • La beta es muy flexible: puede ser uniforme, unimodal, en forma de U o J
  • La distribución de Weibull es fundamental en análisis de confiabilidad y tiempos de vida
  • El parámetro k (forma) en Weibull determina la tasa de falla: k=1 (constante), k>1 (creciente), k<1 (decreciente)
  • Weibull con k=1 se reduce a la distribución exponencial

79 📊 DISTRIBUCIONES PROVENIENTES DE LA DISTRIBUCIÓN NORMAL - JI-CUADRADA

📐 I. Distribuciones provenientes de la Distribución Normal

¡Hola! Saludos desde esta tarde caribeña en Cartagena. A continuación, se desarrolla el concepto de la distribución ji-cuadrada (o chi-cuadrado) con la notación matemática adecuada, incluyendo ejemplos resueltos en Markdown y R.

  1. Distribución Ji-Cuadrada (χ²)

La distribución ji-cuadrada es una distribución de probabilidad continua que surge frecuentemente en estadística, especialmente en pruebas de hipótesis y construcción de intervalos de confianza. Se define como la distribución de la suma de los cuadrados de k variables aleatorias independientes que siguen una distribución normal estándar. El parámetro k se conoce como los grados de libertad de la distribución. Una variable aleatoria X que sigue una distribución ji-cuadrada con k grados de libertad se denota como X ~ χ²(k).

La función de densidad de probabilidad (pdf) de una distribución ji-cuadrada con k grados de libertad es:

f(x; k) = 1 / (2^{k/2} · Γ(k/2)) · x^{k/2 - 1} · e^{-x/2},   para x > 0

Propiedades importantes:

  • La distribución está definida para valores no negativos de x (x > 0)
  • La forma depende del número de grados de libertad k
  • A medida que k aumenta, la distribución se vuelve más simétrica y se aproxima a una distribución normal
  • Esperanza: E[X] = k
  • Varianza: Var(X) = 2k

La distribución ji-cuadrada se utiliza en pruebas como: bondad de ajuste, independencia en tablas de contingencia e intervalos de confianza para la varianza.

Distribución Ji-Cuadrada: Diferentes grados de libertad x f(x) k=2 k=5 k=10

📊 65. Aplicaciones en Markdown y R

65.1. Ejemplo 1: Probabilidad en una Distribución Ji-Cuadrada

Problema: Una variable aleatoria X sigue una distribución ji-cuadrada con 5 grados de libertad. ¿Cuál es la probabilidad de que X sea mayor que 11.07?

Solución en R:

df <- 5; valor <- 11.07
prob_mayor <- pchisq(valor, df = df, lower.tail = FALSE)
cat("P(X > 11.07) =", round(prob_mayor, 4))  # 0.05

Resultado: 0.05 (valor crítico común para α = 0.05)

x <- seq(0, 20, length.out=500)
plot(x, dchisq(x, 5), type="l", col="darkred", lwd=2)
x_sombra <- seq(11.07, 20, length.out=200)
polygon(c(11.07, x_sombra, 20), c(0, dchisq(x_sombra,5), 0), col=rgb(0.7,0,0,0.3))
χ²(5) - P(X > 11.07) 11.07

📊 65.2. Ejemplo 2: Valor Crítico de una Distribución Ji-Cuadrada

Problema: Encuentra el valor x tal que el área a la derecha bajo la curva χ² con 10 grados de libertad sea 0.01 (χ²₀.₀₁,₁₀).

Solución en R:

df <- 10; alpha <- 0.01
valor_critico <- qchisq(alpha, df, lower.tail=FALSE)
cat("χ²(0.01,10) =", round(valor_critico, 3))  # 23.209

Resultado: 23.209

x <- seq(0, 35, length.out=500)
plot(x, dchisq(x, 10), type="l", col="purple", lwd=2)
x_crit <- qchisq(0.99, 10)
x_sombra <- seq(x_crit, 35, length.out=200)
polygon(c(x_crit, x_sombra, 35), c(0, dchisq(x_sombra,10), 0), col=rgb(0.5,0,0.5,0.3))
abline(v=x_crit, col="red", lty=2)
χ²(10) - Valor crítico α=0.01 23.209

📊 65.3. Ejemplo 3: Intervalo de Confianza para la Varianza

Problema: Muestra n=20 de población normal, varianza muestral s²=15. Construye intervalo de confianza del 95% para σ².

Fórmula: IC = [ (n-1)s²/χ²(α/2, n-1), (n-1)s²/χ²(1-α/2, n-1) ]

Solución en R:

n <- 20; s2 <- 15; df <- n-1; alpha <- 0.05
chi2_lower <- qchisq(1-alpha/2, df)
chi2_upper <- qchisq(alpha/2, df)
IC_lower <- df*s2/chi2_upper
IC_upper <- df*s2/chi2_lower
cat("[", round(IC_lower,3), ",", round(IC_upper,3), "]")  # [8.074, 32.696]

Resultado: IC95% = 8.074 ≤ σ² ≤ 32.696

χ²(19) - Intervalo de confianza 95%

📊 65.4. Ejemplo 4: Prueba de Bondad de Ajuste

Problema: Lanzamiento de un dado 60 veces. Freq: 8,12,9,11,10,10. ¿Es justo? (α=0.05)

Hipótesis: H₀: dado justo (p=1/6), H₁: dado no justo

Solución en R:

obs <- c(8,12,9,11,10,10)
chisq_test <- chisq.test(obs, p=rep(1/6,6))
chisq_test

Resultados:

Chi-squared = 1.0, df = 5, p-value = 0.9626
Valor crítico (α=0.05, df=5) = 11.07

Conclusión: Como χ² = 1.0 < 11.07 y p-valor = 0.9626 > 0.05, no se rechaza H₀. El dado es justo.

Prueba χ²: Dado justo

80 📊 RESUMEN DE LA DISTRIBUCIÓN JI-CUADRADA

📋 Tabla resumen

Característica Valor
Parámetros k > 0 (grados de libertad)
Soporte x ∈ [0, ∞)
Función de densidad f(x) = [1/(2^{k/2}Γ(k/2))]·x^{k/2 - 1}·e^{-x/2}
Función de distribución F(x) = P(X ≤ x) = γ(k/2, x/2)/Γ(k/2)
Esperanza E[X] = k
Varianza Var(X) = 2k
Función generadora de momentos M(t) = (1 - 2t)^{-k/2}, para t < 1/2

81 📊 FUNCIONES EN R PARA LA DISTRIBUCIÓN JI-CUADRADA

📋 Funciones útiles en R

Función Propósito Ejemplo
dchisq(x, df) Densidad f(x) Curva χ²
pchisq(q, df) Probabilidad acumulada P(X ≤ q) P(X ≤ 11.07)
pchisq(q, df, lower.tail=FALSE) Probabilidad P(X > q) P(X > 11.07)
qchisq(p, df) Cuantil (percentil p) Percentil 95
qchisq(alpha, df, lower.tail=FALSE) Valor crítico χ²(0.05,5)
rchisq(n, df) Genera n valores aleatorios Simulación

82 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La distribución χ² con k grados de libertad es la suma de k normales estándar al cuadrado
  • Solo toma valores no negativos y tiene asimetría positiva
  • A medida que k aumenta, la χ² se aproxima a una distribución normal
  • Aplicaciones principales:
    • Intervalos de confianza para la varianza poblacional
    • Pruebas de bondad de ajuste
    • Pruebas de independencia en tablas de contingencia
    • Comparación de varianzas


83 📊 MÁS DISTRIBUCIÓN JI-CUADRADA (χ²)

📐 66. Más Distribución Ji-Cuadrada (χ²)

66.1. Función de Densidad de Probabilidad (PDF)

La función de densidad de probabilidad de una variable aleatoria X con distribución ji-cuadrada con k grados de libertad es:

f(x; k) = { 1/(2^{k/2}·Γ(k/2)) · x^{(k/2)-1} · e^{-x/2},  para x > 0
         { 0,                                            para x ≤ 0

donde Γ(z) es la función Gamma.

66.2. Función de Distribución Acumulada (CDF)

La función de distribución acumulada P(X ≤ x) para una variable aleatoria X con distribución ji-cuadrada con k grados de libertad es:

F(x; k) = P(χ²_k ≤ x) = ∫₀ˣ f(t; k) dt

66.3. Uso en Pruebas de Hipótesis

La distribución ji-cuadrada se utiliza ampliamente en diversas pruebas de hipótesis, incluyendo:

  • Prueba de bondad de ajuste: Para determinar si una muestra se ajusta a una distribución teórica
  • Prueba de independencia: Para determinar si dos variables categóricas son independientes
  • Prueba de homogeneidad: Para comparar distribuciones entre poblaciones
  • Pruebas sobre la varianza de una población normal

📊 66.4. Ejemplo 5: Probabilidad para una Distribución Ji-Cuadrada

Problema: ¿Cuál es la probabilidad de que una variable aleatoria con distribución ji-cuadrada con 5 grados de libertad sea menor o igual a 3?

Solución: X ~ χ²(5), buscamos P(X ≤ 3).

pchisq(3, df = 5)  # 0.4422

Resultado: 0.4422

χ²(5) - P(X ≤ 3) x=3

📊 66.5. Ejemplo 6: Valor Crítico de una Distribución Ji-Cuadrada

Problema: Encuentra el valor crítico χ²(α, k) para α = 0.05 y k = 10 grados de libertad (área a la derecha = 0.05).

Solución: Buscamos c tal que P(χ²(10) > c) = 0.05 (percentil 95).

qchisq(0.95, df = 10)  # 18.307

Resultado: 18.307

χ²(10) - Valor crítico α=0.05 18.307

📊 66.6. Ejemplo 7: Prueba de Hipótesis sobre la Varianza

Problema: Muestra n=20 de población normal, s²=15. Probar H₀: σ²=10 vs H₁: σ²>10 con α=0.05.

Estadístico de prueba: χ² = (n-1)·s²/σ₀² = 19×15/10 = 28.5

Grados de libertad: k = n-1 = 19

n <- 20; s2 <- 15; sigma0_2 <- 10; df <- n-1
chi_stat <- df * s2 / sigma0_2           # 28.5
p_valor <- pchisq(chi_stat, df, lower.tail=FALSE)  # 0.075

Resultado: p-valor = 0.075 > 0.05 → No se rechaza H₀

Prueba de varianza - χ²(19) χ² crítico=30.144 χ² obs=28.5

📊 66.7. Ejemplo 8: Prueba de Independencia Ji-Cuadrado

Problema: Encuesta a 200 personas sobre nivel de educación y preferencia de producto. Tabla de contingencia:

Nivel de Educación Prefiere (Sí) No Prefiere (No) Total
Bachillerato 30 20 50
Licenciatura 60 40 100
Posgrado 40 10 50
Total 130 70 200

Solución en R:

observados <- matrix(c(30,20,60,40,40,10), nrow=3, byrow=TRUE)
prueba_chi2 <- chisq.test(observados)
prueba_chi2

Resultados: χ² = 7.7778, df = 2, p-valor = 0.0204

Conclusión: p-valor = 0.0204 < 0.05 → Se rechaza H₀. Existe relación entre educación y preferencia.

Prueba de Independencia - χ²(2) χ² obs=7.78 χ² crítico=5.991

84 📊 RESUMEN DE PRUEBAS JI-CUADRADA

📋 Tipos de pruebas χ²

Tipo de Prueba Hipótesis Nula (H₀) Estadístico Grados de Libertad
Bondad de Ajuste Los datos siguen una distribución específica Σ(O-E)²/E k - 1 - p
Independencia Las variables categóricas son independientes Σ(O-E)²/E (r-1)(c-1)
Homogeneidad Las distribuciones son iguales entre poblaciones Σ(O-E)²/E (r-1)(c-1)
Varianza (una muestra) σ² = σ₀² (n-1)s²/σ₀² n-1

85 📊 RESUMEN DE EJEMPLOS

📋 Tabla resumen de ejemplos

Ejemplo Aplicación Grados de Libertad Valor χ² Conclusión
5 Probabilidad P(X ≤ 3) 5 3 P = 0.4422
6 Valor crítico α=0.05 10 18.307 Percentil 95
7 Prueba varianza (σ²>10) 19 28.5 p=0.075 → No rechaza H₀
8 Prueba independencia 2 7.778 p=0.0204 → Rechaza H₀

86 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La distribución χ² es asintótica y no negativa
  • Los grados de libertad (df) determinan completamente la forma de la distribución
  • La suma de χ² independientes también es χ² (df = suma de df)
  • Fórmula del estadístico: χ² = Σ (O - E)²/E para tablas de contingencia
  • Para varianza poblacional: χ² = (n-1)s²/σ₀²
  • Se rechaza H₀ cuando χ² observado > χ² crítico o p-valor < α

87 📊 DISTRIBUCIÓN T (T DE STUDENT)

📐 67. Distribución t (t de Student)

La distribución t, también conocida como distribución t de Student, es una distribución de probabilidad continua que surge cuando se estima la media de una población normalmente distribuida en situaciones donde el tamaño de la muestra es pequeño y la desviación estándar de la población es desconocida. Fue desarrollada por William Sealy Gosset bajo el seudónimo de “Student”.

La distribución t tiene una forma acampanada y simétrica alrededor de la media (que es 0), similar a la distribución normal estándar. Sin embargo, tiene colas más pesadas, lo que significa que es más probable observar valores extremos en comparación con la normal estándar. La forma específica depende de un parámetro llamado grados de libertad (df o ν).

67.1. Propiedades Principales

  • Dominio: x ∈ (-∞, ∞)
  • Forma: Depende de los grados de libertad. Con pocos df, las colas son más pesadas. A medida que df aumentan, se aproxima a la normal estándar.
  • Media: E(tdf) = 0 (para df > 0)
  • Varianza: Var(tdf) = df/(df - 2) (para df > 2)

67.2. Función de Densidad de Probabilidad (PDF)

f(x; ν) = [Γ((ν+1)/2)] / [√(νπ)·Γ(ν/2)] · (1 + x²/ν)^{-(ν+1)/2}

67.3. Uso en Inferencia Estadística

  • Prueba t de una muestra
  • Prueba t de dos muestras independientes
  • Prueba t de muestras pareadas
  • Intervalos de confianza para la media poblacional

📊 68. Ejemplos Resueltos

68.1. Ejemplo 1: Probabilidad para una Distribución t

Problema: ¿Cuál es la probabilidad de que una variable aleatoria con distribución t con 10 grados de libertad sea menor que -1.5?

pt(-1.5, df = 10)  # 0.0807

Resultado: 0.0807

t(10) - P(T < -1.5) -1.5

📊 68.2. Ejemplo 2: Valor Crítico de una Distribución t

Problema: Encuentra el valor crítico t(α, df) para α=0.05 (cola superior) y df=20.

qt(0.95, df = 20)  # 1.726

Resultado: 1.726

t(20) - Valor crítico α=0.05 1.726

📊 68.3. Ejemplo 3: Intervalo de Confianza para la Media

Problema: Muestra n=15, x̄=50, s=10. Intervalo de confianza 95% para μ.

Fórmula: x̄ ± t(α/2, n-1) · s/√n

t(0.025, 14) = 2.145, Margen error = 2.145 × 10/√15 = 5.533

n <- 15; x_bar <- 50; s <- 10; alpha <- 0.05; df <- n-1
t_crit <- qt(1 - alpha/2, df)        # 2.145
ME <- t_crit * s / sqrt(n)           # 5.533
IC <- c(x_bar - ME, x_bar + ME)      # (44.467, 55.533)

Resultado: IC95% = (44.467, 55.533)

IC 95% para la media μ

📊 68.4. Ejemplo 4: Prueba t de una muestra

Problema: Bombillas: afirman μ=10000h. Muestra n=25, x̄=9800, s=500. Prueba H₀: μ=10000 vs H₁: μ≠10000, α=0.01.

Estadístico: t = (9800-10000)/(500/√25) = -200/100 = -2.0

df = 24, t crítico (bilateral, α=0.01) = ±2.797

p-valor = 2 × P(T > 2.0) = 0.0567

n <- 25; x_bar <- 9800; mu0 <- 10000; s <- 500
t_stat <- (x_bar - mu0) / (s / sqrt(n))  # -2.0
p_valor <- 2 * pt(-abs(t_stat), n-1)      # 0.0567

Conclusión: p-valor = 0.0567 > 0.01 → No se rechaza H₀. No hay evidencia para decir que la media es diferente de 10000.

Prueba t bilateral - t(24)

88 📊 RESUMEN DE LA DISTRIBUCIÓN T

📋 Tabla resumen

Característica Valor
Parámetros ν > 0 (grados de libertad)
Soporte x ∈ (-∞, ∞)
Media E[t] = 0 (para ν > 0)
Varianza Var(t) = ν/(ν-2) (para ν > 2)
Relación con Normal t(ν) → N(0,1) cuando ν → ∞

89 📊 FUNCIONES EN R PARA LA DISTRIBUCIÓN T

📋 Funciones útiles en R

Función Propósito Ejemplo
dt(x, df) Densidad f(x) Curva t
pt(q, df) P(T ≤ q) Probabilidad acumulada
pt(q, df, lower.tail=FALSE) P(T > q) Probabilidad en cola superior
qt(p, df) Cuantil (percentil p) Percentil 95
qt(alpha, df, lower.tail=FALSE) Valor crítico t(0.05,10)

90 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La distribución t tiene colas más pesadas que la normal estándar
  • A medida que los grados de libertad aumentan, t se aproxima a la normal
  • Para df > 30, la t es prácticamente indistinguible de la normal
  • Se utiliza cuando σ es desconocido y n es pequeño
  • Fundamental en intervalos de confianza y pruebas de hipótesis para medias

91 📊 DISTRIBUCIÓN F (F DE FISHER-SNEDECOR)

📐 69. Distribución F (F de Fisher-Snedecor)

La distribución F, también conocida como distribución F de Fisher-Snedecor, es una distribución de probabilidad continua que surge frecuentemente en estadística, especialmente en el análisis de varianza (ANOVA) y en pruebas de hipótesis que involucran la comparación de varianzas de dos poblaciones normales e independientes.

La distribución F está definida por dos parámetros de grados de libertad:

  • ν₁ (o df₁): grados de libertad del numerador
  • ν₂ (o df₂): grados de libertad del denominador

Una variable aleatoria F con distribución F con ν₁ y ν₂ grados de libertad se denota como F ~ F(ν₁, ν₂). La distribución F se define como la razón de dos variables aleatorias ji-cuadrado independientes, cada una dividida por sus respectivos grados de libertad:

F = (X₁/ν₁) / (X₂/ν₂) ~ F(ν₁, ν₂)

69.1. Propiedades Principales

  • Dominio: x ≥ 0 (valores no negativos)
  • Forma: Asimétrica y sesgada a la derecha. Depende de ν₁ y ν₂
  • Media: E[F] = ν₂/(ν₂-2) (para ν₂ > 2)
  • Varianza: Var(F) = 2ν₂²(ν₁+ν₂-2) / [ν₁(ν₂-2)²(ν₂-4)] (para ν₂ > 4)

69.2. Función de Densidad de Probabilidad (PDF)

f(x; ν₁, ν₂) = [Γ((ν₁+ν₂)/2) / (Γ(ν₁/2)Γ(ν₂/2))] · (ν₁x/ν₁x+ν₂)^{ν₁/2} · (ν₂/ν₁x+ν₂)^{ν₂/2} · x⁻¹,  x > 0

69.3. Uso en Pruebas de Hipótesis

  • ANOVA: Comparación de medias de dos o más grupos
  • Prueba F para igualdad de dos varianzas
  • Significancia global en regresión lineal

📊 70. Ejemplos Resueltos

70.1. Ejemplo 1: Probabilidad para una Distribución F

Problema: ¿Cuál es la probabilidad de que F con 3 grados de libertad (numerador) y 10 (denominador) sea mayor que 2.5?

1 - pf(2.5, df1=3, df2=10)  # 0.1196

Resultado: 0.1196

F(3,10) - P(F > 2.5) 2.5

📊 70.2. Ejemplo 2: Valor Crítico de una Distribución F

Problema: Encuentra F(α=0.05, ν₁=5, ν₂=15) (cola superior).

qf(0.95, df1=5, df2=15)  # 2.901

Resultado: 2.901

F(5,15) - Valor crítico α=0.05 2.901

📊 70.3. Ejemplo 3: Prueba F para Igualdad de Varianzas

Problema: n₁=10, s₁²=12; n₂=15, s₂²=8. Prueba H₀: σ₁²=σ₂² vs H₁: σ₁²≠σ₂², α=0.10.

Estadístico: F = s₁²/s₂² = 12/8 = 1.5

df₁ = 9, df₂ = 14. F críticos: qf(0.05,9,14)=0.307, qf(0.95,9,14)=3.179

f <- 12/8                     # 1.5
p_valor <- 2 * min(pf(f,9,14), 1-pf(f,9,14))  # 0.518

Conclusión: p-valor = 0.518 > 0.10 → No se rechaza H₀

F(9,14) - Prueba bilateral α=0.10

📊 70.4. Ejemplo 4: ANOVA de un factor

Problema: Comparar rendimiento de 3 fertilizantes (n=5 cada uno).

Datos: A: 10,12,11,13,14 | B: 15,16,14,15,17 | C: 9,8,10,11,12

altura <- c(10,12,11,13,14,15,16,14,15,17,9,8,10,11,12)
grupo <- rep(c("A","B","C"), each=5)
summary(aov(altura ~ grupo))

Resultados ANOVA:

            Df Sum Sq Mean Sq F value Pr(>F)
grupo        2  94.53   47.27   22.27 8.5e-05 ***
Residuals   12  25.47    2.12

Conclusión: F = 22.27, p-valor = 8.5×10⁻⁵ < 0.05 → Se rechaza H₀. Hay diferencias significativas entre fertilizantes.

ANOVA - F(2,12) con F observado=22.27

📋 Tabla resumen de la distribución F

Característica Valor
Parámetros ν₁ > 0, ν₂ > 0 (grados de libertad)
Soporte x ∈ [0, ∞)
Media ν₂/(ν₂-2), para ν₂ > 2
Varianza 2ν₂²(ν₁+ν₂-2) / [ν₁(ν₂-2)²(ν₂-4)], para ν₂ > 4
Relación con t t²(ν) = F(1, ν)

92 📊 FUNCIONES EN R PARA LA DISTRIBUCIÓN F

📋 Funciones útiles en R

Función Propósito Ejemplo
df(x, df1, df2) Densidad f(x) Curva F
pf(q, df1, df2) P(F ≤ q) Probabilidad acumulada
pf(q, df1, df2, lower.tail=FALSE) P(F > q) Probabilidad en cola superior
qf(p, df1, df2) Cuantil (percentil p) Percentil 95
qf(alpha, df1, df2, lower.tail=FALSE) Valor crítico F(0.05,5,10)

🧠 70.5. MAPYCD - Modelos Probabilísticos Continuos

https://forms.gle/JQVwHJZJmMr95C5e6

🧪 70.6. MAPYCD LABORATORIO 8 - Estadística Descriptiva con Rstudio

https://www.youtube.com/watch?v=DpUaYssTUOM


93 📊 RESUMEN DE DISTRIBUCIONES CONTINUAS PRINCIPALES

📋 Tabla comparativa

Distribución Parámetros Función de densidad f(x) E[X] Var(X)
Uniforme a, b 1/(b-a), a≤x≤b (a+b)/2 (b-a)²/12
Exponencial λ λe^{-λx}, x≥0 1/λ 1/λ²
Normal μ, σ 1/(σ√(2π))·e^{-(x-μ)²/(2σ²)} μ σ²
t-Student ν dependiente de ν 0 (ν>1) ν/(ν-2) (ν>2)
χ² ν 1/(2{ν/2}Γ(ν/2))·x{ν/2-1}e^{-x/2} ν
F ν₁, ν₂ dependiente de ν₁, ν₂ ν₂/(ν₂-2) compleja
Gamma α, β βα/Γ(α)·x{α-1}e^{-βx} α/β α/β²
Beta α, β 1/B(α,β)·x{α-1}(1-x){β-1} α/(α+β) αβ/[(α+β)²(α+β+1)]

94 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La distribución F es la razón de dos χ² independientes divididas por sus df
  • Solo toma valores no negativos y tiene asimetría positiva
  • Se utiliza en ANOVA para comparar medias de varios grupos
  • Se utiliza en pruebas de igualdad de varianzas (F = s₁²/s₂²)
  • La relación importante: t²(ν) = F(1, ν)


95 📊 VECTORES ALEATORIOS

📐 J. Vectores Aleatorios

  1. Vectores Aleatorios: Una Introducción

Un vector aleatorio es una generalización del concepto de variable aleatoria a múltiples dimensiones. Formalmente, un vector aleatorio X de dimensión n es una función que mapea cada resultado ω en el espacio muestral Ω a un vector de números reales en ℝⁿ:

X(ω) = [X₁(ω), X₂(ω), ..., Xₙ(ω)]ᵀ

donde X₁, X₂, …, Xₙ son variables aleatorias individuales definidas en el mismo espacio muestral Ω.

71.1. Distribución de Probabilidad Conjunta

La distribución de probabilidad conjunta de un vector aleatorio X = (X₁, X₂, …, Xₙ)ᵀ describe cómo se distribuyen las probabilidades entre los posibles valores que pueden tomar las variables aleatorias componentes simultáneamente.

  • Caso Discreto: Función de masa de probabilidad conjunta: P(X = x) = P(X₁ = x₁, …, Xₙ = xₙ)
  • Caso Continuo: Función de densidad de probabilidad conjunta f(x₁, …, xₙ), tal que ∫···∫ f(x₁, …, xₙ) dx₁···dxₙ = 1

71.2. Distribuciones Marginales

La distribución marginal de una variable aleatoria componente se obtiene agregando (sumando o integrando) sobre todas las demás variables.

  • Discreto: P(Xᵢ = xᵢ) = Σ_{x₁}···Σ_{xᵢ₋₁}Σ_{xᵢ₊₁}···Σ_{xₙ} P(X₁=x₁, …, Xₙ=xₙ)
  • Continuo: f_{Xᵢ}(xᵢ) = ∫···∫ f(x₁, …, xₙ) dx₁···dxᵢ₋₁ dxᵢ₊₁···dxₙ

71.3. Independencia de Variables Aleatorias

Las variables son independientes si la distribución conjunta es el producto de las marginales:

  • Discreto: P(X₁=x₁, …, Xₙ=xₙ) = P(X₁=x₁) ··· P(Xₙ=xₙ)
  • Continuo: f(x₁, …, xₙ) = f_{X₁}(x₁) ··· f_{Xₙ}(xₙ)

📊 72. Ejemplos Resueltos

72.1. Ejemplo 1: Vector Aleatorio Discreto (Lanzamiento de dos dados)

Problema: X₁ = resultado del primer dado, X₂ = resultado del segundo dado.

a) Distribución conjunta: P(X₁=x₁, X₂=x₂) = 1/36 para todo x₁, x₂ ∈ {1,…,6}

b) Marginales: P(X₁=x₁) = 1/6, P(X₂=x₂) = 1/6

c) P(X₁ + X₂ = 7): 6/36 = 1/6 ≈ 0.1667

resultados <- 1:6
expand.grid(X1=resultados, X2=resultados)
sum(espacio$Prob[espacio$X1 + espacio$X2 == 7])  # 0.1667
Espacio muestral discreto: dos dados X₁ X₂

📊 72.2. Ejemplo 2: Vector Aleatorio Continuo (Uniforme Bivariada)

Problema: Vector aleatorio con densidad uniforme en [0,2]×[0,1]

a) PDF conjunta: f(x₁, x₂) = 1/2 en el rectángulo, 0 fuera

b) Marginales: fX₁(x₁) = 1/2 (0≤x₁≤2), fX₂(x₂) = 1 (0≤x₂≤1)

c) P(X₁ ≤ 1, X₂ ≥ 0.5): Área = 1×0.5 = 0.5 → Prob = 0.5 × 1/2 = 0.25

f <- function(x1,x2) ifelse(x1>=0 & x1<=2 & x2>=0 & x2<=1, 1/2, 0)
integral2(f, 0, 1, 0.5, 1)$Q  # 0.25
Distribución Uniforme Bivariada

📊 72.3. Ejemplo 3: Vector Aleatorio Continuo (Exponenciales Independientes)

Problema: X₁~Exp(λ₁=1), X₂~Exp(λ₂=2), independientes

a) PDF conjunta: f(x₁, x₂) = 2·e^{-x₁ - 2x₂}, para x₁≥0, x₂≥0

b) Marginales: fX₁(x₁)=e^{-x₁}, fX₂(x₂)=2e^{-2x₂}

c) P(X₁ ≤ 1, X₂ ≤ 1): (1-e{-1})×(1-e{-2}) ≈ 0.6321×0.8647 = 0.5466

pexp(1,1) * pexp(1,2)  # 0.5466
Exponenciales Independientes

📊 72.4. Ejemplo 4: Vector Aleatorio Discreto (Binomial Bivariada)

Problema: Urna con bolas rojas (p=0.4) y azules (p=0.6). Extracciones con reemplazo. X₁ = # rojas en 2 primeras extracciones, X₂ = # rojas en 3ra extracción.

X₁ ~ Bin(2, 0.4), X₂ ~ Bin(1, 0.4), independientes

Distribución conjunta:

X₁₂ 0 1
0 0.216 0.144
1 0.288 0.192
2 0.096 0.064

P(X₁=1, X₂=1) = 0.192

for (x1 in 0:2) for (x2 in 0:1) 
  prob[x1+1, x2+1] <- dbinom(x1,2,0.4) * dbinom(x2,1,0.4)
Binomial Bivariada

96 📊 RESUMEN DE VECTORES ALEATORIOS

📋 Tabla comparativa: Discreto vs Continuo

Característica Vector Aleatorio Discreto Vector Aleatorio Continuo
Función Masa de probabilidad conjunta p(x₁,…,xₙ) Densidad conjunta f(x₁,…,xₙ)
Marginal Sumatoria sobre otras variables Integral sobre otras variables
Probabilidad en un punto p(x₁,…,xₙ) ≥ 0 P(X₁=a₁,…,Xₙ=aₙ) = 0
Independencia p(x₁,…,xₙ) = Π pᵢ(xᵢ) f(x₁,…,xₙ) = Π fᵢ(xᵢ)

97 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Un vector aleatorio agrupa varias variables aleatorias definidas en el mismo espacio muestral
  • La distribución conjunta describe el comportamiento simultáneo de todas las componentes
  • Las distribuciones marginales se obtienen integrando/sumando las demás variables
  • La independencia ocurre cuando la conjunta es producto de las marginales
  • Los vectores aleatorios son la base para la inferencia multivariada y el análisis de dependencia


98 📊 FUNCIÓN DE PROBABILIDAD CONJUNTA, MARGINAL Y CONDICIONAL

📐 73. Función de Probabilidad Conjunta, Marginal y Condicional

Consideremos un vector aleatorio X = (X, Y)ᵀ que consta de dos variables aleatorias, X e Y, definidas en el mismo espacio muestral. Podemos extender estos conceptos a vectores aleatorios de mayor dimensión.

73.1. Función de Probabilidad Conjunta

La función de probabilidad conjunta describe la probabilidad de que X tome un valor específico x e Y tome un valor específico y simultáneamente.

  • Caso Discreto: Función de masa conjunta pXY(x, y):
    • pXY(x, y) ≥ 0
    • <li>Σ<sub>x</sub> Σ<sub>y</sub> p<sub>XY</sub>(x, y) = 1</li>
      <li>P((X,Y) ∈ A) = Σ<sub>(x,y)∈A</sub> p<sub>XY</sub>(x, y)</li></ul>
    • Caso Continuo: Función de densidad conjunta fXY(x, y):
      • fXY(x, y) ≥ 0
      • <li>∫∫ f<sub>XY</sub>(x, y) dx dy = 1</li>
        <li>P((X,Y) ∈ A) = ∬<sub>A</sub> f<sub>XY</sub>(x, y) dx dy</li></ul>

73.2. Función de Probabilidad Marginal

La función de probabilidad marginal se obtiene integrando o sumando la función conjunta sobre los valores de la otra variable.

  • Discreto: P(X=x) = Σy P(X=x, Y=y), P(Y=y) = Σx P(X=x, Y=y)
  • Continuo: fX(x) = ∫ f(x, y) dy, fY(y) = ∫ f(x, y) dx

73.3. Función de Probabilidad Condicional

La función de probabilidad condicional describe cómo se modifica la probabilidad al conocer el valor de la otra variable.

  • Discreto: P(X=x | Y=y) = P(X=x, Y=y)/P(Y=y), si P(Y=y) > 0
  • Continuo: f(x|y) = f(x, y)/fY(y), si fY(y) > 0

📊 74. Ejemplos Resueltos

74.1. Ejemplo 1: Variables Discretas (Tabla de Contingencia)

Problema: Distribución conjunta de X e Y:

X 1 2 3
0 0.10 0.15 0.05
1 0.20 0.30 0.20

Marginales: P(X=0)=0.30, P(X=1)=0.70, P(Y=1)=0.30, P(Y=2)=0.45, P(Y=3)=0.25

Condicionales: P(X=0|Y=1)=0.10/0.30=1/3, P(Y=2|X=1)=0.30/0.70=3/7

prob <- matrix(c(0.10,0.15,0.05,0.20,0.30,0.20), nrow=2, byrow=TRUE)
rowSums(prob); colSums(prob)
prob[1,1]/colSums(prob)[1]  # 0.3333
prob[2,2]/rowSums(prob)[2]  # 0.4286
Probabilidad Conjunta Discreta

📊 74.2. Ejemplo 2: Variables Continuas (Uniforme Bivariada)

Problema: f(x, y) = 1, para 0 ≤ x ≤ 1, 0 ≤ y ≤ 1

Marginales: fX(x)=1 (0≤x≤1), fY(y)=1 (0≤y≤1)

Condicionales: f(x|y)=1, f(y|x)=1 → X e Y son independientes

f <- function(x,y) ifelse(x>=0 & x<=1 & y>=0 & y<=1, 1, 0)
integral2(f, 0, 0.5, 0, 0.5)$Q  # 0.25
Uniforme Bivariada [0,1]×[0,1]

📊 74.3. Ejemplo 3: Variables Continuas (Exponenciales Independientes)

Problema: X~Exp(λ₁=1), Y~Exp(λ₂=2), independientes

Conjunta: f(x, y) = 2·e^{-x-2y}, para x≥0, y≥0

Marginales: fX(x)=e^{-x}, fY(y)=2e^{-2y}

Condicionales: f(x|y)=e^{-x}, f(y|x)=2e^{-2y}

f <- function(x,y) ifelse(x>=0 & y>=0, 2*exp(-x-2*y), 0)
integral2(f, 0, 1, 0, 1)$Q  # 0.5466
Exponenciales Independientes

99 📊 RESUMEN: CONJUNTA, MARGINAL Y CONDICIONAL

📋 Tabla comparativa

Concepto Fórmula (Discreto) Fórmula (Continuo) Interpretación
Conjunta P(X=x, Y=y) f(x, y) Probabilidad simultánea
Marginal de X Σy P(X=x, Y=y) ∫ f(x, y) dy Probabilidad de X sola
**Condicional X Y** P(X=x, Y=y)/P(Y=y) f(x, y)/fY(y)
Independencia P(X,Y)=P(X)P(Y) f(x,y)=fX(x)fY(y) La conjunta = producto

100 📊 RELACIONES ENTRE DISTRIBUCIONES

📋 Diagrama de relaciones

                    Distribución Conjunta
                           |
            +--------------+--------------+
            |              |              |
            ↓              ↓              ↓
    Marginal de X    Marginal de Y    Condicional X|Y
    (integra Y)      (integra X)      (conjunta/marginal)

Relaciones clave:

  • Marginal ↔︎ Conjunta: Sumar/Integrar sobre la otra variable
  • Condicional ↔︎ Conjunta: Condicional = Conjunta / Marginal
  • Independencia ⇔ Condicional = Marginal

101 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La función conjunta describe completamente la relación entre las variables
  • Las marginales se obtienen integrando/sumando sobre la(s) otra(s) variable(s)
  • Las condicionales permiten actualizar probabilidades con información parcial
  • La independencia ocurre cuando la conjunta es igual al producto de las marginales
  • En caso de independencia: f(x|y) = fX(x) y f(y|x) = fY(y)