Con Mi Profe: Julio Hurtado Marquez; EMAIL_TAREAS:


1 📊 FUNCIÓN DE DISTRIBUCIÓN CONJUNTA, MARGINAL Y CONDICIONAL

📐 75. Función de Distribución Conjunta, Marginal y Condicional

Consideremos un vector aleatorio X = (X, Y)ᵀ que consta de dos variables aleatorias, X e Y, definidas en el mismo espacio muestral. Podemos extender estos conceptos a vectores aleatorios de mayor dimensión.

75.1. Función de Distribución Conjunta

La función de distribución acumulada conjunta (CDF conjunta) se define como la probabilidad de que X ≤ x e Y ≤ y simultáneamente:

FXY(x, y) = P(X ≤ x, Y ≤ y)

Propiedades de la CDF conjunta:

  1. 0 ≤ FXY(x, y) ≤ 1
  2. No decreciente en x e y
  3. limx→-∞ FXY(x, y) = 0, limy→-∞ FXY(x, y) = 0
  4. limx→∞, y→∞ FXY(x, y) = 1
  5. Para variables continuas: fXY(x, y) = ∂²FXY(x, y)/∂x∂y

75.2. Función de Distribución Marginal

La función de distribución acumulada marginal se obtiene tomando el límite cuando la otra variable tiende a infinito:

FX(x) = P(X ≤ x) = limy→∞ FXY(x, y)
FY(y) = P(Y ≤ y) = limx→∞ FXY(x, y)

Para variables continuas: fX(x) = ∫ fXY(x, y) dy, fY(y) = ∫ fXY(x, y) dx

Para variables discretas: P(X=x) = Σy P(X=x, Y=y), P(Y=y) = Σx P(X=x, Y=y)

75.3. Función de Distribución Condicional

La función de distribución acumulada condicional describe cómo se modifica la distribución al conocer información sobre la otra variable:

  • Discreto: FX|Y(x|y) = Σt≤x P(X=t|Y=y) = Σt≤x P(X=t, Y=y)/P(Y=y)
  • Continuo: FX|Y(x|y) = ∫-∞x f(t|y) dt = ∫-∞x fXY(t, y)/fY(y) dt

📊 76. Ejemplos Resueltos

76.1. Ejemplo 1: Variables Discretas (Tabla de Probabilidades Conjuntas)

Problema: Distribución conjunta:

X 1 2 3
0 0.10 0.15 0.05
1 0.20 0.30 0.20

CDF Conjunta: FXY(0,1)=0.10, FXY(0,2)=0.25, FXY(1,3)=1.00

CDF Marginal X: FX(0)=0.30, FX(1)=1.00

CDF Marginal Y: FY(1)=0.30, FY(2)=0.75, FY(3)=1.00

CDF Condicional: FX|Y(0|1)=1/3, FY|X(2|1)=5/7 ≈ 0.7143

prob <- matrix(c(0.10,0.15,0.05,0.20,0.30,0.20), nrow=2, byrow=TRUE)
# CDF conjunta manual
# CDF marginal: rowSums(prob) y colSums(prob) acumulados
cumsum(rowSums(prob)); cumsum(colSums(prob))
CDF Conjunta Discreta

📊 76.2. Ejemplo 2: Variables Continuas (Uniforme Bivariada)

Problema: fXY(x, y) = 1, para 0 ≤ x ≤ 1, 0 ≤ y ≤ 1

CDF Conjunta: FXY(x, y) = x·y, para 0 ≤ x ≤ 1, 0 ≤ y ≤ 1

CDF Marginal X: FX(x) = x (uniforme en [0,1])

CDF Marginal Y: FY(y) = y (uniforme en [0,1])

CDF Condicional X|Y: FX|Y(x|y) = x, para 0 ≤ x ≤ 1

F_XY <- function(x,y) ifelse(x>=0 & x<=1 & y>=0 & y<=1, x*y, 
                        ifelse(x>=1 & y>=0 & y<=1, y,
                        ifelse(y>=1 & x>=0 & x<=1, x,
                        ifelse(x>=1 & y>=1, 1, 0))))
F_XY(0.5, 0.5)  # 0.25
CDF Uniforme Bivariada

2 📊 RESUMEN: FUNCIONES DE DISTRIBUCIÓN

📋 Relaciones entre funciones de distribución

Tipo Fórmula (Discreto) Fórmula (Continuo) Relación
Conjunta CDF F(x,y) = Σ Σ P(X≤x, Y≤y) F(x,y) = ∫∫ f(u,v) du dv F(x,y) → 1 cuando x,y → ∞
Marginal CDF FX(x) = limy→∞ F(x,y) FX(x) = ∫-∞x f(u) du FX(x) = P(X ≤ x)
Condicional CDF FX Y(x y) = P(X≤x, Y=y)/P(Y=y)

3 📊 DIAGRAMA DE RELACIONES

📋 Esquema de relaciones entre distribuciones

                        Función de Distribución
                            Conjunta FXY(x,y)
                                   |
           +-----------------------+-----------------------+
           |                       |                       |
           ↓                       ↓                       ↓
    Marginal FX(x)      Marginal FY(y)    Condicional FX|Y(x|y)
    limy→∞ FXY    limx→∞ FXY    FXY/FY (discreto)
                                                         FXY/fY (continuo)

Relaciones clave:

  • FX(x) = limy→∞ FXY(x, y)
  • FY(y) = limx→∞ FXY(x, y)
  • FX|Y(x|y) = FXY(x, y) / P(Y=y) (discreto)
  • FX|Y(x|y) = ∫-∞x fXY(t,y)/fY(y) dt (continuo)

4 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La CDF conjunta FXY(x, y) acumula probabilidad en el rectángulo (-∞, x] × (-∞, y]
  • Las CDF marginales se obtienen haciendo tender la otra variable a ∞
  • Las CDF condicionales permiten calcular probabilidades dado un valor específico de la otra variable
  • Para variables independientes: FXY(x, y) = FX(x)·FY(y)
  • La CDF es especialmente útil para calcular probabilidades de intervalos y cuantiles

¡Perfecto! Aquí tienes el texto sobre Independencia de Variables Aleatorias reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


5 📊 INDEPENDENCIA DE VARIABLES ALEATORIAS

📐 77. Independencia de Variables Aleatorias

Dos variables aleatorias X e Y son independientes si el conocimiento del valor que toma una de ellas no proporciona información sobre el valor que puede tomar la otra.

77.1. Definición Formal

  • Variables Discretas: X e Y son independientes si para todo x, y:
P(X = x, Y = y) = P(X = x) × P(Y = y)
  • Variables Continuas: X e Y son independientes si para todo x, y:
fXY(x, y) = fX(x) × fY(y)

77.2. Implicaciones de la Independencia

Si X e Y son independientes, entonces:

  • FXY(x, y) = FX(x) × FY(y)
  • E[g(X)·h(Y)] = E[g(X)] × E[h(Y)]
  • Cov(X, Y) = 0 (la inversa no siempre es cierta)

📊 78. Ejemplos Resueltos

78.1. Ejemplo 1: Lanzamiento de dos dados

Problema: X = resultado primer dado, Y = resultado segundo dado. ¿Son independientes?

Solución: P(X=x)=1/6, P(Y=y)=1/6, P(X=x,Y=y)=1/36

1/6 × 1/6 = 1/36 = P(X=x, Y=y)  →  ✓ Son independientes
Dados: Variables Independientes P(X=x, Y=y) = 1/36

📊 78.2. Ejemplo 2: Tabla de Probabilidades

Problema: Distribución conjunta:

X 0 1
0 0.15 0.15
1 0.25 0.45

Marginales: P(X=0)=0.30, P(X=1)=0.70, P(Y=0)=0.40, P(Y=1)=0.60

Producto: P(X=0)P(Y=0)=0.30×0.40=0.12, pero P(X=0,Y=0)=0.15

0.15 ≠ 0.12  →  ✗ No son independientes
Tabla: Variables Dependientes

📊 78.3. Ejemplo 3: Distribución Uniforme en un Triángulo

Problema: fXY(x, y) = 2, para 0≤x≤1, 0≤y≤1, x+y≤1

Marginales: fX(x)=2(1-x), fY(y)=2(1-y)

Producto: fX(x)·fY(y) = 4(1-x)(1-y) ≠ 2

2 ≠ 4(1-x)(1-y)  →  ✗ No son independientes
Triángulo: Dependencia x+y ≤ 1

📊 78.4. Ejemplo 4: Exponenciales Independientes

Problema: X~Exp(1), Y~Exp(2), independientes

Marginales: fX(x)=e-x, fY(y)=2e-2y

Conjunta: fXY(x,y)=e-x·2e-2y=2e-x-2y

fXY(x,y) = fX(x) × fY(y)  →  ✓ Son independientes
Exponenciales: Independencia f(x,y)=e-x·2e-2y

6 📊 RESUMEN DE INDEPENDENCIA

📋 Condiciones equivalentes de independencia

Condición Fórmula Dominio
Conjunta = producto de marginales (PMF) P(X,Y) = P(X)·P(Y) Discreto
Conjunta = producto de marginales (PDF) f(x,y) = fX(x)·fY(y) Continuo
CDF = producto de CDFs F(x,y) = FX(x)·FY(y) Discreto y Continuo
Condicional = marginal P(X Y) = P(X) ó f(x

7 📊 PROPIEDADES CLAVE DE LA INDEPENDENCIA

📋 Implicaciones importantes

Propiedad Fórmula
Esperanza del producto E[XY] = E[X]·E[Y]
Covarianza Cov(X,Y) = 0
Varianza de la suma Var(X+Y) = Var(X) + Var(Y)
Función generadora de momentos MX+Y(t) = MX(t)·MY(t)

8 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La independencia significa que la ocurrencia de un evento no afecta la probabilidad del otro
  • La condición fundamental es: Conjunta = Producto de Marginales
  • Si X e Y son independientes, entonces Cov(X,Y)=0 (pero el recíproco no es cierto)
  • La independencia implica que el soporte (rango de valores posibles) es un rectángulo en el caso continuo
  • En la práctica, la independencia suele asumirse por el diseño experimental (ej: lanzar dos dados)

¡Perfecto! Aquí tienes el texto sobre Desigualdad de Chebyshev reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


9 📊 DESIGUALDAD DE CHEBYSHEV

📐 K. Convergencias y Teoremas Límites Fundamentales

  1. Desigualdad de Chebyshev

La desigualdad de Chebyshev es un teorema fundamental que proporciona una cota superior para la probabilidad de que una variable aleatoria se aleje de su media en más de una cierta cantidad. Su gran ventaja es que se aplica a cualquier distribución, siempre que la media y la varianza sean finitas.

79.1. Enunciado de la Desigualdad de Chebyshev

Sea X una variable aleatoria con media μ = E[X] y varianza σ² = Var(X) finitas. Entonces, para cualquier k > 0:

P(|X - μ| ≥ kσ) ≤ 1/k²
P(|X - μ| ≥ a) ≤ σ²/a²,  con a = kσ > 0

Equivalentemente:

P(|X - μ| < kσ) ≥ 1 - 1/k²
P(|X - μ| < a) ≥ 1 - σ²/a²

79.2. Importancia y Limitaciones

  • Generalidad: Aplica a cualquier distribución con media y varianza finitas
  • Cotización conservadora: Las cotas suelen ser amplias (la probabilidad real suele ser mucho menor)
  • Utilidad: Fundamental en la demostración de la Ley Débil de los Grandes Números

📊 80. Ejemplos Resueltos

80.1. Ejemplo 1: Aplicación General

Problema: X con μ = 10, σ² = 4. Cota superior para P(|X-10| ≥ 3).

Solución: a = 3, σ² = 4

P(|X-10| ≥ 3) ≤ σ²/a² = 4/9 ≈ 0.444
Cota de Chebyshev: P(|X-10| ≥ 3) ≤ 0.444 Media μ = 10 X < 7 X > 13

📊 80.2. Ejemplo 2: Determinación del Valor de k

Problema: Y con μ = 50, σ = 5. ¿Qué k asegura P(|Y-50| < 5k) ≥ 0.96?

Solución: 1 - 1/k² ≥ 0.96 → 1/k² ≤ 0.04 → k² ≥ 25 → k ≥ 5

k ≥ 5, intervalo (50 - 25, 50 + 25) = (25, 75)
k = 5 garantiza P ≥ 0.96 en (25, 75) μ = 50

📊 80.3. Ejemplo 3: Comparación con Distribución Normal

Problema: Z ~ N(0,1). Comparar Chebyshev vs probabilidad real para k=2.

Chebyshev: P(|Z| ≥ 2) ≤ 1/4 = 0.25

Real: P(|Z| ≥ 2) = 0.0228 + 0.0228 = 0.0456

pnorm(-2) + (1 - pnorm(2))  # 0.0456
Normal Estándar: Chebyshev (0.25) vs Real (0.0456) P(|Z| ≥ 2) = 0.0456

📊 80.4. Ejemplo 4: Aplicación a Distribución Desconocida

Problema: Llegadas por hora: μ = 20, σ = 5. Cota inferior para P(10 ≤ X ≤ 30).

Solución: a = 10, σ = 5

P(|X-20| < 10) ≥ 1 - 25/100 = 0.75

Resultado: Al menos 75% de las llegadas están entre 10 y 30 clientes por hora.

Distribución desconocida: P(10 ≤ X ≤ 30) ≥ 0.75 μ = 20

10 📊 RESUMEN DE LA DESIGUALDAD DE CHEBYSHEV

📋 Fórmulas clave

Forma Expresión Interpretación
Con k desviaciones P( X-μ
Con k desviaciones (interior) P( X-μ
Con distancia a P( X-μ
Con distancia a (interior) P( X-μ

11 📊 VALORES COMUNES DE k

📋 Cotas de Chebyshev para diferentes k

k Cota superior P(|X-μ| ≥ kσ) Cota inferior P(|X-μ| < kσ)
1 ≤ 1.000 (trivial) ≥ 0.000
1.5 ≤ 0.444 ≥ 0.556
2 ≤ 0.250 ≥ 0.750
2.5 ≤ 0.160 ≥ 0.840
3 ≤ 0.111 ≥ 0.889
4 ≤ 0.0625 ≥ 0.9375
5 ≤ 0.0400 ≥ 0.9600

12 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La desigualdad de Chebyshev es válida para cualquier distribución con media y varianza finitas
  • Proporciona cotas conservadoras (la probabilidad real suele ser mucho menor)
  • No requiere conocer la forma específica de la distribución subyacente
  • Fundamental para demostrar la Ley Débil de los Grandes Números
  • Útil cuando se tiene poca información sobre la distribución

¡Perfecto! Aquí tienes el texto sobre Diferentes Tipos de Convergencia de Variables Aleatorias reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


13 📊 DIFERENTES TIPOS DE CONVERGENCIA DE VARIABLES ALEATORIAS

📐 81. Diferentes Tipos de Convergencia de Variables Aleatorias

En probabilidad y estadística, cuando hablamos de una secuencia de variables aleatorias {Xₙ}, es importante entender a qué variable aleatoria (o constante) “converge” esta secuencia, y en qué sentido lo hace. Existen varios tipos de convergencia, cada uno con sus propias implicaciones.

81.1. Convergencia en Distribución (o Débil)

Una secuencia {Xₙ} converge en distribución a X si sus CDF convergen puntualmente a la CDF de X en todos los puntos donde es continua. Se denota Xₙ →d X.

limn→∞ FXₙ(x) = FX(x)

Ejemplo clave: Teorema Central del Límite (TCL) — la suma normalizada converge a una normal estándar.

81.2. Convergencia en Probabilidad

Una secuencia {Xₙ} converge en probabilidad a X si, para cualquier ε > 0, la probabilidad de que |Xₙ - X| > ε tiende a cero. Se denota Xₙ →p X.

limn→∞ P(|Xₙ - X| > ε) = 0,   ∀ε > 0

Ejemplo clave: Ley Débil de los Grandes Números (LDGN) — el promedio muestral converge en probabilidad a la media poblacional.

81.3. Convergencia en Media Cuadrática

Una secuencia {Xₙ} converge en media cuadrática (o en L²) a X si la esperanza del cuadrado de la diferencia tiende a cero. Se denota Xₙ → X.

limn→∞ E[(Xₙ - X)²] = 0

Implicación: Implica convergencia en probabilidad (pero no viceversa).

81.4. Convergencia Casi Segura (con Probabilidad 1)

Una secuencia {Xₙ} converge casi seguramente (a.s. o con probabilidad 1) a X si la probabilidad de que Xₙ(ω) → X(ω) es 1. Se denota Xₙ →a.s. X.

P(limn→∞ Xₙ = X) = 1

Ejemplo clave: Ley Fuerte de los Grandes Números (LFGN) — el promedio muestral converge casi seguramente a la media poblacional.

81.5. Relaciones entre los Tipos de Convergencia

Xₙ →a.s. X  ⇒  Xₙ →p X  ⇒  Xₙ →d X
Xₙ → X  ⇒  Xₙ →p X

La convergencia en distribución es la más débil; la convergencia casi segura es la más fuerte.


📊 82. Ejemplos Resueltos

82.1. Ejemplo 1: Convergencia en Probabilidad

Problema: {Xₙ} Bernoulli(pₙ=1/n), Sₙ = ΣXᵢ. Demostrar que Sₙ/n →p 0.

Solución: E[Sₙ/n] ≈ ln(n)/n → 0, Var(Sₙ/n) ≈ ln(n)/n² → 0. Por Chebyshev:

P(|Sₙ/n - E[Sₙ/n]| > ε) ≤ Var(Sₙ/n)/ε² → 0
Convergencia en Probabilidad: Sₙ/n → 0

📊 82.2. Ejemplo 2: Convergencia Casi Segura (LFGN)

Problema: Xᵢ ~ Exp(λ=1), E[Xᵢ]=1. Por LFGN, X̄ₙ →a.s. 1.

LFGN: Promedio muestral → 1 (c.s.)

📊 82.3. Ejemplo 3: Convergencia en Distribución (TCL)

Problema: Xᵢ ~ U(0,1), Sₙ = ΣXᵢ. Por TCL:

Zₙ = (Sₙ - n/2)/√(n/12) →d N(0,1)
TCL: Suma normalizada → N(0,1)

📊 82.4. Ejemplo 4: Convergencia en Media Cuadrática

Problema: P(Xₙ = 1/n) = 1. Demostrar que Xₙ → 0.

Solución: E[(Xₙ - 0)²] = (1/n)² = 1/n² → 0

Convergencia en Media Cuadrática E[(Xₙ - 0)²] = 1/n² → 0

14 📊 RESUMEN DE TIPOS DE CONVERGENCIA

📋 Comparación de convergencias

Tipo Notación Definición Fuerza Ejemplo clave
En Distribución d FXₙ(x) → FX(x) Más débil TCL
En Probabilidad p P(|Xₙ-X|>ε) → 0 Media LDGN
Media Cuadrática E[(Xₙ-X)²] → 0 Fuerte Aplicaciones en predicción
Casi Segura a.s. P(Xₙ→X) = 1 Más fuerte LFGN

15 📊 DIAGRAMA DE RELACIONES

📋 Implicaciones entre convergencias

                      Xₙ →a.s. X
                           ↓
                      Xₙ →p X
                      ↗        ↘
Xₙ → X                    Xₙ →d X

Observaciones:

  • Convergencia casi segura ⇒ Convergencia en probabilidad
  • Convergencia en media cuadrática ⇒ Convergencia en probabilidad
  • Convergencia en probabilidad ⇒ Convergencia en distribución
  • Los recíprocos no se cumplen en general
  • Si X es una constante, convergencia en distribución ⇒ convergencia en probabilidad

16 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Convergencia en Distribución: Importante en el TCL; solo garantiza que la distribución se aproxima
  • Convergencia en Probabilidad: Garantiza que la probabilidad de desviación es pequeña; base de la LDGN
  • Convergencia en Media Cuadrática: Útil en predicción óptima (error cuadrático mínimo)
  • Convergencia Casi Segura: La más fuerte; garantiza que cada realización converge (excepto en un conjunto nulo)
  • La Ley de los Grandes Números (débil y fuerte) y el Teorema Central del Límite son los resultados fundamentales que utilizan estos conceptos

¡Perfecto! Aquí tienes el texto sobre Ley de los Grandes Números (Débil y Fuerte) reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


17 📊 LEY DE LOS GRANDES NÚMEROS (DÉBIL Y FUERTE)

📐 L. Ley de los Grandes Números (Débil y Fuerte)

  1. Ley de los Grandes Números (Débil y Fuerte)

La Ley de los Grandes Números (LGN) es un teorema fundamental que describe el comportamiento del promedio de una secuencia de ensayos repetidos. Intuitivamente, establece que a medida que aumenta el número de ensayos, el promedio empírico se acerca al valor esperado teórico.

Existen dos formas principales: la Ley Débil de los Grandes Números (LDGN) y la Ley Fuerte de los Grandes Números (LFGN). La diferencia radica en el tipo de convergencia que describen.

83.1. Ley Débil de los Grandes Números (LDGN)

La LDGN establece que el promedio muestral converge en probabilidad al valor esperado. Sean X₁, X₂, … variables i.i.d. con media μ = E[Xᵢ] finita. Sea X̄ₙ = (1/n) Σ Xᵢ. Para cualquier ε > 0:

limn→∞ P(|X̄ₙ - μ| > ε) = 0

Es decir: X̄ₙ →p μ

83.2. Ley Fuerte de los Grandes Números (LFGN)

La LFGN establece una forma más fuerte: el promedio muestral converge casi seguramente al valor esperado.

P(limn→∞ X̄ₙ = μ) = 1

Es decir: X̄ₙ →a.s. μ

83.3. Comparación

  • LDGN: P(|X̄ₙ - μ| > ε) → 0 (convergencia en probabilidad)
  • LFGN: P(lim X̄ₙ = μ) = 1 (convergencia casi segura)
  • La LFGN implica la LDGN, pero no al revés

📊 83.3. Ejemplo 1: Lanzamiento de una moneda justa

Problema: Moneda justa (p=0.5). Simular la proporción de caras para diferentes n.

set.seed(123)
n <- c(10, 50, 100, 500, 1000, 5000)
proporciones <- sapply(n, function(n) mean(rbinom(n, 1, 0.5)))

Resultado: La proporción de caras tiende a 0.5 a medida que n aumenta.

LGN: Lanzamiento de moneda justa Número de lanzamientos Proporción de caras Valor esperado μ = 0.5

📊 83.4. Ejemplo 2: Promedio de números aleatorios uniformes

Problema: Xᵢ ~ U(0,1), μ = 0.5. Simular el promedio para diferentes n.

set.seed(456)
n <- c(10, 50, 100, 500, 1000, 5000)
promedios <- sapply(n, function(n) mean(runif(n, 0, 1)))

Resultado: El promedio converge a 0.5 a medida que n aumenta.

LGN: Promedio de Uniformes U(0,1)

📊 83.5. Ejemplo 3: Promedio de resultados de un dado justo

Problema: Lanzamiento de dado justo, μ = 3.5. Simular promedio para diferentes n.

set.seed(789)
n <- c(10, 50, 100, 500, 1000, 5000)
promedios <- sapply(n, function(n) mean(sample(1:6, n, replace=TRUE)))

Resultado: El promedio converge a 3.5.

LGN: Promedio de lanzamientos de dado

📊 83.6. Ejemplo 4: Estimación de un evento raro

Problema: Evento con p=0.01. Simular proporción de éxitos para diferentes n.

set.seed(101)
n <- c(100, 500, 1000, 5000, 10000, 50000)
prop <- sapply(n, function(n) mean(rbinom(n, 1, 0.01)))

Resultado: La proporción converge a 0.01.

LGN: Evento raro (p=0.01)

18 📊 RESUMEN DE LA LEY DE LOS GRANDES NÚMEROS

📋 Comparación LDGN vs LFGN

Característica Ley Débil (LDGN) Ley Fuerte (LFGN)
Tipo de convergencia En probabilidad (→p) Casi segura (→a.s.)
Enunciado P(|X̄ₙ-μ|>ε) → 0 P(lim X̄ₙ = μ) = 1
Interpretación La probabilidad de desviación tiende a 0 Las trayectorias convergen (c.s.)
Fuerza Más débil Más fuerte
Aplicación práctica Aproximaciones con alta probabilidad Garantía asintótica para cada realización

19 📊 EJEMPLOS DE APLICACIÓN

📋 Resumen de simulaciones

Ejemplo Distribución Media teórica (μ) Comportamiento observado
Moneda justa Bernoulli(0.5) 0.5 Proporción de caras → 0.5
Uniforme U(0,1) 0.5 Promedio → 0.5
Dado justo Uniforme discreta {1,…,6} 3.5 Promedio → 3.5
Evento raro Bernoulli(0.01) 0.01 Proporción de éxitos → 0.01

20 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La Ley de los Grandes Números justifica que el promedio empírico se aproxima a la media teórica cuando el tamaño de muestra es grande
  • Es la base teórica del muestreo estadístico y la estimación de parámetros
  • La Ley Débil (convergencia en probabilidad) es suficiente para la mayoría de aplicaciones prácticas
  • La Ley Fuerte (convergencia casi segura) es un resultado teórico más profundo
  • Simulaciones numéricas como las presentadas demuestran visualmente la convergencia
  • La velocidad de convergencia depende de la varianza de la distribución subyacente


21 📜 BREVE HISTORIA DE LA PROBABILIDAD

📚 Historia de la probabilidad clásica

La teoría de la probabilidad tuvo como uno de sus primeros puntos de partida el intentar resolver un problema particular, concerniente a una apuesta de juego de dados entre dos personas.

📖 El problema original: Dos jugadores escogen, cada uno de ellos, un número del 1 al 6, distinto uno del otro, y apuestan 32 doblones de oro a que el número escogido por uno de ellos aparece en tres ocasiones antes que el número del contrario al lanzar sucesivamente un dado. Suponga que el número de uno de los jugadores ha aparecido dos veces y el número del otro, una sola vez. Bajo estas circunstancias, ¿Cómo debe dividirse el total de la apuesta si el juego se suspende?

  • Uno de los apostadores, Antonio de Gombaud (el caballero De Méré), consultó el problema con Blaise Pascal (1623-1662)
  • Pascal a su vez consultó con Pierre de Fermat (1601-1665), iniciando en 1654 un intercambio de cartas sobre el problema
  • Este episodio marcó el inicio de los esfuerzos por desarrollar una teoría matemática para resolver problemas probabilísticos
El origen de la probabilidad De Méré (jugador) Pascal (matemático) Fermat Intercambio de cartas (1654)

📐 Desarrollo histórico

  • En 1900, David Hilbert (1862-1943) planteó 23 problemas matemáticos importantes, incluyendo la necesidad de axiomas para construir una teoría matemática de la probabilidad
  • En 1933, A. N. Kolmogorov (1903-1987) propuso los axiomas fundamentales de la teoría clásica de probabilidad que usamos hoy

📊 Contribuciones clave

1. Christiaan Huygens (1629-1695)

  • Introdujo el concepto de esperanza matemática: E[X]
  • Obra: De ratiocinüs in ludo aleae

2. Jacques Bernoulli (1654-1705)

  • Ars Conjectandi (publicado póstumamente)
  • Ley de los grandes números
lim P(|Sₙ/n - p| < ε) = 1

3. Pierre-Simon Laplace (1749-1827)

  • Théorie analytique des probabilités (1812)
  • Definición clásica de probabilidad
P(A) = casos favorables / casos posibles

4. Carl Friedrich Gauss (1777-1855)

  • Desarrollo de la distribución normal
f(x) = 1/(σ√2π)·e^{-½((x-μ)/σ)²}

📈 Evolución moderna

  • Siglo XIX: Periodo de estancamiento debido a:
    • Paradojas como la de Bertrand
    • Enfoque determinista predominante
  • Siglo XX (1933): Kolmogorov formaliza la teoría usando:
    • Teoría de conjuntos
    • Teoría de la medida

📐 Axiomas de Kolmogorov

1. P(A) ≥ 0
2. P(Ω) = 1
3. P(⋃_{i=1}^{∞} Aᵢ) = Σ_{i=1}^{∞} P(Aᵢ),  para sucesos disjuntos
Línea de tiempo: Desarrollo de la probabilidad 1654 Pascal-Fermat 1812 Laplace 1900 Hilbert 1933 Kolmogorov

22 📚 RECURSOS ADICIONALES

🎥 Video: Teoría de la Probabilidad

https://www.youtube.com/watch?v=eUVWxvEK7TM

📝 Actividad 1: Evaluación de Teoría de la Probabilidad

https://forms.gle/YezG31vM6BAFXY6BA


23 📊 RESUMEN HISTÓRICO

📋 Personajes clave y sus aportes

Matemático Aporte principal Año clave
Pascal y Fermat Bases de la probabilidad (problema de los puntos) 1654
Huygens Concepto de esperanza matemática 1657
Bernoulli Ley de los grandes números (Ars Conjectandi) 1713
De Moivre Distribución normal 1718
Laplace Definición clásica de probabilidad 1812
Gauss Desarrollo de la distribución normal 1809
Hilbert Planteamiento de axiomas 1900
Kolmogorov Axiomatización moderna 1933

24 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La teoría de la probabilidad nace de un problema práctico relacionado con juegos de azar en el siglo XVII
  • El intercambio de cartas entre Pascal y Fermat (1654) marca el inicio formal de la disciplina
  • La Ley de los Grandes Números de Bernoulli y la definición clásica de Laplace son fundamentos históricos clave
  • La distribución normal (Gauss) es uno de los resultados más importantes en probabilidad y estadística
  • La axiomatización de Kolmogorov (1933) proporcionó la base matemática rigurosa que consolidó la teoría moderna


25 📜 HISTORIA DE LA PROBABILIDAD - AMPLIACIÓN

🧩 La Paradoja de Bertrand (1889)

Joseph Bertrand (1822-1900), matemático francés, planteó una famosa paradoja que evidenció la necesidad de una base axiomática rigurosa para la probabilidad.

📖 El problema de la cuerda: Dado un círculo, se elige una cuerda al azar. ¿Cuál es la probabilidad de que la cuerda sea más larga que el lado del triángulo equilátero inscrito?

Bertrand demostró que, dependiendo del método de selección de la cuerda, se obtenían tres respuestas diferentes: 1/2, 1/3 y 1/4.

Tres métodos, tres respuestas diferentes Método 1: 1/2 Método 2: 1/3 Método 3: 1/4

Conclusión: La paradoja demostró que no basta con decir “al azar”; es necesario especificar el mecanismo de selección y tener una definición rigurosa de probabilidad.


📐 Teoría de la Medida y Probabilidad

La teoría de la medida es la rama de las matemáticas que extiende los conceptos de longitud, área y volumen a conjuntos más complejos. Fue desarrollada principalmente por Émile Borel (1871-1956) y Henri Lebesgue (1875-1941).

  • Medida de Lebesgue: Generaliza la noción de longitud para conjuntos más allá de los intervalos
  • Conjuntos medibles: Aquellos a los que se les puede asignar una medida
  • Espacio de medida: Una tripleta (Ω, 𝓕, μ) donde 𝓕 es una σ-álgebra y μ una medida

🔗 Conexión con probabilidad

Kolmogorov utilizó la teoría de la medida para axiomatizar la probabilidad:

Espacio de probabilidad = (Ω, 𝓕, P)
- Ω: espacio muestral
- 𝓕: σ-álgebra de eventos (conjuntos medibles)
- P: medida de probabilidad (P(Ω)=1)

📊 Figuras clave de la teoría de la medida

Matemático Contribución Año clave
Émile Borel Teoría de la medida, conjuntos borelianos 1898
Henri Lebesgue Integral de Lebesgue, medida de Lebesgue 1902
Maurice Fréchet Espacios métricos, convergencia en probabilidad 1906
Andréi Kolmogorov Axiomatización de la probabilidad 1933
Evolución hacia la axiomatización Borel Medida Lebesgue Integral Fréchet Convergencia Kolmogorov Axiomas

📋 Actividades complementarias

📝 Actividad 1: Línea de tiempo histórica

Investiga y ordena cronológicamente los siguientes hitos de la probabilidad:

  • Publicación de Ars Conjectandi (Bernoulli)
  • Intercambio de cartas Pascal-Fermat
  • Publicación de Théorie analytique des probabilités (Laplace)
  • Axiomatización de Kolmogorov
  • Trabajo de Gauss sobre distribución normal

🎲 Actividad 2: Simulación de la paradoja de Bertrand

Implementa en R los tres métodos de selección de cuerdas y verifica las probabilidades:

# Método 1: puntos extremos sobre la circunferencia
# Método 2: radio y punto medio
# Método 3: punto medio uniforme en el círculo

# Simular y comparar resultados

📊 Actividad 3: Investigación de personajes

Elige un matemático de la lista y prepara una breve presentación (5 minutos) sobre:

  • Su biografía y contexto histórico
  • Su contribución principal a la probabilidad
  • Impacto en el desarrollo de la teoría

📐 Actividad 4: La medida y la probabilidad

Investiga la diferencia entre:

  • Medida de Lebesgue en [0,1]
  • Probabilidad uniforme en [0,1]
  • ¿Cómo se relacionan ambos conceptos?

26 📚 RECURSOS RECOMENDADOS

📖 Lecturas sugeridas

  • “The Emergence of Probability” - Ian Hacking (1975)
  • “Classic Problems of Probability” - Prakash Gorroochurn (2012)
  • “Kolmogorov’s Heritage in Mathematics” - Éric Charpentier (2007)

🎥 Videos complementarios


27 💡 REFLEXIONES FINALES

✅ Lecciones de la historia

  • La paradoja de Bertrand mostró que la intuición no es suficiente en probabilidad; se requiere rigor matemático
  • La teoría de la medida proporcionó las herramientas para una definición precisa de probabilidad
  • Los axiomas de Kolmogorov (1933) resolvieron las ambigüedades y paradojas anteriores
  • Hoy, la probabilidad es una disciplina rigurosa y unificada, aplicable a ciencias, ingeniería, finanzas e inteligencia artificial

¡Excelente! Aquí tienes el texto sobre Experimentos Aleatorios reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


28 📊 EXPERIMENTOS ALEATORIOS

🎲 Experimentos Aleatorios vs Deterministas

Existen dos tipos de fenómenos en la naturaleza:

🔬 Fenómenos Deterministas

Producen el mismo resultado bajo condiciones idénticas.

  • Ejemplo: Ley de Boyle para gases ideales
P·V = n·R·T
  • Ejemplo: Ley de reflexión
θi = θr

🎲 Fenómenos Aleatorios

Producen resultados variables bajo las mismas condiciones.

  • Ejemplo: Lanzamiento de moneda
Ω = {Cara, Sello}
  • Ejemplo: Lotería
Ω = {1, 2, 3, ..., 10⁶}

📊 Video: Espacio muestral 1

📐 Características de Experimentos Aleatorios

  1. Repetible bajo mismas condiciones
  2. Resultado depende del azar
  3. Clasificación no siempre evidente

📐 Espacio Muestral

Definición: Conjunto de todos los posibles resultados (Ω).

Ejemplo: Lanzar un dado

Ω = {1, 2, 3, 4, 5, 6}

Cardinalidad: ♯(Ω) = 6

🎯 Ejemplos Notables

1. Lanzar dado hasta obtener 6:

Ω = {(6), (1,6), (2,6), ..., (1,1,6), ...}
♯(Ω) = ∞

2. Tiempo de espera:

Ω = [0, ∞)

3. Lanzar 2 dados indistinguibles:

Ω = {(1,1), (1,2), ..., (6,6)}
♯(Ω) = 21

⚙️ Operaciones con Eventos

Operaciones Básicas

  • Unión: A ∪ B = {ω ∈ Ω | ω ∈ A ∨ ω ∈ B}
  • Intersección: A ∩ B = {ω ∈ Ω | ω ∈ A ∧ ω ∈ B}
  • Complemento: A = Ω  A

Propiedades Clave

Conmutatividad:

A ∪ B = B ∪ A
A ∩ B = B ∩ A

Leyes de De Morgan:

A ∪ B = AB
A ∩ B = AB
Diagrama de Venn: Operaciones con Eventos A B A ∩ B Solo A Solo B

29 📚 ACTIVIDADES DE APRENDIZAJE

📝 Evaluación de Tipos de Experimentos

https://forms.gle/VqCBiiFHcvLB4A7v6

Nota: El formulario podría no estar activo actualmente.

🎥 Video: Espacio muestral 2


30 📊 RESUMEN DE CONCEPTOS CLAVE

📋 Tabla comparativa

Concepto Definición Ejemplo
Experimento Determinista Mismo resultado bajo condiciones idénticas Ley de Boyle: P·V = n·R·T
Experimento Aleatorio Resultado variable bajo mismas condiciones Lanzamiento de moneda
Espacio Muestral (Ω) Conjunto de todos los resultados posibles Ω = {1,2,3,4,5,6}
Evento Subconjunto del espacio muestral A = {2,4,6} (números pares)

31 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Los experimentos aleatorios son la base de la teoría de la probabilidad
  • El espacio muestral Ω es el conjunto de todos los posibles resultados
  • Los eventos son subconjuntos de Ω (pueden ser simples o compuestos)
  • Las operaciones con eventos (unión, intersección, complemento) siguen las reglas del álgebra de conjuntos
  • Las Leyes de De Morgan son fundamentales para relacionar uniones e intersecciones con complementos

¡Perfecto! Aquí tienes el texto sobre Propiedades de Operaciones entre Eventos, Teoría de Conjuntos Básica reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


32 📊 PROPIEDADES DE OPERACIONES ENTRE EVENTOS

📐 Propiedades de Operaciones entre Eventos

⚡ Propiedades de la Unión

1. Conmutativa:

A ∪ B = B ∪ A

2. Idempotencia:

A ∪ A = A

3. Elemento neutro:

A ∪ ∅ = A

4. Absorción:

A ∪ Ω = Ω

5. Complementariedad:

A ∪ A = Ω

✖️ Propiedades de la Intersección

1. Conmutativa:

A ∩ B = B ∩ A

2. Idempotencia:

A ∩ A = A

3. Elemento absorbente:

A ∩ ∅ = ∅

4. Elemento neutro:

A ∩ Ω = A

5. Complementariedad:

A ∩ A = ∅

➖ Propiedades de la Diferencia

1. No conmutativa:

A - B ≠ B - A

2. Idempotencia:

A - A = ∅

3. Elemento neutro:

A - ∅ = A

4. Relación con complemento:

Ω - A = A

5. Reducción:

A - B = A - (A ∩ B)

⚙️ Otras Propiedades Importantes

📐 Propiedades Distributivas

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

🔄 Leyes de De Morgan

A ∪ B = AB
A ∩ B = AB

🧩 Propiedades Básicas de Complementos

 = Ω
Ω = ∅
¯A = A

🔗 Propiedades Asociativas

A ∪ (B ∪ C) = (A ∪ B) ∪ C = A ∪ B ∪ C
A ∩ (B ∩ C) = (A ∩ B) ∩ C = A ∩ B ∩ C

📊 Operaciones con Sucesiones de Eventos

🔢 Uniones e Intersecciones

k=1n Bk   (Unión finita)
k=1 Bk   (Unión infinita: ocurre al menos uno)
k=1n Bk   (Intersección finita)
k=1 Bk   (Intersección infinita: ocurren todos)

📐 Leyes extendidas

A ∪ (k=1 Bk) = k=1 (A ∪ Bk)
A ∩ (k=1 Bk) = k=1 (A ∩ Bk)
k=1 Bk = k=1 Bk
k=1 Bk = k=1 Bk

🧩 Teoría de Conjuntos Básica

🎯 Conjunto Potencia

Para Ω ≠ ∅:

℘(Ω) = 2^Ω = {A | A ⊆ Ω}

Si |Ω| = n < ∞:

|2^Ω| = 2ⁿ

Ejemplo:

  • Ω = {a, b, c}
  • 2^Ω = {∅, {a}, {b}, {c}, {a,b}, {a,c}, {b,c}, Ω}
  • |2^Ω| = 8 = 2³

✖️ Producto Cartesiano

A × B = {(x,y) | x ∈ A, y ∈ B}
A₁ × ... × Aₙ = {(x₁,...,xₙ) | xᵢ ∈ Aᵢ}

Propiedades:

  • No conmutativo: A × B ≠ B × A
  • Cardinalidad: |A × B| = |A|·|B|
  • Extensión: |A₁ × … × Aₖ| = n₁·…·nₖ

Ejemplos:

ℝ² = ℝ × ℝ
ℝⁿ = ℝ × ... × ℝ   (n veces)

🔀 Conjuntos Ajenos y Particiones

Ajenos (disjuntos):

A ∩ B = ∅

Partición de Ω:

  1. Aᵢ ∩ Aⱼ = ∅ para i ≠ j
  2. k=1n Ak = Ω

Tipos:

  • Mutuamente excluyentes: k=1n Ak = ∅
  • Dos a dos: Aᵢ ∩ Aⱼ = ∅ ∀ i ≠ j

33 📊 RESUMEN DE PROPIEDADES

📋 Tabla resumen de operaciones

Operación Conmutativa Idempotencia Elemento neutro Absorbente Complementariedad
Unión (∪) A ∪ A = A Ω A ∪ A = Ω
Intersección (∩) A ∩ A = A Ω A ∩ A = ∅
Diferencia (-) No A - A = ∅ Ω - A = A

34 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Las operaciones entre eventos (unión, intersección, diferencia, complemento) siguen las leyes del álgebra de conjuntos
  • Las Leyes de De Morgan son fundamentales para transformar uniones en intersecciones y viceversa
  • El producto cartesiano permite construir espacios muestrales multidimensionales
  • Una partición de Ω es un conjunto de eventos disjuntos cuya unión es Ω
  • La cardinalidad del conjunto potencia es 2ⁿ cuando |Ω| = n

¡Perfecto! Aquí tienes el texto sobre Ejemplos de Conteo y Probabilidad, Álgebra de Boole, Definiciones de Probabilidad y Propiedades reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


35 📊 EJEMPLOS DE CONTEO Y PROBABILIDAD

📐 Ejemplos de Conteo y Probabilidad

✖️ Principio Fundamental de Conteo

Ejemplo 1: Un hombre con 6 camisas y 7 pantalones puede vestirse de:

6 × 7 = 42 formas diferentes

Ejemplo 2: Una mujer con 3 sombreros, 6 blusas, 8 faldas y 10 pares de zapatos puede vestirse de:

3 × 6 × 8 × 10 = 1,440 formas diferentes

🧩 Álgebra de Boole

📐 Definición de Álgebra

Una familia 𝒜 de subconjuntos de Ω es un álgebra si:

  1. Ω ∈ 𝒜
  2. A, B ∈ 𝒜 ⇒ A ∪ B ∈ 𝒜
  3. A ∈ 𝒜 ⇒ A ∈ 𝒜

📊 σ-Álgebra

𝒜 es una σ-álgebra si además cumple:

∀ {Aᵢ}i∈ℕ ⊆ 𝒜, ⋃i∈ℕ Aᵢ ∈ 𝒜

🔄 Correspondencia con teoría de conjuntos

Probabilidad Teoría de Conjuntos
Suceso seguro Conjunto universal (Ω)
Suceso elemental Punto
Sucesos incompatibles Conjuntos disjuntos
Unión de sucesos Unión de conjuntos

📐 σ-Álgebra: Definición Formal

Una colección 𝓕 de subconjuntos de Ω es una σ-álgebra si cumple:

  1. Contiene el espacio muestral: Ω ∈ 𝓕
  2. Cerrada bajo complementación: ∀ A ∈ 𝓕, Aᶜ ∈ 𝓕
  3. Cerrada bajo uniones e intersecciones numerables:
    ∀ {Aₙ}n=1 ⊆ 𝓕, ⋃n=1 Aₙ ∈ 𝓕  y  ⋂n=1 Aₙ ∈ 𝓕

Implicaciones:

  • Permite enfocarse solo en eventos medibles
  • Garantiza estabilidad bajo operaciones infinitas

✏️ Ejercicio de Demostración

Dada una σ-álgebra 𝓕 y sucesiones {Aₙ}, {Bₙ} ⊆ 𝓕, pruebe que:

(⋂n=1 Aₙᶜ) ∪ (⋃n=1 Bₙᶜ) ∈ 𝓕

Sugerencias:

  1. Aplique la propiedad de complementación a cada Aₙ y Bₙ
  2. Use la cerradura bajo uniones/inters. numerables
  3. Recuerde que 𝓕 es cerrada bajo combinaciones de estas operaciones

📊 Definiciones de Probabilidad

  1. Definición Clásica (Laplace)

P(A) = N° casos favorables / N° casos posibles

Limitaciones:

  • Requiere equiprobabilidad de eventos elementales
  • Inaplicable cuando |Ω| = ∞ o no se pueden enumerar casos

  1. Definición Frecuentista (Bernoulli)

P(A) = limn→∞ n_A / n

donde: n = total de ensayos, n_A = ocurrencias de A

Problemas Prácticos:

  • Imposibilidad de realizar infinitas repeticiones
  • Condiciones experimentales pueden variar
  • Solo proporciona aproximaciones

  1. Enfoque Axiomático (Kolmogorov)

Supera las limitaciones anteriores mediante:

  • Espacio de probabilidad (Ω, 𝓕, P)
  • Axiomas:
    • P(Ω) = 1
    • P(A) ≥ 0 ∀ A ∈ 𝓕
    • σ-aditividad: Para {Aᵢ}i=1 disjuntos:
      P(⋃i=1 Aᵢ) = Σi=1 P(Aᵢ)

Ventajas: Aplica a espacios discretos y continuos; base matemática rigurosa.


📈 Evolución hacia la Definición Axiomática

Para superar las limitaciones, se desarrolló un enfoque riguroso basado en:

  • Teoría de Conjuntos (Émile Borel, 1871-1956)
  • Teoría de la Medida (Henri Lebesgue, 1875-1941)

📐 Definición Axiomática (1933)

Una medida de probabilidad ℙ en (Ω, 𝓕) satisface:

  1. Normalización: ℙ(Ω) = 1
  2. No-negatividad: ℙ(A) ≥ 0 ∀ A ∈ 𝓕
  3. σ-Aditividad: Para eventos disjuntos {Aₙ}n=1:
    ℙ(⋃n=1 Aₙ) = Σn=1 ℙ(Aₙ)

📊 Propiedades Fundamentales

📐 Teorema Básico

Para cualquier espacio probabilístico (Ω, 𝓕, ℙ):

1. Probabilidad del Complemento:

ℙ(Aᶜ) = 1 - ℙ(A)

Corolario: ℙ(∅) = 0

2. Monotonía:

A ⊆ B ⇒ ℙ(A) ≤ ℙ(B)

3. Ley de Probabilidad Total:

ℙ(B) = ℙ(A ∩ B) + ℙ(Aᶜ ∩ B)

✏️ Ejercicios de Demostración

  1. Complementariedad: Use Ω = A ∪ Aᶜ y axioma 3
  2. Probabilidad Vacía: Aplique complementariedad con A = Ω
  3. Monotonía: Exprese B = A ∪ (B  A)

📐 Propiedades de las Medidas de Probabilidad

🎯 Principio de Inclusión-Exclusión

Para n eventos:

ℙ(⋃i=1n Aᵢ) = Σ ℙ(Aᵢ) - Σ ℙ(Aᵢ∩Aⱼ) + Σ ℙ(Aᵢ∩Aⱼ∩Aₖ) - ... + (-1)ⁿ⁺¹ ℙ(⋂ Aᵢ)

Caso particular para 2 eventos:

ℙ(A ∪ B) = ℙ(A) + ℙ(B) - ℙ(A ∩ B)

Para eventos mutuamente excluyentes:

Aᵢ ∩ Aⱼ = ∅ ∀ i ≠ j ⇒ ℙ(⋃ Aᵢ) = Σ ℙ(Aᵢ)

⚠️ Limitaciones Prácticas

  • Las definiciones teóricas no proporcionan métodos directos de cálculo
  • En la práctica se usan:
    • Enfoque clásico (para espacios finitos equiprobables)
    • Enfoque frecuentista (para estimaciones empíricas)
Principio de Inclusión-Exclusión A B A ∩ B P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

36 📊 RESUMEN DE DEFINICIONES DE PROBABILIDAD

📋 Tabla comparativa

Enfoque Fórmula Ventajas Limitaciones
Clásica (Laplace) P(A) = casos favorables/casos posibles Simple, intuitiva Requiere equiprobabilidad, Ω finito
Frecuentista (Bernoulli) P(A) = lim n_A/n Aplicable a eventos repetibles Requiere infinitas repeticiones
Axiomática (Kolmogorov) Axiomas de probabilidad Rigurosa, aplicable a Ω finito/infinito No proporciona método de cálculo directo

37 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • El principio fundamental de conteo (multiplicación) es base para calcular probabilidades en espacios finitos
  • Las σ-álgebras son estructuras que garantizan que los eventos sean medibles y estables bajo operaciones numerables
  • La definición axiomática de Kolmogorov (1933) unifica y generaliza los enfoques anteriores
  • El principio de inclusión-exclusión es fundamental para calcular probabilidades de uniones de eventos no disjuntos
  • La elección del enfoque depende del contexto: axiomático para teoría, clásico/frecuentista para aplicaciones prácticas

¡Perfecto! Aquí tienes el texto sobre Probabilidad para Tres Eventos, Teoremas Fundamentales, Independencia y Ejercicios reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


38 📊 PROBABILIDAD PARA TRES EVENTOS Y TEOREMAS FUNDAMENTALES

📐 Probabilidad para Tres Eventos

🎯 Principio de Inclusión-Exclusión

Para tres eventos A, B y C:

ℙ(A ∪ B ∪ C) = ℙ(A) + ℙ(B) + ℙ(C) 
                - ℙ(A ∩ B) - ℙ(A ∩ C) - ℙ(B ∩ C) 
                + ℙ(A ∩ B ∩ C)
Diagrama de Venn para tres eventos A B C

📊 Probabilidad Condicional

Si ℙ(B) > 0:

ℙ(A|B) = ℙ(A ∩ B) / ℙ(B)

Propiedades:

  1. ℙ(A ∩ B) = ℙ(A|B)·ℙ(B) = ℙ(B|A)·ℙ(A)
  2. Regla del producto para n eventos:
ℙ(⋂i=1n Aᵢ) = ∏i=1n ℙ(Aᵢ | ⋂j=1i-1 Aⱼ)

📊 Ejemplo Práctico

Datos:

  • 60% chicas (ℙ(F) = 0.6)
  • 30% rubias entre chicas (ℙ(R|F) = 0.3)
  • 40% usan gafas entre rubias (ℙ(G|R ∩ F) = 0.4)

Cálculos:

1. Chica rubia:

ℙ(F ∩ R) = ℙ(R|F)·ℙ(F) = 0.3 × 0.6 = 0.18

2. Chica rubia con gafas:

ℙ(F ∩ R ∩ G) = ℙ(G|R∩F)·ℙ(R|F)·ℙ(F) = 0.4 × 0.3 × 0.6 = 0.072

📐 Teoremas Fundamentales

📊 Probabilidad Total

Para partición {Aᵢ}i=1n de Ω:

ℙ(B) = Σi=1n ℙ(B|Aᵢ)·ℙ(Aᵢ)

🔄 Teorema de Bayes

ℙ(Aᵢ|B) = ℙ(Aᵢ)·ℙ(B|Aᵢ) / Σj=1n ℙ(Aⱼ)·ℙ(B|Aⱼ)

🔍 Ejemplo de aplicación (Caso del detective)

Datos:

  • 5 sospechosos (1 culpable)
  • Error detective: ℙ(I|A) = 0.05, ℙ(C|I) = 0.08

Probabilidad de ser culpable dado que el detective cree que lo es:

ℙ(A|C) = (0.2 × 0.95) / (0.2 × 0.95 + 0.8 × 0.08) = 0.19 / 0.254 ≈ 0.748

📐 Demostración del Teorema de Bayes

🔢 Paso 1: Definición de Probabilidad Condicional

ℙ(Aₖ|B) = ℙ(Aₖ ∩ B)/ℙ(B) = ℙ(Aₖ)·ℙ(B|Aₖ)/ℙ(B)

🔢 Paso 2: Aplicación de Probabilidad Total

ℙ(Aᵢ|B) = ℙ(Aᵢ)·ℙ(B|Aᵢ) / Σj=1k ℙ(Aⱼ)·ℙ(B|Aⱼ)

🔗 Independencia de Eventos

Definición de Independencia:

  • Dos eventos A y B son independientes si:
ℙ(A ∩ B) = ℙ(A)·ℙ(B)
  • Consecuencia (para eventos independientes):
ℙ(B|A) = ℙ(B)
  • n eventos A₁, …, Aₙ son mutuamente independientes si para cualquier subconjunto:
ℙ(⋂j=1k Aᵢⱼ) = ∏j=1k ℙ(Aᵢⱼ)

✏️ Ejercicio 16

a) Si A y B son independientes, demuestre que: A y B son independientes, A y B son independientes, A y B son independientes.

Solución:

ℙ(A ∩ B) = ℙ(B) - ℙ(A ∩ B) = ℙ(B) - ℙ(A)ℙ(B) = ℙ(B)(1-ℙ(A)) = ℙ(A)ℙ(B)

🏀 Ejercicio 18 (Lanzamientos de baloncesto)

a) Probabilidad de encestar 3 lanzamientos seguidos:

(1/4)³ = 1/64

b) Probabilidad de al menos 3 éxitos en 5 intentos (distribución binomial):

Σk=35 C(5,k)·(1/4)ᵏ·(3/4)5-k

📊 Ejercicios Variados

🎲 Ejercicio 4 (Dados distintos)

  • Espacio muestral: 36 resultados posibles (i,j) con i,j ∈ {1,…,6}
  • Suma 7: {(1,6),(2,5),…,(6,1)} → 6 casos
ℙ(suma 7) = 6/36 = 1/6

👤 Ejercicio 12 (Probabilidad condicional)

Datos:

  • 30% varones (ℙ(V)=0.3)
  • 20% varones rubios (ℙ(R|V)=0.2)
  • 50% mujeres rubias (ℙ(R|M)=0.5)

Solución:

a) Varón rubio:

ℙ(V∩R) = 0.2×0.3 = 0.06

b) Probabilidad total de rubio:

ℙ(R) = 0.2×0.3 + 0.5×0.7 = 0.41

c) Probabilidad inversa:

ℙ(V|R) = 0.06/0.41 ≈ 0.1463

📊 Ejercicio (Encuesta productos)

📋 Tabla de contingencia

Producto Hombres Mujeres Total
A 225 180 405
B 175 120 295

📊 Diagrama de Venn

  • Conjuntos: Hombres (H), Mujeres (M), Producto A (A), Producto B (B)
  • Intersecciones calculadas con ℙ(X ∩ Y) = ℙ(X)·ℙ(Y|X)

📐 Teoremas Avanzados

✏️ Ejercicio 17 (Probabilidad compuesta)

ℙ(Ganar) = (4/5) × (3/4) × (2/3) × (1/2) = 24/120 = 0.2

39 📊 RESUMEN DE FÓRMULAS CLAVE

📋 Tabla de fórmulas

Concepto Fórmula
Inclusión-Exclusión (3 eventos) ℙ(A∪B∪C) = ℙ(A)+ℙ(B)+ℙ(C) - ℙ(A∩B)-ℙ(A∩C)-ℙ(B∩C) + ℙ(A∩B∩C)
Probabilidad Condicional ℙ(A|B) = ℙ(A∩B)/ℙ(B)
Regla del Producto ℙ(∩Aᵢ) = ∏ ℙ(Aᵢ | ∩j<i Aⱼ)
Probabilidad Total ℙ(B) = Σ ℙ(B|Aᵢ)·ℙ(Aᵢ)
Teorema de Bayes ℙ(Aᵢ|B) = ℙ(Aᵢ)·ℙ(B|Aᵢ) / Σ ℙ(Aⱼ)·ℙ(B|Aⱼ)
Independencia ℙ(A∩B) = ℙ(A)·ℙ(B)

40 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • El principio de inclusión-exclusión se extiende a 3 o más eventos
  • La probabilidad condicional permite actualizar probabilidades con información parcial
  • El teorema de Bayes es fundamental para inferencia estadística y aprendizaje automático
  • La independencia simplifica enormemente el cálculo de probabilidades conjuntas
  • Los ejercicios resueltos muestran aplicaciones prácticas en contextos reales (encuestas, juegos, diagnósticos)

¡Perfecto! Aquí tienes el texto sobre Variables Aleatorias, Función de Distribución, Esperanza y Varianza reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


41 📊 VARIABLES ALEATORIAS

📐 Definición Formal

Dado un espacio de probabilidad (Ω, 𝓕, ℙ), una variable aleatoria es una función medible:

X: Ω → ℝ

tal que para todo x ∈ ℝ:

{ω ∈ Ω: X(ω) ≤ x} ∈ 𝓕

Notación:

ℙ[X ≤ x] := ℙ({ω: X(ω) ≤ x})

📊 Variables Aleatorias Discretas

🎯 Definición

Una variable aleatoria X es discreta si toma valores en un conjunto finito o numerable {x₁, x₂, …} ⊂ ℝ.

📊 Función de Masa de Probabilidad

Asociada a X, existe una función f que cumple:

  1. f(x) = ℙ(X = x) ≥ 0
  2. A = {x: f(x) > 0} es finito o numerable
  3. ∑_{x∈A} f(x) = 1

🎲 Ejemplos Clásicos

Ejemplo 1: Lanzamiento de Monedas

  • Experimento: Lanzar 10 monedas
  • Variable aleatoria: X = número de caras
  • Distribución: X(ω) ∈ {0,1,…,10}
f(k) = C(10,k)·(1/2)¹⁰

Ejemplo 2: Dos Monedas

Espacio muestral: Ω = {SS, SC, CS, CC}

Variable X: Número de caras

ω ℙ(ω) X(ω)
SS 1/4 0
SC, CS 1/2 1
CC 1/4 2

Función de masa:

x ℙ(X = x)
0 1/4
1 1/2
2 1/4

📐 Propiedades Fundamentales

Para cualquier conjunto A ⊆ ℝ:

ℙ(X ∈ A) = Σ_{xᵢ ∈ A} f(xᵢ)

Demostración:

ℙ(X ∈ A) = ℙ(⋃_{xᵢ∈A} {X = xᵢ}) = Σ_{xᵢ∈A} ℙ(X = xᵢ) = Σ_{xᵢ∈A} f(xᵢ)

📊 Función de Distribución Acumulativa (Caso Discreto)

📐 Definición

Para una variable aleatoria discreta X, la función de distribución acumulativa (FDA) F se define como:

F(t) = ℙ(X ≤ t) = Σ_{x ≤ t} f(x)

📋 Propiedades de la FDA

Una función F: ℝ → [0,1] es una FDA si cumple:

  1. Acotamiento: 0 ≤ F(x) ≤ 1 ∀ x ∈ ℝ
  2. Comportamiento en infinito: lim_{x→-∞} F(x) = 0 y lim_{x→∞} F(x) = 1
  3. Continuidad por la derecha: lim_{x↓a} F(x) = F(a)
  4. Monotonía: x < y ⇒ F(x) ≤ F(y)

🎯 Teorema Fundamental

Para cualquier a ≤ b:

ℙ(a < X ≤ b) = F(b) - F(a)

📊 Esperanza y Momentos

Sea X una variable aleatoria discreta. Si Σ|xᵢ|f(xᵢ) < ∞, definimos la esperanza (media) de X como:

μ = E[X] = Σ xᵢ f(xᵢ)

📋 Propiedades de la Esperanza

  1. Si ℙ(X = c) = 1, entonces E[X] = c
  2. Si ℙ(X ≤ Y) = 1, entonces E[X] ≤ E[Y]
  3. Si ℙ(X ≥ c) = 1, entonces E[X] ≥ c; si ℙ(X ≤ c) = 1, entonces E[X] ≤ c
  4. |E[X]| ≤ E[|X|]
  5. Si Y = g(X), entonces E[Y] = Σ g(xᵢ) f(xᵢ)
  6. Linealidad: E[Σ cᵢXᵢ] = Σ cᵢE[Xᵢ]

📊 Varianza de una Variable Aleatoria

📐 Definición

Sea X una variable con media finita. La varianza de X se define como:

σ² = Var[X] = E[(X - μ)²]

La desviación estándar de X se define como σ = √(σ²).

📋 Propiedades de la Varianza

  1. Var(cX) = c²·Var(X)
  2. Var(X + c) = Var(X)
  3. Var(X) ≥ 0, igualdad solo si ℙ(X = c) = 1
  4. Var(X) = E[X²] - (E[X])²

🎲 Ejercicios de Aplicación

✏️ Ejercicio 1

Demuestre que si X es una variable aleatoria que toma valores 0,1,2,… y con esperanza finita, entonces:

E[X] = Σ_{n=0}^{∞} ℙ(X > n)

✏️ Ejercicio 2

Sea X una variable aleatoria con función de densidad:

ℙ[X = x] = 1/[x(x+1)]  para x = 1,2,3,...

Demuestre que E[X] no existe.

✏️ Ejercicio 3

Suponga que X y Y son variables aleatorias tales que ℙ(|X - Y| ≤ M) = 1 para alguna constante M. Suponga que E[Y] < ∞ y demuestre que X tiene esperanza finita y |E[X] - E[Y]| ≤ M.


📊 Ejemplo: Función Distribución

Lanzamos una moneda dos veces y sea X el número de caras. Entonces:

  • ℙ(X=0) = ℙ(X=2) = 1/4, ℙ(X=1) = 1/2

La función distribución es:

F_X(x) = { 0,    x < 0
         { 1/4,  0 ≤ x < 1
         { 3/4,  1 ≤ x < 2
         { 1,    x ≥ 2 }
Función de Distribución - Dos Monedas

📊 Variables Aleatorias Continuas

📐 Definición

Una variable aleatoria es continua si existe una función f_X tal que:

  • f_X(x) ≥ 0 para todo x
  • ∫_{-∞}^{∞} f_X(x) dx = 1
  • Para todo a ≤ b:
ℙ(a < X < b) = ∫_a^b f_X(x) dx

📋 Recursos Adicionales

🎥 Video: Variables Aleatorias Parte 1
https://youtu.be/J9ocsID-o_Y

📝 Taller de Técnicas de Conteo
https://forms.gle/ooLbCwuA6UZ84jb66

📝 Taller 7: Variables Aleatorias
https://forms.gle/nE1oK31nRRG6RdDC9


42 📊 RESUMEN DE FÓRMULAS CLAVE

📋 Tabla de fórmulas

Concepto Fórmula
Esperanza (discreta) E[X] = Σ xᵢ f(xᵢ)
Varianza Var(X) = E[(X-μ)²] = E[X²] - (E[X])²
FDA F(t) = ℙ(X ≤ t) = Σ_{x≤t} f(x)
Probabilidad en intervalo ℙ(a < X ≤ b) = F(b) - F(a)
Linealidad de esperanza E[Σ cᵢXᵢ] = Σ cᵢE[Xᵢ]
Transformación Y = g(X) E[Y] = Σ g(xᵢ)f(xᵢ)

43 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Una variable aleatoria es una función que asigna números reales a los resultados de un experimento aleatorio
  • La función de masa (pmf) asigna probabilidades a valores específicos en variables discretas
  • La función de distribución (CDF) acumula probabilidades y determina completamente la distribución
  • La esperanza E[X] es el valor promedio ponderado de X
  • La varianza Var(X) mide la dispersión alrededor de la media
  • Linealidad de la esperanza: E[aX + bY] = aE[X] + bE[Y]

¡Perfecto! Aquí tienes el texto sobre Distribuciones Discretas y Continuas más Comunes reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


44 📊 DISTRIBUCIONES DISCRETAS MÁS COMUNES

📐 Distribución Uniforme Discreta

Si Y es una variable aleatoria discreta cuyo soporte es el conjunto {y₁, y₂, …, yₙ} y tiene distribución uniforme discreta, entonces escribiremos Y ∼ U{y₁, y₂, …, yₙ}.

📊 Función de probabilidad

P(Y = y) = 1/n,  para y = y₁, y₂, ..., yₙ

Ejemplo: Y ∼ U(0,1,…,9) → P(U = j) = 1/10, para j = 0,1,…,9

📐 Parámetros

E[Y] = (1/n) Σ yⱼ = (n+1)/2
Var(Y) = (1/n) Σ (yⱼ - E[Y])² = (n² - 1)/12

🎲 Ejemplo en R

dunifdisc <- function(x, min=1, max=6) 
  ifelse(x>=min & x<=max & round(x)==x, 1/(max-min+1), 0)
dunifdisc(2)  # 0.1666667

📊 Distribución Binomial

Binomial: X ∼ Bin(n, p)

ℙ(X = x) = C(n, x)·pˣ·(1-p)ⁿ⁻ˣ,  x = 0,1,...,n

📐 Parámetros:

E[X] = np
Var(X) = np(1-p)

📊 Momentos:

E[(X-μ)³] = np(1-3p+2p²)
E[(X-μ)⁴] = np(1-p)[1+3(n-2)p(1-p)]

📊 Distribución Geométrica

Geométrica: X ∼ Geom(p)

ℙ(X = x) = p·(1-p)ˣ⁻¹,  x = 1,2,3,...
E[X] = 1/p          Var(X) = (1-p)/p²

📊 Distribución Binomial Negativa

Binomial Negativa: X ∼ NegBin(r, p)

ℙ(X = x) = C(x-1, r-1)·pʳ·(1-p)ˣ⁻ʳ,  x = r, r+1,...
E[X] = r/p          Var(X) = r(1-p)/p²

📊 Distribución Hipergeométrica

Hipergeométrica: X ∼ Hiper(n, D, N)

ℙ(X = x) = C(D, x)·C(N-D, n-x) / C(N, n),  max(0,n-N+D) ≤ x ≤ min(n,D)
E[X] = np          Var(X) = np(1-p)·(N-n)/(N-1),  con p = D/N

📊 Distribución de Poisson

Poisson: X ∼ Poi(λ)

ℙ(X = x) = e⁻ˡ·λˣ / x!,  x = 0,1,2,...
E[X] = λ
Var(X) = λ
E[(X-λ)³] = λ
E[(X-λ)⁴] = 3λ² + λ

📊 Variables Continuas

Una variable aleatoria continua toma valores en subintervalos o dentro de conjuntos generados por subintervalos de ℝ.

Ejemplos:

  • Precio de un instrumento financiero
  • Tiempo hasta incumplimiento contractual
  • Rendimientos de un portafolio

🎯 Ejemplo geométrico

Considere el experimento de elegir un punto al azar dentro del disco de radio R centrado en el origen. Sea X la distancia entre el punto elegido y el origen. Encuentre la función de distribución de X.


📐 Teorema y Consecuencias

Teorema: Una variable aleatoria X es continua si y sólo si su función de distribución F es continua en todo punto x.

Consecuencia: Para cualesquiera números a ≤ b:

ℙ(a < X < b) = ℙ(a ≤ X ≤ b) = ℙ(a ≤ X < b)

📊 Función de Densidad (Caso Continuo)

Una función de densidad es una función no negativa f ≥ 0 tal que:

∫_{-∞}^{∞} f(x) dx = 1

Si f es una función de densidad, entonces la función F definida por:

F(x) = ∫_{-∞}^{x} f(y) dy,  -∞ < x < ∞

es una función de distribución.

Para una variable aleatoria continua X con densidad f:

ℙ(a ≤ X ≤ b) = ∫_a^b f(x) dx

De manera más general, si A es unión numerable de intervalos disjuntos:

ℙ(X ∈ A) = ∫_A f(x) dx

Importante: Si F es absolutamente continua, la densidad f no es única (puede modificarse en conjuntos de medida cero sin alterar la integral).


📊 Ejemplo de Variable Continua

Una variable aleatoria continua X tiene función de densidad:

f(x) = { k(6-3x),  si 0 ≤ x ≤ 2
       { 0,        si x < 0 o x > 2

1. Determinar el valor de k

∫₀² k(6-3x) dx = 1 → k[6x - (3/2)x²]₀² = k(12 - 6) = 6k = 1 → k = 1/6

2. Probabilidades:

  • P(X ≤ 1) = ∫₀¹ (1/6)(6-3x) dx = (1/6)[6x - (3/2)x²]₀¹ = (1/6)(6 - 1.5) = 4.5/6 = 0.75
  • P(X > 2) = 0
  • P(X = 1/4) = 0
  • P(1/3 ≤ X ≤ 2/3) = ∫_{1/3}^{2/3} (1/6)(6-3x) dx = 0.3611

3. μ y σ (Ejercicio propuesto)

4. Función de distribución F(x) (Ejercicio propuesto)


45 📊 RESUMEN DE DISTRIBUCIONES DISCRETAS

📋 Tabla comparativa

Distribución Parámetros P(X = k) E[X] Var(X)
Uniforme Discreta n 1/n (n+1)/2 (n²-1)/12
Bernoulli p p·1(k)·(1-p)(1-k) p p(1-p)
Binomial n, p C(n,k)·pᵏ·qⁿ⁻ᵏ np npq
Geométrica p p·qᵏ⁻¹ 1/p q/p²
Binomial Negativa r, p C(k-1,r-1)·pʳ·qᵏ⁻ʳ r/p rq/p²
Hipergeométrica N, D, n C(D,k)C(N-D,n-k)/C(N,n) nD/N npq·(N-n)/(N-1)
Poisson λ e⁻ˡ·λᵏ/k! λ λ

46 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Las distribuciones discretas modelan conteos y fenómenos con resultados finitos o infinitos numerables
  • La distribución uniforme discreta asigna la misma probabilidad a cada resultado
  • La Binomial cuenta éxitos en n ensayos fijos; la Geométrica cuenta ensayos hasta el primer éxito
  • La Poisson aproxima a la Binomial cuando n es grande y p pequeño (λ = np)
  • Las variables aleatorias continuas tienen función de densidad f(x) y probabilidad puntual cero
  • La función de distribución F(x) es continua para variables continuas

¡Perfecto! Aquí tienes el texto sobre Función de Densidad (Caso Continuo) - Ejemplos Resueltos, Teorema de Cambio de Variable y Repaso de Distribuciones Discretas reescrito en el formato similar a los ejercicios anteriores.


47 📊 FUNCIÓN DE DENSIDAD (CASO CONTINUO) - EJEMPLOS RESUELTOS

📐 Ejemplo 1: Solución completa

Función de densidad:

f(x) = { k(6-3x),  si 0 ≤ x ≤ 2; 0, en otro caso }

1. Valor de k: k = 1/6

2. Probabilidades:

  • P(X ≤ 1) = 0.75
  • P(X > 2) = 0
  • P(X = 1/4) = 0
  • P(1/3 ≤ X ≤ 2/3) = 1/4

3. Parámetros:

  • μ = 2/3
  • σ² = 2/9
  • σ = √2/3

4. Función de distribución:

F(x) = { 0,          si x < 0
       { x - x²/4,   si 0 ≤ x ≤ 2
       { 1,          si 2 < x }

📐 Ejemplo 2: Solución completa

1. Probabilidad: P(1/2 ≤ X ≤ 5/4) = 19/32

2. Función de distribución:

F(x) = { 0,                si x < 0
       { x²/2,             si 0 ≤ x ≤ 1
       { -x²/2 + 2x - 1,   si 1 < x ≤ 2
       { 1,                si 2 < x }

3. Parámetros:

  • μ = 1
  • σ² = 1/6
  • σ = 1/√6

📐 Ejemplo 3: Ejercicio propuesto

Calcular:

  • P(X < 1)
  • P(X > 0)
  • P(X = 1/4)
  • P(1/2 ≤ X ≤ 3/2)

🔋 Ejemplo 4: Duración de baterías

Función de densidad:

f(x) = { e^{-x/10}/10,  si x ≥ 0; 0, si x < 0 }

1. Verificación: ∫f(x)dx = 1

2. Función de distribución:

F(x) = { 0, si x < 0; 1 - e^{-x/10}, si x ≥ 0 }

3. Probabilidades:

  • P(X < 5) = 0.3935
  • P(5 < X < 10) = 0.2387

4. Vida media: μ = 10 años


⛽ Ejemplo 5: Proporción de aditivo en gasolina

Función de densidad: f(x) = 6x(1-x), para 0 ≤ x ≤ 1

Clasificación:

  • Tipo I (x < 0.5): precio $0.6
  • Tipo II (0.5 ≤ x ≤ 0.8): precio $0.7
  • Tipo III (x > 0.8): precio $0.8

Se pide:

  1. Calcular la función de distribución F(x)
  2. Calcular los porcentajes de producción de cada tipo
  3. Calcular el precio medio por litro

⏰ Ejemplo 6: Hora de llegada al trabajo

1. Función de densidad:

f(x) = { 1, si 6 ≤ x ≤ 7; 0, en otro caso }

2. Función de distribución:

F(x) = { 0, si x < 6; x-6, si 6 ≤ x ≤ 7; 1, si 7 < x }

3. Probabilidad: P(6.25 < X < 6.5) = 0.25

4. Hora media: μ = 6.5 (6:30 AM)


48 📊 TEOREMA DE CAMBIO DE VARIABLE

📐 Teorema de cambio de variable

Sea ψ una función derivable, estrictamente creciente o decreciente sobre un intervalo I con rango ψ(I). Sea X una variable aleatoria continua con densidad f tal que f(x) = 0 para x ∉ I. Entonces Y = ψ(X) tiene densidad:

g(y) = f(ψ⁻¹(y)) · | d/dy ψ⁻¹(y) |,   y ∈ ψ(I)

📐 Demostración

Caso ψ creciente: G(y) = F(ψ⁻¹(y)) → g(y) = f(ψ⁻¹(y))·(d/dy)ψ⁻¹(y)

Caso ψ decreciente: G(y) = 1 - F(ψ⁻¹(y)) → g(y) = -f(ψ⁻¹(y))·(d/dy)ψ⁻¹(y)

En ambos casos: g(y) = f(ψ⁻¹(y))·|(d/dy)ψ⁻¹(y)|


✏️ Ejercicios de Cambio de Variable

Ejercicio 1: Sea X continua con densidad f. Encuentre la densidad de Y = X².

Ejercicio 2 (Hoel pag 119): X ∼ Uniforme(0,1), F_X(x)=x. Encuentre la densidad de Y = - (1/λ)·ln(1-X) para λ > 0.

Ejercicio 3 (Método de transformada inversa): Sea X continua con distribución F y densidad f. Encuentre la distribución de Y = F(X). ¿Cómo generaría números aleatorios con la misma distribución de X a partir de Y?

Ejercicio 4: Sea X continua positiva con densidad f. Encuentre una fórmula para la densidad de Y = 1/(X+1).

Ejercicio 5: Sea X variable aleatoria, g función de densidad y φ derivable estrictamente creciente sobre ℝ. Suponga que ℙ(X ≤ x) = ∫_{-∞}^{φ(x)} g(z) dz. Demuestre que Y = φ(X) tiene densidad g.


49 📊 REPASO DE DISTRIBUCIONES DISCRETAS

📊 Distribución Binomial

Bin(n,p):

ℙ(X=x) = C(n,x)·pˣ·(1-p)ⁿ⁻ˣ,  x=0,1,...,n
E[X]=np,  Var(X)=np(1-p),  E[(X-μ)³]=np(1-3p+2p²)
E[(X-μ)⁴]=np(1-p)[1+3(n-2)p(1-p)]

📊 Distribución Geométrica

Geom(p):

ℙ(X=x) = p·(1-p)ˣ⁻¹,  x=1,2,3,...;  E[X]=1/p,  Var(X)=(1-p)/p²

📊 Distribución Binomial Negativa

NegBin(r,p):

ℙ(X=x) = C(x-1, r-1)·pʳ·(1-p)ˣ⁻ʳ,  x=r,r+1,...;  E[X]=r/p,  Var(X)=r(1-p)/p²

📊 Distribución Hipergeométrica

Hiper(n,D,N):

ℙ(X=x) = C(D,x)·C(N-D,n-x)/C(N,n),  max(0,n-N+D)≤x≤min(n,D)
E[X]=np = n·D/N,  Var(X)=np(1-p)·(N-n)/(N-1)

📊 Distribución Poisson

Poi(λ):

ℙ(X=x) = e⁻ˡ·λˣ/x!,  x=0,1,2,...;  E[X]=λ,  Var(X)=λ
E[(X-λ)³]=λ,  E[(X-λ)⁴]=3λ²+λ

50 📊 RESUMEN DE DISTRIBUCIONES CONTINUAS

📋 Distribuciones continuas presentadas

Distribución f(x) E[X] Var(X)
Uniforme Continua 1/(b-a), a≤x≤b (a+b)/2 (b-a)²/12
Exponencial λe^{-λx}, x≥0 1/λ 1/λ²
Ejemplo 1 k(6-3x), 0≤x≤2 2/3 2/9
Ejemplo 2 (Ver enunciado) 1 1/6
Ejemplo 4 e^{-x/10}/10, x≥0 10 100

51 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La función de densidad f(x) debe cumplir f(x) ≥ 0 y ∫ f = 1
  • Para una variable continua: P(X = a) = 0 para cualquier valor específico a
  • La esperanza μ = E[X] es el centro de masa de la distribución
  • El teorema de cambio de variable permite encontrar la densidad de Y = ψ(X) a partir de la densidad de X
  • El método de la transformada inversa (Ejercicio 3) es fundamental para generar números aleatorios con una distribución específica
  • Las distribuciones discretas (Binomial, Geométrica, Poisson) son casos especiales que se obtienen como sumas de variables Bernoulli independientes

¡Perfecto! Aquí tienes el texto sobre Distribuciones Continuas más Comunes reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.


52 📊 DISTRIBUCIONES CONTINUAS MÁS COMUNES

📊 Distribución Uniforme U(a,b)

La distribución uniforme continua asigna la misma densidad a todos los valores dentro del intervalo [a, b], donde a, b ∈ ℝ, a < b.

📐 Función de densidad

f(x) = 1/(b-a),  para a ≤ x ≤ b

📐 Parámetros

E[X] = (a + b)/2
Var(X) = (b - a)²/12
Distribución Uniforme U(a,b) a b

⚡ Distribución Exponencial Exp(λ)

La distribución exponencial modela el tiempo de espera hasta la ocurrencia de un evento en un proceso de Poisson, con parámetro λ > 0.

📐 Función de densidad

f(x) = (1/λ)·e^{-x/λ},  para x > 0

Alternativamente, con tasa λ: f(x) = λ·e^{-λx}

📐 Momentos y parámetros

E[Xⁿ] = λⁿ·n!
E[X] = λ,  Var(X) = λ²
Distribución Exponencial (λ=2)

📐 Distribución Gamma(α, β) o Gama(k, θ)

La distribución gamma es una familia flexible que incluye a la exponencial (k=1) y la chi-cuadrado (k=n/2, θ=2) como casos particulares.

📐 Notación común

  • k > 0: parámetro de forma (shape)
  • θ > 0: parámetro de escala (scale)

📊 Función de densidad

f(x) = x^{k-1}·e^{-x/θ} / [Γ(k)·θ^{k}],  para x > 0

donde Γ(k) = ∫₀^∞ e{-x}·x{k-1} dx es la función gamma.

📐 Parámetros

E[X] = k·θ
Var(X) = k·θ²

📊 Distribución Cauchy(x₀, γ)

La distribución de Cauchy tiene colas pesadas y esperanza no definida. Es un caso particular de la distribución t-Student con 1 grado de libertad.

📐 Parámetros

  • x₀ ∈ ℝ: parámetro de localización (mediana)
  • γ > 0: parámetro de escala

📊 Función de densidad

f(x) = 1 / [πγ·(1 + ((x - x₀)/γ)²)],  para x ∈ ℝ

⚠️ Propiedad importante

E[X] = No definida (no existe)

📐 Distribución Beta(α, β)

La distribución beta está definida en el intervalo [0, 1] y es muy versátil para modelar proporciones y probabilidades.

📐 Parámetros

  • α > 0, β > 0: parámetros de forma

📊 Función de densidad

f(x) = x^{α-1}·(1-x)^{β-1} / B(α, β),  para 0 ≤ x ≤ 1

donde B(α, β) = ∫₀¹ x{α-1}·(1-x){β-1} dx es la función beta.

📐 Parámetros

E[X] = α/(α+β)
Var(X) = αβ / [(α+β)²·(α+β+1)]
Distribución Beta - Diferentes formas

📊 Distribución Normal N(μ, σ)

La distribución normal (o gaussiana) es la distribución continua más importante en estadística, gracias al Teorema Central del Límite.

📐 Parámetros

  • μ ∈ ℝ: media (centro de la campana)
  • σ > 0: desviación estándar (dispersión)

📊 Función de densidad

f(x) = 1/(σ√(2π)) · e^{-(x-μ)²/(2σ²)},  para x ∈ ℝ

📐 Parámetros

E[X] = μ
Var(X) = σ²
Distribución Normal N(0,1)

53 📊 RESUMEN DE DISTRIBUCIONES CONTINUAS

📋 Tabla comparativa

Distribución Notación f(x) E[X] Var(X)
Uniforme U(a,b) 1/(b-a), a≤x≤b (a+b)/2 (b-a)²/12
Exponencial Exp(λ) (1/λ)e^{-x/λ}, x≥0 λ λ²
Gamma Gamma(k,θ) x{k-1}e{-x/θ}/[Γ(k)θ^{k}], x>0 kθ²
Cauchy Cauchy(x₀,γ) 1/[πγ(1+((x-x₀)/γ)²)] No definida No definida
Beta Beta(α,β) x{α-1}(1-x){β-1}/B(α,β), 0≤x≤1 α/(α+β) αβ/[(α+β)²(α+β+1)]
Normal N(μ,σ) e^{-(x-μ)²/(2σ²)}/(σ√(2π)) μ σ²

54 📊 RELACIONES ENTRE DISTRIBUCIONES

📋 Conexiones importantes

  • Exponencial es un caso particular de Gamma con k = 1: Gamma(1, θ) = Exp(θ)
  • Chi-cuadrado es Gamma con k = n/2 y θ = 2: χ²(n) = Gamma(n/2, 2)
  • Cauchy es un caso particular de la t-Student con 1 grado de libertad
  • La Beta se relaciona con la Gamma a través de la función beta: B(α,β) = Γ(α)Γ(β)/Γ(α+β)
  • La Normal es límite de la Binomial (Teorema de De Moivre-Laplace) y de la t-Student cuando los grados de libertad tienden a infinito

55 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La distribución uniforme es la más simple: todos los valores son igualmente probables en un intervalo
  • La distribución exponencial tiene falta de memoria: P(X > s+t | X > s) = P(X > t)
  • La distribución gamma es muy flexible y contiene a la exponencial y chi-cuadrado como casos especiales
  • La distribución de Cauchy tiene medias y varianzas no definidas debido a sus colas pesadas
  • La distribución beta es ideal para modelar proporciones y probabilidades en [0,1]
  • La distribución normal es central en estadística por el Teorema Central del Límite

¡Perfecto! Aquí tienes el texto sobre Varianza y Variables Independientes, Distribución Normal, Covarianza, Convergencia, Desigualdad de Chebyshev y Ejemplos de Pruebas de Hipótesis reescrito en el formato similar a los ejercicios anteriores.


56 📊 VARIANZA Y VARIABLES INDEPENDIENTES

📐 Ejercicios de Varianza

✏️ Ejercicio 1

Para variables independientes X₁, X₂, …, Xₙ:

Var(∑_{i=1}^{n} Xᵢ) = ∑_{i=1}^{n} Var(Xᵢ)

✏️ Ejercicio 2

Para X₁, …, Xₙ i.i.d. con varianza σ² < ∞ y X̄ = (1/n)∑ Xᵢ:

Var(X̄) = σ² / n

📊 Distribución Normal N(μ, σ)

📐 Función de densidad

f(x) = 1/(σ√(2π)) · e^{-(x-μ)²/(2σ²)},  -∞ < x < ∞

📐 Momentos

E[X] = μ,  Var(X) = σ²

📊 Variables Aleatorias Multivariadas

📐 Covarianza

Cov(X,Y) = E[(X - μ_X)(Y - μ_Y)]

📐 Coeficiente de Correlación

ρ(X,Y) = Cov(X,Y) / √(Var(X)·Var(Y)),   -1 ≤ ρ ≤ 1

✏️ Ejercicio

Demuestre que Cov(X,Y) = E[XY] - E[X]·E[Y]

🔗 Independencia de Variables Aleatorias

📐 Definición

ℙ(X₁=x₁, ..., Xₖ=xₖ) = ∏_{i=1}^{k} ℙ(Xᵢ=xᵢ)

✏️ Ejercicio

Para X, Y independientes con densidades f_X, f_Y:

ℙ(X ∈ A, Y ∈ B) = ℙ(X ∈ A)·ℙ(Y ∈ B)

✏️ Más Ejercicios sobre Independencia

📐 Ejercicio 3

Para X₁, …, Xₙ independientes:

E[∏_{i=1}^{n} Xᵢ] = ∏_{i=1}^{n} E[Xᵢ]

Consecuencia: Si X, Y son independientes, Cov(X,Y) = 0.

📐 Ejercicios para X, Y independientes

  1. Distribución de min(X, Y)
  2. Distribución de max(X, Y)
  3. Calcular ℙ(min(X,Y) = X) = ℙ(Y ≥ X)
  4. Distribución de X + Y

📐 Desigualdad de Chebyshev

📐 Teorema

Sea X una variable aleatoria con E[X] = μ y Var(X) = σ². Para cualquier ε > 0:

ℙ(|X-μ| ≥ ε) ≤ σ² / ε²

📐 Demostración

σ² = E[(X-μ)²] = E[(X-μ)²·𝟙_{|X-μ|≥ε}] + E[(X-μ)²·𝟙_{|X-μ|<ε}] ≥
E[(X-μ)²·𝟙_{|X-μ|≥ε}] ≥ ε²·E[𝟙_{|X-μ|≥ε}] = ε²·ℙ(|X-μ|≥ε)

Por lo tanto: ℙ(|X-μ| ≥ ε) ≤ σ²/ε²


📊 Convergencia de Variables Aleatorias

  1. Convergencia Puntual

lim_{n→∞} X_n(ω) = X(ω),  ∀ ω ∈ Ω

  1. Convergencia Casi Segura (c.s.)

ℙ({ω: lim X_n(ω) = X(ω)}) = 1

  1. Convergencia en Probabilidad (p)

lim_{n→∞} ℙ(|X_n - X| > ε) = 0,  ∀ ε > 0

  1. Convergencia en Distribución (d)

lim_{n→∞} F_{X_n}(x) = F_X(x)

🎯 Ejemplo de Convergencia

Ω = [0,1], ℙ([a,b]) = b-a. Definimos:

X_n(ω) = { n, si 0 ≤ ω ≤ 1/n; 0, si 1/n < ω ≤ 1 }

Análisis: No converge puntualmente en ω=0; converge casi seguramente a 0; converge en probabilidad a 0; converge en distribución a 0.


📊 Ejemplo 1: Prueba t de una muestra

Problema: Bombillas: peso promedio afirmado 75g. Muestra n=25, x̄=72g, s=5g. α=0.05. ¿Evidencia suficiente para rechazar H₀?

📐 Solución

  • H₀: μ = 75, H₁: μ ≠ 75
  • Estadístico: t = (x̄ - μ₀)/(s/√n) = (72-75)/(5/5) = -3
  • gl = 24, t_crítico = ±2.064, p-valor ≈ 0.0067
  • Conclusión: Se rechaza H₀ (p-valor < 0.05)
Prueba t - Región crítica

📊 Ejemplo 2: Prueba z para una proporción

Problema: Encuesta inicial: 30% apoyo. Nueva encuesta n=200, apoyo=36%. α=0.01. ¿Ha aumentado el apoyo?

📐 Solución

  • H₀: p = 0.30, H₁: p > 0.30
  • Estadístico: z = (0.36-0.30)/√(0.30×0.70/200) ≈ 1.85
  • z_crítico = 2.33, p-valor ≈ 0.0322
  • Conclusión: No se rechaza H₀ (p-valor > 0.01)
Prueba z - Una cola

📊 Ejemplo 3: Prueba Chi-cuadrado para la Varianza

Problema: Proceso con varianza ≤ 0.5 cm². Muestra n=20, s²=0.8 cm². α=0.05. ¿Var > 0.5?

📐 Solución

  • H₀: σ² ≤ 0.5, H₁: σ² > 0.5
  • Estadístico: χ² = (n-1)s²/σ₀² = 19×0.8/0.5 = 30.4
  • gl = 19, χ²_crítico = 30.144, p-valor ≈ 0.047
  • Conclusión: Se rechaza H₀ (p-valor < 0.05)

57 📊 RESUMEN DE FÓRMULAS CLAVE

📋 Tabla de fórmulas

Concepto Fórmula
Varianza suma (indep.) Var(∑Xᵢ) = ∑Var(Xᵢ)
Varianza media muestral Var(X̄) = σ²/n
Covarianza Cov(X,Y) = E[XY] - E[X]E[Y]
Correlación ρ(X,Y) = Cov(X,Y)/(σ_X·σ_Y)
Chebyshev ℙ(
Prueba t t = (x̄ - μ₀)/(s/√n)
Prueba z (proporción) z = (p̂ - p₀)/√(p₀(1-p₀)/n)
Prueba χ² (varianza) χ² = (n-1)s²/σ₀²

58 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La varianza mide la dispersión; para variables independientes es aditiva
  • La covarianza mide la relación lineal entre dos variables; si son independientes, Cov=0
  • La desigualdad de Chebyshev proporciona una cota general para cualquier distribución
  • La convergencia casi segura es más fuerte que en probabilidad, que a su vez es más fuerte que en distribución
  • Las pruebas de hipótesis (t, z, χ²) son herramientas fundamentales en inferencia estadística

¡Perfecto! Aquí tienes el texto sobre Intervalos de Confianza para Diferencia de Medias y Varianza, Propiedades de Estimadores (Eficiencia, Consistencia, Suficiencia) reescrito en el formato similar a los ejercicios anteriores.


59 📊 INTERVALOS DE CONFIANZA PARA DIFERENCIA DE MEDIAS Y VARIANZA

📊 Intervalo de Confianza para la Diferencia de Medias

Problema: Comparación de método nuevo vs estándar de entrenamiento. Dos grupos de 9 empleados cada uno. IC 95% para μ₁ - μ₂. Varianzas aproximadamente iguales.

📐 Fórmula

IC(μ₁-μ₂) = (x̄₁ - x̄₂) ± t_{α/2, n₁+n₂-2} · s_p·√(1/n₁ + 1/n₂)

Donde s_p² = [(n₁-1)s₁² + (n₂-1)s₂²] / (n₁+n₂-2)


📊 Intervalos de Confianza para la Varianza

📐 Fórmula

IC(σ²) = ( (n-1)S²/χ²_{α/2, n-1} , (n-1)S²/χ²_{1-α/2, n-1} )

📊 Ejemplo 1: Variabilidad de equipo de medición

Datos: 4.1, 5.2, 10.2 → n=3, α=0.10

  • x̄ = 6.5, S² = 10.57
  • χ²_{0.05,2}=5.991, χ²_{0.95,2}=0.103
  • IC(σ²) = (2×10.57/5.991, 2×10.57/0.103) = (3.53, 205.24)

📊 Ejemplo 2: Varianza del rendimiento de trigo

n=20, S=8 → S²=64, α=0.05, gl=19

  • χ²_{0.025,19}=32.9, χ²_{0.975,19}=8.91
  • IC(σ²) = (19×64/32.9, 19×64/8.91) = (36.96, 136.47)

60 📊 PROPIEDADES DE ESTIMADORES PUNTUALES

📊 Eficiencia Relativa

📐 Definición

Dados θ̂₁ y θ̂₂ estimadores de θ, la eficiencia relativa de θ̂₁ respecto a θ̂₂ es:

Eficiencia = Var(θ̂₂) / Var(θ̂₁)

🎯 Ejemplo: Estimadores para U(0,θ)

  • θ̂₁ = 2Ȳ → Var(θ̂₁) = θ²/(3n)
  • θ̂₂ = ((n+1)/n)·Y_{(n)} → Var(θ̂₂) = θ²/[n(n+2)]
  • Eficiencia = Var(θ̂₂)/Var(θ̂₁) = 3/(n+2)

Para n > 1, eficiencia < 1 → θ̂₂ es más eficiente.


📊 Consistencia

📐 Definición

θ̂ₙ es consistente si converge en probabilidad a θ:

lim_{n→∞} ℙ(|θ̂ₙ - θ| > ε) = 0

📋 Propiedades de estimadores consistentes

  • Si θ̂ₙ es consistente para θ y θ̂ₙ’ para θ’, entonces:
    • θ̂ₙ + θ̂ₙ’ es consistente para θ + θ’
    • θ̂ₙ·θ̂ₙ’ es consistente para θ·θ’
    • θ̂ₙ/θ̂ₙ’ es consistente para θ/θ’ (θ’≠0)
    • √θ̂ₙ es consistente para √θ (si θ̂ₙ≥0 c.s.)

✏️ Ejercicios de consistencia

  1. Demuestre que la media muestral Ȳ es consistente para μ
  2. Demuestre que la varianza muestral S² es consistente para σ²

📊 Suficiencia

📐 Definición

Un estadístico S(Y) es suficiente para θ si la distribución conjunta se factoriza como:

f_Y(y, θ) = H(y) · G(S(y), θ)

Es decir, S(Y) contiene toda la información sobre θ presente en la muestra.

✏️ Ejercicio

Para Y_i ~ Exp(α) con f(y_i,α) = (1/α)e^{-y_i/α}, demuestre que Ȳ es suficiente para α.


📊 Suficiencia Mínima y EIMV

📐 Definiciones

  • Suficiencia mínima: S(Y) es suficiente mínima si el cociente f(x,θ)/f(y,θ) no depende de θ ⇔ S(x)=S(y)
  • EIMV: Estimador Insesgado de Mínima Varianza

🎯 Ejemplo: Normal N(μ, σ²)

Para una muestra normal, ΣYᵢ y ΣYᵢ² son estadísticos de mínima suficiencia. Además:

  • Ȳ es EIMV para μ
  • S² es EIMV para σ²

61 📊 RESUMEN DE PROPIEDADES DE ESTIMADORES

📋 Tabla comparativa

Propiedad Definición Implicación
Insesgamiento E[θ̂] = θ El estimador acierta en promedio
Eficiencia Var(θ̂₁)/Var(θ̂₂) Comparación de varianzas
Consistencia θ̂ₙ →ₚ θ Converge al parámetro al aumentar n
Suficiencia f(y,θ)=H(y)·G(S,θ) Contiene toda la información
EIMV Insesgado + varianza mínima Óptimo entre insesgados

62 📊 RESUMEN DE FÓRMULAS

📋 Tabla de fórmulas

Concepto Fórmula
IC para μ₁-μ₂ (x̄₁-x̄₂) ± t·s_p·√(1/n₁+1/n₂)
IC para σ² ((n-1)S²/χ²_{α/2}, (n-1)S²/χ²_{1-α/2})
Eficiencia relativa Var(θ̂₂)/Var(θ̂₁)
Consistencia lim ℙ(
Suficiencia (factorización) f(y,θ) = H(y)·G(S(y),θ)

63 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Los intervalos de confianza para σ² usan la distribución χ²
  • La eficiencia relativa compara la precisión de dos estimadores
  • La consistencia garantiza que el estimador converge al parámetro verdadero con n grande
  • La suficiencia identifica estadísticos que comprimen los datos sin perder información
  • Los EIMV son óptimos entre los estimadores insesgados

¡Perfecto! Aquí tienes el texto sobre Método de los Momentos, Método de Máxima Verosimilitud y Ejemplos de Intervalos de Confianza reescrito en el formato similar a los ejercicios anteriores.


64 📊 MÉTODO DE LOS MOMENTOS

📐 Método de los Momentos

📐 Definición

El método de los momentos consiste en elegir como estimaciones aquellos valores de los parámetros que son soluciones de las ecuaciones:

μ'_k = E(Y^k) = (1/n) Σ_{i=1}^n Y_i^k = m'_k,   k = 1, 2, ..., t

donde t es igual al número de parámetros.


📊 MÉTODO DE MÁXIMA VEROSIMILITUD

📐 Definición

El método de máxima verosimilitud consiste en elegir como estimaciones aquellos valores de los parámetros que maximizan la función de verosimilitud:

L(y) = f_Y(y, θ) = f_Y(y₁, y₂, ..., yₙ, θ)

🎯 Ejemplo: Estimadores MV para Normal

Para Y₁, …, Yₙ ∼ N(μ, σ²):

  • Función de verosimilitud:
L(μ, σ²) = (1/√(2πσ²))ⁿ · exp{ -1/(2σ²) Σ(Yᵢ - μ)² }
  • Estimadores:
  • μ̂ = Ȳ = (1/n) Σ Yᵢ (media muestral)
  • σ̂² = S*² = (1/n) Σ (Yᵢ - Ȳ)² (varianza muestral sin corregir)

📊 INTERVALO DE CONFIANZA PARA LA MEDIA (VARIANZA CONOCIDA)

📐 Fórmula

IC = X̄ ± Z_{α/2} · σ/√n

📊 Ejemplo 1: Ventas en un kiosco

Datos: n=1000, X̄=4000 pts, σ²=4000 → σ≈63.25 pts, nivel confianza=95.5%

  • Para 95.5% → Z_{α/2} ≈ 2.00
  • Error estándar: σ/√n = 63.25/31.623 ≈ 2.00 pts
  • Margen de error = 2.00 × 2.00 = 4.00 pts
  • IC = 4000 ± 4.00 = (3996, 4004)

Respuesta correcta: A) (3996, 4004)

Intervalo de Confianza para μ (95.5%) X̄ = 4000 3996 4004 LI = 3996 LS = 4004

📊 OPCIONES DE RESPUESTA

Opción Intervalo ¿Correcta?
A (3996, 4004) ✅ Correcta
B (3990, 4010)
C (3980, 4020)
D (3995, 4005)

65 📊 RESUMEN DE MÉTODOS DE ESTIMACIÓN

📋 Tabla comparativa

Método Idea principal Ecuaciones
Momentos Igualar momentos muestrales y poblacionales m’_k = μ’_k
Máxima Verosimilitud Maximizar la función de verosimilitud ∂L/∂θ = 0

66 📊 RESUMEN DE FÓRMULAS

📋 Tabla de fórmulas

Concepto Fórmula
Método de los momentos μ’_k = (1/n) Σ Yᵢᵏ
Función de verosimilitud L(θ) = ∏ f(yᵢ, θ)
IC para μ (σ conocida) X̄ ± Z_{α/2}·σ/√n
Error estándar σ/√n

67 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • El método de los momentos iguala momentos muestrales y poblacionales para estimar parámetros
  • El método de máxima verosimilitud maximiza la función de verosimilitud
  • Los estimadores MV tienen propiedades asintóticas deseables (consistencia, eficiencia)
  • El intervalo de confianza para μ con σ conocida usa la distribución normal
  • El nivel de confianza determina el valor crítico Z_{α/2}
¡Perfecto! Aquí tienes el texto sobre Introducción a Intervalos de Confianza, Método de la Variable Aleatoria Pivote y Ejemplos de Aplicación reescrito en el formato similar a los ejercicios anteriores.

68 📊 INTRODUCCIÓN A LOS INTERVALOS DE CONFIANZA

📐 Introducción

En estadística inferencial, la probabilidad de que un estimador T = T(X₁, …, Xₙ) coincida exactamente con el parámetro de interés θ es 0. Por ello, en la estimación por intervalo, se selecciona un nivel de confianza (confiabilidad) de 100(1-α)% y se construye un intervalo aleatorio tal que la probabilidad frecuentista de que este intervalo contenga a θ sea 1-α.

📊 Intervalo de Confianza

Dada una muestra aleatoria X₁, …, Xₙ, la estimación por intervalo consiste en construir un intervalo aleatorio tal que:

Pr(L_I ≤ θ ≤ L_S) = 1 - α

El valor 100(1-α)% se denomina nivel de confianza o confiabilidad. Representa la proporción de intervalos calculados a partir de la muestra aleatoria que contienen a θ.


📊 Población Normal con Varianza Conocida

Considere una población Normal con media desconocida μ y varianza conocida σ². Construya un intervalo de confianza para μ al 95% basado en una muestra de tamaño n.

📐 Desarrollo

  • X̄ ~ N(μ, σ²/n)
  • Estandarizando: Z = (X̄ - μ)/(σ/√n) ~ N(0,1)
  • Pr(-1.96 < Z < 1.96) = 0.95
  • Despejando μ: Pr(X̄ - 1.96·σ/√n < μ < X̄ + 1.96·σ/√n) = 0.95
IC_95%(μ) = (X̄ ± 1.96·σ/√n)

La cantidad 1.96·σ/√n se denomina margen de error.

📊 Fórmula general para confiabilidad 100(1-α)%

IC_{100(1-α)%}(μ) = (X̄ ± z_{1-α/2}·σ/√n)

donde z_{1-α/2} es el percentil 100(1-α/2) de la normal estándar.


📊 Ejemplo: Simulación de un Intervalo de Confianza

Simule una muestra aleatoria de tamaño n = 30 de una población Normal con μ = 10 y σ = 1. Calcule el IC 95% para μ.

# Parámetros
mu <- 10; sigma <- 1; n <- 30
# Simulación
set.seed(1)
x <- rnorm(n, mu, sigma)
# Cálculo del IC
xb <- mean(x)
z975 <- qnorm(0.975)
me <- z975 * sigma / sqrt(n)
LI <- xb - me
LS <- xb + me
cat("IC 95%: (", round(LI,2), ",", round(LS,2), ")")
X̄ ≈ 9.97

📊 Simulación de Múltiples Intervalos de Confianza

Simule 1,000,000 de muestras de tamaño n=30 con μ=10, σ=1. ¿Qué proporción de ICs contiene a μ?

M <- 1000000; n <- 30; mu <- 10; sigma <- 1; z975 <- qnorm(0.975)
IC <- matrix(NA, M, 2)
set.seed(1)
for (i in 1:M) {
  x <- rnorm(n, mu, sigma)
  IC[i,1] <- mean(x) - z975 * sigma / sqrt(n)
  IC[i,2] <- mean(x) + z975 * sigma / sqrt(n)
}
cobertura <- mean(IC[,1] < mu & mu < IC[,2])
cat("Cobertura:", round(cobertura,4))

📋 Observaciones

  • Antes de observar los datos, los límites del intervalo son aleatorios
  • Una vez se tiene una realización de la muestra, los límites pierden su carácter aleatorio
  • La confianza está en el proceso de construcción, no en el resultado particular

📐 EL MÉTODO DE LA VARIABLE ALEATORIA PIVOTE

Una función Q = Q(X₁, …, Xₙ) es una variable aleatoria pivote para θ si su distribución no depende de θ.

📐 Procedimiento

  1. Encontrar una v.a. pivote Q para θ
  2. Determinar su distribución muestral para hallar a y b tales que Pr(a ≤ Q ≤ b) = 1-α
  3. Despejar θ para obtener Pr(L_I ≤ θ ≤ L_S) = 1-α

📊 Ejemplo: Población No Normal con Varianza Conocida

Por el Teorema del Límite Central, si n es grande:

IC_{100(1-α)%}(μ) = (X̄ ± z_{1-α/2}·σ/√n)

📊 Ejemplo: Población No Normal con Varianza Desconocida

Para n grande, usando la desviación estándar muestral S:

IC_{100(1-α)%}(μ) = (X̄ ± z_{1-α/2}·S/√n)

donde S = √[1/(n-1) Σ (Xᵢ - X̄)²]


📊 Ejercicio: Aplicación en Topografía

Datos: n=74 ubicaciones, error medio X̄=3.8 cm, desviación estándar S=4.8 cm.

  1. IC 95% para la media del error

z_{0.975} = 1.96,  ME = 1.96×4.8/√74 ≈ 1.09
IC = 3.8 ± 1.09 = (2.71, 4.89)

  1. IC 98% para la media del error

z_{0.99} = 2.33,  ME = 2.33×4.8/√74 ≈ 1.30
IC = 3.8 ± 1.30 = (2.50, 5.10)

  1. Nivel de confianza para la afirmación (3.2, 4.4)

ME = (4.4-3.8) = 0.6,  z = 0.6·√74/4.8 ≈ 1.07
Nivel = 2·Φ(1.07)-1 ≈ 71.5%

  1. Tamaño muestral para ME=0.7 cm al 95%

n = (1.96×4.8/0.7)² ≈ 177

  1. Tamaño muestral para ME=0.7 cm al 98%

n = (2.33×4.8/0.7)² ≈ 250

69 📊 RESUMEN DE FÓRMULAS PARA INTERVALOS DE CONFIANZA

📋 Tabla de fórmulas

Escenario Fórmula del IC para μ
Normal, σ conocida X̄ ± z_{1-α/2}·σ/√n
Normal, σ desconocida (n pequeño) X̄ ± t_{1-α/2, n-1}·S/√n
No normal, n grande (σ conocida) X̄ ± z_{1-α/2}·σ/√n
No normal, n grande (σ desconocida) X̄ ± z_{1-α/2}·S/√n

70 📊 VALORES CRÍTICOS COMUNES

📋 Valores de z_{1-α/2}

Nivel de confianza α α/2 z_{1-α/2}
90% 0.10 0.05 1.645
95% 0.05 0.025 1.960
98% 0.02 0.01 2.326
99% 0.01 0.005 2.576

71 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Un intervalo de confianza proporciona un rango de valores plausibles para el parámetro
  • El nivel de confianza 100(1-α)% representa la proporción de intervalos que contendrían al parámetro en muestreo repetido
  • La variable aleatoria pivote es una herramienta clave para construir intervalos de confianza
  • Para muestras grandes, el Teorema del Límite Central justifica el uso de la normal incluso si la población no es normal
  • El margen de error depende del nivel de confianza, la variabilidad y el tamaño muestral

¡Perfecto! Aquí tienes el texto sobre Prueba de Hipótesis Estadística reescrito en el formato similar a los ejercicios anteriores.


72 📊 PRUEBA DE HIPÓTESIS ESTADÍSTICA

📐 Introducción

La Estadística Inferencial es el proceso de usar la información de una muestra para describir el estado de una población. Sin embargo, es frecuente que usemos la información de una muestra para probar un reclamo o conjetura sobre la población. El reclamo o conjetura se refiere a una hipótesis. El proceso que corrobora si la información de una muestra sostiene o refuta el reclamo se llama Prueba de Hipótesis.

Ejemplo: Un investigador en medicina puede proponer la hipótesis de que un medicamento es más efectivo que otro para curar cierta enfermedad. Selecciona pacientes, los divide en dos grupos y aplica los medicamentos. Decide, basándose en los resultados, si el nuevo medicamento es más eficaz o no.


📊 Prueba de Hipótesis

📐 Problema del productor de fármacos

Un productor afirma que su droga aumenta la probabilidad de que nazca una niña de 50% a 70%.

Paso 1: Modelo probabilístico

  • Y ~ B(1, θ) con: y=1 (niña), y=0 (niño)
  • H₀: θ = 0.5 (situación normal)
  • H₁: θ = 0.7 (afirmación del productor)

Paso 2: Muestra

  • n = 20 mujeres independientes
  • Yᵢ ~ B(1, θ), i = 1,…,20

Paso 3: Estadístico de prueba

T(Y) = Σ Yᵢ ~ B(20, θ)

Se rechaza H₀ si T(y) ≥ c (c suficientemente grande)


📊 Pasos de una Prueba de Hipótesis

  1. Se parte de un modelo probabilístico con parámetro θ. Se escoge:
    • H₀: θ ∈ Θ₀ (hipótesis nula)
    • H₁: θ ∈ Θ₁ (hipótesis alternativa)
  2. Se obtiene una muestra Y = (Y₁,…,Yₙ) con datos y = (y₁,…,yₙ)
  3. Se escoge una estadística T(Y) unidimensional. Se rechaza H₀ si T(y) ≥ c, donde c se determina por: error tipo I, p-valor, errores tipo I y II

📊 Valor-p (p-valor)

Definición: El valor-p es el mínimo nivel de significación α para el cual los datos observados indicarían rechazar la hipótesis nula.

  • A menor p-valor, mayor tranquilidad para rechazar H₀
  • Para p-valor > 5%, “no se rechaza H₀” (no se encontró desviación significativa)

📊 Continuación del ejemplo

Estadístico T(Y) ~ B(20, θ). Valores críticos c para H₀: θ = 0.5:

c 14 15 16 17 18
P(T≥c|0.5) 0.0577 0.0207 0.0059 0.0013 0.0002
  • Nivel 5%: rechazar H₀ si T(y) ∈ {15,16,…,20}
  • Nivel 1%: rechazar H₀ si T(y) ∈ {16,…,20}
  • Nivel 0.1%: rechazar H₀ si T(y) ∈ {18,19,20}

📊 Errores Tipo I y Tipo II

<td style="border:1px solid #ddd;">Decisión correcta</td>
<td style="border:1px solid #ddd; background:#FFB3B3;">Error tipo I (prob. controlada)</td>
<td style="border:1px solid #ddd; background:#FFB3B3;">Error tipo II (prob. no controlada)</td>
<td style="border:1px solid #ddd;">Decisión correcta</td>
H₀ es falsa H₀ es verdadera
Rechazar H₀
No rechazar H₀

📐 Observaciones

  • No es posible controlar ambas probabilidades simultáneamente con n fijo
  • Una solución: aumentar n para cumplir ambos criterios

📊 Aproximación Normal a la Binomial

Sea Y ~ B(n, p). Entonces, aproximadamente:

P(c ≤ Y ≤ d | p) ≈ Φ((d-np+0.5)/√(np(1-p))) - Φ((c-np-0.5)/√(np(1-p)))

La aproximación es buena si np ≥ 5 y n(1-p) ≥ 5.

📐 Ejemplo: determinar n y c

Para α = 0.01 y 1-β = 0.95:

c₁ = 2.325 → (c - 0.5n - 0.5)/(0.5√n) = 2.325
c₂ = -1.645 → (c - 0.7n - 0.5)/(0.1√21n) = -1.645

Solución: n = 92, c = 58


📊 Conclusiones del ejemplo

  • Si t ∈ {58,…,92}: se rechaza H₀ (acepta afirmación), error tipo I ≤ 1%
  • Si t ∈ {0,…,57}: no se acepta afirmación, error tipo II ≤ 5%

Si c = 15: β = P(T<15 | 0.7) = 0.584 → error tipo II muy grande (n=20 no detecta diferencia del 20%)

📋 Recomendación de redacción

Es aconsejable decir:

  • “No se puede rechazar H₀”
  • “Los datos no contradicen H₀”
  • “La muestra no presenta evidencia significativa para rechazar H₀”

73 📊 RESUMEN DE PRUEBA DE HIPÓTESIS

📋 Tabla resumen de conceptos

Concepto Definición Representación
Hipótesis Nula (H₀) Hipótesis que se desea probar (status quo) θ ∈ Θ₀
Hipótesis Alternativa (H₁) Hipótesis contraria a H₀ θ ∈ Θ₁
Error Tipo I Rechazar H₀ cuando es verdadera α = P(Rechazar H₀ | H₀ verdadera)
Error Tipo II No rechazar H₀ cuando es falsa β = P(No rechazar H₀ | H₀ falsa)
Nivel de significación Probabilidad máxima de error tipo I α
Potencia Capacidad de detectar H₀ falsa 1-β

74 📊 VALORES CRÍTICOS PARA LA NORMAL ESTÁNDAR

📋 Valores comunes de z

Nivel de significación α z_{α} (una cola) z_{α/2} (dos colas)
0.10 1.282 1.645
0.05 1.645 1.960
0.025 1.960 2.241
0.01 2.326 2.576
0.005 2.576 2.807

75 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La prueba de hipótesis permite tomar decisiones sobre parámetros poblacionales basadas en muestras
  • El valor-p es la probabilidad de obtener resultados tan extremos como los observados si H₀ es verdadera
  • El error tipo I (α) es la probabilidad de rechazar H₀ siendo verdadera
  • El error tipo II (β) es la probabilidad de no rechazar H₀ siendo falsa
  • La potencia (1-β) mide la capacidad de detectar un efecto real
  • Para muestras grandes, la aproximación normal a la binomial es válida si np ≥ 5 y n(1-p) ≥ 5
  • Es preferible decir “no rechazar H₀” en lugar de “aceptar H₀”, pues el error tipo II puede no ser controlable

¡Perfecto! Aquí tienes el texto sobre Elementos comunes en prueba de hipótesis con muestras grandes reescrito en el formato similar a los ejercicios anteriores.


76 📊 ELEMENTOS COMUNES EN PRUEBA DE HIPÓTESIS CON MUESTRAS GRANDES

📐 Elementos de una prueba de hipótesis

Supongamos que se quiere probar una hipótesis referente al parámetro θ, basado en una muestra aleatoria Y = (Y₁, Y₂, …, Yₙ) y en el estimador θ̂, que tiene (aproximadamente) una distribución normal con media θ y varianza σ_θ̂².

📐 Parámetro de interés

θ ∈ {μ, p, μ₁-μ₂, p₁-p₂}

📊 Estimador

θ̂ ∈ {Ȳ, p̂, Ȳ₁-Ȳ₂, p̂₁-p̂₂}

📐 Desviación del estimador

σ_θ̂ ∈ { σ/√n, √[p₀(1-p₀)/n], √[σ₁²/n₁ + σ₂²/n₂], √[p₁(1-p₁)/n + p₂(1-p₂)/n] }

📊 Hipótesis

H₀: θ = θ₀
H₁: { θ > θ₀ (cola superior), θ < θ₀ (cola inferior), θ ≠ θ₀ (dos colas) }

📐 Nivel de significancia

α ∈ {0.05, 0.01, 0.10}

📊 Estadístico de prueba

Z_p = (θ̂ - θ₀) / σ_θ̂

📐 Región de rechazo

• Cola superior:     Z_p > z_α
• Cola inferior:     Z_p < -z_α
• Dos colas:         |Z_p| > z_{α/2}

📊 Valor p

• Cola superior:     P(Z > Z_p)
• Cola inferior:     P(Z < -Z_p)
• Dos colas:         2·P(Z > |Z_p|)

📋 Conclusión (significancia)

  • 1% < p-valor ≤ 5% → Rechazar H₀ casi significativamente (*)
  • 0.1% < p-valor ≤ 1% → Rechazar H₀ significativamente (**)
  • 0 ≤ p-valor ≤ 0.1% → Rechazar H₀ muy significativamente (***)

📊 Ejemplo 1: Prospectos de ventas

Problema: Vicepresidente afirma que los vendedores tienen un promedio no mayor de 15 prospectos por semana. n=36, x̄=17, s²=9, α=0.05. ¿Contradicen los hechos?

📐 Solución

  • H₀: μ = 15, H₁: μ > 15 (cola superior)
  • α = 0.05 → z_{0.05} = 1.645
  • Estadístico: z = (17 - 15)/(3/√36) = 2/0.5 = 4.00
  • 4.00 > 1.645 → Rechazar H₀

Conclusión: La afirmación del vicepresidente es incorrecta. El número promedio de prospectos excede 15.

Prueba de una cola superior (α=0.05) 1.645 Z_p = 4.0

📊 Ejemplo 2: Artículos defectuosos

Problema: Máquina debe repararse si produce más de 10% de defectos. Muestra n=100, 15 defectuosos, α=0.01. ¿Apoya la evidencia la decisión del capataz?

📐 Solución

  • H₀: p = 0.10, H₁: p > 0.10 (cola superior)
  • α = 0.01 → z_{0.01} = 2.33
  • Estadístico: z = (0.15 - 0.10)/√[(0.10×0.90)/100] = 0.05/0.03 = 1.67
  • 1.67 < 2.33 → No rechazar H₀

Conclusión: La evidencia no apoya la decisión del capataz.

Prueba de una cola superior (α=0.01)

📊 Ejemplo 3: Diferencia de medias (Hombres vs Mujeres)

Problema: Comparar tiempos de reacción. n₁=n₂=50, x̄₁=3.6, x̄₂=3.8, s₁²=0.18, s₂²=0.14, α=0.05. ¿Evidencia de diferencia?

📐 Solución

  • H₀: μ₁ - μ₂ = 0, H₁: μ₁ - μ₂ ≠ 0 (dos colas)
  • α = 0.05 → z_{0.025} = 1.96
  • Estadístico: z = (3.6 - 3.8)/√(0.18/50 + 0.14/50) = -0.2/0.08 = -2.50
  • |-2.50| = 2.50 > 1.96 → Rechazar H₀

Conclusión: Hay evidencia suficiente para sugerir una diferencia en los promedios de los tiempos de reacción entre hombres y mujeres.

Prueba de dos colas (α=0.05)

77 📊 RESUMEN DE ESTADÍSTICOS DE PRUEBA PARA MUESTRAS GRANDES

📋 Tabla de pruebas z para una muestra y dos muestras

Parámetro Estadístico Z_p σ_θ̂
μ (una media) (X̄ - μ₀)/(σ/√n) σ/√n
p (una proporción) (p̂ - p₀)/√[p₀(1-p₀)/n] √[p₀(1-p₀)/n]
μ₁ - μ₂ (diferencia de medias) [(X̄₁-X̄₂)-D₀]/√(σ₁²/n₁ + σ₂²/n₂) √(σ₁²/n₁ + σ₂²/n₂)
p₁ - p₂ (diferencia de proporciones) [(p̂₁-p̂₂)-D₀]/√[p̂(1-p̂)(1/n₁+1/n₂)] √[p̂(1-p̂)(1/n₁+1/n₂)]

78 📊 VALORES CRÍTICOS COMUNES

📋 Valores de z_α y z_{α/2}

α z_α (una cola) z_{α/2} (dos colas)
0.10 1.282 1.645
0.05 1.645 1.960
0.025 1.960 2.241
0.01 2.326 2.576
0.005 2.576 2.807

79 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • Para muestras grandes (n>30), la distribución normal es una buena aproximación para la distribución del estimador
  • La región de rechazo depende de la hipótesis alternativa (una cola o dos colas)
  • El valor p cuantifica la evidencia en contra de H₀: a menor valor p, mayor evidencia
  • En la práctica, se usa s (desviación muestral) cuando σ es desconocida, si n es grande
  • Para probar diferencia de proporciones, se utiliza una proporción combinada p̂ = (x₁+x₂)/(n₁+n₂)

¡Perfecto! Aquí tienes el texto sobre Tamaño de muestra para hipótesis alternativa, pruebas con muestras pequeñas y pruebas para varianzas reescrito en el formato similar a los ejercicios anteriores.


80 📊 TAMAÑO DE MUESTRA PARA HIPÓTESIS ALTERNATIVA DE COLA SUPERIOR PARA LA MEDIA

📐 Determinación de n y c

Considere H₀: μ = μ₀ frente a H₁: μ > μ₀ (alternativa de cola superior). Se trata de hallar n (tamaño de la muestra) y c (punto donde empieza la región de rechazo) conociendo α₀ y β₀.

📐 Desarrollo

α = P{Z ≥ z_α}  →  z_α = (c - μ₀)/(σ/√n)
β = P{Z < -z_β} → -z_β = (c - μ₁)/(σ/√n)

📐 Fórmula final

n = ((z_α + z_β)/(μ₁ - μ₀))² · σ²

📊 Ejemplo 1: Cálculo de β

Problema: Vicepresidente quiere probar H₀: μ = 15 vs H₁: μ = 16. n=36, s²=9, α=0.05. Calcular β.

📐 Solución

  • Región de rechazo: ȳ > 15 + 1.645·(3/√36) = 15 + 0.8225 = 15.8225
  • β = P(Ȳ ≤ 15.8225 | μ=16)
  • z = (15.8225 - 16)/(3/√36) = -0.1775/0.5 = -0.355
  • β ≈ 0.3594

β grande (36%) indica que muestras de tamaño 36 no suelen detectar una diferencia de una unidad.


📊 Ejemplo 2: Determinación de n

Problema: Probar H₀: μ = 15 vs H₁: μ = 16 con α = β = 0.05. Hallar n. σ² ≈ 9.

📐 Solución

z_α = z_β = 1.645
n = ((1.645 + 1.645)/(16 - 15))² · 9 = (3.29)² · 9 = 10.8241 · 9 = 97.4

n = 98 observaciones para garantizar α = β = 0.05.


📊 ELEMENTOS COMUNES EN PRUEBA DE HIPÓTESIS CON MUESTRAS PEQUEÑAS

📐 Parámetro de interés

θ ∈ {μ, μ₁ - μ₂}

📊 Estimador

θ̂ ∈ {Ȳ, Ȳ₁ - Ȳ₂}

📐 Desviación del estimador

σ_θ̂ ∈ { s/√n, √[((n₁-1)s₁²+(n₂-1)s₂²)/(n₁+n₂-2)·(1/n₁+1/n₂)], √(s₁²/n₁ + s₂²/n₂) }

📊 Hipótesis

H₀: θ = θ₀;  H₁: θ > θ₀, θ < θ₀, o θ ≠ θ₀

📐 Estadístico de prueba

t_p = (θ̂ - θ₀)/σ_θ̂, con v grados de libertad

📊 Región de rechazo

• Cola superior: t_p > t_{α,v}
• Cola inferior: t_p < -t_{α,v}
• Dos colas: |t_p| > t_{α/2,v}

📊 Ejemplo 1: Aspiradoras (una muestra)

Problema: Afirman μ = 46 kWh. n=12, x̄=42, s=11.9, α=0.05. ¿Gastan menos de 46 kWh? Población normal.

📐 Solución

  • H₀: μ = 46, H₁: μ < 46 (cola inferior)
  • α = 0.05, gl = 11, t_{0.05,11} = -1.796
  • t_p = (42 - 46)/(11.9/√12) = -4/3.436 = -1.16
  • -1.16 > -1.796 → No rechazar H₀
  • p-valor ≈ 0.135

Conclusión: El número promedio de kWh no es significativamente menor que 46.


📊 Ejemplo 2: Comparación de desgaste (dos muestras)

Problema: Material 1: n₁=12, x̄₁=85, s₁=4. Material 2: n₂=10, x̄₂=81, s₂=5. α=0.05. ¿Material 1 excede al material 2 en más de 2 unidades? Varianzas iguales.

📐 Solución

  • H₀: μ₁ - μ₂ = 2, H₁: μ₁ - μ₂ > 2 (cola superior)
  • gl = 20, t_{0.05,20} = 1.725
  • S = √[(11·16 + 9·25)/20] = √[(176+225)/20] = √(401/20) = √20.05 = 4.478
  • t_p = ((85-81)-2)/[4.478·√(1/12+1/10)] = 2/(4.478·0.428) = 2/1.916 = 1.04
  • 1.04 < 1.725 → No rechazar H₀
  • p-valor ≈ 0.16

Conclusión: No se puede concluir que el desgaste del material 1 exceda al del material 2 en más de 2 unidades.


📊 PRUEBAS DE HIPÓTESIS REFERENTES A VARIANZAS

📐 Parámetro de interés

θ = σ²

📊 Estimador

θ̂ = S²

📐 Estadístico de prueba

χ² = (n-1)S²/σ₀², con n-1 grados de libertad

📊 Región de rechazo

• Cola superior: χ² > χ²_{α}
• Cola inferior: χ² < χ²_{1-α}
• Dos colas: χ² > χ²_{α/2} o χ² < χ²_{1-α/2}

📐 Valor p

• Cola superior: P(χ² > χ²_p)
• Cola inferior: P(χ² < χ²_p)
• Dos colas: 2·P(χ² > χ²_p)

81 📊 RESUMEN DE ESTADÍSTICOS DE PRUEBA PARA MUESTRAS PEQUEÑAS

📋 Tabla de pruebas t y χ²

Parámetro Estadístico t_p Grados de libertad
μ (una media) (X̄ - μ₀)/(s/√n) n-1
μ₁ - μ₂ (varianzas iguales) [(X̄₁-X̄₂)-D₀]/[S_p·√(1/n₁+1/n₂)] n₁+n₂-2
μ₁ - μ₂ (varianzas desiguales) [(X̄₁-X̄₂)-D₀]/√(s₁²/n₁ + s₂²/n₂) aprox. Welch

82 📊 VALORES CRÍTICOS COMUNES PARA t-STUDENT

📋 Grados de libertad más usados

gl t_{0.10} t_{0.05} t_{0.025} t_{0.01} t_{0.005}
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
20 1.325 1.725 2.086 2.528 2.845
30 1.310 1.697 2.042 2.457 2.750

83 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • El tamaño de muestra necesario depende de: α, β, diferencia a detectar (μ₁-μ₀) y varianza σ²
  • Para muestras pequeñas (n < 30), se utiliza la distribución t-Student en lugar de la normal
  • En la prueba t para dos muestras con varianzas iguales, se usa una varianza combinada S_p²
  • La prueba χ² para varianzas es sensible a la normalidad de la población
  • El valor p (p-valor) permite tomar decisiones sin necesidad de valores críticos fijos

¡Perfecto! Aquí tienes el texto sobre Prueba de hipótesis para la varianza, igualdad de varianzas y ejercicios de muestreo reescrito en el formato similar a los ejercicios anteriores.


84 📊 PRUEBA DE HIPÓTESIS PARA LA VARIANZA

📐 Ejemplo: Baterías para automóvil

Problema: Fabricante afirma duración con σ = 0.9 años, distribución normal. Muestra n=10, s=1.2 años. α=0.05. ¿σ > 0.9?

📐 Solución

  • Hipótesis: H₀: σ² = 0.81, H₁: σ² > 0.81 (cola superior)
  • Estadístico: χ² = (n-1)S²/σ₀² = (9×1.44)/0.81 = 16.0
  • gl = 9, valor crítico (α=0.05) = 16.919
  • p-valor ≈ 0.07
  • Decisión: χ² = 16.0 < 16.919 → No rechazar H₀

Conclusión: El estadístico χ² no es significativo en nivel 0.05, pero con p-valor 0.07 hay alguna evidencia de que σ > 0.9.

Prueba χ² para varianza (gl=9)

📊 DOS POBLACIONES NORMALES: PRUEBA DE IGUALDAD DE VARIANZAS

📐 Hipótesis

  • H₀: σ₁² = σ₂²
  • H₁: σ₁² > σ₂², σ₁² < σ₂², o σ₁² ≠ σ₂²

📊 Estadístico de prueba

F = S₁²/S₂²

Grados de libertad: ν₁ = n₁-1, ν₂ = n₂-1

📐 Región de rechazo

  • Cola superior: F > F_α
  • Cola inferior: F < F_{1-α}
  • Dos colas: F > F_{α/2} o F < F_{1-α/2}

🎯 Ejemplo: Desgaste abrasivo

Material 1: n₁=12, s₁²=16; Material 2: n₂=10, s₂²=25. α=0.10. ¿Varianzas iguales?

  • H₀: σ₁² = σ₂², H₁: σ₁² ≠ σ₂² (dos colas)
  • Estadístico: F = 16/25 = 0.64
  • gl: ν₁=11, ν₂=9
  • F_{0.05,11,9} ≈ 3.11; F_{0.95,11,9} = 1/F_{0.05,9,11} ≈ 0.34
  • Región de rechazo: F < 0.34 o F > 3.11
  • 0.64 no está en región de rechazo → No rechazar H₀

Conclusión: No hay suficiente evidencia de que las varianzas difieran.


📊 EJERCICIOS DE MUESTREO Y DISTRIBUCIONES MUESTRALES

1. Población 35% con enfermedades crónicas. n=200. Probabilidad de 80 o más.

2. Clips: μ=100, σ=8. Cartón de 64 cajas. Probabilidad de media entre 98 y 100.

3. Muestras de 64 de población μ=100, σ=20. Límites para el 80% central de las medias muestrales.

4. Baterías: n₁=100, n₂=400, μ=40, σ=10. Comparación de errores estándar.

5. Horas de TV en niños (distribución dada). Calcular E[Y], σ, prob. de media muestral ≤ 2 con n=64.

6. Estaturas: μ=174.5, σ=6.9, n=25. Media y desviación estándar de la distribución muestral. Número de medias entre 172.5 y 175.8.

7. Timeless: μ=60, σ=9, n=36. Error estándar, probabilidades de media <58, entre 57 y 63. Conclusión si media muestral=55.

8. Estudiantes Psicología: 54% mujeres, n=20. Rango del 99% de proporciones muestrales. Efecto de n=50.

9. Estudiantes UTB: 65% con email. n=100 y n=400. Intervalo del 95% para proporciones muestrales. ¿Posible p̂=0.4?


📊 EJERCICIOS DE INTERVALOS DE CONFIANZA

10. Peso estudiantes: n=100, x̄=65, s=9. IC 95% y 99% (a) σ conocida=10, (b) σ desconocida.

11. Mismo problema con n=20.

12. n=25, IC 99%: (68,72). Hallar IC 95% (varianza desconocida).

13. Elecciones: n=1000, 628 indecisos. IC 98% para proporción de indecisos.

14. Pesos de 10 niños: datos dados. IC 99% para peso medio.

15. Grosor láminas: n=100, x̄=20, σ²=1.44. IC 95% para espesor promedio.

16. Manzanas: n=150, x̄=22, s=3. IC 94% para peso medio. Tamaño muestral para error ≤1 con α=0.05.


📊 EJERCICIOS DE COMPARACIÓN Y VARIANZA

17. Clases A y B de estadística. IC 95% para diferencia de promedios. Conclusiones.

18. Nicotina cigarrillos: n=36, Σy=756, Σ(y-ȳ)²=315. IC 95% para contenido promedio.

19. Dos ciudades: n₁=n₂=25, ȳ₁=2.3, s₁=4; ȳ₂=1.8, s₂=3.5. IC 95% para diferencia. ¿Pueden ser iguales?

20. Y ~ N(μ,2), n=10, datos dados. IC 80%,90%,95% (a) σ conocida, (b) σ desconocida.

21. Lecturas de patrón (6 lecturas): 9.54,9.61,9.32,9.48,9.70,9.26. IC 90% para varianza.

22. Producto elimina 60% insectos. Tamaño muestral para error ≤0.02 con 95% confianza.

23. Semillas: Tamaño muestral para error ≤0.03 con 95% confianza.

24. Ingreso textil: σ=200,000. Tamaño muestral para error ≤2,500 con 95% confianza.


📊 EJERCICIO 25: ESTIMADORES EN DISTRIBUCIÓN EXPONENCIAL

Problema: Y₁, Y₂, Y₃ ~ Exp(θ) con f(y) = (1/θ)e^{-y/θ}. Evaluar estimadores para θ:

  • θ₁ = Y₁
  • θ₂ = (Y₁+Y₂)/2
  • θ₃ = (Y₁+2Y₂)/3
  • θ₄ = min(Y₁,Y₂,Y₃)
  • θ₅ = Ȳ

Recuerde: Para Exp(θ), E[Y] = θ, Var(Y) = θ², y el mínimo de n exponenciales tiene distribución Exp(θ/n).


85 📊 RESUMEN DE FÓRMULAS PARA PRUEBAS DE HIPÓTESIS

📋 Tabla de pruebas

Parámetro Estadístico Grados de libertad
σ² (una varianza) χ² = (n-1)S²/σ₀² n-1
σ₁²/σ₂² (dos varianzas) F = S₁²/S₂² ν₁=n₁-1, ν₂=n₂-1

86 💡 CONCLUSIONES CLAVE

✅ Puntos importantes

  • La prueba χ² para una varianza asume normalidad en la población
  • La prueba F para dos varianzas es sensible a la normalidad; se usa antes de una prueba t con varianzas iguales
  • Los intervalos de confianza para la varianza son generalmente asimétricos
  • En muestras grandes, la distribución muestral de la media se aproxima a normal (TCL)
  • El error estándar disminuye con la raíz cuadrada del tamaño muestral: σ_ȳ = σ/√n
  • Para proporciones, el error estándar es √[p(1-p)/n]