Con Mi Profe: Julio Hurtado Marquez; EMAIL_TAREAS: juliohurtado210307@gmail.com
Consideremos un vector aleatorio X = (X, Y)ᵀ que consta de dos variables aleatorias, X e Y, definidas en el mismo espacio muestral. Podemos extender estos conceptos a vectores aleatorios de mayor dimensión.
La función de distribución acumulada conjunta (CDF conjunta) se define como la probabilidad de que X ≤ x e Y ≤ y simultáneamente:
FXY(x, y) = P(X ≤ x, Y ≤ y)
Propiedades de la CDF conjunta:
La función de distribución acumulada marginal se obtiene tomando el límite cuando la otra variable tiende a infinito:
FX(x) = P(X ≤ x) = limy→∞ FXY(x, y) FY(y) = P(Y ≤ y) = limx→∞ FXY(x, y)
Para variables continuas: fX(x) = ∫ fXY(x, y) dy, fY(y) = ∫ fXY(x, y) dx
Para variables discretas: P(X=x) = Σy P(X=x, Y=y), P(Y=y) = Σx P(X=x, Y=y)
La función de distribución acumulada condicional describe cómo se modifica la distribución al conocer información sobre la otra variable:
Problema: Distribución conjunta:
| X | 1 | 2 | 3 |
|---|---|---|---|
| 0 | 0.10 | 0.15 | 0.05 |
| 1 | 0.20 | 0.30 | 0.20 |
CDF Conjunta: FXY(0,1)=0.10, FXY(0,2)=0.25, FXY(1,3)=1.00
CDF Marginal X: FX(0)=0.30, FX(1)=1.00
CDF Marginal Y: FY(1)=0.30, FY(2)=0.75, FY(3)=1.00
CDF Condicional: FX|Y(0|1)=1/3, FY|X(2|1)=5/7 ≈ 0.7143
prob <- matrix(c(0.10,0.15,0.05,0.20,0.30,0.20), nrow=2, byrow=TRUE) # CDF conjunta manual # CDF marginal: rowSums(prob) y colSums(prob) acumulados cumsum(rowSums(prob)); cumsum(colSums(prob))
Problema: fXY(x, y) = 1, para 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
CDF Conjunta: FXY(x, y) = x·y, para 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
CDF Marginal X: FX(x) = x (uniforme en [0,1])
CDF Marginal Y: FY(y) = y (uniforme en [0,1])
CDF Condicional X|Y: FX|Y(x|y) = x, para 0 ≤ x ≤ 1
F_XY <- function(x,y) ifelse(x>=0 & x<=1 & y>=0 & y<=1, x*y,
ifelse(x>=1 & y>=0 & y<=1, y,
ifelse(y>=1 & x>=0 & x<=1, x,
ifelse(x>=1 & y>=1, 1, 0))))
F_XY(0.5, 0.5) # 0.25
| Tipo | Fórmula (Discreto) | Fórmula (Continuo) | Relación |
|---|---|---|---|
| Conjunta CDF | F(x,y) = Σ Σ P(X≤x, Y≤y) | F(x,y) = ∫∫ f(u,v) du dv | F(x,y) → 1 cuando x,y → ∞ |
| Marginal CDF | FX(x) = limy→∞ F(x,y) | FX(x) = ∫-∞x f(u) du | FX(x) = P(X ≤ x) |
| Condicional CDF | FX | Y(x | y) = P(X≤x, Y=y)/P(Y=y) |
Función de Distribución
Conjunta FXY(x,y)
|
+-----------------------+-----------------------+
| | |
↓ ↓ ↓
Marginal FX(x) Marginal FY(y) Condicional FX|Y(x|y)
limy→∞ FXY limx→∞ FXY FXY/FY (discreto)
FXY/fY (continuo)
Relaciones clave:
¡Perfecto! Aquí tienes el texto sobre Independencia de Variables Aleatorias reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
Dos variables aleatorias X e Y son independientes si el conocimiento del valor que toma una de ellas no proporciona información sobre el valor que puede tomar la otra.
P(X = x, Y = y) = P(X = x) × P(Y = y)
fXY(x, y) = fX(x) × fY(y)
Si X e Y son independientes, entonces:
Problema: X = resultado primer dado, Y = resultado segundo dado. ¿Son independientes?
Solución: P(X=x)=1/6, P(Y=y)=1/6, P(X=x,Y=y)=1/36
1/6 × 1/6 = 1/36 = P(X=x, Y=y) → ✓ Son independientes
Problema: Distribución conjunta:
| X | 0 | 1 |
|---|---|---|
| 0 | 0.15 | 0.15 |
| 1 | 0.25 | 0.45 |
Marginales: P(X=0)=0.30, P(X=1)=0.70, P(Y=0)=0.40, P(Y=1)=0.60
Producto: P(X=0)P(Y=0)=0.30×0.40=0.12, pero P(X=0,Y=0)=0.15
0.15 ≠ 0.12 → ✗ No son independientes
Problema: fXY(x, y) = 2, para 0≤x≤1, 0≤y≤1, x+y≤1
Marginales: fX(x)=2(1-x), fY(y)=2(1-y)
Producto: fX(x)·fY(y) = 4(1-x)(1-y) ≠ 2
2 ≠ 4(1-x)(1-y) → ✗ No son independientes
Problema: X~Exp(1), Y~Exp(2), independientes
Marginales: fX(x)=e-x, fY(y)=2e-2y
Conjunta: fXY(x,y)=e-x·2e-2y=2e-x-2y
fXY(x,y) = fX(x) × fY(y) → ✓ Son independientes
| Condición | Fórmula | Dominio |
|---|---|---|
| Conjunta = producto de marginales (PMF) | P(X,Y) = P(X)·P(Y) | Discreto |
| Conjunta = producto de marginales (PDF) | f(x,y) = fX(x)·fY(y) | Continuo |
| CDF = producto de CDFs | F(x,y) = FX(x)·FY(y) | Discreto y Continuo |
| Condicional = marginal | P(X | Y) = P(X) ó f(x |
| Propiedad | Fórmula |
|---|---|
| Esperanza del producto | E[XY] = E[X]·E[Y] |
| Covarianza | Cov(X,Y) = 0 |
| Varianza de la suma | Var(X+Y) = Var(X) + Var(Y) |
| Función generadora de momentos | MX+Y(t) = MX(t)·MY(t) |
¡Perfecto! Aquí tienes el texto sobre Desigualdad de Chebyshev reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
La desigualdad de Chebyshev es un teorema fundamental que proporciona una cota superior para la probabilidad de que una variable aleatoria se aleje de su media en más de una cierta cantidad. Su gran ventaja es que se aplica a cualquier distribución, siempre que la media y la varianza sean finitas.
Sea X una variable aleatoria con media μ = E[X] y varianza σ² = Var(X) finitas. Entonces, para cualquier k > 0:
P(|X - μ| ≥ kσ) ≤ 1/k² P(|X - μ| ≥ a) ≤ σ²/a², con a = kσ > 0
Equivalentemente:
P(|X - μ| < kσ) ≥ 1 - 1/k² P(|X - μ| < a) ≥ 1 - σ²/a²
Problema: X con μ = 10, σ² = 4. Cota superior para P(|X-10| ≥ 3).
Solución: a = 3, σ² = 4
P(|X-10| ≥ 3) ≤ σ²/a² = 4/9 ≈ 0.444
Problema: Y con μ = 50, σ = 5. ¿Qué k asegura P(|Y-50| < 5k) ≥ 0.96?
Solución: 1 - 1/k² ≥ 0.96 → 1/k² ≤ 0.04 → k² ≥ 25 → k ≥ 5
k ≥ 5, intervalo (50 - 25, 50 + 25) = (25, 75)
Problema: Z ~ N(0,1). Comparar Chebyshev vs probabilidad real para k=2.
Chebyshev: P(|Z| ≥ 2) ≤ 1/4 = 0.25
Real: P(|Z| ≥ 2) = 0.0228 + 0.0228 = 0.0456
pnorm(-2) + (1 - pnorm(2)) # 0.0456
Problema: Llegadas por hora: μ = 20, σ = 5. Cota inferior para P(10 ≤ X ≤ 30).
Solución: a = 10, σ = 5
P(|X-20| < 10) ≥ 1 - 25/100 = 0.75
Resultado: Al menos 75% de las llegadas están entre 10 y 30 clientes por hora.
| Forma | Expresión | Interpretación |
|---|---|---|
| Con k desviaciones | P( | X-μ |
| Con k desviaciones (interior) | P( | X-μ |
| Con distancia a | P( | X-μ |
| Con distancia a (interior) | P( | X-μ |
| k | Cota superior P(|X-μ| ≥ kσ) | Cota inferior P(|X-μ| < kσ) |
|---|---|---|
| 1 | ≤ 1.000 (trivial) | ≥ 0.000 |
| 1.5 | ≤ 0.444 | ≥ 0.556 |
| 2 | ≤ 0.250 | ≥ 0.750 |
| 2.5 | ≤ 0.160 | ≥ 0.840 |
| 3 | ≤ 0.111 | ≥ 0.889 |
| 4 | ≤ 0.0625 | ≥ 0.9375 |
| 5 | ≤ 0.0400 | ≥ 0.9600 |
¡Perfecto! Aquí tienes el texto sobre Diferentes Tipos de Convergencia de Variables Aleatorias reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
En probabilidad y estadística, cuando hablamos de una secuencia de variables aleatorias {Xₙ}, es importante entender a qué variable aleatoria (o constante) “converge” esta secuencia, y en qué sentido lo hace. Existen varios tipos de convergencia, cada uno con sus propias implicaciones.
Una secuencia {Xₙ} converge en distribución a X si sus CDF convergen puntualmente a la CDF de X en todos los puntos donde es continua. Se denota Xₙ →d X.
limn→∞ FXₙ(x) = FX(x)
Ejemplo clave: Teorema Central del Límite (TCL) — la suma normalizada converge a una normal estándar.
Una secuencia {Xₙ} converge en probabilidad a X si, para cualquier ε > 0, la probabilidad de que |Xₙ - X| > ε tiende a cero. Se denota Xₙ →p X.
limn→∞ P(|Xₙ - X| > ε) = 0, ∀ε > 0
Ejemplo clave: Ley Débil de los Grandes Números (LDGN) — el promedio muestral converge en probabilidad a la media poblacional.
Una secuencia {Xₙ} converge en media cuadrática (o en L²) a X si la esperanza del cuadrado de la diferencia tiende a cero. Se denota Xₙ →L² X.
limn→∞ E[(Xₙ - X)²] = 0
Implicación: Implica convergencia en probabilidad (pero no viceversa).
Una secuencia {Xₙ} converge casi seguramente (a.s. o con probabilidad 1) a X si la probabilidad de que Xₙ(ω) → X(ω) es 1. Se denota Xₙ →a.s. X.
P(limn→∞ Xₙ = X) = 1
Ejemplo clave: Ley Fuerte de los Grandes Números (LFGN) — el promedio muestral converge casi seguramente a la media poblacional.
Xₙ →a.s. X ⇒ Xₙ →p X ⇒ Xₙ →d X Xₙ →L² X ⇒ Xₙ →p X
La convergencia en distribución es la más débil; la convergencia casi segura es la más fuerte.
Problema: {Xₙ} Bernoulli(pₙ=1/n), Sₙ = ΣXᵢ. Demostrar que Sₙ/n →p 0.
Solución: E[Sₙ/n] ≈ ln(n)/n → 0, Var(Sₙ/n) ≈ ln(n)/n² → 0. Por Chebyshev:
P(|Sₙ/n - E[Sₙ/n]| > ε) ≤ Var(Sₙ/n)/ε² → 0
Problema: Xᵢ ~ Exp(λ=1), E[Xᵢ]=1. Por LFGN, X̄ₙ →a.s. 1.
Problema: Xᵢ ~ U(0,1), Sₙ = ΣXᵢ. Por TCL:
Zₙ = (Sₙ - n/2)/√(n/12) →d N(0,1)
Problema: P(Xₙ = 1/n) = 1. Demostrar que Xₙ →L² 0.
Solución: E[(Xₙ - 0)²] = (1/n)² = 1/n² → 0
| Tipo | Notación | Definición | Fuerza | Ejemplo clave |
|---|---|---|---|---|
| En Distribución | →d | FXₙ(x) → FX(x) | Más débil | TCL |
| En Probabilidad | →p | P(|Xₙ-X|>ε) → 0 | Media | LDGN |
| Media Cuadrática | →L² | E[(Xₙ-X)²] → 0 | Fuerte | Aplicaciones en predicción |
| Casi Segura | →a.s. | P(Xₙ→X) = 1 | Más fuerte | LFGN |
Xₙ →a.s. X
↓
Xₙ →p X
↗ ↘
Xₙ →L² X Xₙ →d X
Observaciones:
¡Perfecto! Aquí tienes el texto sobre Ley de los Grandes Números (Débil y Fuerte) reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
La Ley de los Grandes Números (LGN) es un teorema fundamental que describe el comportamiento del promedio de una secuencia de ensayos repetidos. Intuitivamente, establece que a medida que aumenta el número de ensayos, el promedio empírico se acerca al valor esperado teórico.
Existen dos formas principales: la Ley Débil de los Grandes Números (LDGN) y la Ley Fuerte de los Grandes Números (LFGN). La diferencia radica en el tipo de convergencia que describen.
La LDGN establece que el promedio muestral converge en probabilidad al valor esperado. Sean X₁, X₂, … variables i.i.d. con media μ = E[Xᵢ] finita. Sea X̄ₙ = (1/n) Σ Xᵢ. Para cualquier ε > 0:
limn→∞ P(|X̄ₙ - μ| > ε) = 0
Es decir: X̄ₙ →p μ
La LFGN establece una forma más fuerte: el promedio muestral converge casi seguramente al valor esperado.
P(limn→∞ X̄ₙ = μ) = 1
Es decir: X̄ₙ →a.s. μ
Problema: Moneda justa (p=0.5). Simular la proporción de caras para diferentes n.
set.seed(123) n <- c(10, 50, 100, 500, 1000, 5000) proporciones <- sapply(n, function(n) mean(rbinom(n, 1, 0.5)))
Resultado: La proporción de caras tiende a 0.5 a medida que n aumenta.
Problema: Xᵢ ~ U(0,1), μ = 0.5. Simular el promedio para diferentes n.
set.seed(456) n <- c(10, 50, 100, 500, 1000, 5000) promedios <- sapply(n, function(n) mean(runif(n, 0, 1)))
Resultado: El promedio converge a 0.5 a medida que n aumenta.
Problema: Lanzamiento de dado justo, μ = 3.5. Simular promedio para diferentes n.
set.seed(789) n <- c(10, 50, 100, 500, 1000, 5000) promedios <- sapply(n, function(n) mean(sample(1:6, n, replace=TRUE)))
Resultado: El promedio converge a 3.5.
Problema: Evento con p=0.01. Simular proporción de éxitos para diferentes n.
set.seed(101) n <- c(100, 500, 1000, 5000, 10000, 50000) prop <- sapply(n, function(n) mean(rbinom(n, 1, 0.01)))
Resultado: La proporción converge a 0.01.
| Característica | Ley Débil (LDGN) | Ley Fuerte (LFGN) |
|---|---|---|
| Tipo de convergencia | En probabilidad (→p) | Casi segura (→a.s.) |
| Enunciado | P(|X̄ₙ-μ|>ε) → 0 | P(lim X̄ₙ = μ) = 1 |
| Interpretación | La probabilidad de desviación tiende a 0 | Las trayectorias convergen (c.s.) |
| Fuerza | Más débil | Más fuerte |
| Aplicación práctica | Aproximaciones con alta probabilidad | Garantía asintótica para cada realización |
| Ejemplo | Distribución | Media teórica (μ) | Comportamiento observado |
|---|---|---|---|
| Moneda justa | Bernoulli(0.5) | 0.5 | Proporción de caras → 0.5 |
| Uniforme | U(0,1) | 0.5 | Promedio → 0.5 |
| Dado justo | Uniforme discreta {1,…,6} | 3.5 | Promedio → 3.5 |
| Evento raro | Bernoulli(0.01) | 0.01 | Proporción de éxitos → 0.01 |
La teoría de la probabilidad tuvo como uno de sus primeros puntos de partida el intentar resolver un problema particular, concerniente a una apuesta de juego de dados entre dos personas.
📖 El problema original: Dos jugadores escogen, cada uno de ellos, un número del 1 al 6, distinto uno del otro, y apuestan 32 doblones de oro a que el número escogido por uno de ellos aparece en tres ocasiones antes que el número del contrario al lanzar sucesivamente un dado. Suponga que el número de uno de los jugadores ha aparecido dos veces y el número del otro, una sola vez. Bajo estas circunstancias, ¿Cómo debe dividirse el total de la apuesta si el juego se suspende?
1. Christiaan Huygens (1629-1695)
2. Jacques Bernoulli (1654-1705)
lim P(|Sₙ/n - p| < ε) = 1
3. Pierre-Simon Laplace (1749-1827)
P(A) = casos favorables / casos posibles
4. Carl Friedrich Gauss (1777-1855)
f(x) = 1/(σ√2π)·e^{-½((x-μ)/σ)²}
1. P(A) ≥ 0
2. P(Ω) = 1
3. P(⋃_{i=1}^{∞} Aᵢ) = Σ_{i=1}^{∞} P(Aᵢ), para sucesos disjuntos
| Matemático | Aporte principal | Año clave |
|---|---|---|
| Pascal y Fermat | Bases de la probabilidad (problema de los puntos) | 1654 |
| Huygens | Concepto de esperanza matemática | 1657 |
| Bernoulli | Ley de los grandes números (Ars Conjectandi) | 1713 |
| De Moivre | Distribución normal | 1718 |
| Laplace | Definición clásica de probabilidad | 1812 |
| Gauss | Desarrollo de la distribución normal | 1809 |
| Hilbert | Planteamiento de axiomas | 1900 |
| Kolmogorov | Axiomatización moderna | 1933 |
Joseph Bertrand (1822-1900), matemático francés, planteó una famosa paradoja que evidenció la necesidad de una base axiomática rigurosa para la probabilidad.
📖 El problema de la cuerda: Dado un círculo, se elige una cuerda al azar. ¿Cuál es la probabilidad de que la cuerda sea más larga que el lado del triángulo equilátero inscrito?
Bertrand demostró que, dependiendo del método de selección de la cuerda, se obtenían tres respuestas diferentes: 1/2, 1/3 y 1/4.
Conclusión: La paradoja demostró que no basta con decir “al azar”; es necesario especificar el mecanismo de selección y tener una definición rigurosa de probabilidad.
La teoría de la medida es la rama de las matemáticas que extiende los conceptos de longitud, área y volumen a conjuntos más complejos. Fue desarrollada principalmente por Émile Borel (1871-1956) y Henri Lebesgue (1875-1941).
Kolmogorov utilizó la teoría de la medida para axiomatizar la probabilidad:
Espacio de probabilidad = (Ω, 𝓕, P) - Ω: espacio muestral - 𝓕: σ-álgebra de eventos (conjuntos medibles) - P: medida de probabilidad (P(Ω)=1)
| Matemático | Contribución | Año clave |
|---|---|---|
| Émile Borel | Teoría de la medida, conjuntos borelianos | 1898 |
| Henri Lebesgue | Integral de Lebesgue, medida de Lebesgue | 1902 |
| Maurice Fréchet | Espacios métricos, convergencia en probabilidad | 1906 |
| Andréi Kolmogorov | Axiomatización de la probabilidad | 1933 |
Investiga y ordena cronológicamente los siguientes hitos de la probabilidad:
Implementa en R los tres métodos de selección de cuerdas y verifica las probabilidades:
# Método 1: puntos extremos sobre la circunferencia # Método 2: radio y punto medio # Método 3: punto medio uniforme en el círculo # Simular y comparar resultados
Elige un matemático de la lista y prepara una breve presentación (5 minutos) sobre:
Investiga la diferencia entre:
¡Excelente! Aquí tienes el texto sobre Experimentos Aleatorios reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
Existen dos tipos de fenómenos en la naturaleza:
Producen el mismo resultado bajo condiciones idénticas.
P·V = n·R·T
θi = θr
Producen resultados variables bajo las mismas condiciones.
Ω = {Cara, Sello}
Ω = {1, 2, 3, ..., 10⁶}
Definición: Conjunto de todos los posibles resultados (Ω).
Ejemplo: Lanzar un dado
Ω = {1, 2, 3, 4, 5, 6}
Cardinalidad: ♯(Ω) = 6
1. Lanzar dado hasta obtener 6:
Ω = {(6), (1,6), (2,6), ..., (1,1,6), ...}
♯(Ω) = ∞
2. Tiempo de espera:
Ω = [0, ∞)
3. Lanzar 2 dados indistinguibles:
Ω = {(1,1), (1,2), ..., (6,6)}
♯(Ω) = 21
Conmutatividad:
A ∪ B = B ∪ A A ∩ B = B ∩ A
Leyes de De Morgan:
A ∪ B = A ∩ B A ∩ B = A ∪ B
https://forms.gle/VqCBiiFHcvLB4A7v6
Nota: El formulario podría no estar activo actualmente.
| Concepto | Definición | Ejemplo |
|---|---|---|
| Experimento Determinista | Mismo resultado bajo condiciones idénticas | Ley de Boyle: P·V = n·R·T |
| Experimento Aleatorio | Resultado variable bajo mismas condiciones | Lanzamiento de moneda |
| Espacio Muestral (Ω) | Conjunto de todos los resultados posibles | Ω = {1,2,3,4,5,6} |
| Evento | Subconjunto del espacio muestral | A = {2,4,6} (números pares) |
¡Perfecto! Aquí tienes el texto sobre Propiedades de Operaciones entre Eventos, Teoría de Conjuntos Básica reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
1. Conmutativa:
A ∪ B = B ∪ A
2. Idempotencia:
A ∪ A = A
3. Elemento neutro:
A ∪ ∅ = A
4. Absorción:
A ∪ Ω = Ω
5. Complementariedad:
A ∪ A = Ω
1. Conmutativa:
A ∩ B = B ∩ A
2. Idempotencia:
A ∩ A = A
3. Elemento absorbente:
A ∩ ∅ = ∅
4. Elemento neutro:
A ∩ Ω = A
5. Complementariedad:
A ∩ A = ∅
1. No conmutativa:
A - B ≠ B - A
2. Idempotencia:
A - A = ∅
3. Elemento neutro:
A - ∅ = A
4. Relación con complemento:
Ω - A = A
5. Reducción:
A - B = A - (A ∩ B)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A ∪ B = A ∩ B A ∩ B = A ∪ B
∅ = Ω Ω = ∅ ¯A = A
A ∪ (B ∪ C) = (A ∪ B) ∪ C = A ∪ B ∪ C A ∩ (B ∩ C) = (A ∩ B) ∩ C = A ∩ B ∩ C
⋃k=1n Bk (Unión finita) ⋃k=1∞ Bk (Unión infinita: ocurre al menos uno) ⋂k=1n Bk (Intersección finita) ⋂k=1∞ Bk (Intersección infinita: ocurren todos)
A ∪ (⋃k=1∞ Bk) = ⋃k=1∞ (A ∪ Bk) A ∩ (⋂k=1∞ Bk) = ⋂k=1∞ (A ∩ Bk) ⋃k=1∞ Bk = ⋂k=1∞ Bk ⋂k=1∞ Bk = ⋃k=1∞ Bk
Para Ω ≠ ∅:
℘(Ω) = 2^Ω = {A | A ⊆ Ω}
Si |Ω| = n < ∞:
|2^Ω| = 2ⁿ
Ejemplo:
A × B = {(x,y) | x ∈ A, y ∈ B}
A₁ × ... × Aₙ = {(x₁,...,xₙ) | xᵢ ∈ Aᵢ}
Propiedades:
Ejemplos:
ℝ² = ℝ × ℝ ℝⁿ = ℝ × ... × ℝ (n veces)
Ajenos (disjuntos):
A ∩ B = ∅
Partición de Ω:
Tipos:
| Operación | Conmutativa | Idempotencia | Elemento neutro | Absorbente | Complementariedad |
|---|---|---|---|---|---|
| Unión (∪) | Sí | A ∪ A = A | ∅ | Ω | A ∪ A = Ω |
| Intersección (∩) | Sí | A ∩ A = A | Ω | ∅ | A ∩ A = ∅ |
| Diferencia (-) | No | A - A = ∅ | ∅ | — | Ω - A = A |
¡Perfecto! Aquí tienes el texto sobre Ejemplos de Conteo y Probabilidad, Álgebra de Boole, Definiciones de Probabilidad y Propiedades reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
Ejemplo 1: Un hombre con 6 camisas y 7 pantalones puede vestirse de:
6 × 7 = 42 formas diferentes
Ejemplo 2: Una mujer con 3 sombreros, 6 blusas, 8 faldas y 10 pares de zapatos puede vestirse de:
3 × 6 × 8 × 10 = 1,440 formas diferentes
Una familia 𝒜 de subconjuntos de Ω es un álgebra si:
𝒜 es una σ-álgebra si además cumple:
∀ {Aᵢ}i∈ℕ ⊆ 𝒜, ⋃i∈ℕ Aᵢ ∈ 𝒜
| Probabilidad | Teoría de Conjuntos |
|---|---|
| Suceso seguro | Conjunto universal (Ω) |
| Suceso elemental | Punto |
| Sucesos incompatibles | Conjuntos disjuntos |
| Unión de sucesos | Unión de conjuntos |
Una colección 𝓕 de subconjuntos de Ω es una σ-álgebra si cumple:
∀ {Aₙ}n=1∞ ⊆ 𝓕, ⋃n=1∞ Aₙ ∈ 𝓕 y ⋂n=1∞ Aₙ ∈ 𝓕
Implicaciones:
Dada una σ-álgebra 𝓕 y sucesiones {Aₙ}, {Bₙ} ⊆ 𝓕, pruebe que:
(⋂n=1∞ Aₙᶜ) ∪ (⋃n=1∞ Bₙᶜ) ∈ 𝓕
Sugerencias:
P(A) = N° casos favorables / N° casos posibles
Limitaciones:
P(A) = limn→∞ n_A / n
donde: n = total de ensayos, n_A = ocurrencias de A
Problemas Prácticos:
Supera las limitaciones anteriores mediante:
P(⋃i=1∞ Aᵢ) = Σi=1∞ P(Aᵢ)
Ventajas: Aplica a espacios discretos y continuos; base matemática rigurosa.
Para superar las limitaciones, se desarrolló un enfoque riguroso basado en:
Una medida de probabilidad ℙ en (Ω, 𝓕) satisface:
ℙ(⋃n=1∞ Aₙ) = Σn=1∞ ℙ(Aₙ)
Para cualquier espacio probabilístico (Ω, 𝓕, ℙ):
1. Probabilidad del Complemento:
ℙ(Aᶜ) = 1 - ℙ(A)
Corolario: ℙ(∅) = 0
2. Monotonía:
A ⊆ B ⇒ ℙ(A) ≤ ℙ(B)
3. Ley de Probabilidad Total:
ℙ(B) = ℙ(A ∩ B) + ℙ(Aᶜ ∩ B)
Para n eventos:
ℙ(⋃i=1n Aᵢ) = Σ ℙ(Aᵢ) - Σ ℙ(Aᵢ∩Aⱼ) + Σ ℙ(Aᵢ∩Aⱼ∩Aₖ) - ... + (-1)ⁿ⁺¹ ℙ(⋂ Aᵢ)
Caso particular para 2 eventos:
ℙ(A ∪ B) = ℙ(A) + ℙ(B) - ℙ(A ∩ B)
Para eventos mutuamente excluyentes:
Aᵢ ∩ Aⱼ = ∅ ∀ i ≠ j ⇒ ℙ(⋃ Aᵢ) = Σ ℙ(Aᵢ)
| Enfoque | Fórmula | Ventajas | Limitaciones |
|---|---|---|---|
| Clásica (Laplace) | P(A) = casos favorables/casos posibles | Simple, intuitiva | Requiere equiprobabilidad, Ω finito |
| Frecuentista (Bernoulli) | P(A) = lim n_A/n | Aplicable a eventos repetibles | Requiere infinitas repeticiones |
| Axiomática (Kolmogorov) | Axiomas de probabilidad | Rigurosa, aplicable a Ω finito/infinito | No proporciona método de cálculo directo |
¡Perfecto! Aquí tienes el texto sobre Probabilidad para Tres Eventos, Teoremas Fundamentales, Independencia y Ejercicios reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
Para tres eventos A, B y C:
ℙ(A ∪ B ∪ C) = ℙ(A) + ℙ(B) + ℙ(C)
- ℙ(A ∩ B) - ℙ(A ∩ C) - ℙ(B ∩ C)
+ ℙ(A ∩ B ∩ C)
Si ℙ(B) > 0:
ℙ(A|B) = ℙ(A ∩ B) / ℙ(B)
Propiedades:
ℙ(⋂i=1n Aᵢ) = ∏i=1n ℙ(Aᵢ | ⋂j=1i-1 Aⱼ)
Datos:
Cálculos:
1. Chica rubia:
ℙ(F ∩ R) = ℙ(R|F)·ℙ(F) = 0.3 × 0.6 = 0.18
2. Chica rubia con gafas:
ℙ(F ∩ R ∩ G) = ℙ(G|R∩F)·ℙ(R|F)·ℙ(F) = 0.4 × 0.3 × 0.6 = 0.072
Para partición {Aᵢ}i=1n de Ω:
ℙ(B) = Σi=1n ℙ(B|Aᵢ)·ℙ(Aᵢ)
ℙ(Aᵢ|B) = ℙ(Aᵢ)·ℙ(B|Aᵢ) / Σj=1n ℙ(Aⱼ)·ℙ(B|Aⱼ)
ℙ(Aₖ|B) = ℙ(Aₖ ∩ B)/ℙ(B) = ℙ(Aₖ)·ℙ(B|Aₖ)/ℙ(B)
ℙ(Aᵢ|B) = ℙ(Aᵢ)·ℙ(B|Aᵢ) / Σj=1k ℙ(Aⱼ)·ℙ(B|Aⱼ)
Definición de Independencia:
ℙ(A ∩ B) = ℙ(A)·ℙ(B)
ℙ(B|A) = ℙ(B)
ℙ(⋂j=1k Aᵢⱼ) = ∏j=1k ℙ(Aᵢⱼ)
a) Si A y B son independientes, demuestre que: A y B son independientes, A y B son independientes, A y B son independientes.
Solución:
ℙ(A ∩ B) = ℙ(B) - ℙ(A ∩ B) = ℙ(B) - ℙ(A)ℙ(B) = ℙ(B)(1-ℙ(A)) = ℙ(A)ℙ(B)
a) Probabilidad de encestar 3 lanzamientos seguidos:
(1/4)³ = 1/64
b) Probabilidad de al menos 3 éxitos en 5 intentos (distribución binomial):
Σk=35 C(5,k)·(1/4)ᵏ·(3/4)5-k
ℙ(suma 7) = 6/36 = 1/6
Datos:
Solución:
a) Varón rubio:
ℙ(V∩R) = 0.2×0.3 = 0.06
b) Probabilidad total de rubio:
ℙ(R) = 0.2×0.3 + 0.5×0.7 = 0.41
c) Probabilidad inversa:
ℙ(V|R) = 0.06/0.41 ≈ 0.1463
| Producto | Hombres | Mujeres | Total |
|---|---|---|---|
| A | 225 | 180 | 405 |
| B | 175 | 120 | 295 |
ℙ(Ganar) = (4/5) × (3/4) × (2/3) × (1/2) = 24/120 = 0.2
| Concepto | Fórmula |
|---|---|
| Inclusión-Exclusión (3 eventos) | ℙ(A∪B∪C) = ℙ(A)+ℙ(B)+ℙ(C) - ℙ(A∩B)-ℙ(A∩C)-ℙ(B∩C) + ℙ(A∩B∩C) |
| Probabilidad Condicional | ℙ(A|B) = ℙ(A∩B)/ℙ(B) |
| Regla del Producto | ℙ(∩Aᵢ) = ∏ ℙ(Aᵢ | ∩j<i Aⱼ) |
| Probabilidad Total | ℙ(B) = Σ ℙ(B|Aᵢ)·ℙ(Aᵢ) |
| Teorema de Bayes | ℙ(Aᵢ|B) = ℙ(Aᵢ)·ℙ(B|Aᵢ) / Σ ℙ(Aⱼ)·ℙ(B|Aⱼ) |
| Independencia | ℙ(A∩B) = ℙ(A)·ℙ(B) |
¡Perfecto! Aquí tienes el texto sobre Variables Aleatorias, Función de Distribución, Esperanza y Varianza reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
Dado un espacio de probabilidad (Ω, 𝓕, ℙ), una variable aleatoria es una función medible:
X: Ω → ℝ
tal que para todo x ∈ ℝ:
{ω ∈ Ω: X(ω) ≤ x} ∈ 𝓕
Notación:
ℙ[X ≤ x] := ℙ({ω: X(ω) ≤ x})
Una variable aleatoria X es discreta si toma valores en un conjunto finito o numerable {x₁, x₂, …} ⊂ ℝ.
Asociada a X, existe una función f que cumple:
f(k) = C(10,k)·(1/2)¹⁰
Espacio muestral: Ω = {SS, SC, CS, CC}
Variable X: Número de caras
| ω | ℙ(ω) | X(ω) |
|---|---|---|
| SS | 1/4 | 0 |
| SC, CS | 1/2 | 1 |
| CC | 1/4 | 2 |
Función de masa:
| x | ℙ(X = x) |
|---|---|
| 0 | 1/4 |
| 1 | 1/2 |
| 2 | 1/4 |
Para cualquier conjunto A ⊆ ℝ:
ℙ(X ∈ A) = Σ_{xᵢ ∈ A} f(xᵢ)
Demostración:
ℙ(X ∈ A) = ℙ(⋃_{xᵢ∈A} {X = xᵢ}) = Σ_{xᵢ∈A} ℙ(X = xᵢ) = Σ_{xᵢ∈A} f(xᵢ)
Para una variable aleatoria discreta X, la función de distribución acumulativa (FDA) F se define como:
F(t) = ℙ(X ≤ t) = Σ_{x ≤ t} f(x)
Una función F: ℝ → [0,1] es una FDA si cumple:
Para cualquier a ≤ b:
ℙ(a < X ≤ b) = F(b) - F(a)
Sea X una variable aleatoria discreta. Si Σ|xᵢ|f(xᵢ) < ∞, definimos la esperanza (media) de X como:
μ = E[X] = Σ xᵢ f(xᵢ)
Sea X una variable con media finita. La varianza de X se define como:
σ² = Var[X] = E[(X - μ)²]
La desviación estándar de X se define como σ = √(σ²).
Demuestre que si X es una variable aleatoria que toma valores 0,1,2,… y con esperanza finita, entonces:
E[X] = Σ_{n=0}^{∞} ℙ(X > n)
Sea X una variable aleatoria con función de densidad:
ℙ[X = x] = 1/[x(x+1)] para x = 1,2,3,...
Demuestre que E[X] no existe.
Suponga que X y Y son variables aleatorias tales que ℙ(|X - Y| ≤ M) = 1 para alguna constante M. Suponga que E[Y] < ∞ y demuestre que X tiene esperanza finita y |E[X] - E[Y]| ≤ M.
Lanzamos una moneda dos veces y sea X el número de caras. Entonces:
La función distribución es:
F_X(x) = { 0, x < 0
{ 1/4, 0 ≤ x < 1
{ 3/4, 1 ≤ x < 2
{ 1, x ≥ 2 }
Una variable aleatoria es continua si existe una función f_X tal que:
ℙ(a < X < b) = ∫_a^b f_X(x) dx
🎥 Video: Variables Aleatorias Parte 1
https://youtu.be/J9ocsID-o_Y
📝 Taller de Técnicas de Conteo
https://forms.gle/ooLbCwuA6UZ84jb66
📝 Taller 7: Variables Aleatorias
https://forms.gle/nE1oK31nRRG6RdDC9
| Concepto | Fórmula |
|---|---|
| Esperanza (discreta) | E[X] = Σ xᵢ f(xᵢ) |
| Varianza | Var(X) = E[(X-μ)²] = E[X²] - (E[X])² |
| FDA | F(t) = ℙ(X ≤ t) = Σ_{x≤t} f(x) |
| Probabilidad en intervalo | ℙ(a < X ≤ b) = F(b) - F(a) |
| Linealidad de esperanza | E[Σ cᵢXᵢ] = Σ cᵢE[Xᵢ] |
| Transformación Y = g(X) | E[Y] = Σ g(xᵢ)f(xᵢ) |
¡Perfecto! Aquí tienes el texto sobre Distribuciones Discretas y Continuas más Comunes reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
Si Y es una variable aleatoria discreta cuyo soporte es el conjunto {y₁, y₂, …, yₙ} y tiene distribución uniforme discreta, entonces escribiremos Y ∼ U{y₁, y₂, …, yₙ}.
P(Y = y) = 1/n, para y = y₁, y₂, ..., yₙ
Ejemplo: Y ∼ U(0,1,…,9) → P(U = j) = 1/10, para j = 0,1,…,9
E[Y] = (1/n) Σ yⱼ = (n+1)/2 Var(Y) = (1/n) Σ (yⱼ - E[Y])² = (n² - 1)/12
dunifdisc <- function(x, min=1, max=6) ifelse(x>=min & x<=max & round(x)==x, 1/(max-min+1), 0) dunifdisc(2) # 0.1666667
Binomial: X ∼ Bin(n, p)
ℙ(X = x) = C(n, x)·pˣ·(1-p)ⁿ⁻ˣ, x = 0,1,...,n
📐 Parámetros:
E[X] = np Var(X) = np(1-p)
📊 Momentos:
E[(X-μ)³] = np(1-3p+2p²) E[(X-μ)⁴] = np(1-p)[1+3(n-2)p(1-p)]
Geométrica: X ∼ Geom(p)
ℙ(X = x) = p·(1-p)ˣ⁻¹, x = 1,2,3,...
E[X] = 1/p Var(X) = (1-p)/p²
Binomial Negativa: X ∼ NegBin(r, p)
ℙ(X = x) = C(x-1, r-1)·pʳ·(1-p)ˣ⁻ʳ, x = r, r+1,...
E[X] = r/p Var(X) = r(1-p)/p²
Hipergeométrica: X ∼ Hiper(n, D, N)
ℙ(X = x) = C(D, x)·C(N-D, n-x) / C(N, n), max(0,n-N+D) ≤ x ≤ min(n,D)
E[X] = np Var(X) = np(1-p)·(N-n)/(N-1), con p = D/N
Poisson: X ∼ Poi(λ)
ℙ(X = x) = e⁻ˡ·λˣ / x!, x = 0,1,2,...
E[X] = λ Var(X) = λ
E[(X-λ)³] = λ E[(X-λ)⁴] = 3λ² + λ
Una variable aleatoria continua toma valores en subintervalos o dentro de conjuntos generados por subintervalos de ℝ.
Ejemplos:
Considere el experimento de elegir un punto al azar dentro del disco de radio R centrado en el origen. Sea X la distancia entre el punto elegido y el origen. Encuentre la función de distribución de X.
Teorema: Una variable aleatoria X es continua si y sólo si su función de distribución F es continua en todo punto x.
Consecuencia: Para cualesquiera números a ≤ b:
ℙ(a < X < b) = ℙ(a ≤ X ≤ b) = ℙ(a ≤ X < b)
Una función de densidad es una función no negativa f ≥ 0 tal que:
∫_{-∞}^{∞} f(x) dx = 1
Si f es una función de densidad, entonces la función F definida por:
F(x) = ∫_{-∞}^{x} f(y) dy, -∞ < x < ∞
es una función de distribución.
Para una variable aleatoria continua X con densidad f:
ℙ(a ≤ X ≤ b) = ∫_a^b f(x) dx
De manera más general, si A es unión numerable de intervalos disjuntos:
ℙ(X ∈ A) = ∫_A f(x) dx
Importante: Si F es absolutamente continua, la densidad f no es única (puede modificarse en conjuntos de medida cero sin alterar la integral).
Una variable aleatoria continua X tiene función de densidad:
f(x) = { k(6-3x), si 0 ≤ x ≤ 2
{ 0, si x < 0 o x > 2
1. Determinar el valor de k
∫₀² k(6-3x) dx = 1 → k[6x - (3/2)x²]₀² = k(12 - 6) = 6k = 1 → k = 1/6
2. Probabilidades:
3. μ y σ (Ejercicio propuesto)
4. Función de distribución F(x) (Ejercicio propuesto)
| Distribución | Parámetros | P(X = k) | E[X] | Var(X) |
|---|---|---|---|---|
| Uniforme Discreta | n | 1/n | (n+1)/2 | (n²-1)/12 |
| Bernoulli | p | p·1(k)·(1-p)(1-k) | p | p(1-p) |
| Binomial | n, p | C(n,k)·pᵏ·qⁿ⁻ᵏ | np | npq |
| Geométrica | p | p·qᵏ⁻¹ | 1/p | q/p² |
| Binomial Negativa | r, p | C(k-1,r-1)·pʳ·qᵏ⁻ʳ | r/p | rq/p² |
| Hipergeométrica | N, D, n | C(D,k)C(N-D,n-k)/C(N,n) | nD/N | npq·(N-n)/(N-1) |
| Poisson | λ | e⁻ˡ·λᵏ/k! | λ | λ |
¡Perfecto! Aquí tienes el texto sobre Función de Densidad (Caso Continuo) - Ejemplos Resueltos, Teorema de Cambio de Variable y Repaso de Distribuciones Discretas reescrito en el formato similar a los ejercicios anteriores.
Función de densidad:
f(x) = { k(6-3x), si 0 ≤ x ≤ 2; 0, en otro caso }
1. Valor de k: k = 1/6
2. Probabilidades:
3. Parámetros:
4. Función de distribución:
F(x) = { 0, si x < 0
{ x - x²/4, si 0 ≤ x ≤ 2
{ 1, si 2 < x }
1. Probabilidad: P(1/2 ≤ X ≤ 5/4) = 19/32
2. Función de distribución:
F(x) = { 0, si x < 0
{ x²/2, si 0 ≤ x ≤ 1
{ -x²/2 + 2x - 1, si 1 < x ≤ 2
{ 1, si 2 < x }
3. Parámetros:
Calcular:
Función de densidad:
f(x) = { e^{-x/10}/10, si x ≥ 0; 0, si x < 0 }
1. Verificación: ∫f(x)dx = 1 ✓
2. Función de distribución:
F(x) = { 0, si x < 0; 1 - e^{-x/10}, si x ≥ 0 }
3. Probabilidades:
4. Vida media: μ = 10 años
Función de densidad: f(x) = 6x(1-x), para 0 ≤ x ≤ 1
Clasificación:
Se pide:
1. Función de densidad:
f(x) = { 1, si 6 ≤ x ≤ 7; 0, en otro caso }
2. Función de distribución:
F(x) = { 0, si x < 6; x-6, si 6 ≤ x ≤ 7; 1, si 7 < x }
3. Probabilidad: P(6.25 < X < 6.5) = 0.25
4. Hora media: μ = 6.5 (6:30 AM)
Sea ψ una función derivable, estrictamente creciente o decreciente sobre un intervalo I con rango ψ(I). Sea X una variable aleatoria continua con densidad f tal que f(x) = 0 para x ∉ I. Entonces Y = ψ(X) tiene densidad:
g(y) = f(ψ⁻¹(y)) · | d/dy ψ⁻¹(y) |, y ∈ ψ(I)
Caso ψ creciente: G(y) = F(ψ⁻¹(y)) → g(y) = f(ψ⁻¹(y))·(d/dy)ψ⁻¹(y)
Caso ψ decreciente: G(y) = 1 - F(ψ⁻¹(y)) → g(y) = -f(ψ⁻¹(y))·(d/dy)ψ⁻¹(y)
En ambos casos: g(y) = f(ψ⁻¹(y))·|(d/dy)ψ⁻¹(y)|
Ejercicio 1: Sea X continua con densidad f. Encuentre la densidad de Y = X².
Ejercicio 2 (Hoel pag 119): X ∼ Uniforme(0,1), F_X(x)=x. Encuentre la densidad de Y = - (1/λ)·ln(1-X) para λ > 0.
Ejercicio 3 (Método de transformada inversa): Sea X continua con distribución F y densidad f. Encuentre la distribución de Y = F(X). ¿Cómo generaría números aleatorios con la misma distribución de X a partir de Y?
Ejercicio 4: Sea X continua positiva con densidad f. Encuentre una fórmula para la densidad de Y = 1/(X+1).
Ejercicio 5: Sea X variable aleatoria, g función de densidad y φ derivable estrictamente creciente sobre ℝ. Suponga que ℙ(X ≤ x) = ∫_{-∞}^{φ(x)} g(z) dz. Demuestre que Y = φ(X) tiene densidad g.
Bin(n,p):
ℙ(X=x) = C(n,x)·pˣ·(1-p)ⁿ⁻ˣ, x=0,1,...,n E[X]=np, Var(X)=np(1-p), E[(X-μ)³]=np(1-3p+2p²) E[(X-μ)⁴]=np(1-p)[1+3(n-2)p(1-p)]
Geom(p):
ℙ(X=x) = p·(1-p)ˣ⁻¹, x=1,2,3,...; E[X]=1/p, Var(X)=(1-p)/p²
NegBin(r,p):
ℙ(X=x) = C(x-1, r-1)·pʳ·(1-p)ˣ⁻ʳ, x=r,r+1,...; E[X]=r/p, Var(X)=r(1-p)/p²
Hiper(n,D,N):
ℙ(X=x) = C(D,x)·C(N-D,n-x)/C(N,n), max(0,n-N+D)≤x≤min(n,D) E[X]=np = n·D/N, Var(X)=np(1-p)·(N-n)/(N-1)
Poi(λ):
ℙ(X=x) = e⁻ˡ·λˣ/x!, x=0,1,2,...; E[X]=λ, Var(X)=λ E[(X-λ)³]=λ, E[(X-λ)⁴]=3λ²+λ
| Distribución | f(x) | E[X] | Var(X) |
|---|---|---|---|
| Uniforme Continua | 1/(b-a), a≤x≤b | (a+b)/2 | (b-a)²/12 |
| Exponencial | λe^{-λx}, x≥0 | 1/λ | 1/λ² |
| Ejemplo 1 | k(6-3x), 0≤x≤2 | 2/3 | 2/9 |
| Ejemplo 2 | (Ver enunciado) | 1 | 1/6 |
| Ejemplo 4 | e^{-x/10}/10, x≥0 | 10 | 100 |
¡Perfecto! Aquí tienes el texto sobre Distribuciones Continuas más Comunes reescrito en el formato similar a los ejercicios anteriores, manteniendo la estructura visual, colores, íconos y estilo experto.
La distribución uniforme continua asigna la misma densidad a todos los valores dentro del intervalo [a, b], donde a, b ∈ ℝ, a < b.
f(x) = 1/(b-a), para a ≤ x ≤ b
E[X] = (a + b)/2 Var(X) = (b - a)²/12
La distribución exponencial modela el tiempo de espera hasta la ocurrencia de un evento en un proceso de Poisson, con parámetro λ > 0.
f(x) = (1/λ)·e^{-x/λ}, para x > 0
Alternativamente, con tasa λ: f(x) = λ·e^{-λx}
E[Xⁿ] = λⁿ·n! E[X] = λ, Var(X) = λ²
La distribución gamma es una familia flexible que incluye a la exponencial (k=1) y la chi-cuadrado (k=n/2, θ=2) como casos particulares.
f(x) = x^{k-1}·e^{-x/θ} / [Γ(k)·θ^{k}], para x > 0
donde Γ(k) = ∫₀^∞ e{-x}·x{k-1} dx es la función gamma.
E[X] = k·θ Var(X) = k·θ²
La distribución de Cauchy tiene colas pesadas y esperanza no definida. Es un caso particular de la distribución t-Student con 1 grado de libertad.
f(x) = 1 / [πγ·(1 + ((x - x₀)/γ)²)], para x ∈ ℝ
E[X] = No definida (no existe)
La distribución beta está definida en el intervalo [0, 1] y es muy versátil para modelar proporciones y probabilidades.
f(x) = x^{α-1}·(1-x)^{β-1} / B(α, β), para 0 ≤ x ≤ 1
donde B(α, β) = ∫₀¹ x{α-1}·(1-x){β-1} dx es la función beta.
E[X] = α/(α+β) Var(X) = αβ / [(α+β)²·(α+β+1)]
La distribución normal (o gaussiana) es la distribución continua más importante en estadística, gracias al Teorema Central del Límite.
f(x) = 1/(σ√(2π)) · e^{-(x-μ)²/(2σ²)}, para x ∈ ℝ
E[X] = μ Var(X) = σ²
| Distribución | Notación | f(x) | E[X] | Var(X) |
|---|---|---|---|---|
| Uniforme | U(a,b) | 1/(b-a), a≤x≤b | (a+b)/2 | (b-a)²/12 |
| Exponencial | Exp(λ) | (1/λ)e^{-x/λ}, x≥0 | λ | λ² |
| Gamma | Gamma(k,θ) | x{k-1}e{-x/θ}/[Γ(k)θ^{k}], x>0 | kθ | kθ² |
| Cauchy | Cauchy(x₀,γ) | 1/[πγ(1+((x-x₀)/γ)²)] | No definida | No definida |
| Beta | Beta(α,β) | x{α-1}(1-x){β-1}/B(α,β), 0≤x≤1 | α/(α+β) | αβ/[(α+β)²(α+β+1)] |
| Normal | N(μ,σ) | e^{-(x-μ)²/(2σ²)}/(σ√(2π)) | μ | σ² |
¡Perfecto! Aquí tienes el texto sobre Varianza y Variables Independientes, Distribución Normal, Covarianza, Convergencia, Desigualdad de Chebyshev y Ejemplos de Pruebas de Hipótesis reescrito en el formato similar a los ejercicios anteriores.
Para variables independientes X₁, X₂, …, Xₙ:
Var(∑_{i=1}^{n} Xᵢ) = ∑_{i=1}^{n} Var(Xᵢ)
Para X₁, …, Xₙ i.i.d. con varianza σ² < ∞ y X̄ = (1/n)∑ Xᵢ:
Var(X̄) = σ² / n
f(x) = 1/(σ√(2π)) · e^{-(x-μ)²/(2σ²)}, -∞ < x < ∞
E[X] = μ, Var(X) = σ²
Cov(X,Y) = E[(X - μ_X)(Y - μ_Y)]
ρ(X,Y) = Cov(X,Y) / √(Var(X)·Var(Y)), -1 ≤ ρ ≤ 1
Demuestre que Cov(X,Y) = E[XY] - E[X]·E[Y]
ℙ(X₁=x₁, ..., Xₖ=xₖ) = ∏_{i=1}^{k} ℙ(Xᵢ=xᵢ)
Para X, Y independientes con densidades f_X, f_Y:
ℙ(X ∈ A, Y ∈ B) = ℙ(X ∈ A)·ℙ(Y ∈ B)
Para X₁, …, Xₙ independientes:
E[∏_{i=1}^{n} Xᵢ] = ∏_{i=1}^{n} E[Xᵢ]
Consecuencia: Si X, Y son independientes, Cov(X,Y) = 0.
Sea X una variable aleatoria con E[X] = μ y Var(X) = σ². Para cualquier ε > 0:
ℙ(|X-μ| ≥ ε) ≤ σ² / ε²
σ² = E[(X-μ)²] = E[(X-μ)²·𝟙_{|X-μ|≥ε}] + E[(X-μ)²·𝟙_{|X-μ|<ε}] ≥
E[(X-μ)²·𝟙_{|X-μ|≥ε}] ≥ ε²·E[𝟙_{|X-μ|≥ε}] = ε²·ℙ(|X-μ|≥ε)
Por lo tanto: ℙ(|X-μ| ≥ ε) ≤ σ²/ε²
lim_{n→∞} X_n(ω) = X(ω), ∀ ω ∈ Ω
ℙ({ω: lim X_n(ω) = X(ω)}) = 1
lim_{n→∞} ℙ(|X_n - X| > ε) = 0, ∀ ε > 0
lim_{n→∞} F_{X_n}(x) = F_X(x)
Ω = [0,1], ℙ([a,b]) = b-a. Definimos:
X_n(ω) = { n, si 0 ≤ ω ≤ 1/n; 0, si 1/n < ω ≤ 1 }
Análisis: No converge puntualmente en ω=0; converge casi seguramente a 0; converge en probabilidad a 0; converge en distribución a 0.
Problema: Bombillas: peso promedio afirmado 75g. Muestra n=25, x̄=72g, s=5g. α=0.05. ¿Evidencia suficiente para rechazar H₀?
Problema: Encuesta inicial: 30% apoyo. Nueva encuesta n=200, apoyo=36%. α=0.01. ¿Ha aumentado el apoyo?
Problema: Proceso con varianza ≤ 0.5 cm². Muestra n=20, s²=0.8 cm². α=0.05. ¿Var > 0.5?
| Concepto | Fórmula |
|---|---|
| Varianza suma (indep.) | Var(∑Xᵢ) = ∑Var(Xᵢ) |
| Varianza media muestral | Var(X̄) = σ²/n |
| Covarianza | Cov(X,Y) = E[XY] - E[X]E[Y] |
| Correlación | ρ(X,Y) = Cov(X,Y)/(σ_X·σ_Y) |
| Chebyshev | ℙ( |
| Prueba t | t = (x̄ - μ₀)/(s/√n) |
| Prueba z (proporción) | z = (p̂ - p₀)/√(p₀(1-p₀)/n) |
| Prueba χ² (varianza) | χ² = (n-1)s²/σ₀² |
¡Perfecto! Aquí tienes el texto sobre Intervalos de Confianza para Diferencia de Medias y Varianza, Propiedades de Estimadores (Eficiencia, Consistencia, Suficiencia) reescrito en el formato similar a los ejercicios anteriores.
Problema: Comparación de método nuevo vs estándar de entrenamiento. Dos grupos de 9 empleados cada uno. IC 95% para μ₁ - μ₂. Varianzas aproximadamente iguales.
IC(μ₁-μ₂) = (x̄₁ - x̄₂) ± t_{α/2, n₁+n₂-2} · s_p·√(1/n₁ + 1/n₂)
Donde s_p² = [(n₁-1)s₁² + (n₂-1)s₂²] / (n₁+n₂-2)
IC(σ²) = ( (n-1)S²/χ²_{α/2, n-1} , (n-1)S²/χ²_{1-α/2, n-1} )
Datos: 4.1, 5.2, 10.2 → n=3, α=0.10
n=20, S=8 → S²=64, α=0.05, gl=19
Dados θ̂₁ y θ̂₂ estimadores de θ, la eficiencia relativa de θ̂₁ respecto a θ̂₂ es:
Eficiencia = Var(θ̂₂) / Var(θ̂₁)
Para n > 1, eficiencia < 1 → θ̂₂ es más eficiente.
θ̂ₙ es consistente si converge en probabilidad a θ:
lim_{n→∞} ℙ(|θ̂ₙ - θ| > ε) = 0
Un estadístico S(Y) es suficiente para θ si la distribución conjunta se factoriza como:
f_Y(y, θ) = H(y) · G(S(y), θ)
Es decir, S(Y) contiene toda la información sobre θ presente en la muestra.
Para Y_i ~ Exp(α) con f(y_i,α) = (1/α)e^{-y_i/α}, demuestre que Ȳ es suficiente para α.
Para una muestra normal, ΣYᵢ y ΣYᵢ² son estadísticos de mínima suficiencia. Además:
| Propiedad | Definición | Implicación |
|---|---|---|
| Insesgamiento | E[θ̂] = θ | El estimador acierta en promedio |
| Eficiencia | Var(θ̂₁)/Var(θ̂₂) | Comparación de varianzas |
| Consistencia | θ̂ₙ →ₚ θ | Converge al parámetro al aumentar n |
| Suficiencia | f(y,θ)=H(y)·G(S,θ) | Contiene toda la información |
| EIMV | Insesgado + varianza mínima | Óptimo entre insesgados |
| Concepto | Fórmula |
|---|---|
| IC para μ₁-μ₂ | (x̄₁-x̄₂) ± t·s_p·√(1/n₁+1/n₂) |
| IC para σ² | ((n-1)S²/χ²_{α/2}, (n-1)S²/χ²_{1-α/2}) |
| Eficiencia relativa | Var(θ̂₂)/Var(θ̂₁) |
| Consistencia | lim ℙ( |
| Suficiencia (factorización) | f(y,θ) = H(y)·G(S(y),θ) |
¡Perfecto! Aquí tienes el texto sobre Método de los Momentos, Método de Máxima Verosimilitud y Ejemplos de Intervalos de Confianza reescrito en el formato similar a los ejercicios anteriores.
El método de los momentos consiste en elegir como estimaciones aquellos valores de los parámetros que son soluciones de las ecuaciones:
μ'_k = E(Y^k) = (1/n) Σ_{i=1}^n Y_i^k = m'_k, k = 1, 2, ..., t
donde t es igual al número de parámetros.
El método de máxima verosimilitud consiste en elegir como estimaciones aquellos valores de los parámetros que maximizan la función de verosimilitud:
L(y) = f_Y(y, θ) = f_Y(y₁, y₂, ..., yₙ, θ)
Para Y₁, …, Yₙ ∼ N(μ, σ²):
L(μ, σ²) = (1/√(2πσ²))ⁿ · exp{ -1/(2σ²) Σ(Yᵢ - μ)² }
IC = X̄ ± Z_{α/2} · σ/√n
Datos: n=1000, X̄=4000 pts, σ²=4000 → σ≈63.25 pts, nivel confianza=95.5%
Respuesta correcta: A) (3996, 4004)
| Opción | Intervalo | ¿Correcta? |
|---|---|---|
| A | (3996, 4004) | ✅ Correcta |
| B | (3990, 4010) | ❌ |
| C | (3980, 4020) | ❌ |
| D | (3995, 4005) | ❌ |
| Método | Idea principal | Ecuaciones |
|---|---|---|
| Momentos | Igualar momentos muestrales y poblacionales | m’_k = μ’_k |
| Máxima Verosimilitud | Maximizar la función de verosimilitud | ∂L/∂θ = 0 |
| Concepto | Fórmula |
|---|---|
| Método de los momentos | μ’_k = (1/n) Σ Yᵢᵏ |
| Función de verosimilitud | L(θ) = ∏ f(yᵢ, θ) |
| IC para μ (σ conocida) | X̄ ± Z_{α/2}·σ/√n |
| Error estándar | σ/√n |
| ¡Perfecto! Aquí tienes el texto sobre Introducción a Intervalos de Confianza, Método de la Variable Aleatoria Pivote y Ejemplos de Aplicación reescrito en el formato similar a los ejercicios anteriores. |
En estadística inferencial, la probabilidad de que un estimador T = T(X₁, …, Xₙ) coincida exactamente con el parámetro de interés θ es 0. Por ello, en la estimación por intervalo, se selecciona un nivel de confianza (confiabilidad) de 100(1-α)% y se construye un intervalo aleatorio tal que la probabilidad frecuentista de que este intervalo contenga a θ sea 1-α.
Dada una muestra aleatoria X₁, …, Xₙ, la estimación por intervalo consiste en construir un intervalo aleatorio tal que:
Pr(L_I ≤ θ ≤ L_S) = 1 - α
El valor 100(1-α)% se denomina nivel de confianza o confiabilidad. Representa la proporción de intervalos calculados a partir de la muestra aleatoria que contienen a θ.
Considere una población Normal con media desconocida μ y varianza conocida σ². Construya un intervalo de confianza para μ al 95% basado en una muestra de tamaño n.
IC_95%(μ) = (X̄ ± 1.96·σ/√n)
La cantidad 1.96·σ/√n se denomina margen de error.
IC_{100(1-α)%}(μ) = (X̄ ± z_{1-α/2}·σ/√n)
donde z_{1-α/2} es el percentil 100(1-α/2) de la normal estándar.
Simule una muestra aleatoria de tamaño n = 30 de una población Normal con μ = 10 y σ = 1. Calcule el IC 95% para μ.
# Parámetros mu <- 10; sigma <- 1; n <- 30 # Simulación set.seed(1) x <- rnorm(n, mu, sigma) # Cálculo del IC xb <- mean(x) z975 <- qnorm(0.975) me <- z975 * sigma / sqrt(n) LI <- xb - me LS <- xb + me cat("IC 95%: (", round(LI,2), ",", round(LS,2), ")")
Simule 1,000,000 de muestras de tamaño n=30 con μ=10, σ=1. ¿Qué proporción de ICs contiene a μ?
M <- 1000000; n <- 30; mu <- 10; sigma <- 1; z975 <- qnorm(0.975)
IC <- matrix(NA, M, 2)
set.seed(1)
for (i in 1:M) {
x <- rnorm(n, mu, sigma)
IC[i,1] <- mean(x) - z975 * sigma / sqrt(n)
IC[i,2] <- mean(x) + z975 * sigma / sqrt(n)
}
cobertura <- mean(IC[,1] < mu & mu < IC[,2])
cat("Cobertura:", round(cobertura,4))
Una función Q = Q(X₁, …, Xₙ) es una variable aleatoria pivote para θ si su distribución no depende de θ.
Por el Teorema del Límite Central, si n es grande:
IC_{100(1-α)%}(μ) = (X̄ ± z_{1-α/2}·σ/√n)
Para n grande, usando la desviación estándar muestral S:
IC_{100(1-α)%}(μ) = (X̄ ± z_{1-α/2}·S/√n)
donde S = √[1/(n-1) Σ (Xᵢ - X̄)²]
Datos: n=74 ubicaciones, error medio X̄=3.8 cm, desviación estándar S=4.8 cm.
z_{0.975} = 1.96, ME = 1.96×4.8/√74 ≈ 1.09
IC = 3.8 ± 1.09 = (2.71, 4.89)
z_{0.99} = 2.33, ME = 2.33×4.8/√74 ≈ 1.30
IC = 3.8 ± 1.30 = (2.50, 5.10)
ME = (4.4-3.8) = 0.6, z = 0.6·√74/4.8 ≈ 1.07 Nivel = 2·Φ(1.07)-1 ≈ 71.5%
n = (1.96×4.8/0.7)² ≈ 177
n = (2.33×4.8/0.7)² ≈ 250
| Escenario | Fórmula del IC para μ |
|---|---|
| Normal, σ conocida | X̄ ± z_{1-α/2}·σ/√n |
| Normal, σ desconocida (n pequeño) | X̄ ± t_{1-α/2, n-1}·S/√n |
| No normal, n grande (σ conocida) | X̄ ± z_{1-α/2}·σ/√n |
| No normal, n grande (σ desconocida) | X̄ ± z_{1-α/2}·S/√n |
| Nivel de confianza | α | α/2 | z_{1-α/2} |
|---|---|---|---|
| 90% | 0.10 | 0.05 | 1.645 |
| 95% | 0.05 | 0.025 | 1.960 |
| 98% | 0.02 | 0.01 | 2.326 |
| 99% | 0.01 | 0.005 | 2.576 |
¡Perfecto! Aquí tienes el texto sobre Prueba de Hipótesis Estadística reescrito en el formato similar a los ejercicios anteriores.
La Estadística Inferencial es el proceso de usar la información de una muestra para describir el estado de una población. Sin embargo, es frecuente que usemos la información de una muestra para probar un reclamo o conjetura sobre la población. El reclamo o conjetura se refiere a una hipótesis. El proceso que corrobora si la información de una muestra sostiene o refuta el reclamo se llama Prueba de Hipótesis.
Ejemplo: Un investigador en medicina puede proponer la hipótesis de que un medicamento es más efectivo que otro para curar cierta enfermedad. Selecciona pacientes, los divide en dos grupos y aplica los medicamentos. Decide, basándose en los resultados, si el nuevo medicamento es más eficaz o no.
Un productor afirma que su droga aumenta la probabilidad de que nazca una niña de 50% a 70%.
Paso 1: Modelo probabilístico
Paso 2: Muestra
Paso 3: Estadístico de prueba
T(Y) = Σ Yᵢ ~ B(20, θ)
Se rechaza H₀ si T(y) ≥ c (c suficientemente grande)
Definición: El valor-p es el mínimo nivel de significación α para el cual los datos observados indicarían rechazar la hipótesis nula.
Estadístico T(Y) ~ B(20, θ). Valores críticos c para H₀: θ = 0.5:
| c | 14 | 15 | 16 | 17 | 18 |
|---|---|---|---|---|---|
| P(T≥c|0.5) | 0.0577 | 0.0207 | 0.0059 | 0.0013 | 0.0002 |
| H₀ es falsa | H₀ es verdadera | |
|---|---|---|
| Rechazar H₀ | ||
| No rechazar H₀ |
Sea Y ~ B(n, p). Entonces, aproximadamente:
P(c ≤ Y ≤ d | p) ≈ Φ((d-np+0.5)/√(np(1-p))) - Φ((c-np-0.5)/√(np(1-p)))
La aproximación es buena si np ≥ 5 y n(1-p) ≥ 5.
Para α = 0.01 y 1-β = 0.95:
c₁ = 2.325 → (c - 0.5n - 0.5)/(0.5√n) = 2.325 c₂ = -1.645 → (c - 0.7n - 0.5)/(0.1√21n) = -1.645
Solución: n = 92, c = 58
Si c = 15: β = P(T<15 | 0.7) = 0.584 → error tipo II muy grande (n=20 no detecta diferencia del 20%)
Es aconsejable decir:
| Concepto | Definición | Representación |
|---|---|---|
| Hipótesis Nula (H₀) | Hipótesis que se desea probar (status quo) | θ ∈ Θ₀ |
| Hipótesis Alternativa (H₁) | Hipótesis contraria a H₀ | θ ∈ Θ₁ |
| Error Tipo I | Rechazar H₀ cuando es verdadera | α = P(Rechazar H₀ | H₀ verdadera) |
| Error Tipo II | No rechazar H₀ cuando es falsa | β = P(No rechazar H₀ | H₀ falsa) |
| Nivel de significación | Probabilidad máxima de error tipo I | α |
| Potencia | Capacidad de detectar H₀ falsa | 1-β |
| Nivel de significación α | z_{α} (una cola) | z_{α/2} (dos colas) |
|---|---|---|
| 0.10 | 1.282 | 1.645 |
| 0.05 | 1.645 | 1.960 |
| 0.025 | 1.960 | 2.241 |
| 0.01 | 2.326 | 2.576 |
| 0.005 | 2.576 | 2.807 |
¡Perfecto! Aquí tienes el texto sobre Elementos comunes en prueba de hipótesis con muestras grandes reescrito en el formato similar a los ejercicios anteriores.
Supongamos que se quiere probar una hipótesis referente al parámetro θ, basado en una muestra aleatoria Y = (Y₁, Y₂, …, Yₙ) y en el estimador θ̂, que tiene (aproximadamente) una distribución normal con media θ y varianza σ_θ̂².
θ ∈ {μ, p, μ₁-μ₂, p₁-p₂}
θ̂ ∈ {Ȳ, p̂, Ȳ₁-Ȳ₂, p̂₁-p̂₂}
σ_θ̂ ∈ { σ/√n, √[p₀(1-p₀)/n], √[σ₁²/n₁ + σ₂²/n₂], √[p₁(1-p₁)/n + p₂(1-p₂)/n] }
H₀: θ = θ₀
H₁: { θ > θ₀ (cola superior), θ < θ₀ (cola inferior), θ ≠ θ₀ (dos colas) }
α ∈ {0.05, 0.01, 0.10}
Z_p = (θ̂ - θ₀) / σ_θ̂
• Cola superior: Z_p > z_α
• Cola inferior: Z_p < -z_α
• Dos colas: |Z_p| > z_{α/2}
• Cola superior: P(Z > Z_p) • Cola inferior: P(Z < -Z_p) • Dos colas: 2·P(Z > |Z_p|)
Problema: Vicepresidente afirma que los vendedores tienen un promedio no mayor de 15 prospectos por semana. n=36, x̄=17, s²=9, α=0.05. ¿Contradicen los hechos?
Conclusión: La afirmación del vicepresidente es incorrecta. El número promedio de prospectos excede 15.
Problema: Máquina debe repararse si produce más de 10% de defectos. Muestra n=100, 15 defectuosos, α=0.01. ¿Apoya la evidencia la decisión del capataz?
Conclusión: La evidencia no apoya la decisión del capataz.
Problema: Comparar tiempos de reacción. n₁=n₂=50, x̄₁=3.6, x̄₂=3.8, s₁²=0.18, s₂²=0.14, α=0.05. ¿Evidencia de diferencia?
Conclusión: Hay evidencia suficiente para sugerir una diferencia en los promedios de los tiempos de reacción entre hombres y mujeres.
| Parámetro | Estadístico Z_p | σ_θ̂ |
|---|---|---|
| μ (una media) | (X̄ - μ₀)/(σ/√n) | σ/√n |
| p (una proporción) | (p̂ - p₀)/√[p₀(1-p₀)/n] | √[p₀(1-p₀)/n] |
| μ₁ - μ₂ (diferencia de medias) | [(X̄₁-X̄₂)-D₀]/√(σ₁²/n₁ + σ₂²/n₂) | √(σ₁²/n₁ + σ₂²/n₂) |
| p₁ - p₂ (diferencia de proporciones) | [(p̂₁-p̂₂)-D₀]/√[p̂(1-p̂)(1/n₁+1/n₂)] | √[p̂(1-p̂)(1/n₁+1/n₂)] |
| α | z_α (una cola) | z_{α/2} (dos colas) |
|---|---|---|
| 0.10 | 1.282 | 1.645 |
| 0.05 | 1.645 | 1.960 |
| 0.025 | 1.960 | 2.241 |
| 0.01 | 2.326 | 2.576 |
| 0.005 | 2.576 | 2.807 |
¡Perfecto! Aquí tienes el texto sobre Tamaño de muestra para hipótesis alternativa, pruebas con muestras pequeñas y pruebas para varianzas reescrito en el formato similar a los ejercicios anteriores.
Considere H₀: μ = μ₀ frente a H₁: μ > μ₀ (alternativa de cola superior). Se trata de hallar n (tamaño de la muestra) y c (punto donde empieza la región de rechazo) conociendo α₀ y β₀.
α = P{Z ≥ z_α} → z_α = (c - μ₀)/(σ/√n)
β = P{Z < -z_β} → -z_β = (c - μ₁)/(σ/√n)
n = ((z_α + z_β)/(μ₁ - μ₀))² · σ²
Problema: Vicepresidente quiere probar H₀: μ = 15 vs H₁: μ = 16. n=36, s²=9, α=0.05. Calcular β.
β grande (36%) indica que muestras de tamaño 36 no suelen detectar una diferencia de una unidad.
Problema: Probar H₀: μ = 15 vs H₁: μ = 16 con α = β = 0.05. Hallar n. σ² ≈ 9.
z_α = z_β = 1.645 n = ((1.645 + 1.645)/(16 - 15))² · 9 = (3.29)² · 9 = 10.8241 · 9 = 97.4
n = 98 observaciones para garantizar α = β = 0.05.
θ ∈ {μ, μ₁ - μ₂}
θ̂ ∈ {Ȳ, Ȳ₁ - Ȳ₂}
σ_θ̂ ∈ { s/√n, √[((n₁-1)s₁²+(n₂-1)s₂²)/(n₁+n₂-2)·(1/n₁+1/n₂)], √(s₁²/n₁ + s₂²/n₂) }
H₀: θ = θ₀; H₁: θ > θ₀, θ < θ₀, o θ ≠ θ₀
t_p = (θ̂ - θ₀)/σ_θ̂, con v grados de libertad
• Cola superior: t_p > t_{α,v}
• Cola inferior: t_p < -t_{α,v}
• Dos colas: |t_p| > t_{α/2,v}
Problema: Afirman μ = 46 kWh. n=12, x̄=42, s=11.9, α=0.05. ¿Gastan menos de 46 kWh? Población normal.
Conclusión: El número promedio de kWh no es significativamente menor que 46.
Problema: Material 1: n₁=12, x̄₁=85, s₁=4. Material 2: n₂=10, x̄₂=81, s₂=5. α=0.05. ¿Material 1 excede al material 2 en más de 2 unidades? Varianzas iguales.
Conclusión: No se puede concluir que el desgaste del material 1 exceda al del material 2 en más de 2 unidades.
θ = σ²
θ̂ = S²
χ² = (n-1)S²/σ₀², con n-1 grados de libertad
• Cola superior: χ² > χ²_{α}
• Cola inferior: χ² < χ²_{1-α}
• Dos colas: χ² > χ²_{α/2} o χ² < χ²_{1-α/2}
• Cola superior: P(χ² > χ²_p) • Cola inferior: P(χ² < χ²_p) • Dos colas: 2·P(χ² > χ²_p)
| Parámetro | Estadístico t_p | Grados de libertad |
|---|---|---|
| μ (una media) | (X̄ - μ₀)/(s/√n) | n-1 |
| μ₁ - μ₂ (varianzas iguales) | [(X̄₁-X̄₂)-D₀]/[S_p·√(1/n₁+1/n₂)] | n₁+n₂-2 |
| μ₁ - μ₂ (varianzas desiguales) | [(X̄₁-X̄₂)-D₀]/√(s₁²/n₁ + s₂²/n₂) | aprox. Welch |
| gl | t_{0.10} | t_{0.05} | t_{0.025} | t_{0.01} | t_{0.005} |
|---|---|---|---|---|---|
| 10 | 1.372 | 1.812 | 2.228 | 2.764 | 3.169 |
| 11 | 1.363 | 1.796 | 2.201 | 2.718 | 3.106 |
| 12 | 1.356 | 1.782 | 2.179 | 2.681 | 3.055 |
| 20 | 1.325 | 1.725 | 2.086 | 2.528 | 2.845 |
| 30 | 1.310 | 1.697 | 2.042 | 2.457 | 2.750 |
¡Perfecto! Aquí tienes el texto sobre Prueba de hipótesis para la varianza, igualdad de varianzas y ejercicios de muestreo reescrito en el formato similar a los ejercicios anteriores.
Problema: Fabricante afirma duración con σ = 0.9 años, distribución normal. Muestra n=10, s=1.2 años. α=0.05. ¿σ > 0.9?
Conclusión: El estadístico χ² no es significativo en nivel 0.05, pero con p-valor 0.07 hay alguna evidencia de que σ > 0.9.
F = S₁²/S₂²
Grados de libertad: ν₁ = n₁-1, ν₂ = n₂-1
Material 1: n₁=12, s₁²=16; Material 2: n₂=10, s₂²=25. α=0.10. ¿Varianzas iguales?
Conclusión: No hay suficiente evidencia de que las varianzas difieran.
1. Población 35% con enfermedades crónicas. n=200. Probabilidad de 80 o más.
2. Clips: μ=100, σ=8. Cartón de 64 cajas. Probabilidad de media entre 98 y 100.
3. Muestras de 64 de población μ=100, σ=20. Límites para el 80% central de las medias muestrales.
4. Baterías: n₁=100, n₂=400, μ=40, σ=10. Comparación de errores estándar.
5. Horas de TV en niños (distribución dada). Calcular E[Y], σ, prob. de media muestral ≤ 2 con n=64.
6. Estaturas: μ=174.5, σ=6.9, n=25. Media y desviación estándar de la distribución muestral. Número de medias entre 172.5 y 175.8.
7. Timeless: μ=60, σ=9, n=36. Error estándar, probabilidades de media <58, entre 57 y 63. Conclusión si media muestral=55.
8. Estudiantes Psicología: 54% mujeres, n=20. Rango del 99% de proporciones muestrales. Efecto de n=50.
9. Estudiantes UTB: 65% con email. n=100 y n=400. Intervalo del 95% para proporciones muestrales. ¿Posible p̂=0.4?
10. Peso estudiantes: n=100, x̄=65, s=9. IC 95% y 99% (a) σ conocida=10, (b) σ desconocida.
11. Mismo problema con n=20.
12. n=25, IC 99%: (68,72). Hallar IC 95% (varianza desconocida).
13. Elecciones: n=1000, 628 indecisos. IC 98% para proporción de indecisos.
14. Pesos de 10 niños: datos dados. IC 99% para peso medio.
15. Grosor láminas: n=100, x̄=20, σ²=1.44. IC 95% para espesor promedio.
16. Manzanas: n=150, x̄=22, s=3. IC 94% para peso medio. Tamaño muestral para error ≤1 con α=0.05.
17. Clases A y B de estadística. IC 95% para diferencia de promedios. Conclusiones.
18. Nicotina cigarrillos: n=36, Σy=756, Σ(y-ȳ)²=315. IC 95% para contenido promedio.
19. Dos ciudades: n₁=n₂=25, ȳ₁=2.3, s₁=4; ȳ₂=1.8, s₂=3.5. IC 95% para diferencia. ¿Pueden ser iguales?
20. Y ~ N(μ,2), n=10, datos dados. IC 80%,90%,95% (a) σ conocida, (b) σ desconocida.
21. Lecturas de patrón (6 lecturas): 9.54,9.61,9.32,9.48,9.70,9.26. IC 90% para varianza.
22. Producto elimina 60% insectos. Tamaño muestral para error ≤0.02 con 95% confianza.
23. Semillas: Tamaño muestral para error ≤0.03 con 95% confianza.
24. Ingreso textil: σ=200,000. Tamaño muestral para error ≤2,500 con 95% confianza.
Problema: Y₁, Y₂, Y₃ ~ Exp(θ) con f(y) = (1/θ)e^{-y/θ}. Evaluar estimadores para θ:
Recuerde: Para Exp(θ), E[Y] = θ, Var(Y) = θ², y el mínimo de n exponenciales tiene distribución Exp(θ/n).
| Parámetro | Estadístico | Grados de libertad |
|---|---|---|
| σ² (una varianza) | χ² = (n-1)S²/σ₀² | n-1 |
| σ₁²/σ₂² (dos varianzas) | F = S₁²/S₂² | ν₁=n₁-1, ν₂=n₂-1 |