Con Mi Profe: Julio Hurtado Marquez; EMAIL_TAREAS: juliohurtado210307@gmail.com
Supongamos que se quiere probar una hipótesis referente al parámetro \(\theta\), basado en una muestra aleatoria \(\mathbf{Y} = (Y_1, Y_2, \ldots, Y_n)\) y en el estimador \(\hat{\theta}\), que tiene distribución normal con media \(\theta\) y varianza desconocida \(\sigma_{\hat{\theta}}^2\).
| Elemento | Para una media \(\mu\) | Para diferencia de medias \(\mu_1-\mu_2\) (σ₁²=σ₂²) | Para diferencia de medias \(\mu_1-\mu_2\) (σ₁²≠σ₂²) |
|---|---|---|---|
| Parámetro \(\theta\) | \(\mu\) | \(\mu_1-\mu_2\) | \(\mu_1-\mu_2\) |
| Estimador \(\hat{\theta}\) | \(\bar{Y}\) | \(\bar{Y}_1-\bar{Y}_2\) | \(\bar{Y}_1-\bar{Y}_2\) |
| \(\hat{\sigma}_{\hat{\theta}}\) | \(\frac{S}{\sqrt{n}}\) | \(S_p\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}\) | \(\sqrt{\frac{S_1^2}{n_1}+\frac{S_2^2}{n_2}}\) |
| Grados de libertad | \(n-1\) | \(n_1+n_2-2\) | Aprox. Welch |
El Instituto Eléctrico Edison publica cifras del número anual de kilowatts-hora que gastan varios aparatos electrodomésticos. Se afirma que una aspiradora gasta en promedio 46 kilowatts-hora al año. Si una muestra aleatoria de 12 hogares indica que las aspiradoras gastan un promedio de 42 kilowatts-hora al año con una desviación estándar de 11.9 kilowatts-hora, ¿en un nivel de significancia de 0.05 esto sugiere que las aspiradoras gastan, en promedio, menos de 46 kilowatts-hora anualmente? Suponga que la población es normal.
📝 Solución Analítica
Hipótesis: \(H_0: \mu = 46\) vs \(H_1: \mu < 46\)
Significancia: \(\alpha = 0.05\)
Estadístico de prueba: \(t = \frac{\bar{Y} - \mu_0}{S/\sqrt{n}}\) con \(11\) grados de libertad
Región de rechazo: \(t < -t_{0.05,11} = -1.796\)
Cálculos: \(\bar{y} = 42\), \(s = 11.9\), \(n = 12\)
\[t = \frac{42 - 46}{11.9/\sqrt{12}} = \frac{-4}{3.435} = -1.164\]
Valor-p: \(P(T_{11} < -1.164) \approx 0.135\)
Decisión: No rechazar \(H_0\). El número promedio de kilowatts-hora no es significativamente menor que 46.
## === PRUEBA t PARA UNA MEDIA ===
## H₀: μ = 46 vs H₁: μ < 46
## Estadístico t: -1.1644
## Valor crítico (α=0.05, cola inferior): -1.7959
## Valor-p: 0.1344
## Decisión: No rechazar H₀
## Conclusión: No hay evidencia suficiente para afirmar que el consumo es menor que 46 kWh.
# ============================================
# EJEMPLO 3: PRUEBA t PARA UNA MEDIA
# ============================================
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import t, norm
# Datos
n = 12
y_bar = 42
s = 11.9
mu0 = 46
alpha = 0.05
# Estadístico de prueba
t_stat = (y_bar - mu0) / (s / np.sqrt(n))
t_critico = t.ppf(alpha, df=n-1) # Cola inferior
p_valor = t.cdf(t_stat, df=n-1)
print("=== PRUEBA t PARA UNA MEDIA ===")
print(f"H₀: μ = 46 vs H₁: μ < 46")
print(f"Estadístico t: {t_stat:.4f}")
print(f"Valor crítico (α=0.05, cola inferior): {t_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")
if t_stat < t_critico:
print("Decisión: Rechazar H₀")
print("Conclusión: El consumo promedio es menor que 46 kWh.")
else:
print("Decisión: No rechazar H₀")
print("Conclusión: No hay evidencia suficiente para afirmar que el consumo es menor que 46 kWh.")
# ============================================
# VISUALIZACIÓN
# ============================================
x_vals = np.linspace(-5, 5, 500)
densidad_t = t.pdf(x_vals, df=n-1)
fig, axes = plt.subplots(1, 2, figsize=(14, 5))
# Gráfico 1: Distribución t con región de rechazo
axes[0].plot(x_vals, densidad_t, 'purple', lw=2, label=f't({n-1})')
x_rechazo = np.linspace(-5, t_critico, 100)
y_rechazo = t.pdf(x_rechazo, df=n-1)
axes[0].fill_between(x_rechazo, y_rechazo, alpha=0.4, color='red')
axes[0].axvline(t_critico, color='red', linestyle='--', lw=2,
label=f't_crítico = {t_critico:.3f}')
axes[0].axvline(t_stat, color='darkgreen', lw=2, label=f't_obs = {t_stat:.3f}')
axes[0].set_xlabel('t')
axes[0].set_ylabel('Densidad')
axes[0].set_title(f'Distribución t con {n-1} grados de libertad')
axes[0].legend()
axes[0].grid(True, alpha=0.3)
# Gráfico 2: Valor-p
axes[1].plot(x_vals, densidad_t, 'purple', lw=2, label=f't({n-1})')
x_pvalor = np.linspace(-5, t_stat, 100)
y_pvalor = t.pdf(x_pvalor, df=n-1)
axes[1].fill_between(x_pvalor, y_pvalor, alpha=0.4, color='steelblue')
axes[1].axvline(t_stat, color='darkgreen', lw=2)
axes[1].set_xlabel('t')
axes[1].set_ylabel('Densidad')
axes[1].set_title(f'Valor-p = {p_valor:.4f}')
axes[1].grid(True, alpha=0.3)
plt.tight_layout()
plt.show()Se lleva a cabo un experimento para comparar el desgaste por abrasivos de dos diferentes materiales laminados. Se prueban 12 piezas del material 1 y 10 piezas del material 2. Las muestras del material 1 dan un desgaste promedio de 85 unidades con una desviación estándar muestral de 4; las muestras del material 2 dan un promedio de 81 y una desviación estándar muestral de 5. ¿Podríamos concluir, con un nivel de significancia de 0.05, que el desgaste abrasivo del material 1 excede el del material 2 en más de 2 unidades? Suponga que las poblaciones son aproximadamente normales con varianzas iguales.
📝 Solución Analítica
Hipótesis: \(H_0: \mu_1 - \mu_2 = 2\) vs \(H_1: \mu_1 - \mu_2 > 2\)
Significancia: \(\alpha = 0.05\)
Estadístico de prueba: \(t = \frac{(\bar{Y}_1 - \bar{Y}_2) - D_0}{S_p \sqrt{\frac{1}{n_1} + \frac{1}{n_2}}}\) con \(n_1 + n_2 - 2 = 20\) grados de libertad
Varianza combinada: \(S_p^2 = \frac{(n_1-1)S_1^2 + (n_2-1)S_2^2}{n_1 + n_2 - 2} = \frac{11(16) + 9(25)}{20} = \frac{176 + 225}{20} = 20.05\)
\(S_p = \sqrt{20.05} = 4.478\)
Cálculos: \(\bar{y}_1 - \bar{y}_2 = 85 - 81 = 4\), \(D_0 = 2\)
\[t = \frac{4 - 2}{4.478 \sqrt{\frac{1}{12} + \frac{1}{10}}} = \frac{2}{4.478 \times 0.428} = \frac{2}{1.917} = 1.043\]
Región de rechazo: \(t > t_{0.05,20} = 1.725\)
Valor-p: \(P(T_{20} > 1.043) \approx 0.155\)
Decisión: No rechazar \(H_0\). No se puede concluir que el desgaste del material 1 excede al del material 2 en más de 2 unidades.
## === PRUEBA t PARA DIFERENCIA DE MEDIAS ===
## H₀: μ₁ - μ₂ = 2 vs H₁: μ₁ - μ₂ > 2
## Varianza combinada Sₚ²: 20.05
## Desviación combinada Sₚ: 4.4777
## Estadístico t: 1.0432
## Grados de libertad: 20
## Valor crítico (α=0.05, cola superior): 1.7247
## Valor-p: 0.1547
## Decisión: No rechazar H₀
## Conclusión: No hay suficiente evidencia para afirmar que el desgaste del material 1 excede al del material 2 en más de 2 unidades.
##
## Intervalo de confianza del 95% para μ₁ - μ₂:
## [ 0.69 , 7.31 ]
## El intervalo contiene el valor 2, lo que respalda no rechazar H₀.
# ============================================
# EJEMPLO 4: PRUEBA t PARA DIFERENCIA DE MEDIAS
# ============================================
import numpy as np
from scipy.stats import t
# Datos
n1 = 12
n2 = 10
y1_bar = 85
y2_bar = 81
s1 = 4
s2 = 5
D0 = 2
alpha = 0.05
# Varianza combinada
sp2 = ((n1 - 1) * s1**2 + (n2 - 1) * s2**2) / (n1 + n2 - 2)
sp = np.sqrt(sp2)
# Estadístico de prueba
t_stat = ((y1_bar - y2_bar) - D0) / (sp * np.sqrt(1/n1 + 1/n2))
gl = n1 + n2 - 2
t_critico = t.ppf(1 - alpha, df=gl)
p_valor = 1 - t.cdf(t_stat, df=gl)
print("=== PRUEBA t PARA DIFERENCIA DE MEDIAS ===")
print(f"H₀: μ₁ - μ₂ = 2 vs H₁: μ₁ - μ₂ > 2")
print(f"Varianza combinada Sₚ²: {sp2:.4f}")
print(f"Desviación combinada Sₚ: {sp:.4f}")
print(f"Estadístico t: {t_stat:.4f}")
print(f"Grados de libertad: {gl}")
print(f"Valor crítico (α=0.05, cola superior): {t_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")
if t_stat > t_critico:
print("Decisión: Rechazar H₀")
print("Conclusión: El desgaste del material 1 excede al del material 2 en más de 2 unidades.")
else:
print("Decisión: No rechazar H₀")
print("Conclusión: No hay suficiente evidencia para afirmar que el desgaste del material 1 excede al del material 2 en más de 2 unidades.")
# Intervalo de confianza
margen = t_critico * sp * np.sqrt(1/n1 + 1/n2)
ic_inf = (y1_bar - y2_bar) - margen
ic_sup = (y1_bar - y2_bar) + margen
print(f"\nIntervalo de confianza del 95% para μ₁ - μ₂:")
print(f"[{ic_inf:.2f}, {ic_sup:.2f}]")
print("El intervalo contiene el valor 2, lo que respalda no rechazar H₀.")Supongamos que se quiere probar una hipótesis referente a la varianza poblacional \(\sigma^2\), basado en una muestra aleatoria de una población normal.
| Elemento | Para una varianza \(\sigma^2\) | Para comparación de varianzas \(\sigma_1^2/\sigma_2^2\) |
|---|---|---|
| Parámetro | \(\sigma^2\) | \(\sigma_1^2/\sigma_2^2\) |
| Estimador | \(S^2\) | \(S_1^2/S_2^2\) |
| Estadístico de prueba | \(\chi^2 = \frac{(n-1)S^2}{\sigma_0^2}\) | \(F = \frac{S_1^2}{S_2^2}\) |
| Grados de libertad | \(n-1\) | \(n_1-1\), \(n_2-1\) |
Un fabricante de baterías para automóvil afirma que la duración de sus baterías se distribuye de forma aproximadamente normal con una desviación estándar igual a 0.9 años. Si una muestra aleatoria de 10 baterías tiene una desviación estándar de 1.2 años, ¿considera que \(\sigma > 0.9\) años? Utilice \(\alpha = 0.05\).
📝 Solución Analítica
Hipótesis: \(H_0: \sigma^2 = 0.81\) vs \(H_1: \sigma^2 > 0.81\)
Estadístico de prueba: \(\chi^2 = \frac{(n-1)S^2}{\sigma_0^2}\) con \(9\) grados de libertad
Cálculos: \(S^2 = (1.2)^2 = 1.44\), \(n = 10\)
\[\chi^2 = \frac{9 \times 1.44}{0.81} = \frac{12.96}{0.81} = 16.0\]
Región de rechazo: \(\chi^2 > \chi^2_{0.05,9} = 16.919\)
Valor-p: \(P(\chi^2_9 > 16.0) \approx 0.07\)
Decisión: No rechazar \(H_0\) al nivel 0.05. Sin embargo, con base en el valor-p de 0.07, hay alguna evidencia de que \(\sigma > 0.9\).
## === PRUEBA CHI-CUADRADO PARA UNA VARIANZA ===
## H₀: σ² = 0.81 vs H₁: σ² > 0.81
## Estadístico χ²: 16
## Valor crítico (α=0.05): 16.919
## Valor-p: 0.0669
## Decisión: No rechazar H₀
## Conclusión: No hay suficiente evidencia para afirmar que la varianza es mayor que 0.81.
# ============================================
# EJEMPLO 5: PRUEBA CHI-CUADRADO PARA UNA VARIANZA
# ============================================
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import chi2
# Datos
n = 10
s = 1.2
sigma0 = 0.9
alpha = 0.05
# Estadístico de prueba
chi2_stat = (n - 1) * s**2 / sigma0**2
gl = n - 1
chi2_critico = chi2.ppf(1 - alpha, df=gl)
p_valor = 1 - chi2.cdf(chi2_stat, df=gl)
print("=== PRUEBA CHI-CUADRADO PARA UNA VARIANZA ===")
print(f"H₀: σ² = 0.81 vs H₁: σ² > 0.81")
print(f"Estadístico χ²: {chi2_stat:.4f}")
print(f"Valor crítico (α=0.05): {chi2_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")
if chi2_stat > chi2_critico:
print("Decisión: Rechazar H₀")
print("Conclusión: La varianza es significativamente mayor que 0.81.")
else:
print("Decisión: No rechazar H₀")
print("Conclusión: No hay suficiente evidencia para afirmar que la varianza es mayor que 0.81.")
# ============================================
# VISUALIZACIÓN
# ============================================
x_vals = np.linspace(0, 30, 500)
densidad = chi2.pdf(x_vals, df=gl)
fig, ax = plt.subplots(figsize=(10, 6))
ax.plot(x_vals, densidad, 'purple', lw=2, label=f'χ²({gl})')
x_rechazo = np.linspace(chi2_critico, 30, 100)
y_rechazo = chi2.pdf(x_rechazo, df=gl)
ax.fill_between(x_rechazo, y_rechazo, alpha=0.4, color='red')
ax.axvline(chi2_critico, color='red', linestyle='--', lw=2,
label=f'χ²_crítico = {chi2_critico:.3f}')
ax.axvline(chi2_stat, color='darkgreen', lw=2,
label=f'χ²_obs = {chi2_stat:.3f}')
ax.set_xlabel(r'$\chi^2$')
ax.set_ylabel('Densidad')
ax.set_title(f'Distribución χ² con {gl} grados de libertad')
ax.legend()
ax.grid(True, alpha=0.3)
plt.show()📊 RESUMEN - PRUEBA DE HIPÓTESIS
\(Z = \frac{\bar{Y} - \mu_0}{\sigma/\sqrt{n}}\) (grande)
\(t = \frac{\bar{Y} - \mu_0}{S/\sqrt{n}}\) (pequeña)
\(Z = \frac{\hat{p} - p_0}{\sqrt{p_0(1-p_0)/n}}\)
Muestra grande (\(np \geq 5\), \(nq \geq 5\))
\(t = \frac{(\bar{Y}_1-\bar{Y}_2)-D_0}{S_p\sqrt{1/n_1+1/n_2}}\)
Varianzas iguales
\(\chi^2 = \frac{(n-1)S^2}{\sigma_0^2}\) (una)
\(F = S_1^2/S_2^2\) (dos)
✅ PUNTOS CLAVE
• Una prueba de hipótesis evalúa si los datos respaldan
o contradicen una afirmación sobre un parámetro poblacional.
•
Error Tipo I (α): Rechazar \(H_0\) cuando es verdadera. Error
Tipo II (β): No rechazar \(H_0\) cuando es falsa.
• El
valor-p es el mínimo nivel de significancia para
rechazar \(H_0\); cuanto menor es, más
evidencia en contra de \(H_0\).
•
Para muestras grandes (\(n
\geq 30\)), se usa la distribución normal. Para
muestras pequeñas, la distribución t de
Student.
• La curva de potencia muestra la
probabilidad de rechazar \(H_0\)
correctamente para diferentes valores del parámetro.
• R y Python
permiten realizar pruebas de hipótesis, calcular valores-p y visualizar
regiones de rechazo y curvas de potencia.
📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌
⭐⭐⭐⭐⭐
Las siguientes obras constituyen los textos fundamentales que han servido como base para la elaboración de estas notas de clase. Se recomienda encarecidamente su consulta para profundizar en los temas tratados y para complementar los ejemplos y ejercicios presentados.
Diseño y Análisis de Experimentos
Segunda Edición.
Editorial Limusa Wiley.
Texto clásico y referencia internacional
en el campo del diseño experimental. Cubre desde conceptos básicos hasta
diseños avanzados como factoriales fraccionados, superficies de
respuesta y diseños robustos.
Análisis y Diseño de Experimentos
Segunda Edición.
McGraw-Hill Interamericana.
Excelente texto en español con
numerosos ejemplos aplicados a la industria y los negocios. Enfoque
práctico y accesible para estudiantes de ingeniería y ciencias
administrativas.
Diseño de Experimentos
Segunda Edición. Thomson
Learning.
Aborda de manera exhaustiva los principios del diseño
experimental con énfasis en aplicaciones en agricultura, biología e
industrias químicas. Incluye numerosos ejemplos con datos reales.
Diseño de Experimentos
Pearson Prentice Hall.
Texto con enfoque pedagógico que combina teoría y práctica. Incluye
ejercicios resueltos y propuestos, así como aplicaciones en diversos
campos de la ingeniería.
Probabilidad y Estadística para Ingeniería y
Ciencias
Sexta Edición. International Thomson Editores.
Texto ampliamente utilizado en cursos introductorios. Presenta los
conceptos fundamentales de probabilidad y estadística con aplicaciones
reales en ingeniería y ciencias.
Probabilidad y Estadística
Cuarta Edición.
McGraw-Hill.
Clásico en la enseñanza de la estadística. Cubre
desde conceptos básicos hasta temas avanzados como regresión y análisis
de varianza, con numerosos ejemplos y ejercicios.
Mathematical Statistics with Applications
Séptima
Edición. Thomson/Brooks-Cole.
Texto fundamental en inglés para
el estudio de la estadística matemática. Aborda con rigor los
fundamentos teóricos de la inferencia estadística, incluyendo
estimación, pruebas de hipótesis y modelos lineales.
| Tema | Montgomery | Gutiérrez & de la Vara | Kuehl | Devore | Walpole |
|---|---|---|---|---|---|
| Estadística Inferencial | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 6-7 | Cap. 7-8 |
| Distribuciones Muestrales | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 5 | Cap. 7 |
| Estimación Puntual | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 6 | Cap. 8 |
| Intervalos de Confianza | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 7 | Cap. 8 |
| Prueba de Hipótesis | Cap. 3 | Cap. 2 | Cap. 3 | Cap. 8-9 | Cap. 9-10 |
| Diseños de Experimentos | Cap. 1-14 | Cap. 3-12 | Cap. 4-14 | Cap. 10-11 | Cap. 13-15 |
| ANOVA | Cap. 4 | Cap. 3-5 | Cap. 4-5 | Cap. 10 | Cap. 13 |
| Diseños Factoriales | Cap. 5-7 | Cap. 6-8 | Cap. 6-8 | Cap. 11 | Cap. 14 |
Nota: Las referencias a capítulos son aproximadas y pueden variar según la edición de cada texto. Se recomienda consultar el índice detallado de cada obra para una ubicación precisa de los temas.
Autor(es). (Año). Título de la obra (Edición). Editorial.
Ejemplo:
Montgomery, D. C. (2004). Diseño y
Análisis de Experimentos (2ª ed.). Limusa Wiley.
AUTOR, Nombre. Título. Edición. Lugar de publicación: Editorial, año.
Ejemplo:
GUTIÉRREZ, Humberto y DE LA VARA, Román.
Análisis y Diseño de Experimentos. 2ª ed. México: McGraw-Hill,
2008.
Maestría en Ingenierías y Especialización en Estadística Aplicada. (2026). Diseño de Experimentos - Notas de Clase. Universidad Tecnológica de Bolívar.
📚 “El diseño experimental es el arte de la investigación planificada, donde la estadística proporciona el rigor y la creatividad proporciona el camino”
— Adaptado de George E. P. Box