Con Mi Profe: Julio Hurtado Marquez; EMAIL_TAREAS:

1 📌 PRUEBAS CON MUESTRAS PEQUEÑAS (DISTRIBUCIÓN t)

🔍 PRUEBAS CON MUESTRAS PEQUEÑAS (DISTRIBUCIÓN t)

Supongamos que se quiere probar una hipótesis referente al parámetro \(\theta\), basado en una muestra aleatoria \(\mathbf{Y} = (Y_1, Y_2, \ldots, Y_n)\) y en el estimador \(\hat{\theta}\), que tiene distribución normal con media \(\theta\) y varianza desconocida \(\sigma_{\hat{\theta}}^2\).

Elemento Para una media \(\mu\) Para diferencia de medias \(\mu_1-\mu_2\) (σ₁²=σ₂²) Para diferencia de medias \(\mu_1-\mu_2\) (σ₁²≠σ₂²)
Parámetro \(\theta\) \(\mu\) \(\mu_1-\mu_2\) \(\mu_1-\mu_2\)
Estimador \(\hat{\theta}\) \(\bar{Y}\) \(\bar{Y}_1-\bar{Y}_2\) \(\bar{Y}_1-\bar{Y}_2\)
\(\hat{\sigma}_{\hat{\theta}}\) \(\frac{S}{\sqrt{n}}\) \(S_p\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}\) \(\sqrt{\frac{S_1^2}{n_1}+\frac{S_2^2}{n_2}}\)
Grados de libertad \(n-1\) \(n_1+n_2-2\) Aprox. Welch

1.1 📌 Ejemplo 3: Prueba t para una media (Aspiradoras)

⚡ Problema

El Instituto Eléctrico Edison publica cifras del número anual de kilowatts-hora que gastan varios aparatos electrodomésticos. Se afirma que una aspiradora gasta en promedio 46 kilowatts-hora al año. Si una muestra aleatoria de 12 hogares indica que las aspiradoras gastan un promedio de 42 kilowatts-hora al año con una desviación estándar de 11.9 kilowatts-hora, ¿en un nivel de significancia de 0.05 esto sugiere que las aspiradoras gastan, en promedio, menos de 46 kilowatts-hora anualmente? Suponga que la población es normal.

📝 Solución Analítica

Hipótesis: \(H_0: \mu = 46\) vs \(H_1: \mu < 46\)

Significancia: \(\alpha = 0.05\)

Estadístico de prueba: \(t = \frac{\bar{Y} - \mu_0}{S/\sqrt{n}}\) con \(11\) grados de libertad

Región de rechazo: \(t < -t_{0.05,11} = -1.796\)

Cálculos: \(\bar{y} = 42\), \(s = 11.9\), \(n = 12\)

\[t = \frac{42 - 46}{11.9/\sqrt{12}} = \frac{-4}{3.435} = -1.164\]

Valor-p: \(P(T_{11} < -1.164) \approx 0.135\)

Decisión: No rechazar \(H_0\). El número promedio de kilowatts-hora no es significativamente menor que 46.


1.2 💻 Código en R

## === PRUEBA t PARA UNA MEDIA ===
## H₀: μ = 46 vs H₁: μ < 46
## Estadístico t: -1.1644
## Valor crítico (α=0.05, cola inferior): -1.7959
## Valor-p: 0.1344
## Decisión: No rechazar H₀
## Conclusión: No hay evidencia suficiente para afirmar que el consumo es menor que 46 kWh.

1.3 💻 Código en Python

# ============================================
# EJEMPLO 3: PRUEBA t PARA UNA MEDIA
# ============================================

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import t, norm

# Datos
n = 12
y_bar = 42
s = 11.9
mu0 = 46
alpha = 0.05

# Estadístico de prueba
t_stat = (y_bar - mu0) / (s / np.sqrt(n))
t_critico = t.ppf(alpha, df=n-1)  # Cola inferior
p_valor = t.cdf(t_stat, df=n-1)

print("=== PRUEBA t PARA UNA MEDIA ===")
print(f"H₀: μ = 46 vs H₁: μ < 46")
print(f"Estadístico t: {t_stat:.4f}")
print(f"Valor crítico (α=0.05, cola inferior): {t_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")

if t_stat < t_critico:
    print("Decisión: Rechazar H₀")
    print("Conclusión: El consumo promedio es menor que 46 kWh.")
else:
    print("Decisión: No rechazar H₀")
    print("Conclusión: No hay evidencia suficiente para afirmar que el consumo es menor que 46 kWh.")

# ============================================
# VISUALIZACIÓN
# ============================================

x_vals = np.linspace(-5, 5, 500)
densidad_t = t.pdf(x_vals, df=n-1)

fig, axes = plt.subplots(1, 2, figsize=(14, 5))

# Gráfico 1: Distribución t con región de rechazo
axes[0].plot(x_vals, densidad_t, 'purple', lw=2, label=f't({n-1})')

x_rechazo = np.linspace(-5, t_critico, 100)
y_rechazo = t.pdf(x_rechazo, df=n-1)
axes[0].fill_between(x_rechazo, y_rechazo, alpha=0.4, color='red')
axes[0].axvline(t_critico, color='red', linestyle='--', lw=2, 
                label=f't_crítico = {t_critico:.3f}')
axes[0].axvline(t_stat, color='darkgreen', lw=2, label=f't_obs = {t_stat:.3f}')
axes[0].set_xlabel('t')
axes[0].set_ylabel('Densidad')
axes[0].set_title(f'Distribución t con {n-1} grados de libertad')
axes[0].legend()
axes[0].grid(True, alpha=0.3)

# Gráfico 2: Valor-p
axes[1].plot(x_vals, densidad_t, 'purple', lw=2, label=f't({n-1})')

x_pvalor = np.linspace(-5, t_stat, 100)
y_pvalor = t.pdf(x_pvalor, df=n-1)
axes[1].fill_between(x_pvalor, y_pvalor, alpha=0.4, color='steelblue')
axes[1].axvline(t_stat, color='darkgreen', lw=2)
axes[1].set_xlabel('t')
axes[1].set_ylabel('Densidad')
axes[1].set_title(f'Valor-p = {p_valor:.4f}')
axes[1].grid(True, alpha=0.3)

plt.tight_layout()
plt.show()

1.4 📌 Ejemplo 4: Prueba t para diferencia de medias (Desgaste abrasivo)

🔧 Problema

Se lleva a cabo un experimento para comparar el desgaste por abrasivos de dos diferentes materiales laminados. Se prueban 12 piezas del material 1 y 10 piezas del material 2. Las muestras del material 1 dan un desgaste promedio de 85 unidades con una desviación estándar muestral de 4; las muestras del material 2 dan un promedio de 81 y una desviación estándar muestral de 5. ¿Podríamos concluir, con un nivel de significancia de 0.05, que el desgaste abrasivo del material 1 excede el del material 2 en más de 2 unidades? Suponga que las poblaciones son aproximadamente normales con varianzas iguales.

📝 Solución Analítica

Hipótesis: \(H_0: \mu_1 - \mu_2 = 2\) vs \(H_1: \mu_1 - \mu_2 > 2\)

Significancia: \(\alpha = 0.05\)

Estadístico de prueba: \(t = \frac{(\bar{Y}_1 - \bar{Y}_2) - D_0}{S_p \sqrt{\frac{1}{n_1} + \frac{1}{n_2}}}\) con \(n_1 + n_2 - 2 = 20\) grados de libertad

Varianza combinada: \(S_p^2 = \frac{(n_1-1)S_1^2 + (n_2-1)S_2^2}{n_1 + n_2 - 2} = \frac{11(16) + 9(25)}{20} = \frac{176 + 225}{20} = 20.05\)

\(S_p = \sqrt{20.05} = 4.478\)

Cálculos: \(\bar{y}_1 - \bar{y}_2 = 85 - 81 = 4\), \(D_0 = 2\)

\[t = \frac{4 - 2}{4.478 \sqrt{\frac{1}{12} + \frac{1}{10}}} = \frac{2}{4.478 \times 0.428} = \frac{2}{1.917} = 1.043\]

Región de rechazo: \(t > t_{0.05,20} = 1.725\)

Valor-p: \(P(T_{20} > 1.043) \approx 0.155\)

Decisión: No rechazar \(H_0\). No se puede concluir que el desgaste del material 1 excede al del material 2 en más de 2 unidades.


1.5 💻 Código en R

## === PRUEBA t PARA DIFERENCIA DE MEDIAS ===
## H₀: μ₁ - μ₂ = 2 vs H₁: μ₁ - μ₂ > 2
## Varianza combinada Sₚ²: 20.05
## Desviación combinada Sₚ: 4.4777
## Estadístico t: 1.0432
## Grados de libertad: 20
## Valor crítico (α=0.05, cola superior): 1.7247
## Valor-p: 0.1547
## Decisión: No rechazar H₀
## Conclusión: No hay suficiente evidencia para afirmar que el desgaste del material 1 excede al del material 2 en más de 2 unidades.
## 
## Intervalo de confianza del 95% para μ₁ - μ₂:
## [ 0.69 , 7.31 ]
## El intervalo contiene el valor 2, lo que respalda no rechazar H₀.

1.6 💻 Código en Python

# ============================================
# EJEMPLO 4: PRUEBA t PARA DIFERENCIA DE MEDIAS
# ============================================

import numpy as np
from scipy.stats import t

# Datos
n1 = 12
n2 = 10
y1_bar = 85
y2_bar = 81
s1 = 4
s2 = 5
D0 = 2
alpha = 0.05

# Varianza combinada
sp2 = ((n1 - 1) * s1**2 + (n2 - 1) * s2**2) / (n1 + n2 - 2)
sp = np.sqrt(sp2)

# Estadístico de prueba
t_stat = ((y1_bar - y2_bar) - D0) / (sp * np.sqrt(1/n1 + 1/n2))
gl = n1 + n2 - 2
t_critico = t.ppf(1 - alpha, df=gl)
p_valor = 1 - t.cdf(t_stat, df=gl)

print("=== PRUEBA t PARA DIFERENCIA DE MEDIAS ===")
print(f"H₀: μ₁ - μ₂ = 2 vs H₁: μ₁ - μ₂ > 2")
print(f"Varianza combinada Sₚ²: {sp2:.4f}")
print(f"Desviación combinada Sₚ: {sp:.4f}")
print(f"Estadístico t: {t_stat:.4f}")
print(f"Grados de libertad: {gl}")
print(f"Valor crítico (α=0.05, cola superior): {t_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")

if t_stat > t_critico:
    print("Decisión: Rechazar H₀")
    print("Conclusión: El desgaste del material 1 excede al del material 2 en más de 2 unidades.")
else:
    print("Decisión: No rechazar H₀")
    print("Conclusión: No hay suficiente evidencia para afirmar que el desgaste del material 1 excede al del material 2 en más de 2 unidades.")

# Intervalo de confianza
margen = t_critico * sp * np.sqrt(1/n1 + 1/n2)
ic_inf = (y1_bar - y2_bar) - margen
ic_sup = (y1_bar - y2_bar) + margen

print(f"\nIntervalo de confianza del 95% para μ₁ - μ₂:")
print(f"[{ic_inf:.2f}, {ic_sup:.2f}]")
print("El intervalo contiene el valor 2, lo que respalda no rechazar H₀.")

2 📌 PRUEBAS DE HIPÓTESIS PARA VARIANZAS

🔍 PRUEBAS DE HIPÓTESIS PARA VARIANZAS

Supongamos que se quiere probar una hipótesis referente a la varianza poblacional \(\sigma^2\), basado en una muestra aleatoria de una población normal.

Elemento Para una varianza \(\sigma^2\) Para comparación de varianzas \(\sigma_1^2/\sigma_2^2\)
Parámetro \(\sigma^2\) \(\sigma_1^2/\sigma_2^2\)
Estimador \(S^2\) \(S_1^2/S_2^2\)
Estadístico de prueba \(\chi^2 = \frac{(n-1)S^2}{\sigma_0^2}\) \(F = \frac{S_1^2}{S_2^2}\)
Grados de libertad \(n-1\) \(n_1-1\), \(n_2-1\)

2.1 📌 Ejemplo 5: Prueba para una varianza (Baterías)

🔋 Problema

Un fabricante de baterías para automóvil afirma que la duración de sus baterías se distribuye de forma aproximadamente normal con una desviación estándar igual a 0.9 años. Si una muestra aleatoria de 10 baterías tiene una desviación estándar de 1.2 años, ¿considera que \(\sigma > 0.9\) años? Utilice \(\alpha = 0.05\).

📝 Solución Analítica

Hipótesis: \(H_0: \sigma^2 = 0.81\) vs \(H_1: \sigma^2 > 0.81\)

Estadístico de prueba: \(\chi^2 = \frac{(n-1)S^2}{\sigma_0^2}\) con \(9\) grados de libertad

Cálculos: \(S^2 = (1.2)^2 = 1.44\), \(n = 10\)

\[\chi^2 = \frac{9 \times 1.44}{0.81} = \frac{12.96}{0.81} = 16.0\]

Región de rechazo: \(\chi^2 > \chi^2_{0.05,9} = 16.919\)

Valor-p: \(P(\chi^2_9 > 16.0) \approx 0.07\)

Decisión: No rechazar \(H_0\) al nivel 0.05. Sin embargo, con base en el valor-p de 0.07, hay alguna evidencia de que \(\sigma > 0.9\).


2.2 💻 Código en R

## === PRUEBA CHI-CUADRADO PARA UNA VARIANZA ===
## H₀: σ² = 0.81 vs H₁: σ² > 0.81
## Estadístico χ²: 16
## Valor crítico (α=0.05): 16.919
## Valor-p: 0.0669
## Decisión: No rechazar H₀
## Conclusión: No hay suficiente evidencia para afirmar que la varianza es mayor que 0.81.

2.2.1 💻 Código en Python

# ============================================
# EJEMPLO 5: PRUEBA CHI-CUADRADO PARA UNA VARIANZA
# ============================================

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import chi2

# Datos
n = 10
s = 1.2
sigma0 = 0.9
alpha = 0.05

# Estadístico de prueba
chi2_stat = (n - 1) * s**2 / sigma0**2
gl = n - 1
chi2_critico = chi2.ppf(1 - alpha, df=gl)
p_valor = 1 - chi2.cdf(chi2_stat, df=gl)

print("=== PRUEBA CHI-CUADRADO PARA UNA VARIANZA ===")
print(f"H₀: σ² = 0.81 vs H₁: σ² > 0.81")
print(f"Estadístico χ²: {chi2_stat:.4f}")
print(f"Valor crítico (α=0.05): {chi2_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")

if chi2_stat > chi2_critico:
    print("Decisión: Rechazar H₀")
    print("Conclusión: La varianza es significativamente mayor que 0.81.")
else:
    print("Decisión: No rechazar H₀")
    print("Conclusión: No hay suficiente evidencia para afirmar que la varianza es mayor que 0.81.")

# ============================================
# VISUALIZACIÓN
# ============================================

x_vals = np.linspace(0, 30, 500)
densidad = chi2.pdf(x_vals, df=gl)

fig, ax = plt.subplots(figsize=(10, 6))
ax.plot(x_vals, densidad, 'purple', lw=2, label=f'χ²({gl})')

x_rechazo = np.linspace(chi2_critico, 30, 100)
y_rechazo = chi2.pdf(x_rechazo, df=gl)
ax.fill_between(x_rechazo, y_rechazo, alpha=0.4, color='red')
ax.axvline(chi2_critico, color='red', linestyle='--', lw=2, 
           label=f'χ²_crítico = {chi2_critico:.3f}')
ax.axvline(chi2_stat, color='darkgreen', lw=2, 
           label=f'χ²_obs = {chi2_stat:.3f}')
ax.set_xlabel(r'$\chi^2$')
ax.set_ylabel('Densidad')
ax.set_title(f'Distribución χ² con {gl} grados de libertad')
ax.legend()
ax.grid(True, alpha=0.3)
plt.show()

2.3 📌 Resumen de Pruebas de Hipótesis

📊 RESUMEN - PRUEBA DE HIPÓTESIS

📈 Para una media \(\mu\)

\(Z = \frac{\bar{Y} - \mu_0}{\sigma/\sqrt{n}}\) (grande)

\(t = \frac{\bar{Y} - \mu_0}{S/\sqrt{n}}\) (pequeña)

📊 Para una proporción \(p\)

\(Z = \frac{\hat{p} - p_0}{\sqrt{p_0(1-p_0)/n}}\)

Muestra grande (\(np \geq 5\), \(nq \geq 5\))

🔬 Para diferencia de medias

\(t = \frac{(\bar{Y}_1-\bar{Y}_2)-D_0}{S_p\sqrt{1/n_1+1/n_2}}\)

Varianzas iguales

📉 Para varianzas

\(\chi^2 = \frac{(n-1)S^2}{\sigma_0^2}\) (una)

\(F = S_1^2/S_2^2\) (dos)

PUNTOS CLAVE

• Una prueba de hipótesis evalúa si los datos respaldan o contradicen una afirmación sobre un parámetro poblacional.
Error Tipo I (α): Rechazar \(H_0\) cuando es verdadera. Error Tipo II (β): No rechazar \(H_0\) cuando es falsa.
• El valor-p es el mínimo nivel de significancia para rechazar \(H_0\); cuanto menor es, más evidencia en contra de \(H_0\).
• Para muestras grandes (\(n \geq 30\)), se usa la distribución normal. Para muestras pequeñas, la distribución t de Student.
• La curva de potencia muestra la probabilidad de rechazar \(H_0\) correctamente para diferentes valores del parámetro.
• R y Python permiten realizar pruebas de hipótesis, calcular valores-p y visualizar regiones de rechazo y curvas de potencia.

📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌

⭐⭐⭐⭐⭐


2.4 📌REFERENCIAS BIBLIOGRÁFICAS

📚 REFERENCIAS BIBLIOGRÁFICAS

Las siguientes obras constituyen los textos fundamentales que han servido como base para la elaboración de estas notas de clase. Se recomienda encarecidamente su consulta para profundizar en los temas tratados y para complementar los ejemplos y ejercicios presentados.


2.4.1 📌 Textos principales en Diseño de Experimentos

Montgomery, D. C.

Diseño y Análisis de Experimentos
Segunda Edición. Editorial Limusa Wiley.
Texto clásico y referencia internacional en el campo del diseño experimental. Cubre desde conceptos básicos hasta diseños avanzados como factoriales fraccionados, superficies de respuesta y diseños robustos.

Gutiérrez, H. & de la Vara, R.

Análisis y Diseño de Experimentos
Segunda Edición. McGraw-Hill Interamericana.
Excelente texto en español con numerosos ejemplos aplicados a la industria y los negocios. Enfoque práctico y accesible para estudiantes de ingeniería y ciencias administrativas.

Kuehl, R. O.

Diseño de Experimentos
Segunda Edición. Thomson Learning.
Aborda de manera exhaustiva los principios del diseño experimental con énfasis en aplicaciones en agricultura, biología e industrias químicas. Incluye numerosos ejemplos con datos reales.

Vicente, M., Girón, P., Nieto, C., & Pérez, T.

Diseño de Experimentos
Pearson Prentice Hall.
Texto con enfoque pedagógico que combina teoría y práctica. Incluye ejercicios resueltos y propuestos, así como aplicaciones en diversos campos de la ingeniería.


2.4.2 📌 Textos de Probabilidad y Estadística

Devore, J. L.

Probabilidad y Estadística para Ingeniería y Ciencias
Sexta Edición. International Thomson Editores.
Texto ampliamente utilizado en cursos introductorios. Presenta los conceptos fundamentales de probabilidad y estadística con aplicaciones reales en ingeniería y ciencias.

Walpole, R. E., Myers, R. H., & Myers, S. L.

Probabilidad y Estadística
Cuarta Edición. McGraw-Hill.
Clásico en la enseñanza de la estadística. Cubre desde conceptos básicos hasta temas avanzados como regresión y análisis de varianza, con numerosos ejemplos y ejercicios.


2.4.3 📌 Texto de Estadística Matemática

Wackerly, D. D., Mendenhall, W., & Scheaffer, R. L.

Mathematical Statistics with Applications
Séptima Edición. Thomson/Brooks-Cole.
Texto fundamental en inglés para el estudio de la estadística matemática. Aborda con rigor los fundamentos teóricos de la inferencia estadística, incluyendo estimación, pruebas de hipótesis y modelos lineales.


2.5 📌 BIBLIOGRAFÍA RECOMENDADA PARA PROFUNDIZACIÓN

📚 BIBLIOGRAFÍA COMPLEMENTARIA

📘 Diseños Experimentales Avanzados

  • Box, G. E. P., Hunter, J. S., & Hunter, W. G. (2005). Statistics for Experimenters. 2nd Ed. Wiley.
  • Wu, C. F. J., & Hamada, M. S. (2009). Experiments: Planning, Analysis, and Optimization. 2nd Ed. Wiley.
  • Montgomery, D. C. (2013). Design and Analysis of Experiments. 8th Ed. Wiley.
  • Lawson, J. (2014). Design and Analysis of Experiments with R. CRC Press.

📙 Estadística Aplicada con Software

  • Crawley, M. J. (2013). The R Book. 2nd Ed. Wiley.
  • James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning. Springer.
  • Venables, W. N., & Ripley, B. D. (2002). Modern Applied Statistics with S. 4th Ed. Springer.
  • Kuhn, M., & Johnson, K. (2013). Applied Predictive Modeling. Springer.

📗 Métodos Estadísticos Fundamentales

  • Casella, G., & Berger, R. L. (2002). Statistical Inference. 2nd Ed. Duxbury.
  • Hogg, R. V., McKean, J. W., & Craig, A. T. (2013). Introduction to Mathematical Statistics. 7th Ed. Pearson.
  • Rice, J. A. (2007). Mathematical Statistics and Data Analysis. 3rd Ed. Duxbury.
  • Peña, D. (2001). Fundamentos de Estadística. Alianza Editorial.

📕 Aplicaciones en Ingeniería y Negocios

  • Anderson, D. R., Sweeney, D. J., & Williams, T. A. (2011). Statistics for Business and Economics. 11th Ed. South-Western.
  • Mendenhall, W., & Sincich, T. (2012). Statistics for Engineering and the Sciences. 6th Ed. CRC Press.
  • Levine, D. M., & Stephan, D. F. (2014). Estadística para Administración. 6ta Ed. Pearson.
  • Vining, G. G., & Kowalski, S. M. (2011). Statistical Methods for Engineers. 3rd Ed. Brooks/Cole.

2.6 📌 RECURSOS DIGITALES Y SOFTWARE ESTADÍSTICO

💻 RECURSOS DIGITALES Y SOFTWARE ESTADÍSTICO

📊 Software Estadístico

  • R Project (https://www.r-project.org/) - Software libre y de código abierto para computación estadística y gráficos.
  • RStudio (https://posit.co/) - IDE para R que facilita el trabajo con scripts, markdown y visualizaciones.
  • Python (https://www.python.org/) - Con librerías como NumPy, SciPy, pandas, statsmodels y matplotlib.
  • Minitab - Software especializado en diseño de experimentos y control estadístico de procesos.
  • JMP - Plataforma de análisis estadístico con fuerte énfasis en visualización y DOE.
  • SPSS - Software de análisis estadístico ampliamente utilizado en ciencias sociales y negocios.

📚 Repositorios y Recursos en Línea

2.7 📌 CITAS RECOMENDADAS PARA CADA SECCIÓN

📌 GUÍA DE LECTURA POR CAPÍTULOS

Tema Montgomery Gutiérrez & de la Vara Kuehl Devore Walpole
Estadística Inferencial Cap. 3 Cap. 2 Cap. 2 Cap. 6-7 Cap. 7-8
Distribuciones Muestrales Cap. 3 Cap. 2 Cap. 2 Cap. 5 Cap. 7
Estimación Puntual Cap. 3 Cap. 2 Cap. 2 Cap. 6 Cap. 8
Intervalos de Confianza Cap. 3 Cap. 2 Cap. 2 Cap. 7 Cap. 8
Prueba de Hipótesis Cap. 3 Cap. 2 Cap. 3 Cap. 8-9 Cap. 9-10
Diseños de Experimentos Cap. 1-14 Cap. 3-12 Cap. 4-14 Cap. 10-11 Cap. 13-15
ANOVA Cap. 4 Cap. 3-5 Cap. 4-5 Cap. 10 Cap. 13
Diseños Factoriales Cap. 5-7 Cap. 6-8 Cap. 6-8 Cap. 11 Cap. 14

Nota: Las referencias a capítulos son aproximadas y pueden variar según la edición de cada texto. Se recomienda consultar el índice detallado de cada obra para una ubicación precisa de los temas.


2.8 📌 CÓMO CITAR ESTAS NOTAS

📝 FORMATO DE CITACIÓN

📖 APA (7ª edición)

Autor(es). (Año). Título de la obra (Edición). Editorial.

Ejemplo:
Montgomery, D. C. (2004). Diseño y Análisis de Experimentos (2ª ed.). Limusa Wiley.

📚 ISO 690

AUTOR, Nombre. Título. Edición. Lugar de publicación: Editorial, año.

Ejemplo:
GUTIÉRREZ, Humberto y DE LA VARA, Román. Análisis y Diseño de Experimentos. 2ª ed. México: McGraw-Hill, 2008.

📌 Para citar estas notas de clase

Maestría en Ingenierías y Especialización en Estadística Aplicada. (2026). Diseño de Experimentos - Notas de Clase. Universidad Tecnológica de Bolívar.


📚 “El diseño experimental es el arte de la investigación planificada, donde la estadística proporciona el rigor y la creatividad proporciona el camino”

— Adaptado de George E. P. Box