📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌

1 📌 PRUEBA DE HIPÓTESIS ESTADÍSTICA

🔍 INTRODUCCIÓN A LA PRUEBA DE HIPÓTESIS

La Estadística Inferencial es el proceso de usar la información de una muestra para describir el estado de una población. Sin embargo, es frecuente que usemos la información de una muestra para probar un reclamo o conjetura sobre la población. El reclamo o conjetura se refiere a una hipótesis.

El proceso que corrobora si la información de una muestra sostiene o refuta el reclamo se llama Prueba de Hipótesis. En muchos aspectos, el procedimiento formal para la prueba de hipótesis es similar al método científico. El científico observa la naturaleza, establece una teoría y después prueba su teoría respecto de la observación.

En este contexto, el científico propone una teoría relativa a los valores específicos de uno o más parámetros poblacionales. Luego obtiene una muestra de la población y compara la observación con la teoría. Si las observaciones se contraponen a la teoría, el científico rechaza la hipótesis. En caso contrario concluye que la teoría es válida o bien que la muestra no detectó la diferencia entre los valores reales y los valores de la hipótesis respecto a los parámetros poblacionales.

💊 Ejemplo contextual

Un investigador en medicina puede proponer la hipótesis de que un medicamento es más efectivo que el otro para curar cierta enfermedad. Para probar su hipótesis, selecciona al azar pacientes afectados por la enfermedad y los divide aleatoriamente en dos grupos. Se aplica entonces el nuevo medicamento A al primer grupo de pacientes y el otro medicamento B al segundo grupo. Posteriormente el investigador debe decidir, basándose en el número de pacientes curados en cada grupo, si el nuevo medicamento es más eficaz o no que el anterior.

Las pruebas de hipótesis se realizan en todos los ámbitos en los cuales puede contrastarse la teoría frente a la observación.


2 📌 PROCEDIMIENTO DE PRUEBA DE HIPÓTESIS

🔍 ELEMENTOS DE UNA PRUEBA DE HIPÓTESIS

Considere el siguiente problema: Un productor de fármacos afirma que tiene una droga cuya aplicación debe aumentar la probabilidad para que nazca niña de 50% hasta 70%, por lo menos. Se quiere mirar la validez de esta afirmación.

La solución podría consistir de los siguientes pasos:


2.1 📌 Paso 1: Modelo probabilístico e hipótesis

Se puede asociar al problema un modelo probabilístico, en el cual la variable de interés “nacimiento de un bebé” está representada por \(Y \sim B(1, \theta)\) con las codificaciones:

  • \(y = 1\), si el bebé es una niña
  • \(y = 0\), si el bebé es un niño

Es decir, el parámetro de interés es \(\theta\), la probabilidad de que nazca una niña.

Como hipótesis nula \(H_0\) se puede escoger \(\theta = 0.5\) que refleja la situación normal, contra la alternativa \(H_1\) de que \(\theta = 0.7\) que refleja la afirmación del productor de fármacos.


2.2 📌 Paso 2: Modelo estadístico

Para ver cómo actúa realmente la droga, se escogen, digamos, \(n = 20\) mujeres, independientemente; se aplica la droga a cada una de ellas y se observa, después del debido tiempo, si la mamá \(i\) da a luz a una niña o a un niño. Así se obtiene el modelo estadístico correspondiente, dado por una muestra \(\mathbf{Y} = (Y_1, Y_2, \ldots, Y_n)\) de tamaño \(n = 20\), con variables muestrales \(Y_i \sim B(1, \theta)\).

Para un experimento concreto se obtienen los datos \(\mathbf{y} = (y_1, y_2, \ldots, y_n)\), siendo cada \(y_i \in \{0, 1\}\).


2.3 📌 Paso 3: Estadístico de prueba y región de rechazo

Se apuntará \(\sum_{i=1}^n y_i =\) el número de niñas entre los \(n\) bebés nacidos, que es un valor de la estadística:

\[T(\mathbf{Y}) = \sum_{i=1}^n Y_i \sim B(n, \theta)\]

Intuitivamente se rechazará la hipótesis \(H_0\) si \(T(\mathbf{y}) \geq c\) para un valor \(c\) “suficientemente grande”, o sea si hay “muchas” niñas.

Es claro que para \(T(\mathbf{y}) = 20\) se rechazará \(H_0\) en favor de la afirmación del productor, y si también nacen 19 niñas; pero ¿con cuál número empiezan las dudas? ¿desde cuál número se va a creer más en \(H_1\) que en \(H_0\)?


3 📌 ERRORES TIPO I Y TIPO II

🔍 ERRORES EN LA PRUEBA DE HIPÓTESIS

Para poder dar respuestas adecuadas a las preguntas formuladas en el paso 3 del ejemplo y a problemas semejantes, se necesitan formalizar los procedimientos de una “prueba de hipótesis”, que será un análisis estadístico que completará los resultados obtenidos por la “estimación puntual”.

Decisión \(H_0\) es verdadera \(H_0\) es falsa
Rechazar \(H_0\) Error Tipo I
Probabilidad \(\alpha\)
Decisión correcta
Potencia \(1-\beta\)
No rechazar \(H_0\) Decisión correcta Error Tipo II
Probabilidad \(\beta\)

📖 Definiciones

Error Tipo I (α): Rechazar \(H_0\) cuando \(H_0\) es verdadera. Es la probabilidad controlada por el investigador.

Error Tipo II (β): No rechazar \(H_0\) cuando \(H_0\) es falsa. Generalmente no se controla directamente.

Potencia (1-β): Probabilidad de rechazar correctamente \(H_0\) cuando es falsa.

Valor-p: Mínimo nivel de significancia \(\alpha\) para el cual los datos observados indican que se tendría que rechazar la hipótesis nula. A menor valor-p, mayor tranquilidad para rechazar \(H_0\).


3.1 📌 Continuación del ejemplo: Determinación de la región crítica

Como la estadística de prueba es \(T(\mathbf{Y}) = \sum_{i=1}^{20} Y_i \sim B(20, \theta)\) y \(H_0: \theta = 0.5\), se hace uso de la tabla para \(B(20, 0.5)\) para encontrar los posibles valores críticos \(c\) junto con las probabilidades del error tipo I:

\(c\) 14 15 16 17 18
\(P\{T(Y) \geq c \mid 0.5\}\) 0.0577 0.0207 0.0059 0.0013 0.0002

Se rechaza \(H_0\):

  • a nivel de 5% si \(T(y) \in \{15, 16, \ldots, 20\}\)
  • a nivel de 1% si \(T(y) \in \{16, 17, \ldots, 20\}\)
  • a nivel de 0.1% si \(T(y) \in \{18, 19, 20\}\)

En conclusión:

  • Si se observan \(t \in \{0, \ldots, 14\}\) nacimientos de niñas, se acepta \(H_0\) (rechazando la afirmación del productor).
  • Si se observan \(t = 15\), esto puede ser indicio para que el productor tenga razón.
  • Si se observan \(t = 16\) o \(17\), esto se interpreta como una desviación significativa de \(H_0\), creyendo ya en la afirmación del productor.
  • Si se observan por lo menos \(t = 18\), se acepta de manera muy significativa la afirmación del productor.

4 📌 PRUEBAS CON MUESTRAS GRANDES

🔍 ELEMENTOS COMUNES EN PRUEBAS CON MUESTRAS GRANDES

Supongamos que se quiere probar una hipótesis referente al parámetro \(\theta\), basado en una muestra aleatoria \(\mathbf{Y} = (Y_1, Y_2, \ldots, Y_n)\) y en el estimador \(\hat{\theta}\), que tiene (aproximadamente) una distribución normal con media \(\theta\) y varianza \(\sigma_{\hat{\theta}}^2\).

Elemento Para una media \(\mu\) Para una proporción \(p\) Para diferencia de medias \(\mu_1-\mu_2\) Para diferencia de proporciones \(p_1-p_2\)
Parámetro \(\theta\) \(\mu\) \(p\) \(\mu_1-\mu_2\) \(p_1-p_2\)
Estimador \(\hat{\theta}\) \(\bar{Y}\) \(\hat{p}\) \(\bar{Y}_1-\bar{Y}_2\) \(\hat{p}_1-\hat{p}_2\)
\(\sigma_{\hat{\theta}}\) \(\frac{\sigma}{\sqrt{n}}\) \(\sqrt{\frac{p_0(1-p_0)}{n}}\) \(\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}\) \(\sqrt{\frac{p_1(1-p_1)}{n_1} + \frac{p_2(1-p_2)}{n_2}}\)

4.1 📌 Estadístico de prueba y regiones de rechazo

El estadístico de prueba es:

\[Z_p = \frac{\hat{\theta} - \theta_0}{\sigma_{\hat{\theta}}}\]

Las regiones de rechazo para diferentes alternativas son:

Hipótesis alternativa Región de rechazo Valor-p
\(H_1: \theta > \theta_0\) \(Z_p > z_{\alpha}\) \(P(Z > Z_p)\)
\(H_1: \theta < \theta_0\) \(Z_p < -z_{\alpha}\) \(P(Z < Z_p)\)
\(H_1: \theta \neq \theta_0\) \(|Z_p| > z_{\alpha/2}\) \(2P(Z > |Z_p|)\)

4.2 📌 Ejemplo 1: Prueba para la media (Ventas)

📊 Problema

El vicepresidente a cargo de las ventas de una gran corporación afirma que los vendedores tienen un promedio no mayor de 15 prospectos de ventas por semana. (Desearía aumentar esta cifra.) Se seleccionan al azar \(n = 36\) vendedores para verificar su afirmación, y se registra el número de contactos en una sola semana seleccionada en forma aleatoria. La muestra tiene una media de 17 prospectos y una varianza de 9. ¿Contradicen los hechos la afirmación del vicepresidente? Utilice \(\alpha = 0.05\).

📝 Solución Analítica

Paso 1: Hipótesis

\(H_0: \mu = 15\) vs \(H_1: \mu > 15\) (alternativa de cola superior)

Paso 2: Nivel de significancia

\(\alpha = 0.05\)

Paso 3: Estadístico de prueba

\(Z = \frac{\bar{Y} - \mu_0}{\sigma/\sqrt{n}}\)

Paso 4: Región de rechazo

Para \(\alpha = 0.05\), \(z_{0.05} = 1.645\). Se rechaza \(H_0\) si \(Z > 1.645\).

Paso 5: Cálculos

\(\bar{y} = 17\), \(s = 3\), \(n = 36\). La varianza poblacional se estima con \(s^2\) (muestra grande).

\[z = \frac{17 - 15}{3/\sqrt{36}} = \frac{2}{0.5} = 4\]

Paso 6: Decisión

Como \(z = 4 > 1.645\), se rechaza \(H_0\).

Paso 7: Conclusión

La afirmación del vicepresidente es incorrecta; el número promedio de prospectos de venta por semana excede a 15.


4.3 💻 Código en R

## === PRUEBA DE HIPÓTESIS PARA LA MEDIA ===
## H₀: μ = 15 vs H₁: μ > 15
## Estadístico Z: 4
## Valor crítico (α=0.05): 1.6449
## Valor-p: 3.2e-05
## Decisión: Rechazar H₀
## Conclusión: El número promedio de prospectos excede a 15.

4.3.1 💻 Código en Python

# ============================================
# EJEMPLO 1: PRUEBA PARA LA MEDIA (VENTAS)
# ============================================

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm

# Datos
n = 36
y_bar = 17
s = 3
mu0 = 15
alpha = 0.05

# Estadístico de prueba
z = (y_bar - mu0) / (s / np.sqrt(n))
z_critico = norm.ppf(1 - alpha)
p_valor = 1 - norm.cdf(z)

print("=== PRUEBA DE HIPÓTESIS PARA LA MEDIA ===")
print(f"H₀: μ = 15 vs H₁: μ > 15")
print(f"Estadístico Z: {z:.4f}")
print(f"Valor crítico (α=0.05): {z_critico:.4f}")
print(f"Valor-p: {p_valor:.6f}\n")

if z > z_critico:
    print("Decisión: Rechazar H₀")
    print("Conclusión: El número promedio de prospectos excede a 15.")
else:
    print("Decisión: No rechazar H₀")
    print("Conclusión: No hay evidencia suficiente para afirmar que el promedio excede a 15.")

# ============================================
# VISUALIZACIÓN
# ============================================

fig, axes = plt.subplots(1, 2, figsize=(14, 5))

# Gráfico 1: Distribución normal con región de rechazo
x_vals = np.linspace(-3, 6, 500)
densidad = norm.pdf(x_vals)

axes[0].plot(x_vals, densidad, 'steelblue', lw=2)

# Región de rechazo
x_rechazo = np.linspace(z_critico, 6, 100)
y_rechazo = norm.pdf(x_rechazo)
axes[0].fill_between(x_rechazo, y_rechazo, alpha=0.4, color='red')
axes[0].axvline(z_critico, color='red', linestyle='--', lw=2, 
                label=f'z_crítico = {z_critico:.3f}')
axes[0].axvline(z, color='darkgreen', lw=2, label=f'z_obs = {z:.3f}')
axes[0].set_xlabel('Z')
axes[0].set_ylabel('Densidad')
axes[0].set_title('Región de rechazo (cola superior)')
axes[0].legend()
axes[0].grid(True, alpha=0.3)

# Gráfico 2: Valor-p
axes[1].plot(x_vals, densidad, 'steelblue', lw=2)

x_pvalor = np.linspace(z, 6, 100)
y_pvalor = norm.pdf(x_pvalor)
axes[1].fill_between(x_pvalor, y_pvalor, alpha=0.4, color='steelblue')
axes[1].axvline(z, color='darkgreen', lw=2)
axes[1].set_xlabel('Z')
axes[1].set_ylabel('Densidad')
axes[1].set_title(f'Valor-p = {p_valor:.6f}')
axes[1].grid(True, alpha=0.3)

plt.tight_layout()
plt.show()

4.4 📌 Ejemplo 2: Prueba para una proporción (Artículos defectuosos)

🏭 Problema

Se tiene que reparar una máquina en cierta fábrica si produce más de 10% de artículos defectuosos del gran lote de producción de un día. Una muestra aleatoria de 100 artículos de la producción diaria contiene 15 defectuosos, y el capataz decide que debe repararse la máquina. ¿La evidencia de la muestra apoya su decisión? Utilice \(\alpha = 0.01\).

📝 Solución Analítica

Paso 1: Hipótesis

\(H_0: p = 0.10\) vs \(H_1: p > 0.10\)

Paso 2: Nivel de significancia

\(\alpha = 0.01\)

Paso 3: Estadístico de prueba

\(Z = \frac{\hat{p} - p_0}{\sqrt{p_0(1-p_0)/n}}\) (usando \(p_0\) bajo \(H_0\))

Paso 4: Región de rechazo

Para \(\alpha = 0.01\), \(z_{0.01} = 2.33\). Se rechaza \(H_0\) si \(Z > 2.33\).

Paso 5: Cálculos

\(\hat{p} = 15/100 = 0.15\), \(p_0 = 0.10\), \(n = 100\)

\[z = \frac{0.15 - 0.10}{\sqrt{0.10 \times 0.90 / 100}} = \frac{0.05}{\sqrt{0.0009}} = \frac{0.05}{0.03} = 1.667\]

Paso 6: Decisión

Como \(z = 1.667 < 2.33\), no se rechaza \(H_0\).

Paso 7: Conclusión

La evidencia no apoya la decisión del capataz. No hay suficiente evidencia para afirmar que la proporción de defectuosos excede el 10%.


4.5 💻 Código en R

## === PRUEBA DE HIPÓTESIS PARA UNA PROPORCIÓN ===
## H₀: p = 0.10 vs H₁: p > 0.10
## Proporción muestral: 0.15
## Estadístico Z: 1.6667
## Valor crítico (α=0.01): 2.3263
## Valor-p: 0.0478
## Decisión: No rechazar H₀
## Conclusión: No hay suficiente evidencia para afirmar que la proporción excede el 10%.

4.5.1 💻 Código en Python

# ============================================
# EJEMPLO 2: PRUEBA PARA UNA PROPORCIÓN
# ============================================

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm

# Datos
n = 100
x = 15
p_hat = x / n
p0 = 0.10
alpha = 0.01

# Estadístico de prueba
z = (p_hat - p0) / np.sqrt(p0 * (1 - p0) / n)
z_critico = norm.ppf(1 - alpha)
p_valor = 1 - norm.cdf(z)

print("=== PRUEBA DE HIPÓTESIS PARA UNA PROPORCIÓN ===")
print(f"H₀: p = 0.10 vs H₁: p > 0.10")
print(f"Proporción muestral: {p_hat:.4f}")
print(f"Estadístico Z: {z:.4f}")
print(f"Valor crítico (α=0.01): {z_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")

if z > z_critico:
    print("Decisión: Rechazar H₀")
    print("Conclusión: La proporción de defectuosos excede el 10%.")
else:
    print("Decisión: No rechazar H₀")
    print("Conclusión: No hay suficiente evidencia para afirmar que la proporción excede el 10%.")

# ============================================
# CURVA DE POTENCIA
# ============================================

p_values = np.linspace(0.05, 0.25, 100)
potencia = 1 - norm.cdf((p0 - p_values + z_critico * np.sqrt(p0*(1-p0)/n)) / 
                         np.sqrt(p_values*(1-p_values)/n))

fig, ax = plt.subplots(figsize=(10, 6))
ax.plot(p_values, potencia, 'b-', lw=2, label='Curva de potencia')
ax.axvline(p0, color='red', linestyle='--', lw=2, label='p₀ = 0.10')
ax.axhline(0.8, color='darkgreen', linestyle='--', lw=2, label='Potencia = 0.8')
ax.plot(0.15, 1 - norm.cdf((0.10 - 0.15 + 1.645*np.sqrt(0.10*0.90/100)) / 
                            np.sqrt(0.15*0.85/100)), 
        'ro', markersize=8, label='p = 0.15 observado')
ax.set_xlabel('Proporción real (p)')
ax.set_ylabel('Potencia (1-β)')
ax.set_title('Curva de potencia para la prueba de proporción\nH₀: p = 0.10, α = 0.01, n = 100')
ax.legend()
ax.grid(True, alpha=0.3)
plt.show()

⭐⭐⭐⭐⭐


4.6 📌REFERENCIAS BIBLIOGRÁFICAS

📚 REFERENCIAS BIBLIOGRÁFICAS

Las siguientes obras constituyen los textos fundamentales que han servido como base para la elaboración de estas notas de clase. Se recomienda encarecidamente su consulta para profundizar en los temas tratados y para complementar los ejemplos y ejercicios presentados.


4.6.1 📌 Textos principales en Diseño de Experimentos

Montgomery, D. C.

Diseño y Análisis de Experimentos
Segunda Edición. Editorial Limusa Wiley.
Texto clásico y referencia internacional en el campo del diseño experimental. Cubre desde conceptos básicos hasta diseños avanzados como factoriales fraccionados, superficies de respuesta y diseños robustos.

Gutiérrez, H. & de la Vara, R.

Análisis y Diseño de Experimentos
Segunda Edición. McGraw-Hill Interamericana.
Excelente texto en español con numerosos ejemplos aplicados a la industria y los negocios. Enfoque práctico y accesible para estudiantes de ingeniería y ciencias administrativas.

Kuehl, R. O.

Diseño de Experimentos
Segunda Edición. Thomson Learning.
Aborda de manera exhaustiva los principios del diseño experimental con énfasis en aplicaciones en agricultura, biología e industrias químicas. Incluye numerosos ejemplos con datos reales.

Vicente, M., Girón, P., Nieto, C., & Pérez, T.

Diseño de Experimentos
Pearson Prentice Hall.
Texto con enfoque pedagógico que combina teoría y práctica. Incluye ejercicios resueltos y propuestos, así como aplicaciones en diversos campos de la ingeniería.


4.6.2 📌 Textos de Probabilidad y Estadística

Devore, J. L.

Probabilidad y Estadística para Ingeniería y Ciencias
Sexta Edición. International Thomson Editores.
Texto ampliamente utilizado en cursos introductorios. Presenta los conceptos fundamentales de probabilidad y estadística con aplicaciones reales en ingeniería y ciencias.

Walpole, R. E., Myers, R. H., & Myers, S. L.

Probabilidad y Estadística
Cuarta Edición. McGraw-Hill.
Clásico en la enseñanza de la estadística. Cubre desde conceptos básicos hasta temas avanzados como regresión y análisis de varianza, con numerosos ejemplos y ejercicios.


4.6.3 📌 Texto de Estadística Matemática

Wackerly, D. D., Mendenhall, W., & Scheaffer, R. L.

Mathematical Statistics with Applications
Séptima Edición. Thomson/Brooks-Cole.
Texto fundamental en inglés para el estudio de la estadística matemática. Aborda con rigor los fundamentos teóricos de la inferencia estadística, incluyendo estimación, pruebas de hipótesis y modelos lineales.


4.7 📌 BIBLIOGRAFÍA RECOMENDADA PARA PROFUNDIZACIÓN

📚 BIBLIOGRAFÍA COMPLEMENTARIA

📘 Diseños Experimentales Avanzados

  • Box, G. E. P., Hunter, J. S., & Hunter, W. G. (2005). Statistics for Experimenters. 2nd Ed. Wiley.
  • Wu, C. F. J., & Hamada, M. S. (2009). Experiments: Planning, Analysis, and Optimization. 2nd Ed. Wiley.
  • Montgomery, D. C. (2013). Design and Analysis of Experiments. 8th Ed. Wiley.
  • Lawson, J. (2014). Design and Analysis of Experiments with R. CRC Press.

📙 Estadística Aplicada con Software

  • Crawley, M. J. (2013). The R Book. 2nd Ed. Wiley.
  • James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning. Springer.
  • Venables, W. N., & Ripley, B. D. (2002). Modern Applied Statistics with S. 4th Ed. Springer.
  • Kuhn, M., & Johnson, K. (2013). Applied Predictive Modeling. Springer.

📗 Métodos Estadísticos Fundamentales

  • Casella, G., & Berger, R. L. (2002). Statistical Inference. 2nd Ed. Duxbury.
  • Hogg, R. V., McKean, J. W., & Craig, A. T. (2013). Introduction to Mathematical Statistics. 7th Ed. Pearson.
  • Rice, J. A. (2007). Mathematical Statistics and Data Analysis. 3rd Ed. Duxbury.
  • Peña, D. (2001). Fundamentos de Estadística. Alianza Editorial.

📕 Aplicaciones en Ingeniería y Negocios

  • Anderson, D. R., Sweeney, D. J., & Williams, T. A. (2011). Statistics for Business and Economics. 11th Ed. South-Western.
  • Mendenhall, W., & Sincich, T. (2012). Statistics for Engineering and the Sciences. 6th Ed. CRC Press.
  • Levine, D. M., & Stephan, D. F. (2014). Estadística para Administración. 6ta Ed. Pearson.
  • Vining, G. G., & Kowalski, S. M. (2011). Statistical Methods for Engineers. 3rd Ed. Brooks/Cole.

4.8 📌 RECURSOS DIGITALES Y SOFTWARE ESTADÍSTICO

💻 RECURSOS DIGITALES Y SOFTWARE ESTADÍSTICO

📊 Software Estadístico

  • R Project (https://www.r-project.org/) - Software libre y de código abierto para computación estadística y gráficos.
  • RStudio (https://posit.co/) - IDE para R que facilita el trabajo con scripts, markdown y visualizaciones.
  • Python (https://www.python.org/) - Con librerías como NumPy, SciPy, pandas, statsmodels y matplotlib.
  • Minitab - Software especializado en diseño de experimentos y control estadístico de procesos.
  • JMP - Plataforma de análisis estadístico con fuerte énfasis en visualización y DOE.
  • SPSS - Software de análisis estadístico ampliamente utilizado en ciencias sociales y negocios.

📚 Repositorios y Recursos en Línea

4.9 📌 CITAS RECOMENDADAS PARA CADA SECCIÓN

📌 GUÍA DE LECTURA POR CAPÍTULOS

Tema Montgomery Gutiérrez & de la Vara Kuehl Devore Walpole
Estadística Inferencial Cap. 3 Cap. 2 Cap. 2 Cap. 6-7 Cap. 7-8
Distribuciones Muestrales Cap. 3 Cap. 2 Cap. 2 Cap. 5 Cap. 7
Estimación Puntual Cap. 3 Cap. 2 Cap. 2 Cap. 6 Cap. 8
Intervalos de Confianza Cap. 3 Cap. 2 Cap. 2 Cap. 7 Cap. 8
Prueba de Hipótesis Cap. 3 Cap. 2 Cap. 3 Cap. 8-9 Cap. 9-10
Diseños de Experimentos Cap. 1-14 Cap. 3-12 Cap. 4-14 Cap. 10-11 Cap. 13-15
ANOVA Cap. 4 Cap. 3-5 Cap. 4-5 Cap. 10 Cap. 13
Diseños Factoriales Cap. 5-7 Cap. 6-8 Cap. 6-8 Cap. 11 Cap. 14

Nota: Las referencias a capítulos son aproximadas y pueden variar según la edición de cada texto. Se recomienda consultar el índice detallado de cada obra para una ubicación precisa de los temas.


4.10 📌 CÓMO CITAR ESTAS NOTAS

📝 FORMATO DE CITACIÓN

📖 APA (7ª edición)

Autor(es). (Año). Título de la obra (Edición). Editorial.

Ejemplo:
Montgomery, D. C. (2004). Diseño y Análisis de Experimentos (2ª ed.). Limusa Wiley.

📚 ISO 690

AUTOR, Nombre. Título. Edición. Lugar de publicación: Editorial, año.

Ejemplo:
GUTIÉRREZ, Humberto y DE LA VARA, Román. Análisis y Diseño de Experimentos. 2ª ed. México: McGraw-Hill, 2008.

📌 Para citar estas notas de clase

Maestría en Ingenierías y Especialización en Estadística Aplicada. (2026). Diseño de Experimentos - Notas de Clase. Universidad Tecnológica de Bolívar.


📚 “El diseño experimental es el arte de la investigación planificada, donde la estadística proporciona el rigor y la creatividad proporciona el camino”

— Adaptado de George E. P. Box