📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌📌
La Estadística Inferencial es el proceso de usar la información de una muestra para describir el estado de una población. Sin embargo, es frecuente que usemos la información de una muestra para probar un reclamo o conjetura sobre la población. El reclamo o conjetura se refiere a una hipótesis.
El proceso que corrobora si la información de una muestra sostiene o refuta el reclamo se llama Prueba de Hipótesis. En muchos aspectos, el procedimiento formal para la prueba de hipótesis es similar al método científico. El científico observa la naturaleza, establece una teoría y después prueba su teoría respecto de la observación.
En este contexto, el científico propone una teoría relativa a los valores específicos de uno o más parámetros poblacionales. Luego obtiene una muestra de la población y compara la observación con la teoría. Si las observaciones se contraponen a la teoría, el científico rechaza la hipótesis. En caso contrario concluye que la teoría es válida o bien que la muestra no detectó la diferencia entre los valores reales y los valores de la hipótesis respecto a los parámetros poblacionales.
Un investigador en medicina puede proponer la hipótesis de que un medicamento es más efectivo que el otro para curar cierta enfermedad. Para probar su hipótesis, selecciona al azar pacientes afectados por la enfermedad y los divide aleatoriamente en dos grupos. Se aplica entonces el nuevo medicamento A al primer grupo de pacientes y el otro medicamento B al segundo grupo. Posteriormente el investigador debe decidir, basándose en el número de pacientes curados en cada grupo, si el nuevo medicamento es más eficaz o no que el anterior.
Las pruebas de hipótesis se realizan en todos los ámbitos en los cuales puede contrastarse la teoría frente a la observación.
Considere el siguiente problema: Un productor de fármacos afirma que tiene una droga cuya aplicación debe aumentar la probabilidad para que nazca niña de 50% hasta 70%, por lo menos. Se quiere mirar la validez de esta afirmación.
La solución podría consistir de los siguientes pasos:
Se puede asociar al problema un modelo probabilístico, en el cual la variable de interés “nacimiento de un bebé” está representada por \(Y \sim B(1, \theta)\) con las codificaciones:
Es decir, el parámetro de interés es \(\theta\), la probabilidad de que nazca una niña.
Como hipótesis nula \(H_0\) se puede escoger \(\theta = 0.5\) que refleja la situación normal, contra la alternativa \(H_1\) de que \(\theta = 0.7\) que refleja la afirmación del productor de fármacos.
Para ver cómo actúa realmente la droga, se escogen, digamos, \(n = 20\) mujeres, independientemente; se aplica la droga a cada una de ellas y se observa, después del debido tiempo, si la mamá \(i\) da a luz a una niña o a un niño. Así se obtiene el modelo estadístico correspondiente, dado por una muestra \(\mathbf{Y} = (Y_1, Y_2, \ldots, Y_n)\) de tamaño \(n = 20\), con variables muestrales \(Y_i \sim B(1, \theta)\).
Para un experimento concreto se obtienen los datos \(\mathbf{y} = (y_1, y_2, \ldots, y_n)\), siendo cada \(y_i \in \{0, 1\}\).
Se apuntará \(\sum_{i=1}^n y_i =\) el número de niñas entre los \(n\) bebés nacidos, que es un valor de la estadística:
\[T(\mathbf{Y}) = \sum_{i=1}^n Y_i \sim B(n, \theta)\]
Intuitivamente se rechazará la hipótesis \(H_0\) si \(T(\mathbf{y}) \geq c\) para un valor \(c\) “suficientemente grande”, o sea si hay “muchas” niñas.
Es claro que para \(T(\mathbf{y}) = 20\) se rechazará \(H_0\) en favor de la afirmación del productor, y si también nacen 19 niñas; pero ¿con cuál número empiezan las dudas? ¿desde cuál número se va a creer más en \(H_1\) que en \(H_0\)?
Para poder dar respuestas adecuadas a las preguntas formuladas en el paso 3 del ejemplo y a problemas semejantes, se necesitan formalizar los procedimientos de una “prueba de hipótesis”, que será un análisis estadístico que completará los resultados obtenidos por la “estimación puntual”.
| Decisión | \(H_0\) es verdadera | \(H_0\) es falsa |
|---|---|---|
| Rechazar \(H_0\) |
Error Tipo I Probabilidad \(\alpha\) |
Decisión correcta Potencia \(1-\beta\) |
| No rechazar \(H_0\) | Decisión correcta |
Error Tipo II Probabilidad \(\beta\) |
Error Tipo I (α): Rechazar \(H_0\) cuando \(H_0\) es verdadera. Es la probabilidad controlada por el investigador.
Error Tipo II (β): No rechazar \(H_0\) cuando \(H_0\) es falsa. Generalmente no se controla directamente.
Potencia (1-β): Probabilidad de rechazar correctamente \(H_0\) cuando es falsa.
Valor-p: Mínimo nivel de significancia \(\alpha\) para el cual los datos observados indican que se tendría que rechazar la hipótesis nula. A menor valor-p, mayor tranquilidad para rechazar \(H_0\).
Como la estadística de prueba es \(T(\mathbf{Y}) = \sum_{i=1}^{20} Y_i \sim B(20, \theta)\) y \(H_0: \theta = 0.5\), se hace uso de la tabla para \(B(20, 0.5)\) para encontrar los posibles valores críticos \(c\) junto con las probabilidades del error tipo I:
| \(c\) | 14 | 15 | 16 | 17 | 18 | … |
|---|---|---|---|---|---|---|
| \(P\{T(Y) \geq c \mid 0.5\}\) | 0.0577 | 0.0207 | 0.0059 | 0.0013 | 0.0002 | … |
Se rechaza \(H_0\):
En conclusión:
Supongamos que se quiere probar una hipótesis referente al parámetro \(\theta\), basado en una muestra aleatoria \(\mathbf{Y} = (Y_1, Y_2, \ldots, Y_n)\) y en el estimador \(\hat{\theta}\), que tiene (aproximadamente) una distribución normal con media \(\theta\) y varianza \(\sigma_{\hat{\theta}}^2\).
| Elemento | Para una media \(\mu\) | Para una proporción \(p\) | Para diferencia de medias \(\mu_1-\mu_2\) | Para diferencia de proporciones \(p_1-p_2\) |
|---|---|---|---|---|
| Parámetro \(\theta\) | \(\mu\) | \(p\) | \(\mu_1-\mu_2\) | \(p_1-p_2\) |
| Estimador \(\hat{\theta}\) | \(\bar{Y}\) | \(\hat{p}\) | \(\bar{Y}_1-\bar{Y}_2\) | \(\hat{p}_1-\hat{p}_2\) |
| \(\sigma_{\hat{\theta}}\) | \(\frac{\sigma}{\sqrt{n}}\) | \(\sqrt{\frac{p_0(1-p_0)}{n}}\) | \(\sqrt{\frac{\sigma_1^2}{n_1} + \frac{\sigma_2^2}{n_2}}\) | \(\sqrt{\frac{p_1(1-p_1)}{n_1} + \frac{p_2(1-p_2)}{n_2}}\) |
El estadístico de prueba es:
\[Z_p = \frac{\hat{\theta} - \theta_0}{\sigma_{\hat{\theta}}}\]
Las regiones de rechazo para diferentes alternativas son:
| Hipótesis alternativa | Región de rechazo | Valor-p |
|---|---|---|
| \(H_1: \theta > \theta_0\) | \(Z_p > z_{\alpha}\) | \(P(Z > Z_p)\) |
| \(H_1: \theta < \theta_0\) | \(Z_p < -z_{\alpha}\) | \(P(Z < Z_p)\) |
| \(H_1: \theta \neq \theta_0\) | \(|Z_p| > z_{\alpha/2}\) | \(2P(Z > |Z_p|)\) |
El vicepresidente a cargo de las ventas de una gran corporación afirma que los vendedores tienen un promedio no mayor de 15 prospectos de ventas por semana. (Desearía aumentar esta cifra.) Se seleccionan al azar \(n = 36\) vendedores para verificar su afirmación, y se registra el número de contactos en una sola semana seleccionada en forma aleatoria. La muestra tiene una media de 17 prospectos y una varianza de 9. ¿Contradicen los hechos la afirmación del vicepresidente? Utilice \(\alpha = 0.05\).
📝 Solución Analítica
Paso 1: Hipótesis
\(H_0: \mu = 15\) vs \(H_1: \mu > 15\) (alternativa de cola superior)
Paso 2: Nivel de significancia
\(\alpha = 0.05\)
Paso 3: Estadístico de prueba
\(Z = \frac{\bar{Y} - \mu_0}{\sigma/\sqrt{n}}\)
Paso 4: Región de rechazo
Para \(\alpha = 0.05\), \(z_{0.05} = 1.645\). Se rechaza \(H_0\) si \(Z > 1.645\).
Paso 5: Cálculos
\(\bar{y} = 17\), \(s = 3\), \(n = 36\). La varianza poblacional se estima con \(s^2\) (muestra grande).
\[z = \frac{17 - 15}{3/\sqrt{36}} = \frac{2}{0.5} = 4\]
Paso 6: Decisión
Como \(z = 4 > 1.645\), se rechaza \(H_0\).
Paso 7: Conclusión
La afirmación del vicepresidente es incorrecta; el número promedio de prospectos de venta por semana excede a 15.
## === PRUEBA DE HIPÓTESIS PARA LA MEDIA ===
## H₀: μ = 15 vs H₁: μ > 15
## Estadístico Z: 4
## Valor crítico (α=0.05): 1.6449
## Valor-p: 3.2e-05
## Decisión: Rechazar H₀
## Conclusión: El número promedio de prospectos excede a 15.
# ============================================
# EJEMPLO 1: PRUEBA PARA LA MEDIA (VENTAS)
# ============================================
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm
# Datos
n = 36
y_bar = 17
s = 3
mu0 = 15
alpha = 0.05
# Estadístico de prueba
z = (y_bar - mu0) / (s / np.sqrt(n))
z_critico = norm.ppf(1 - alpha)
p_valor = 1 - norm.cdf(z)
print("=== PRUEBA DE HIPÓTESIS PARA LA MEDIA ===")
print(f"H₀: μ = 15 vs H₁: μ > 15")
print(f"Estadístico Z: {z:.4f}")
print(f"Valor crítico (α=0.05): {z_critico:.4f}")
print(f"Valor-p: {p_valor:.6f}\n")
if z > z_critico:
print("Decisión: Rechazar H₀")
print("Conclusión: El número promedio de prospectos excede a 15.")
else:
print("Decisión: No rechazar H₀")
print("Conclusión: No hay evidencia suficiente para afirmar que el promedio excede a 15.")
# ============================================
# VISUALIZACIÓN
# ============================================
fig, axes = plt.subplots(1, 2, figsize=(14, 5))
# Gráfico 1: Distribución normal con región de rechazo
x_vals = np.linspace(-3, 6, 500)
densidad = norm.pdf(x_vals)
axes[0].plot(x_vals, densidad, 'steelblue', lw=2)
# Región de rechazo
x_rechazo = np.linspace(z_critico, 6, 100)
y_rechazo = norm.pdf(x_rechazo)
axes[0].fill_between(x_rechazo, y_rechazo, alpha=0.4, color='red')
axes[0].axvline(z_critico, color='red', linestyle='--', lw=2,
label=f'z_crítico = {z_critico:.3f}')
axes[0].axvline(z, color='darkgreen', lw=2, label=f'z_obs = {z:.3f}')
axes[0].set_xlabel('Z')
axes[0].set_ylabel('Densidad')
axes[0].set_title('Región de rechazo (cola superior)')
axes[0].legend()
axes[0].grid(True, alpha=0.3)
# Gráfico 2: Valor-p
axes[1].plot(x_vals, densidad, 'steelblue', lw=2)
x_pvalor = np.linspace(z, 6, 100)
y_pvalor = norm.pdf(x_pvalor)
axes[1].fill_between(x_pvalor, y_pvalor, alpha=0.4, color='steelblue')
axes[1].axvline(z, color='darkgreen', lw=2)
axes[1].set_xlabel('Z')
axes[1].set_ylabel('Densidad')
axes[1].set_title(f'Valor-p = {p_valor:.6f}')
axes[1].grid(True, alpha=0.3)
plt.tight_layout()
plt.show()Se tiene que reparar una máquina en cierta fábrica si produce más de 10% de artículos defectuosos del gran lote de producción de un día. Una muestra aleatoria de 100 artículos de la producción diaria contiene 15 defectuosos, y el capataz decide que debe repararse la máquina. ¿La evidencia de la muestra apoya su decisión? Utilice \(\alpha = 0.01\).
📝 Solución Analítica
Paso 1: Hipótesis
\(H_0: p = 0.10\) vs \(H_1: p > 0.10\)
Paso 2: Nivel de significancia
\(\alpha = 0.01\)
Paso 3: Estadístico de prueba
\(Z = \frac{\hat{p} - p_0}{\sqrt{p_0(1-p_0)/n}}\) (usando \(p_0\) bajo \(H_0\))
Paso 4: Región de rechazo
Para \(\alpha = 0.01\), \(z_{0.01} = 2.33\). Se rechaza \(H_0\) si \(Z > 2.33\).
Paso 5: Cálculos
\(\hat{p} = 15/100 = 0.15\), \(p_0 = 0.10\), \(n = 100\)
\[z = \frac{0.15 - 0.10}{\sqrt{0.10 \times 0.90 / 100}} = \frac{0.05}{\sqrt{0.0009}} = \frac{0.05}{0.03} = 1.667\]
Paso 6: Decisión
Como \(z = 1.667 < 2.33\), no se rechaza \(H_0\).
Paso 7: Conclusión
La evidencia no apoya la decisión del capataz. No hay suficiente evidencia para afirmar que la proporción de defectuosos excede el 10%.
## === PRUEBA DE HIPÓTESIS PARA UNA PROPORCIÓN ===
## H₀: p = 0.10 vs H₁: p > 0.10
## Proporción muestral: 0.15
## Estadístico Z: 1.6667
## Valor crítico (α=0.01): 2.3263
## Valor-p: 0.0478
## Decisión: No rechazar H₀
## Conclusión: No hay suficiente evidencia para afirmar que la proporción excede el 10%.
# ============================================
# EJEMPLO 2: PRUEBA PARA UNA PROPORCIÓN
# ============================================
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm
# Datos
n = 100
x = 15
p_hat = x / n
p0 = 0.10
alpha = 0.01
# Estadístico de prueba
z = (p_hat - p0) / np.sqrt(p0 * (1 - p0) / n)
z_critico = norm.ppf(1 - alpha)
p_valor = 1 - norm.cdf(z)
print("=== PRUEBA DE HIPÓTESIS PARA UNA PROPORCIÓN ===")
print(f"H₀: p = 0.10 vs H₁: p > 0.10")
print(f"Proporción muestral: {p_hat:.4f}")
print(f"Estadístico Z: {z:.4f}")
print(f"Valor crítico (α=0.01): {z_critico:.4f}")
print(f"Valor-p: {p_valor:.4f}\n")
if z > z_critico:
print("Decisión: Rechazar H₀")
print("Conclusión: La proporción de defectuosos excede el 10%.")
else:
print("Decisión: No rechazar H₀")
print("Conclusión: No hay suficiente evidencia para afirmar que la proporción excede el 10%.")
# ============================================
# CURVA DE POTENCIA
# ============================================
p_values = np.linspace(0.05, 0.25, 100)
potencia = 1 - norm.cdf((p0 - p_values + z_critico * np.sqrt(p0*(1-p0)/n)) /
np.sqrt(p_values*(1-p_values)/n))
fig, ax = plt.subplots(figsize=(10, 6))
ax.plot(p_values, potencia, 'b-', lw=2, label='Curva de potencia')
ax.axvline(p0, color='red', linestyle='--', lw=2, label='p₀ = 0.10')
ax.axhline(0.8, color='darkgreen', linestyle='--', lw=2, label='Potencia = 0.8')
ax.plot(0.15, 1 - norm.cdf((0.10 - 0.15 + 1.645*np.sqrt(0.10*0.90/100)) /
np.sqrt(0.15*0.85/100)),
'ro', markersize=8, label='p = 0.15 observado')
ax.set_xlabel('Proporción real (p)')
ax.set_ylabel('Potencia (1-β)')
ax.set_title('Curva de potencia para la prueba de proporción\nH₀: p = 0.10, α = 0.01, n = 100')
ax.legend()
ax.grid(True, alpha=0.3)
plt.show()⭐⭐⭐⭐⭐
Las siguientes obras constituyen los textos fundamentales que han servido como base para la elaboración de estas notas de clase. Se recomienda encarecidamente su consulta para profundizar en los temas tratados y para complementar los ejemplos y ejercicios presentados.
Diseño y Análisis de Experimentos
Segunda Edición.
Editorial Limusa Wiley.
Texto clásico y referencia internacional
en el campo del diseño experimental. Cubre desde conceptos básicos hasta
diseños avanzados como factoriales fraccionados, superficies de
respuesta y diseños robustos.
Análisis y Diseño de Experimentos
Segunda Edición.
McGraw-Hill Interamericana.
Excelente texto en español con
numerosos ejemplos aplicados a la industria y los negocios. Enfoque
práctico y accesible para estudiantes de ingeniería y ciencias
administrativas.
Diseño de Experimentos
Segunda Edición. Thomson
Learning.
Aborda de manera exhaustiva los principios del diseño
experimental con énfasis en aplicaciones en agricultura, biología e
industrias químicas. Incluye numerosos ejemplos con datos reales.
Diseño de Experimentos
Pearson Prentice Hall.
Texto con enfoque pedagógico que combina teoría y práctica. Incluye
ejercicios resueltos y propuestos, así como aplicaciones en diversos
campos de la ingeniería.
Probabilidad y Estadística para Ingeniería y
Ciencias
Sexta Edición. International Thomson Editores.
Texto ampliamente utilizado en cursos introductorios. Presenta los
conceptos fundamentales de probabilidad y estadística con aplicaciones
reales en ingeniería y ciencias.
Probabilidad y Estadística
Cuarta Edición.
McGraw-Hill.
Clásico en la enseñanza de la estadística. Cubre
desde conceptos básicos hasta temas avanzados como regresión y análisis
de varianza, con numerosos ejemplos y ejercicios.
Mathematical Statistics with Applications
Séptima
Edición. Thomson/Brooks-Cole.
Texto fundamental en inglés para
el estudio de la estadística matemática. Aborda con rigor los
fundamentos teóricos de la inferencia estadística, incluyendo
estimación, pruebas de hipótesis y modelos lineales.
| Tema | Montgomery | Gutiérrez & de la Vara | Kuehl | Devore | Walpole |
|---|---|---|---|---|---|
| Estadística Inferencial | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 6-7 | Cap. 7-8 |
| Distribuciones Muestrales | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 5 | Cap. 7 |
| Estimación Puntual | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 6 | Cap. 8 |
| Intervalos de Confianza | Cap. 3 | Cap. 2 | Cap. 2 | Cap. 7 | Cap. 8 |
| Prueba de Hipótesis | Cap. 3 | Cap. 2 | Cap. 3 | Cap. 8-9 | Cap. 9-10 |
| Diseños de Experimentos | Cap. 1-14 | Cap. 3-12 | Cap. 4-14 | Cap. 10-11 | Cap. 13-15 |
| ANOVA | Cap. 4 | Cap. 3-5 | Cap. 4-5 | Cap. 10 | Cap. 13 |
| Diseños Factoriales | Cap. 5-7 | Cap. 6-8 | Cap. 6-8 | Cap. 11 | Cap. 14 |
Nota: Las referencias a capítulos son aproximadas y pueden variar según la edición de cada texto. Se recomienda consultar el índice detallado de cada obra para una ubicación precisa de los temas.
Autor(es). (Año). Título de la obra (Edición). Editorial.
Ejemplo:
Montgomery, D. C. (2004). Diseño y
Análisis de Experimentos (2ª ed.). Limusa Wiley.
AUTOR, Nombre. Título. Edición. Lugar de publicación: Editorial, año.
Ejemplo:
GUTIÉRREZ, Humberto y DE LA VARA, Román.
Análisis y Diseño de Experimentos. 2ª ed. México: McGraw-Hill,
2008.
Maestría en Ingenierías y Especialización en Estadística Aplicada. (2026). Diseño de Experimentos - Notas de Clase. Universidad Tecnológica de Bolívar.
📚 “El diseño experimental es el arte de la investigación planificada, donde la estadística proporciona el rigor y la creatividad proporciona el camino”
— Adaptado de George E. P. Box