El objetivo principal de una carta de control, según los principios vistos y estudiados por Walter Shewhart para el Control Estadístico de Procesos son dependiendo de la Fase del proceso las siguientes; en la Fase I, el objetivo es la estiamción de los parámetros y la comprensión del proceso. Durante la Fase II; el objetivo es monitorear de manera continua la (media o disperción) e ir observando la estabilidad de un proceso a lo largo del tiempo discriminando estadísticamente entre dos tipos de variación inherentes a cualquier proceso productivo. Tal como lo vimos en clase la variación atribuidas a causas Aleatorias o causas Asignables.
La distinción de estas causas de variación nos permite detectar desviaciones significativas de manera oportuna, facilitando la toma de decisiones correctivas para mantener la estabilidad y garantizar la calidad del proceso.
Decimos que un proceso está bajo control estadístico, cuando una vez obtenida la recolección de datos para la muestra y la construcción de la carta de control (\(\bar{X}\) o \(\bar{R}\)), deducimos que los valores obtenidos, no sólo se establecen dentro de los límites establecidos (UCL y LCL) sino que se distribuyen aleatoriamente entorno a la línea central, sin exhibir patrones.
En otras palabras, el proceso el cual opera únicamente bajo causas de varaición aleatorias se le dice que está bajo control.
Un proceso está fuera de control cuando dicho proceso opera con causas de variación asiganbles, es decir; cuando el proceso opera bajo máquinas mal ajustadas o controladas, errores de operación con la materia prima, en general esto se manifiesta en la carta de control mediante dos tipos de señales:
Puntos fuera de los límites de control: Cuando uno o más puntos caen fuera de los límites de control superior (UCL) o inferior (LCL). Esto indica que la variación observada excede lo esperado por el efecto natural de las causas comunes (aleatorias).
Patrones no aleatorios dentro de los límites: Aunque todos los puntos estén dentro de los límites, si presentan comportamientos sistemáticos como; tendencias, cambios de nivel o acumulaciones de puntos cerca de los límites de control.
La capacidad de un proceso hace referencia a que tan bien se ajusta el proceso a las precisiones o justificaciones de la empresa, institución u organismo estatal o privado que está a cargo del producto o servicio.
Además, bajo la definición; \(C_p=\frac{(USL-LSL)}{6\cdot\sigma}\), la cual mide la relación entre el rango de especificación y la variabilidad del proceso, nos permite determinar si el proceso puede producir artículos dentro de los límites de calidad esperado.
Con un indice de capacidad tal que; \(C_p=1\) o \(C_p>1\) se entiende que el proceso llevado a cabo es capaz. En otras palabras, el proceso es capaz en la medida en que logra cumplir con los requisitos de calidad establecidos, es decir, logra ajustarce a las precisiones solicitadas con valores iguales o superiores a los estándares aceptados (usualmente \(Cp ≥ 1.33\)).
Para la construcción de una carta de control se podrán seguir intuitivamente los sigeuintes pasos:
\[R \quad \text{(rangos de las muestras)}\]
\[S \quad \text{(desviaciones estándar de las muestras)}\]
Para la carta de medias (\(\bar{X}\)):
\[ UCL = \bar{\bar{X}} + A_2 \, \bar{R}, \quad LCL = \bar{\bar{X}} - A_2 \, \bar{R} \]
Para la carta de rangos (\(R\)):
\[ UCL = D_4 \, \bar{R}, \quad LCL = D_3 \, \bar{R} \] Donde dependiendo del valor de \(n\), sabremos por el Apendice tabla IV del libro guía: Montgomery, D. C. (2020). Introduction to statistical quality control. John wiley & sons. los valores de: \[ A_2 = \frac{3}{d_2 \sqrt{n}}, \quad D_3 = 1 - 3 \frac{d_3}{d_2}, \quad D_4 = 1 + 3 \frac{d_3}{d_2} \]
Para una mejor precisión, supongamos datos simulados de una distribución \(X \sim N(11.11, (0.9)\) de un proceso tal que se toma la medición del diametro de 5 tubos cada hora en una línea de producción en un día el cuál será nuestra caracteréstica de interés en el proceso. Tomando muestras tamaño \(n=5\) y con un total de \(m=20\) muestras, obtenemos la siguiente información:
\[ UCL = 11.45 \, \quad CL= 11.09, \quad LCL = 10.84 \]
tal que el gráfico de la Carta de Control \(\bar{X}\) con los datos y será:
El gráfico \(\bar{X}\) confirma que el proceso está bajo control estadístico, esto significa que el proceso es considerado estable; puesto que a lo largo de las 20 muestras analizadas, no se encuentran valores que sobrepasen los límites de control. Por otro lado, la variación que se observa en estas es la esperada en un sistema estable, aunque se presentan unas oscilaciones naturales en torno a la media que suponiendo no sugieren ni tendencias peligrosas ni patrones no aleatorios significativos.
El aporte central del artículo de Mandel (1969) frente a las cartas Shewhart tradicionales es la incorporación del análisis de regresión como herramienta de control, lo que permite que la línea central dependa de una o varias covariables y no sea fija.
Esto amplía la utilidad de las cartas de control, ya que mantiene el principio de “gestión por excepción” para identificar causas asignables, pero además posibilita pronosticar necesidades de recursos, ajustar estándares de desempeño y evaluar desviaciones frente a objetivos presupuestados. En síntesis, la carta de control de regresión conserva la lógica de las cartas Shewhart, pero ofrece mayor flexibilidad y aplicabilidad en procesos donde el rendimiento esperado varía con factores externos.
El artículo explora cómo implementar técnicas estadísticas para gestionar la productividad en oficinas postales. Compara el volumen de correo procesado con las horas-hombre empleadas en los años 60 en los EEUU, utilizando métodos como la regresión, pruebas t y gráficos de control. Esto ayuda a determinar si las variaciones observadas son resultado de cambios en la eficiencia o simplemente fluctuaciones normales en el trabajo. A continuación, se presenta el gráfico de control de regresión basado en los datos analizados:
## [1] 23
## [1] 23
## Coeficientes estimados:
## Intercepto a = 50.4394 (miles de horas)
## Pendiente b = 3.3454 (miles de horas por millón de piezas)
## Error estándar de estimación s_e = 18.93 (miles)
En el gráfico anterior la linea central es la línea de regresión \(Y=50.44+3.345x\). Donde los limites de control del gráfico se establecieron con esta linea de control y el doble del error estándar de estimacion. Esto quiere decir que al tener los límites más estrechos, se corre un mayor riesgo de falsas alarmas, lo cual en el ejemplo aplicado en el articulo les ha funcionado bien.
En un inicio se da un Control de rendimiento, el cual se vasa en mantener control sobre el rendimiento (uso de horas-hombre) de forma continua y poder realizar análisis, por ejemplo, sobre el punto que se encuentra sobre la linea de regresión. Aquel punto, cuando se tiene un volumen de \(z=162\) millones, se encuentra sobre la linea central, lo cual determina que se deben utilizar 592 mil horas-hombre para una carga de trabajo de este tamaño de volumen \(z\) según el rendimiento del periodo historico. En otras palabras, se utilziaron 31 mil horas más (623 mil a 592 mil) de lo que se esperaría durante un periodo de cuatro semanas. Viendo de esta manera como el gráfico de regresión puede servir como un indicador de rendimiento, dado que en el gráfico de control como guía, este uso “excesivo” de horas puede aceptarce como normal en relación con el rendimiento del periodo hitórico; pues los datos se encuentran dentro de los limites de control.
Durante ese control de rendimiento, durante cuatro semanas más en una sola oficina de correo se reportó que un punto salió del limite superior, lo cual fue investigado y se llegó a fue causa de contrataciones de una gran cantidad de empleados sin experiencia. Esto lo podemos ver de la manera que si cae un punto por encima del límite superior de control, indica que la productividad fue probablemente significativamente inferior al nivel de rendimiento establecido en los periodos anteriores es decir lo obtenido en la (Fase I). De forma inversa si un punro cae bajo la linea del limite inferior, podría deberse a una mejora real en la productividad o deberse a errores de sobre información.
Medidas del progreso
Los datos mostrados en la siguiente tabla representan el análisis de control de regresión aplicado al procesamiento de correo en la Oficina Postal ABCD durante los primeros ocho períodos contables del año fiscal 1964. Esta tabla resume las diferencias entre las horas-hombre esperadas y las reales utilizadas, el volumen de correo procesado y las desviaciones acumuladas, proporcionando una base para el monitoreo del desempeño y la identificación de variaciones significativas en el proceso.
| Período | Ganancia (+) o Pérdida (–) (\(Y_i' - y_i'\)) | Ganancia o Pérdida Acumulada \(Σ(Y_i' - y_i')\) | Volumen de Correo \(x_i'\) | Desviación Acumulada \(Σ(x_i' - 174)\) |
|---|---|---|---|---|
| 1 | 31 | 31 | 162 | –12 |
| 2 | 32 | 63 | 174 | –12 |
| 3 | 42* | – | – | – |
| 4 | 21 | 84 | 182 | –4 |
| 5 | 14 | 98 | 175 | –3 |
| 6 | –34 | 64 | 169 | –8 |
| 7 | 151† | – | – | – |
| 8 | 16 | 80 | 180 | –2 |
Este valor estaba fuera de control en el gráfico de control de
regresión.
†Los datos del período 7 no se utilizaron porque incluían cifras del
período navideño.
La tabla anterior se obtiene con los siguientes pasos:
Estimación: Calcular las horas esperadas \((Y)\) sustituyendo el volumen real de correo (\(x\)) en la ecuación de estimación.
Desviación: Restar las horas reales utilizadas (\(y\)) de las horas esperadas \((Y)\) para obtener la ganancia o pérdida horaria del período.
Acumulación: Sumar acumulativamente las horas ganadas o perdidas para evaluar a fin de año si la línea de regresión y los límites de control requieren revisión.
Al fin del año, se verifica el nivel de rendimiento para determinar si ha cambiado significativamente. Y esto se puede lograr mediante la prueba \(t\) de Student de la siguiente manera general:
\[ t = \frac{\text{total acumulado de horas-hombre ganadas (o perdidas)}}{\text{error estándar del total acumulado}} \]
\[ t = \frac{\sum \limits_{i=1}^{n} (Y_i' - y_i')}{s_e \sqrt{\frac{n^2}{N} + n + \frac{\left[ \sum\limits_{i=1}^{n} (x_i' - \bar{x}) \right]^2}{ \sum \limits_{i=1}^{N}(x_i - \bar{x})^2}}}\]
Donde los autores usan una aproximación para el error estándar de manera que obtienen que: \[ t=\frac{80}{52}=1.54\]
Este cálculo nos sirve para comprobar si el total acumulado de hombres-hora de la oficina del correos ABCD es significativamente diferente de cero al final del octavo período contable. Por tanto, como el valor calculado \(t=1.54 < 2\), donde el valor critico calculado exacto es (\(2.08\)) se concluye que la pérdida neta acumulada no es estadísticamente significativamente diferente a cero.
En el articulo se propone la siguiente política para tomar decisiones con respecto a la continuación del gráfico de control original:
Si la productividad mejora significativamente, se crea un nuevo gráfico con los datos actuales.
Si la productividad disminuye significativamente por un cambio estructural o de operaciones, se crea un nuevo gráfico; si no, se mantiene el gráfico original.
Si hay pérdida de horas-hombre sin cambios operativos importantes, se mantiene el gráfico original y se continúa el esfuerzo de mejora.
Formulación de un presupuesto anual mejorado
El gráfico de control de regresión es clave para elaborar el presupuesto anual, ya que establece la base para asignar las horas de trabajo a cada oficina, dependiendo de su actividad en el procesamiento de correo. Al sustituir la carga de trabajo de correo anticipada en la ecuación de estimación, se pueden calcular las horas esperadas para cada período contable, que luego se suman para obtener un total anual. Este total puede ajustarse según sea necesario para garantizar un objetivo de productividad más realista.
En primer lugar los autores comparan las condiciones de muchos otros autores que escibieron sobre gráficos de control alternativos para fracciones no conformes como los son: Quesenberry(1991), Heimann(1996), Schwertman y Ryan (1997), Chen(1998),Sim y Lim (2008), Bourke (2008) y Aebtarm y Bouguila(1996). Luego de eso el artículo propone un nuevo tipo de gráfico Beta el cual se aplicó en tres estudios reales lo que produjo mejores resultados en comparación con los gráficos de control Shewhart, Ryan (1989) y Chen (1998) para la monitorización de variables tipo fracción.
La metodología central del artículo es proponer los Gráficos de Control Beta como una alternativa superior a los gráficos de control tradicionales (p-Charts y np-Charts) para monitorear datos de tipo fracción (es decir, proporciones o porcentajes de no conformes que están entre 0 y 1) en procesos industriales. Este gráfico de control Beta asume que los datos de fracción pueden aproximarse mediante una distribución Beta y propone nuevos límites de control basados en esta distribución.
Problema Identificado
Los gráficos p y gráficos np tradicionales calculan sus límites de control asumiendo que:
La variable sigue una distribución binomial.
La distribución binomial puede aproximarse a una distribución Normal (especialmente cuando el tamaño de la muestra n es grande).
El problema surge cuando la fracción de no conformes (p) es pequeña, lo que hace que la distribución binomial sea muy asimétrica. En estos casos, la aproximación Normal no es válida y puede llevar a límites de control incorrectos (incluso negativos o mayores que uno), y a un aumento en la tasa de falsas alarmas.
Solución Propuesta: Distribución Beta
Los autores proponen basar los límites de control en la distribución Beta, ya que esta es naturalmente adecuada para modelar variables que están confinadas al intervalo \([0,1]\) y puede ajustarse a una gran variedad de formas, incluidas las distribuciones asimétricas.
La metodología sigue los siguientes pasos:
Aproximación: Los autores asumen que, mientras que el número de no conformes sigue una distribución binomial, la fracción de no conformes (\(\hat{p} = y/n\)) se aproxima mejor mediante una Distribución Beta con parámetros \((\theta_1, \theta_2)\).
Cálculo de Parámetros: Derivan fórmulas para estimar los parámetros de la Distribución Beta (\(\theta_1\) y \(\theta_2\)) utilizando la media (\(\bar{p}\)) y la varianza de la distribución Binomial, ajustando la distribución Beta a los momentos de la Binomial. Las ecuaciones clave para los parámetros \(\theta_1\) y \(\theta_2\) son: \[ \theta_1 = \bar{p} \left[ \frac{\bar{p}(1-\bar{p})}{\sigma^2} - 1 \right] \] \[ \theta_2 = (1-\bar{p}) \left[ \frac{\bar{p}(1-\bar{p})}{\sigma^2} - 1 \right] \] Donde \(\bar{p}\) es la media estimada de la fracción de no conformes, y \(\sigma^2 = \text{Var}(\hat{p})\).
Límites de Control: Definen los límites de control utilizando los cuantiles exactos de la Distribución Beta. Se busca un Límite Central (CL), un Límite de Control Inferior (LCL), y un Límite de Control Superior (UCL) que cumplan con la tasa de falsa alarma deseada (\(\alpha\)), asegurando que los límites permanezcan en el rango \([0, 1]\). \[ LCL = Q_{\text{Beta}}(\alpha/2; \theta_1, \theta_2) \] \[ UCL = Q_{\text{Beta}}(1 - \alpha/2; \theta_1, \theta_2) \] Donde \(Q_{\text{Beta}}\) es la función cuantil de la Distribución Beta y \(\alpha\) es la probabilidad de falsa alarma (ej: \(0.0027\) para un control \(3\sigma\)).
Comparación: El rendimiento del nuevo gráfico se evalúa usando la Longitud Media de Carrera (ARL), comparándolo con los gráficos tradicionales de Shewhart, Ryan y Chen para demostrar su superioridad en la detección de cambios, especialmente para valores pequeños de \(\bar{p}\).
Para ilustrar el comportamiento de variables medidas en forma de proporciones, se realizó una simulación de datos a partir de distribuciones Beta con diferentes parámetros de forma. Esta distribución es adecuada para modelar fracciones y porcentajes porque está acotada en el intervalo (0,1) y permite representar distintos grados de asimetría. En este ejercicio se generaron tres variables: \(y_1\)c omo porcentaje de paquetes no conformes,\(y_2\)como proporción de maní no contaminado con asimetría hacia la izquierda, y \(y_3\) como proporción de amoníaco no convertido con asimetría hacia la derecha. Los histogramas y curvas de densidad obtenidos permiten visualizar la naturaleza no normal de estos datos y compararla con la distribución normal para resaltar las diferencias.
Este artículo presenta tres ejemplos de datos de fracciones monitoreadas. Los ejemplos ilustran conjuntos de datos reales publicados por los autores Montgomery (2005, p. 270), Draper y Smith (1998, p. 101) y Brownlee (1965, p. 454), los cuales serán analizados utilizando los límites de control propuestos por Shewhart, Ryan (1989), Chen (1998) y los Gráficos Beta. Estos ejemplos fueron elegidos para evaluar datos de fracción con valores pequeños, intermedios y grandes, como se muestra a continuación:
| Ejemplo | Proceso | Variable Monitoreada | Valor Estimado de la Fracción (\(p\)) |
|---|---|---|---|
| Ejemplo 1 | Concentrado de jugo de naranja | \(y_1\): Porcentaje de unidades no conformes | Pequeño (\(p \approx 0\)) |
| Ejemplo 2 | Maní contaminado | \(y_2\): Proporción de maní no contaminado | Intermedio (\(p \approx 0.5\)) |
| Ejemplo 3 | Fabricación de ácido nítrico | \(y_3\): Proporción de amoníaco no convertido | Grande (\(p \approx 1\)) |
Insumos Carta de Control Beta \[ LCL = \bar{p} - w_1*\sqrt{S^2 (\bar{p})} \] \[ UCL = \bar{p} + w_2*\sqrt{S^2 (\bar{p})} \] Tal que \(\bar{p}\) y \(S^2 (\bar{p})\) representan la media y la varianza de la fracción estimada. Y además, los \(w_1\) y \(w_2\) se pueden estimar utilizando las siguientes ecuaciones:
\[\begin{align*} w_1 &= \frac{\bar{p} - \Psi_\left(\frac{\alpha_1}{2}; \theta_1, \theta_2\right)}{\sqrt{S^2(\bar{p})}} \\ w_2 &= \frac{\Psi_\left(1 - \frac{\alpha_2}{2}; \theta_1, \theta_2\right) - \bar{p}}{\sqrt{S^2(\bar{p})}} \end{align*}\]
Tal que \(\frac{\alpha}{2}\) representa los percentiles de la cdf de la variable aleatoria Y de acuerdo con la región de control deseada.
Por tanto el siguiente código nos deja ver una replica del Ejemplo 1:
Para el Ejemplo dos tenemos que:
Por último en el Ejmplo tres tenemos las siguientes cartas de control:
En la variable \(Y_1\), las cartas de control detectaron dos muestras fuera de los límites, lo que puede explicarse por cambios en la materia prima, los paquetes o la participación de un nuevo operador.
Para la variable \(Y_2\), las cartas tradicionales (Shewhart, Ryan y Chen) generan límites superiores que exceden el intervalo válido [0,1], mientras que la carta Beta se mantiene dentro de este rango, mostrando un ajuste más apropiado.
En la variable \(Y_3\), ocurre algo similar: las cartas tradicionales producen límites negativos que no tienen sentido práctico, mientras que la carta Beta respeta el intervalo [0,1], garantizando un control más realista del proceso.
En conjunto, los resultados confirman que la carta Beta es más robusta que las aproximaciones basadas en la Normal para el monitoreo de proporciones y fracciones, evitando resultados fuera del rango posible.
Análisis de sensibilidad de las cartas de control
Definiciones clave:
Resultados principales:
Para procesos en control, las cartas de Shewhart, Ryan y
Chen tuvieron un desempeño similar
(\(ARL_0 = 226\) para \(p = 0.001, n = 1500\)).
La carta de Chen fue más sensible para detectar pequeños cambios en el parámetro \(p\).
La Carta Beta mostró un mejor equilibrio:
En escenarios con proporciones más grandes y muestras
pequeñas
(\(p = 0.1, n = 50\)), las cartas de
Ryan y Chen dieron resultados inadecuados,
mientras que la Carta Beta mantuvo un desempeño
consistente.
Conclusión: La Carta Beta resultó
más robusta para monitorear procesos con datos fraccionales,
superando a las aproximaciones basadas en la Normal.
En la sección “The Effect of Autocorrelation on Process Capability Indices – Some Simulation Results”, Shore realiza simulaciones Monte Carlo para comparar el efecto de la autocorrelación:
#...........................................................
# Simulacio presentada en el artículo de Shore(1997)
#...........................................................
#...........................................................
# Paquetes necesarios
#...........................................................
library(forecast) # para simular AR
## Warning: package 'forecast' was built under R version 4.4.3
## Registered S3 method overwritten by 'quantmod':
## method from
## as.zoo.data.frame zoo
library(dplyr)
##
## Adjuntando el paquete: 'dplyr'
## The following object is masked from 'package:gridExtra':
##
## combine
## The following objects are masked from 'package:stats':
##
## filter, lag
## The following objects are masked from 'package:base':
##
## intersect, setdiff, setequal, union
#...........................................................
#Semilla de reproducibilidad
#...........................................................
set.seed(123)
#...........................................................
# Parámetros para el proceso
#...........................................................
mu <- 40
sigma <- 7
LSL <- 19
USL <- 61
nsim <- 300
sample_sizes <- c(15, 50, 100, 200)
#...........................................................
# Función para calcular Cp y Cpk
#...........................................................
capability_indices <- function(x, LSL, USL) {
m <- mean(x)
s <- sd(x)
Cp <- (USL - LSL) / (6 * s)
Cpk <- min((USL - m) / (3 * s), (m - LSL) / (3 * s))
return(c(mean = m, sd = s, Cp = Cp, Cpk = Cpk))
}
#...........................................................
# Simulaciones para independiente como para AR
#...........................................................
results <- data.frame()
for (n in sample_sizes) {
for (i in 1:nsim) {
# Caso 1: datos independientes (i.i.d.)
x_indep <- rnorm(n, mean = mu, sd = sigma)
res_indep <- capability_indices(x_indep, LSL, USL)
results <- rbind(results, data.frame(
n = n, type = "Independent", t(res_indep)
))
# Caso 2: datos autocorrelacionados (AR(3))
z_ar <- arima.sim(n = n, list(ar = c(0.9, -0.3, 0.1)), sd = sigma)
x_ar <- mu + z_ar
res_ar <- capability_indices(x_ar, LSL, USL)
results <- rbind(results, data.frame(
n = n, type = "AR(3)", t(res_ar)
))
}
}
#...........................................................
# Resultados
#...........................................................
summary_results <- results %>%
group_by(n, type) %>%
summarise(
mean_mu = mean(mean),
se_mu = sd(mean),
mean_sd = mean(sd),
se_sd = sd(sd),
mean_Cp = mean(Cp),
se_Cp = sd(Cp),
mean_Cpk = mean(Cpk),
se_Cpk = sd(Cpk),
.groups = "drop"
)
print(summary_results)
## # A tibble: 8 × 10
## n type mean_mu se_mu mean_sd se_sd mean_Cp se_Cp mean_Cpk se_Cpk
## <dbl> <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 15 AR(3) 39.7 5.76 8.82 2.49 0.858 0.249 0.667 0.240
## 2 15 Independent 39.9 1.88 6.88 1.30 1.06 0.213 0.982 0.202
## 3 50 AR(3) 40.1 3.04 9.90 1.69 0.728 0.125 0.643 0.121
## 4 50 Independent 40.0 0.977 7.02 0.666 1.01 0.0957 0.969 0.0953
## 5 100 AR(3) 40.1 2.29 10.2 1.24 0.698 0.0846 0.638 0.0965
## 6 100 Independent 40.1 0.646 7.00 0.494 1.01 0.0720 0.980 0.0731
## 7 200 AR(3) 40.0 1.64 10.3 0.825 0.682 0.0555 0.640 0.0612
## 8 200 Independent 40.0 0.454 7.01 0.342 1.00 0.0492 0.983 0.0494