1. Acerca de la construcción de una carta de control

a) ¿Cuál es el objetivo de una carta de control?

El objetivo principal de una carta de control, según los principios vistos y estudiados por Walter Shewhart para el Control Estadístico de Procesos son dependiendo de la Fase del proceso las siguientes; en la Fase I, el objetivo es la estiamción de los parámetros y la comprensión del proceso. Durante la Fase II; el objetivo es monitorear de manera continua la (media o disperción) e ir observando la estabilidad de un proceso a lo largo del tiempo discriminando estadísticamente entre dos tipos de variación inherentes a cualquier proceso productivo. Tal como lo vimos en clase la variación atribuidas a causas Aleatorias o causas Asignables.

La distinción de estas causas de variación nos permite detectar desviaciones significativas de manera oportuna, facilitando la toma de decisiones correctivas para mantener la estabilidad y garantizar la calidad del proceso.

b) ¿Cuándo un proceso se encuentra bajo control estadístico?

Decimos que un proceso está bajo control estadístico, cuando una vez obtenida la recolección de datos para la muestra y la construcción de la carta de control (\(\bar{X}\) o \(\bar{R}\)), deducimos que los valores obtenidos, no sólo se establecen dentro de los límites establecidos (UCL y LCL) sino que se distribuyen aleatoriamente entorno a la línea central, sin exhibir patrones.

En otras palabras, el proceso el cual opera únicamente bajo causas de varaición aleatorias se le dice que está bajo control.

c) ¿Cuándo un proceso se encuentra fuera de control?

Un proceso está fuera de control cuando dicho proceso opera con causas de variación asiganbles, es decir; cuando el proceso opera bajo máquinas mal ajustadas o controladas, errores de operación con la materia prima, en general esto se manifiesta en la carta de control mediante dos tipos de señales:

  • Puntos fuera de los límites de control: Cuando uno o más puntos caen fuera de los límites de control superior (UCL) o inferior (LCL). Esto indica que la variación observada excede lo esperado por el efecto natural de las causas comunes (aleatorias).

  • Patrones no aleatorios dentro de los límites: Aunque todos los puntos estén dentro de los límites, si presentan comportamientos sistemáticos como; tendencias, cambios de nivel o acumulaciones de puntos cerca de los límites de control.

d) ¿A qué hace referencia la capacidad de un proceso?

La capacidad de un proceso hace referencia a que tan bien se ajusta el proceso a las precisiones o justificaciones de la empresa, institución u organismo estatal o privado que está a cargo del producto o servicio.

Además, bajo la definición; \(C_p=\frac{(USL-LSL)}{6\cdot\sigma}\), la cual mide la relación entre el rango de especificación y la variabilidad del proceso, nos permite determinar si el proceso puede producir artículos dentro de los límites de calidad esperado.

e) ¿Cuándo un proceso es capaz?

Con un indice de capacidad tal que; \(C_p=1\) o \(C_p>1\) se entiende que el proceso llevado a cabo es capaz. En otras palabras, el proceso es capaz en la medida en que logra cumplir con los requisitos de calidad establecidos, es decir, logra ajustarce a las precisiones solicitadas con valores iguales o superiores a los estándares aceptados (usualmente \(Cp ≥ 1.33\)).

f) Si el índice Cp=1.33 o Cp=1.66. ¿Cuántos artículos por millón no se ajustan a las especificaciones establecidas?

g) ¿Cómo se construye una carta de control?

Para la construcción de una carta de control se podrán seguir intuitivamente los sigeuintes pasos:

    1. Definimos nuestras muestras que nos den información sobre el proceso a estudiar. Por ejemplo, medición del diametro de 5 tubos cada hora en una línea de producción en un día. De este modo tenemos; el tamaño de cada muestra será de \(n=5\) y el total de muestras a usar será de \(m=24\).
    1. Calculamos los estadisticos de cada muestra. Dependiendo del tipo de carta: \[\bar{X} \quad \text{(promedios de las muestras)}\]

\[R \quad \text{(rangos de las muestras)}\]

\[S \quad \text{(desviaciones estándar de las muestras)}\]

    1. Calcular valores globales. Tales como el Promedio general de los promedios; \(\bar{\bar{X}}\). O el Promedio general de los rangos; \(\bar{R}\). Este cálculo nos permitira tener el valor de la linea central, CL, del gráfico de control.
    1. Determinar y calcular limites de control. UCL y LCL. Usando factores tabulados según el tamaño de muestra \(n\):

Para la carta de medias (\(\bar{X}\)):

\[ UCL = \bar{\bar{X}} + A_2 \, \bar{R}, \quad LCL = \bar{\bar{X}} - A_2 \, \bar{R} \]

Para la carta de rangos (\(R\)):

\[ UCL = D_4 \, \bar{R}, \quad LCL = D_3 \, \bar{R} \] Donde dependiendo del valor de \(n\), sabremos por el Apendice tabla IV del libro guía: Montgomery, D. C. (2020). Introduction to statistical quality control. John wiley & sons. los valores de: \[ A_2 = \frac{3}{d_2 \sqrt{n}}, \quad D_3 = 1 - 3 \frac{d_3}{d_2}, \quad D_4 = 1 + 3 \frac{d_3}{d_2} \]

    1. Graficar la información calculada en 2) y dibujar los valores encontrados en 3) y 4).

Para una mejor precisión, supongamos datos simulados de una distribución \(X \sim N(11.11, (0.9)\) de un proceso tal que se toma la medición del diametro de 5 tubos cada hora en una línea de producción en un día el cuál será nuestra caracteréstica de interés en el proceso. Tomando muestras tamaño \(n=5\) y con un total de \(m=20\) muestras, obtenemos la siguiente información:

\[ UCL = 11.45 \, \quad CL= 11.09, \quad LCL = 10.84 \]

tal que el gráfico de la Carta de Control \(\bar{X}\) con los datos y será:

    1. Analizar el gráfico obtenido.

El gráfico \(\bar{X}\) confirma que el proceso está bajo control estadístico, esto significa que el proceso es considerado estable; puesto que a lo largo de las 20 muestras analizadas, no se encuentran valores que sobrepasen los límites de control. Por otro lado, la variación que se observa en estas es la esperada en un sistema estable, aunque se presentan unas oscilaciones naturales en torno a la media que suponiendo no sugieren ni tendencias peligrosas ni patrones no aleatorios significativos.

2. Del libro de Montgomery, resuelva los siguientes ejercicios:

6.4, 6.25, 6.26, 6.27, 6.33, 6.35, 6.38, 6.39, 6.40.

7.9, 7.28, 7.32, 7.34, 7.35, 7.36, 7.39

8.2, 8.4. 8.11 y 8.39.

9.1-9.3, 9.6, 9.15 y 9.21.

3. Lea el artículo de Mandel(1969). Con base en esta lectura:

¿Cuál es el aporte del artículo con relación a las cartas Shewhart tradicionales?

El aporte central del artículo de Mandel (1969) frente a las cartas Shewhart tradicionales es la incorporación del análisis de regresión como herramienta de control, lo que permite que la línea central dependa de una o varias covariables y no sea fija.

Esto amplía la utilidad de las cartas de control, ya que mantiene el principio de “gestión por excepción” para identificar causas asignables, pero además posibilita pronosticar necesidades de recursos, ajustar estándares de desempeño y evaluar desviaciones frente a objetivos presupuestados. En síntesis, la carta de control de regresión conserva la lógica de las cartas Shewhart, pero ofrece mayor flexibilidad y aplicabilidad en procesos donde el rendimiento esperado varía con factores externos.

Construya un código en R o Phyton y replique el ejemplo presentado en el artículo.

Fase I

El artículo explora cómo implementar técnicas estadísticas para gestionar la productividad en oficinas postales. Compara el volumen de correo procesado con las horas-hombre empleadas en los años 60 en los EEUU, utilizando métodos como la regresión, pruebas t y gráficos de control. Esto ayuda a determinar si las variaciones observadas son resultado de cambios en la eficiencia o simplemente fluctuaciones normales en el trabajo. A continuación, se presenta el gráfico de control de regresión basado en los datos analizados:

## [1] 23
## [1] 23
## Coeficientes estimados:
## Intercepto a = 50.4394  (miles de horas)
## Pendiente b = 3.3454  (miles de horas por millón de piezas)
## Error estándar de estimación s_e = 18.93  (miles)

En el gráfico anterior la linea central es la línea de regresión \(Y=50.44+3.345x\). Donde los limites de control del gráfico se establecieron con esta linea de control y el doble del error estándar de estimacion. Esto quiere decir que al tener los límites más estrechos, se corre un mayor riesgo de falsas alarmas, lo cual en el ejemplo aplicado en el articulo les ha funcionado bien.

En un inicio se da un Control de rendimiento, el cual se vasa en mantener control sobre el rendimiento (uso de horas-hombre) de forma continua y poder realizar análisis, por ejemplo, sobre el punto que se encuentra sobre la linea de regresión. Aquel punto, cuando se tiene un volumen de \(z=162\) millones, se encuentra sobre la linea central, lo cual determina que se deben utilizar 592 mil horas-hombre para una carga de trabajo de este tamaño de volumen \(z\) según el rendimiento del periodo historico. En otras palabras, se utilziaron 31 mil horas más (623 mil a 592 mil) de lo que se esperaría durante un periodo de cuatro semanas. Viendo de esta manera como el gráfico de regresión puede servir como un indicador de rendimiento, dado que en el gráfico de control como guía, este uso “excesivo” de horas puede aceptarce como normal en relación con el rendimiento del periodo hitórico; pues los datos se encuentran dentro de los limites de control.

Durante ese control de rendimiento, durante cuatro semanas más en una sola oficina de correo se reportó que un punto salió del limite superior, lo cual fue investigado y se llegó a fue causa de contrataciones de una gran cantidad de empleados sin experiencia. Esto lo podemos ver de la manera que si cae un punto por encima del límite superior de control, indica que la productividad fue probablemente significativamente inferior al nivel de rendimiento establecido en los periodos anteriores es decir lo obtenido en la (Fase I). De forma inversa si un punro cae bajo la linea del limite inferior, podría deberse a una mejora real en la productividad o deberse a errores de sobre información.

Fase II

Medidas del progreso

Los datos mostrados en la siguiente tabla representan el análisis de control de regresión aplicado al procesamiento de correo en la Oficina Postal ABCD durante los primeros ocho períodos contables del año fiscal 1964. Esta tabla resume las diferencias entre las horas-hombre esperadas y las reales utilizadas, el volumen de correo procesado y las desviaciones acumuladas, proporcionando una base para el monitoreo del desempeño y la identificación de variaciones significativas en el proceso.

Período Ganancia (+) o Pérdida (–) (\(Y_i' - y_i'\)) Ganancia o Pérdida Acumulada \(Σ(Y_i' - y_i')\) Volumen de Correo \(x_i'\) Desviación Acumulada \(Σ(x_i' - 174)\)
1 31 31 162 –12
2 32 63 174 –12
3 42*
4 21 84 182 –4
5 14 98 175 –3
6 –34 64 169 –8
7 151†
8 16 80 180 –2

Este valor estaba fuera de control en el gráfico de control de regresión.
†Los datos del período 7 no se utilizaron porque incluían cifras del período navideño.

La tabla anterior se obtiene con los siguientes pasos:

  1. Estimación: Calcular las horas esperadas \((Y)\) sustituyendo el volumen real de correo (\(x\)) en la ecuación de estimación.

  2. Desviación: Restar las horas reales utilizadas (\(y\)) de las horas esperadas \((Y)\) para obtener la ganancia o pérdida horaria del período.

  3. Acumulación: Sumar acumulativamente las horas ganadas o perdidas para evaluar a fin de año si la línea de regresión y los límites de control requieren revisión.

Al fin del año, se verifica el nivel de rendimiento para determinar si ha cambiado significativamente. Y esto se puede lograr mediante la prueba \(t\) de Student de la siguiente manera general:

\[ t = \frac{\text{total acumulado de horas-hombre ganadas (o perdidas)}}{\text{error estándar del total acumulado}} \]

\[ t = \frac{\sum \limits_{i=1}^{n} (Y_i' - y_i')}{s_e \sqrt{\frac{n^2}{N} + n + \frac{\left[ \sum\limits_{i=1}^{n} (x_i' - \bar{x}) \right]^2}{ \sum \limits_{i=1}^{N}(x_i - \bar{x})^2}}}\]

Donde los autores usan una aproximación para el error estándar de manera que obtienen que: \[ t=\frac{80}{52}=1.54\]

Este cálculo nos sirve para comprobar si el total acumulado de hombres-hora de la oficina del correos ABCD es significativamente diferente de cero al final del octavo período contable. Por tanto, como el valor calculado \(t=1.54 < 2\), donde el valor critico calculado exacto es (\(2.08\)) se concluye que la pérdida neta acumulada no es estadísticamente significativamente diferente a cero.

En el articulo se propone la siguiente política para tomar decisiones con respecto a la continuación del gráfico de control original:

  1. Si la productividad mejora significativamente, se crea un nuevo gráfico con los datos actuales.

  2. Si la productividad disminuye significativamente por un cambio estructural o de operaciones, se crea un nuevo gráfico; si no, se mantiene el gráfico original.

  3. Si hay pérdida de horas-hombre sin cambios operativos importantes, se mantiene el gráfico original y se continúa el esfuerzo de mejora.

Formulación de un presupuesto anual mejorado

El gráfico de control de regresión es clave para elaborar el presupuesto anual, ya que establece la base para asignar las horas de trabajo a cada oficina, dependiendo de su actividad en el procesamiento de correo. Al sustituir la carga de trabajo de correo anticipada en la ecuación de estimación, se pueden calcular las horas esperadas para cada período contable, que luego se suman para obtener un total anual. Este total puede ajustarse según sea necesario para garantizar un objetivo de productividad más realista.

4. Del artículo de Sant’Anna, Â. M. O., & ten Caten, C. S. (2012)

Explique la metodología presentada por los autores

En primer lugar los autores comparan las condiciones de muchos otros autores que escibieron sobre gráficos de control alternativos para fracciones no conformes como los son: Quesenberry(1991), Heimann(1996), Schwertman y Ryan (1997), Chen(1998),Sim y Lim (2008), Bourke (2008) y Aebtarm y Bouguila(1996). Luego de eso el artículo propone un nuevo tipo de gráfico Beta el cual se aplicó en tres estudios reales lo que produjo mejores resultados en comparación con los gráficos de control Shewhart, Ryan (1989) y Chen (1998) para la monitorización de variables tipo fracción.

La metodología central del artículo es proponer los Gráficos de Control Beta como una alternativa superior a los gráficos de control tradicionales (p-Charts y np-Charts) para monitorear datos de tipo fracción (es decir, proporciones o porcentajes de no conformes que están entre 0 y 1) en procesos industriales. Este gráfico de control Beta asume que los datos de fracción pueden aproximarse mediante una distribución Beta y propone nuevos límites de control basados en esta distribución.

Problema Identificado

Los gráficos p y gráficos np tradicionales calculan sus límites de control asumiendo que:

  1. La variable sigue una distribución binomial.

  2. La distribución binomial puede aproximarse a una distribución Normal (especialmente cuando el tamaño de la muestra n es grande).

El problema surge cuando la fracción de no conformes (p) es pequeña, lo que hace que la distribución binomial sea muy asimétrica. En estos casos, la aproximación Normal no es válida y puede llevar a límites de control incorrectos (incluso negativos o mayores que uno), y a un aumento en la tasa de falsas alarmas.

Solución Propuesta: Distribución Beta

Los autores proponen basar los límites de control en la distribución Beta, ya que esta es naturalmente adecuada para modelar variables que están confinadas al intervalo \([0,1]\) y puede ajustarse a una gran variedad de formas, incluidas las distribuciones asimétricas.

La metodología sigue los siguientes pasos:

  1. Aproximación: Los autores asumen que, mientras que el número de no conformes sigue una distribución binomial, la fracción de no conformes (\(\hat{p} = y/n\)) se aproxima mejor mediante una Distribución Beta con parámetros \((\theta_1, \theta_2)\).

  2. Cálculo de Parámetros: Derivan fórmulas para estimar los parámetros de la Distribución Beta (\(\theta_1\) y \(\theta_2\)) utilizando la media (\(\bar{p}\)) y la varianza de la distribución Binomial, ajustando la distribución Beta a los momentos de la Binomial. Las ecuaciones clave para los parámetros \(\theta_1\) y \(\theta_2\) son: \[ \theta_1 = \bar{p} \left[ \frac{\bar{p}(1-\bar{p})}{\sigma^2} - 1 \right] \] \[ \theta_2 = (1-\bar{p}) \left[ \frac{\bar{p}(1-\bar{p})}{\sigma^2} - 1 \right] \] Donde \(\bar{p}\) es la media estimada de la fracción de no conformes, y \(\sigma^2 = \text{Var}(\hat{p})\).

  3. Límites de Control: Definen los límites de control utilizando los cuantiles exactos de la Distribución Beta. Se busca un Límite Central (CL), un Límite de Control Inferior (LCL), y un Límite de Control Superior (UCL) que cumplan con la tasa de falsa alarma deseada (\(\alpha\)), asegurando que los límites permanezcan en el rango \([0, 1]\). \[ LCL = Q_{\text{Beta}}(\alpha/2; \theta_1, \theta_2) \] \[ UCL = Q_{\text{Beta}}(1 - \alpha/2; \theta_1, \theta_2) \] Donde \(Q_{\text{Beta}}\) es la función cuantil de la Distribución Beta y \(\alpha\) es la probabilidad de falsa alarma (ej: \(0.0027\) para un control \(3\sigma\)).

  4. Comparación: El rendimiento del nuevo gráfico se evalúa usando la Longitud Media de Carrera (ARL), comparándolo con los gráficos tradicionales de Shewhart, Ryan y Chen para demostrar su superioridad en la detección de cambios, especialmente para valores pequeños de \(\bar{p}\).

Replique el estudio de simulación

Para ilustrar el comportamiento de variables medidas en forma de proporciones, se realizó una simulación de datos a partir de distribuciones Beta con diferentes parámetros de forma. Esta distribución es adecuada para modelar fracciones y porcentajes porque está acotada en el intervalo (0,1) y permite representar distintos grados de asimetría. En este ejercicio se generaron tres variables: \(y_1\)c omo porcentaje de paquetes no conformes,\(y_2\)como proporción de maní no contaminado con asimetría hacia la izquierda, y \(y_3\) como proporción de amoníaco no convertido con asimetría hacia la derecha. Los histogramas y curvas de densidad obtenidos permiten visualizar la naturaleza no normal de estos datos y compararla con la distribución normal para resaltar las diferencias.

Replique el ejemplo.

Este artículo presenta tres ejemplos de datos de fracciones monitoreadas. Los ejemplos ilustran conjuntos de datos reales publicados por los autores Montgomery (2005, p. 270), Draper y Smith (1998, p. 101) y Brownlee (1965, p. 454), los cuales serán analizados utilizando los límites de control propuestos por Shewhart, Ryan (1989), Chen (1998) y los Gráficos Beta. Estos ejemplos fueron elegidos para evaluar datos de fracción con valores pequeños, intermedios y grandes, como se muestra a continuación:

Ejemplo Proceso Variable Monitoreada Valor Estimado de la Fracción (\(p\))
Ejemplo 1 Concentrado de jugo de naranja \(y_1\): Porcentaje de unidades no conformes Pequeño (\(p \approx 0\))
Ejemplo 2 Maní contaminado \(y_2\): Proporción de maní no contaminado Intermedio (\(p \approx 0.5\))
Ejemplo 3 Fabricación de ácido nítrico \(y_3\): Proporción de amoníaco no convertido Grande (\(p \approx 1\))

Insumos Carta de Control Beta \[ LCL = \bar{p} - w_1*\sqrt{S^2 (\bar{p})} \] \[ UCL = \bar{p} + w_2*\sqrt{S^2 (\bar{p})} \] Tal que \(\bar{p}\) y \(S^2 (\bar{p})\) representan la media y la varianza de la fracción estimada. Y además, los \(w_1\) y \(w_2\) se pueden estimar utilizando las siguientes ecuaciones:

\[\begin{align*} w_1 &= \frac{\bar{p} - \Psi_\left(\frac{\alpha_1}{2}; \theta_1, \theta_2\right)}{\sqrt{S^2(\bar{p})}} \\ w_2 &= \frac{\Psi_\left(1 - \frac{\alpha_2}{2}; \theta_1, \theta_2\right) - \bar{p}}{\sqrt{S^2(\bar{p})}} \end{align*}\]

Tal que \(\frac{\alpha}{2}\) representa los percentiles de la cdf de la variable aleatoria Y de acuerdo con la región de control deseada.

Por tanto el siguiente código nos deja ver una replica del Ejemplo 1:

Para el Ejemplo dos tenemos que:

Por último en el Ejmplo tres tenemos las siguientes cartas de control:

  • En la variable \(Y_1\), las cartas de control detectaron dos muestras fuera de los límites, lo que puede explicarse por cambios en la materia prima, los paquetes o la participación de un nuevo operador.

  • Para la variable \(Y_2\), las cartas tradicionales (Shewhart, Ryan y Chen) generan límites superiores que exceden el intervalo válido [0,1], mientras que la carta Beta se mantiene dentro de este rango, mostrando un ajuste más apropiado.

  • En la variable \(Y_3\), ocurre algo similar: las cartas tradicionales producen límites negativos que no tienen sentido práctico, mientras que la carta Beta respeta el intervalo [0,1], garantizando un control más realista del proceso.

  • En conjunto, los resultados confirman que la carta Beta es más robusta que las aproximaciones basadas en la Normal para el monitoreo de proporciones y fracciones, evitando resultados fuera del rango posible.

Análisis de sensibilidad de las cartas de control

Definiciones clave:

  • \(ARL_0 = \frac{1}{\alpha}\)
    • Número promedio de muestras hasta una falsa alarma (error tipo I).
    • Cuanto más alto, mejor, ya que indica menos falsas alarmas.
  • \(ARL_1 = \frac{1}{1 - \beta}\)
    • Número promedio de muestras hasta detectar un cambio real (error tipo II).
    • Cuanto más bajo, mejor, porque significa detección más rápida de cambios.

Resultados principales:

  • Para procesos en control, las cartas de Shewhart, Ryan y Chen tuvieron un desempeño similar
    (\(ARL_0 = 226\) para \(p = 0.001, n = 1500\)).

  • La carta de Chen fue más sensible para detectar pequeños cambios en el parámetro \(p\).

  • La Carta Beta mostró un mejor equilibrio:

    • Menor probabilidad de falsas alarmas (mayor \(ARL_0\)).
    • Mayor rapidez para detectar cambios (menor \(ARL_1\)).
  • En escenarios con proporciones más grandes y muestras pequeñas
    (\(p = 0.1, n = 50\)), las cartas de Ryan y Chen dieron resultados inadecuados,
    mientras que la Carta Beta mantuvo un desempeño consistente.


Conclusión: La Carta Beta resultó más robusta para monitorear procesos con datos fraccionales,
superando a las aproximaciones basadas en la Normal.

4. Estudiar el artículo de Shore(1997) y con base en este artículo, indique cuál es es el efecto de la autocorrelación sobre los siguientes elementos y cuál es el efecto de ignorarla?

1. Error estándar de la media muestral

  • Con autocorrelación: en este caso el error estándar de la media muestral se infla (es más grande de lo que indica la fórmula clásica).
  • Si se ignora: en este caso el error estándar de la media muestral se subestima, lo que genera la ilusión de mayor precisión en la estimación de la media.

2. Intervalo de confianza de la media poblacional

  • Con autocorrelación: en este caso el intervalo de la media poblacional debe ser más ancho, porque la varianza real de la media aumenta.
  • Si se ignora: el intervalo resulta maas angosto, creando exceso de confianza en la estimación.

3. Sesgo de la varianza muestral

  • Con autocorrelación positiva: el estimador \(S^2\) de la varianza se vuelve sesgado hacia abajo (subestima la varianza real).
  • Si se ignora: se cree que el proceso es menos variable de lo que realmente es.

4. Capacidad de un proceso (índices \(C_p, C_{pk}\))

  • Con autocorrelación: los índices de capacidad tienden a estar inflados artificialmente, haciendo parecer que el proceso es más capaz de lo que realmente es.
  • Si se ignora: se sobrestima la capacidad del proceso y se pueden tomar decisiones equivocadas.

5. Carta de control Shewhart

  • Con autocorrelación: aumenta la probabilidad de falsas alarmas (indicar fuera de control cuando en realidad no lo está) o de no detectar problemas reales (porque los límites de control están mal calculados).
  • Si se ignora: la carta pierde efectividad; se hacen ajustes innecesarios o no se detectan fallas a tiempo.

6. Replicar las simulaciones presentadas en el artículo de Shore(1997). Ver sección “The Effect of Autocorrelation on Process Capability Indices-Some Simulation Results”.

En la sección “The Effect of Autocorrelation on Process Capability Indices – Some Simulation Results”, Shore realiza simulaciones Monte Carlo para comparar el efecto de la autocorrelación:

#...........................................................
#   Simulacio presentada en el artículo de Shore(1997)      
#...........................................................

#...........................................................
# Paquetes necesarios
#...........................................................

library(forecast)  # para simular AR
## Warning: package 'forecast' was built under R version 4.4.3
## Registered S3 method overwritten by 'quantmod':
##   method            from
##   as.zoo.data.frame zoo
library(dplyr)
## 
## Adjuntando el paquete: 'dplyr'
## The following object is masked from 'package:gridExtra':
## 
##     combine
## The following objects are masked from 'package:stats':
## 
##     filter, lag
## The following objects are masked from 'package:base':
## 
##     intersect, setdiff, setequal, union
#...........................................................
#Semilla de reproducibilidad
#...........................................................

set.seed(123)

#...........................................................
# Parámetros para el proceso
#...........................................................

mu <- 40
sigma <- 7
LSL <- 19
USL <- 61
nsim <- 300
sample_sizes <- c(15, 50, 100, 200)

#...........................................................
# Función para calcular Cp y Cpk
#...........................................................

capability_indices <- function(x, LSL, USL) {
  m <- mean(x)
  s <- sd(x)
  Cp <- (USL - LSL) / (6 * s)
  Cpk <- min((USL - m) / (3 * s), (m - LSL) / (3 * s))
  return(c(mean = m, sd = s, Cp = Cp, Cpk = Cpk))
}

#...........................................................
# Simulaciones para independiente como para AR
#...........................................................

results <- data.frame()

for (n in sample_sizes) {
  for (i in 1:nsim) {
    
    # Caso 1: datos independientes (i.i.d.)
    x_indep <- rnorm(n, mean = mu, sd = sigma)
    res_indep <- capability_indices(x_indep, LSL, USL)
    results <- rbind(results, data.frame(
      n = n, type = "Independent", t(res_indep)
    ))
    
    # Caso 2: datos autocorrelacionados (AR(3))
    z_ar <- arima.sim(n = n, list(ar = c(0.9, -0.3, 0.1)), sd = sigma)
    x_ar <- mu + z_ar
    res_ar <- capability_indices(x_ar, LSL, USL)
    results <- rbind(results, data.frame(
      n = n, type = "AR(3)", t(res_ar)
    ))
  }
}

#...........................................................
# Resultados
#...........................................................

summary_results <- results %>%
  group_by(n, type) %>%
  summarise(
    mean_mu = mean(mean),
    se_mu = sd(mean),
    mean_sd = mean(sd),
    se_sd = sd(sd),
    mean_Cp = mean(Cp),
    se_Cp = sd(Cp),
    mean_Cpk = mean(Cpk),
    se_Cpk = sd(Cpk),
    .groups = "drop"
  )

print(summary_results)
## # A tibble: 8 × 10
##       n type        mean_mu se_mu mean_sd se_sd mean_Cp  se_Cp mean_Cpk se_Cpk
##   <dbl> <chr>         <dbl> <dbl>   <dbl> <dbl>   <dbl>  <dbl>    <dbl>  <dbl>
## 1    15 AR(3)          39.7 5.76     8.82 2.49    0.858 0.249     0.667 0.240 
## 2    15 Independent    39.9 1.88     6.88 1.30    1.06  0.213     0.982 0.202 
## 3    50 AR(3)          40.1 3.04     9.90 1.69    0.728 0.125     0.643 0.121 
## 4    50 Independent    40.0 0.977    7.02 0.666   1.01  0.0957    0.969 0.0953
## 5   100 AR(3)          40.1 2.29    10.2  1.24    0.698 0.0846    0.638 0.0965
## 6   100 Independent    40.1 0.646    7.00 0.494   1.01  0.0720    0.980 0.0731
## 7   200 AR(3)          40.0 1.64    10.3  0.825   0.682 0.0555    0.640 0.0612
## 8   200 Independent    40.0 0.454    7.01 0.342   1.00  0.0492    0.983 0.0494