Antes de comenzar con el análisis, cargamos las librerías que necesitaremos durante el informe.

library(qcc)
library(qualityTools)
library(readxl)
library(SixSigma)
library(tidyverse)

1. Análisis de capacidad con SixSigma (Capability_CD)

El primer análisis que realizaremos será con la base de datos Capability_CD. Fijamos como cotas inferiores y superiores de los límites de especificación los valores de 1.3 y 1.38, respectivamente.

datos=read_excel("Capability-CD.XLS")
summary(datos)
##  CD Thickness (mm)
##  Min.   :1.188    
##  1st Qu.:1.313    
##  Median :1.349    
##  Mean   :1.349    
##  3rd Qu.:1.389    
##  Max.   :1.486
lsl=1.30
usl=1.38
ss.study.ca(xST=datos$`CD Thickness (mm)`,Target=mean(datos$`CD Thickness (mm)`),LSL=lsl,USL=usl)

Claramente, observando el histograma, existe una distribución normal de los datos en torno a una media de 1.349 unidades y una desviación pequeña de 6.04 centésimas. Las densidades, a corto plazo, reales y teóricas son muy parecidas. Así también, hay normalidad de los residuos según el test de Shapiro-Wilk.

El índice de capacidad del proceso nos indica que el sistema no es adecuado, ya que, entre otros aspectos, presenta 837990.4 defectos por cada millón de unidades de producto analizado, un dato que desvela la poca precisión del sistema y la gravedad económica que supondría ponerlo en marcha.

Comprobamos ahora los indicadores si asumimos que es defecto todo lo que exceda los límites de especificación y dicho defecto no podrá ser retrabajado. Fijamos el número máximo de defectos a encontrar por producto como el tamaño del lote de la base de datos: 100.

noretrabajo=ss.ca.yield(defects=sum(datos$`CD Thickness (mm)`<lsl|datos$`CD Thickness (mm)`>usl),rework=0,opportunities=100); 
view(noretrabajo)

Como no hay retrabajo, todos los rendimientos coinciden: hay un 52% de productos con buenos resultados frente a los 480000 defectos por millón provocados por el sistema.

Por último, comparamos la capacidad a corto y largo plazo con la simulación manteniendo los mismos límites de especificación. Como nota adicional, asumimos que la desviación típica a largo plazo es mayor que la desviación típica de los datos actuales en 0.1 unidades, y la media es similar.

datos.LP=rnorm(100,mean(datos$`CD Thickness (mm)`),sd(datos$`CD Thickness (mm)`)+0.1)
ss.study.ca(xST=datos$`CD Thickness (mm)`,xLT=datos.LP,LSL=lsl,USL=usl,T=mean(datos$`CD Thickness (mm)`),alpha=0.05,f.sub="Proyecto Capability_CD")

Mantenemos normalidad de residuos y la distribución de campana; sin embargo, las colas se alargan más a largo plazo y la distribución no diferencia de forma tan clara la media. En otras palabras, a largo plazo, los datos que medimos se dispersan a lo largo del intervalo. Estadísticamente hablando, esto supone una proporción mayor de la desviación respecto a la media.

Los indicadores de capacidad no se modifican, empeoran los defectos por millón (aumentan hasta 900940.9; más de 9 de cada 10 productos), los indicadores de capacidad ajustados no convergen ni tampoco P_p muestra un rendimiento suficiente para alcanzar los objetivos.

De hecho, la Z del proceso empeora a largo plazo, en comparación con nuestro primer ss.study.ca ahora que hemos introducido más datos. Esto significa que el proceso produce más unidades defectuosas; en sintonía con la conclusión vertida en los párrafos anteriores.

En definitiva, aunque haya normalidad, no es un sistema capaz aunque sea preciso a CP.

2. Análisis de capacidad con SixSigma (Capability_RepairTimes)

La estructura del procedimiento con esta base de datos será similar a la realizada en la parte 1 del trabajo; sin embargo, utilizaremos 4.5 y 5.5 como límites de especificación fijados para este problema. En esta ocasión, la base de datos a analizar es “Capability_RepairTimes”, tiempos de reparación medidos en horas decimales.

datos2=read_excel("Capability-RepairTimes.XLS")
summary(datos2)
##  Time to fix fault (decimal hrs)  Sub Group No  
##  Min.   :3.420                   Min.   : 1.00  
##  1st Qu.:4.515                   1st Qu.: 5.75  
##  Median :5.125                   Median :10.50  
##  Mean   :5.033                   Mean   :10.50  
##  3rd Qu.:5.530                   3rd Qu.:15.25  
##  Max.   :6.610                   Max.   :20.00
lsl=4.5
usl=5.5
ss.study.ca(xST=datos2$`Time to fix fault (decimal hrs)`,Target=mean(datos2$`Time to fix fault (decimal hrs)`),LSL=lsl,USL=usl)

A primera vista, sorprende que, aunque los residuos se comporten con una distribución normal, estamos frente a un sistema no demasiado centrado e impreciso al tener sus curvas de densidad muy aplanadas.

Observando los indicadores de capacidad y el número de defectos por millón (814977.9), es claro que el sistema no es capaz ni adecuado con los datos que tenemos para el estudio.

Veamos si, asumiendo que es defecto todo lo que exceda los límites de especificación, se logra reducir el número de defectos.

noretrabajo2=ss.ca.yield(defects=sum(datos2$`Time to fix fault (decimal hrs)`<lsl | datos2$`Time to fix fault (decimal hrs)`>usl),rework=0,opportunities=100)
View(noretrabajo2)

Los datos siguen siendo desesperanzadores: apenas el 47% de los productos presenta buenos resultados, no llega ni siquiera a la mitad del total. Esto se traduce en que, a cada millón de unidades producidas, 53 de cada 100 unidades se encuentran fuera de los límites de especificación fijados para poder ser considerados aptos.

Por último, comparamos la capacidad a corto y largo plazo con la simulación. Asumimos que la desviación típica a largo plazo es mayor que la desviación típica de los datos actuales y la media es similar.

datos2.LT=rnorm(100,mean(datos2$`Time to fix fault (decimal hrs)`),sd(datos2$`Time to fix fault (decimal hrs)`)+0.1)
ss.study.ca(xST=datos2$`Time to fix fault (decimal hrs)`,xLT=datos2.LT,LSL=lsl,USL=usl,T=mean(datos2$`Time to fix fault (decimal hrs)`),alpha=0.05,f.sub="Proyecto Capability_RepairTimes")

Las densidades presentan distintos centros según sean a corto o largo plazo: a periodo inferior, el centro tiene mayor magnitud aunque su media sea más pequeña por dos centésimas respecto a la media a largo plazo. Aún así, a largo plazo hay una dispersión levemente superior.

Aunque sea impreciso, el índice de capacidad ajustado es ligeramente mejor que el de la base de datos anterior: es menos probable que un producto se salga de las especificaciones marcadas. De todas formas, estamos muy lejos de alcanzar los objetivos marcados viendo los defectos por unidades y el rendimiento del proceso, que no converge puesto que no estamos bajo control.

Si el proceso no es capaz y no puede cumplir los límites establecidos, como es nuestro caso, esto incurrirá en costes:

Todo esto, sumado a la pérdida de eficiencia e imagen de la empresa, pues si una parte importante de su producción es defectuosa, de cara al consumidor se interpretará como una empresa de dudosa calidad que no aporta garantías en la producción de su oferta. Y eso, en un mundo donde cada vez importan más las valoraciones online del cliente, puede suponer bastantes pérdidas en el cómputo global de ventas, y en consecuencia, una reducción considerable de los ingresos.

Anexo

Este trabajo se ha realizado para la asignatura “Mejora de procesos”, impartida por la docente María Asunción Martínez Mayoral, de la Universidad Miguel Hernández de Elche (España).