Tipo | Exemplo |
---|---|
Tempo | Turno |
Local | Máquina |
Pessoa | Operador |
Método | Matéria-prima |
Construção de Gráficos de Controle em R
As sete ferramentas da qualidade são técnicas estatísticas simples para resolver problemas na indústria.✅
É uma técnica usada para separar dados em grupos significativos para facilitar a análise.
“Processo de dividir dados em subgrupos (estratos) com base em características relevantes, como turno, máquina, operador, etc.”
Exemplo de pergunta:
- Existe diferença de desempenho entre os turnos?
Tipo | Exemplo |
---|---|
Tempo | Turno |
Local | Máquina |
Pessoa | Operador |
Método | Matéria-prima |
turno defeitos
1 Manhã 1
2 Manhã 3
3 Manhã 2
4 Manhã 4
5 Manhã 4
6 Manhã 0
7 Manhã 2
8 Manhã 4
9 Manhã 2
10 Manhã 2
11 Manhã 5
12 Manhã 2
13 Manhã 3
14 Manhã 2
15 Manhã 0
16 Manhã 4
17 Manhã 1
18 Manhã 0
19 Manhã 1
20 Manhã 5
21 Manhã 4
22 Manhã 3
23 Manhã 2
24 Manhã 6
25 Manhã 2
26 Manhã 3
27 Manhã 2
28 Manhã 2
29 Manhã 1
30 Manhã 1
31 Manhã 5
32 Manhã 4
33 Manhã 3
34 Manhã 3
35 Manhã 0
36 Manhã 2
37 Manhã 3
38 Manhã 1
39 Manhã 1
40 Manhã 1
41 Manhã 1
42 Manhã 2
43 Manhã 2
44 Manhã 1
45 Manhã 1
46 Manhã 1
47 Manhã 1
48 Manhã 2
49 Manhã 1
50 Manhã 4
51 Tarde 2
52 Tarde 5
53 Tarde 7
54 Tarde 2
55 Tarde 5
56 Tarde 3
57 Tarde 3
58 Tarde 6
59 Tarde 8
60 Tarde 4
61 Tarde 6
62 Tarde 2
63 Tarde 4
64 Tarde 4
65 Tarde 7
66 Tarde 5
67 Tarde 7
68 Tarde 7
69 Tarde 7
70 Tarde 4
71 Tarde 6
72 Tarde 6
73 Tarde 6
74 Tarde 0
75 Tarde 5
76 Tarde 3
77 Tarde 4
78 Tarde 5
79 Tarde 4
80 Tarde 2
81 Tarde 3
82 Tarde 6
83 Tarde 4
84 Tarde 7
85 Tarde 2
86 Tarde 4
87 Tarde 10
88 Tarde 8
89 Tarde 8
90 Tarde 3
91 Tarde 3
92 Tarde 6
93 Tarde 4
94 Tarde 6
95 Tarde 4
96 Tarde 3
97 Tarde 7
98 Tarde 2
99 Tarde 5
100 Tarde 5
101 Noite 3
102 Noite 2
103 Noite 3
104 Noite 6
105 Noite 3
106 Noite 5
107 Noite 5
108 Noite 3
109 Noite 2
110 Noite 1
111 Noite 6
112 Noite 2
113 Noite 1
114 Noite 6
115 Noite 4
116 Noite 1
117 Noite 3
118 Noite 6
119 Noite 3
120 Noite 2
121 Noite 4
122 Noite 2
123 Noite 2
124 Noite 2
125 Noite 2
126 Noite 7
127 Noite 1
128 Noite 1
129 Noite 1
130 Noite 4
131 Noite 3
132 Noite 5
133 Noite 4
134 Noite 4
135 Noite 3
136 Noite 4
137 Noite 5
138 Noite 4
139 Noite 7
140 Noite 3
141 Noite 2
142 Noite 2
143 Noite 0
144 Noite 1
145 Noite 5
146 Noite 2
147 Noite 2
148 Noite 1
149 Noite 2
150 Noite 4
Manhã Noite Tarde
50 50 50
turno defeitos
1 Manhã 2.24
2 Noite 3.12
3 Tarde 4.78
✅ A estratificação permite identificar padrões ocultos
✅ Ajuda a direcionar ações corretivas com mais precisão
✅ É essencial no início da análise estatística da qualidade
São formulários usados para coletar e organizar dados de forma sistemática.
“Documento estruturado para registrar dados observacionais em tempo real.”
Usada para:
🧐 Verificação: Distribuição do Processo de Produção
🧐 Verificação: Item Defeituoso
🧐 Verificação: Localização de Defeitos
🧐 Verificação: Causas de um defeito ou falha.
🧐 Verificação: Satisfação do Cliente (ex: questionários de satisfação).
Exemplo de folha de verificação de defeitos na lataria de um carro.
✅ Facilitam a padronização da coleta de dados
✅ Auxiliam na identificação de padrões
✅ São a base para análises gráficas e estatísticas posteriores
Também conhecido como diagrama de causa e efeito ou espinha de peixe.
Ferramenta para análise de problemas.
Organiza visualmente causas potenciais de um efeito específico.
Defina claramente o problema (efeito).
Trace uma linha horizontal com o problema no final (efeito).
Adicione as categorias principais de causa (método, máquina, mão de obra, material, meio ambiente, medição).
Liste causas específicas em cada categoria.
Exemplo de diagrama de causa e efeito (Ishikawa).
Limite superior de especificação (LSE):
maior valor permitido para uma característica de qualidade.
Limite inferior de especificação (LIE):
menor valor permitido para uma característica de qualidade.
Etapas principais:
Vamos comparar os dados com limites de especificação:
⚠️LIE: 90
⚠️LSE: 110
✅ Quando a maioria dos dados está entre LIE e LSE → processo capaz
⚠️ Quando muitos dados estão fora dos limites → processo não capaz
É um gráfico de barras que ordena as causas ou categorias em ordem decrescente de frequência.
Categoria | Frequência |
---|---|
Erro A | 40 |
Erro B | 25 |
Erro C | 15 |
Erro D | 12 |
Erro E | 8 |
Mermaid
, DiagrammeR
, etc).Problemas | Frequência |
---|---|
Risco | 80 |
Mancha | 68 |
Corte | 50 |
Tinta Fraca | 45 |
Erro de Montagem | 30 |
💡qcc pakcage
Crie o histograma.
Defina limites de especificação mais estreitos: LIE = 45 e LSE = 55.
Colete um conjunto de dados reais (ex: tempo para executar uma tarefa simples).
Classifique os dados usando estratificação (ex: por turno, grupo, dia).
Construa um histograma, gráfico de Pareto e, se possível, um Ishikawa para um problema observado.
Apresente os resultados com uma breve conclusão.
Quando uma variável aumenta, a outra tende a diminuir.
Os pontos seguem uma tendência decrescente.
Os pontos não seguem padrão algum.
Indica ausência de relação linear.
Passos:
Coletar pares de observações (X, Y)
Plotar os pontos em um gráfico de dispersão
Analisar visualmente a existência e o tipo de correlação
O coeficiente de correlação de Pearson mede a força e direção da relação linear entre duas variáveis.
Varia de -1 a 1
1: correlação positiva perfeita
0: sem correlação linear
-1: correlação negativa perfeita
\[ r = \dfrac{\displaystyle \sum_{i = 1}^{n}(x_{i}-\bar{x})(y_{i}-\bar{y})}{\displaystyle \sqrt{(\sum_{i = 1}^{n}(x_{i}-\bar{x})^{2})(\sum_{i = 1}(y_{i}-\bar{y})^{2}})} = \dfrac{Cov(X,Y)}{\sigma_{X}\sigma_{Y}} \]
Hipóteses
\(H_{0}: \rho_{x,y} = 0\) (ausência de associação linear);
\(H_{1}: \rho_{x,y} \neq 0\) (presença de associação linear).
Gerar dados simulados com correlação positiva:
Normalidade dos dados
Shapiro-Wilk normality test
data: x
W = 0.97894, p-value = 0.7966
Shapiro-Wilk normality test
data: y
W = 0.96204, p-value = 0.3488
Calcular o coeficiente de correlação:
Testar a significância estatística:
Pearson's product-moment correlation
data: x and y
t = 5.4508, df = 28, p-value = 8.099e-06
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
0.4817850 0.8564041
sample estimates:
cor
0.7175137
✅ São úteis para investigar relações entre variáveis
✅ Ajudam a detectar tendências visuais
✅ O coeficiente de Pearson quantifica a força da relação
plot()
Descreva o tipo de relação entre as variáveis.
Adicione uma reta de tendência usando abline(lm(y ~ x)).
Gere dois vetores de 30 elementos com correlação negativa.
Construa o gráfico de dispersão.
Calcule a correlação de Pearson com cor(x, y)
.
Utilize o conjunto de dados mtcars
:
mpg
(milhas por galão) e wt
(peso)?Crie uma função correlacao_diagnostico()
que:
r
cor.test()
A inferência estatística permite tirar conclusões sobre um processo a partir de uma amostra.
Um estimador é uma função da amostra usada para estimar um parâmetro.
Boas propriedades desejáveis:
\[E[\hat{\theta}] = \theta.\]
Sejam \(X_1, X_2, \dots, X_n\) uma amostra aleatória de uma variável aleatória \(X\) com média \(\theta\) e variância \(\sigma^2\). Um estimador \(\hat{\theta}\) é consistente para \(\theta\) se:
\[ \lim_{n \to \infty} P(|\hat{\theta} - \theta| > \epsilon) = 0, \quad \forall \epsilon > 0 \]
Em geral, a desigualdade de Chebyshev pode ser usada para verificar essa propriedade:
\[ P(|\hat{\theta} - \theta| > \epsilon) \leq \frac{\sigma^2}{n\epsilon^2} \]
Portanto, à medida que \(n\) cresce, a probabilidade de o estimador estar distante do verdadeiro parâmetro \(\theta\) tende a zero, garantindo sua consistência.
Seja \(X_1, X_2, \dots, X_n\) uma amostra aleatória de uma variável \(X\) com parâmetro \(\theta\). Um estimador \(\hat{\theta}\) é eficiente se sua variância atinge o limite inferior dado por:
\[Var(\hat{\theta}) \geq \frac{1}{I(\theta)},\]
em que \(I(\theta)\) é a informação de Fisher, definida como:
\[I(\theta) = -E \left[ \frac{\partial^2}{\partial \theta^2} \log L(\theta) \right]\]
A dispersão do processo pode ser estimada usando:
Desvio padrão amostral (s)
Amplitude (R)
Desvio médio absoluto
Exemplo:
O nível do processo geralmente se refere à média do processo.
É representado por \(\mu\), a média verdadeira da variável de interesse.
Estimada pela média das médias amostrais.
[,1] [,2] [,3] [,4] [,5]
[1,] 94.39524 102.53319 92.89593 107.87739 121.98810
[2,] 97.69823 99.71453 102.56884 107.69042 113.12413
[3,] 115.58708 99.57130 97.53308 103.32203 97.34855
[4,] 100.70508 113.68602 96.52457 89.91623 105.43194
[5,] 101.29288 97.74229 90.48381 98.80547 95.85660
[6,] 117.15065 115.16471 99.54972 97.19605 95.23753
[7,] 104.60916 84.51247 92.15096 105.62990 92.11397
[8,] 87.34939 105.84614 83.32058 96.27561 94.05383
[9,] 93.13147 101.23854 96.19773 109.76973 116.50907
[10,] 95.54338 102.15942 109.18997 96.25419 99.45972
[11,] 112.24082 103.79639 94.24653 110.52711 101.19245
[12,] 103.59814 94.97677 106.07964 89.50823 102.43687
[13,] 104.00771 96.66793 83.82117 87.39845 112.32476
[14,] 101.10683 89.81425 99.44438 132.41040 94.83936
[15,] 94.44159 89.28209 105.19407 95.83142 90.07493
[16,] 117.86913 103.03529 103.01153 102.98228 116.75697
[17,] 104.97850 104.48210 101.05676 106.36570 95.58837
[18,] 80.33383 100.53004 93.59294 95.16219 92.76934
[19,] 107.01356 109.22267 91.50296 105.16862 87.63727
[20,] 95.27209 120.50085 89.75871 103.68965 87.15284
[21,] 89.32176 95.08969 101.17647 97.84619 94.26027
[22,] 97.82025 76.90831 90.52525 100.65293 106.17986
[23,] 89.73996 110.05739 95.09443 99.65933 111.09848
[24,] 92.71109 92.90799 97.43908 121.28452 107.07588
[25,] 93.74961 93.11991 118.43862 92.58664 96.36343
[26,] 83.13307 110.25571 93.48050 89.04004 100.59750
[27,] 108.37787 97.15227 102.35387 100.37788 92.95404
[28,] 101.53373 87.79282 100.77961 103.10481 92.82782
[29,] 88.61863 101.81303 90.38143 104.36523 108.84650
[30,] 112.53815 98.61109 99.28692 95.41635 89.84407
[31,] 104.26464 100.05764 114.44551 89.36674 119.55294
[32,] 97.04929 103.85280 104.51504 112.63185 99.09680
[33,] 108.95126 96.29340 100.41233 96.50350 102.14539
[34,] 108.78133 106.44377 95.77503 91.34487 92.61472
[35,] 108.21581 97.79513 79.46753 97.63720 94.25611
[36,] 106.88640 103.31782 111.31337 98.02824 86.82984
[37,] 105.53918 110.96839 85.39360 111.09920 98.17075
[38,] 99.38088 104.35181 107.39948 100.84737 104.18982
[39,] 96.94037 96.74068 119.09104 107.54054 103.24304
[40,] 96.19529 111.48808 85.56107 95.00708 92.18464
[41,] 93.05293 109.93504 107.01784 102.14445 92.11378
[42,] 97.92083 105.48397 97.37803 96.75314 94.97801
[43,] 87.34604 102.38732 84.27856 100.94584 114.96061
[44,] 121.68956 93.72094 84.85332 91.04637 88.62696
[45,] 112.07962 113.60652 83.98464 86.89198 98.20948
[46,] 88.76891 93.99740 94.69093 119.97213 119.02362
[47,] 95.97115 121.87333 85.38244 106.00709 98.99025
[48,] 95.33345 115.32611 106.87917 87.48729 86.40159
[49,] 107.79965 97.64300 121.00109 93.88834 93.35231
[50,] 99.16631 89.73579 87.12970 88.14520 104.85460
[1] 103.93797 104.15923 102.67241 101.25277 96.83621 104.85973 95.80329
[8] 93.36911 103.36931 100.52133 104.40066 99.31993 96.84400 103.52304
[15] 94.96482 108.73104 102.49429 92.47767 100.10902 99.27483 95.53888
[22] 94.41732 101.12992 102.28371 98.85164 95.30136 100.24319 97.20776
[29] 98.80497 99.13932 105.53749 103.42916 100.86117 98.99195 95.47436
[36] 101.27513 102.23422 103.23387 104.71113 96.08723 100.85281 98.50280
[43] 97.98367 95.98743 98.95445 103.29060 101.64485 98.28552 102.73688
[50] 93.80632
[1] 99.9144
Esse valor é usado como linha central em um gráfico de controle.
✅ A inferência estatística fornece as ferramentas para definir limites e linhas centrais.
✅ A precisão da estimativa depende do tamanho e representatividade da amostra.
✅ Com base nestes conceitos, constrói-se gráficos de controle como \(\bar{X}\), \(R\), \(S\), entre outros.
Os gráficos de controle são ferramentas gráficas usadas para monitorar processos ao longo do tempo.
Proposto pelo Dr. Walter A. Shewhart em 1920.
Controlar a variabilidade dos processos.
Proposta geral:
\[LSC = \mu_w + 3\times\sigma_{w}\]
\[LC = \mu_w\]
\[LIC = \mu_w - 3\times\sigma_{w}\]
Exemplo: \(X\sim N(50,2^{2})\); \(n=25\).
Temos que:
\[P[LIC \leq X \leq \mu_{w}] = \alpha/2\] e
\[P[\mu_{w} \leq X \leq LSC] = \alpha/2\]
Se \(X_{i} \sim N(\mu,\sigma)\), então
\[ P \left[ \left. \frac{\mu - 3\sigma}{\sqrt{n}} < \bar{X}_{i} < \frac{\mu + 3\sigma}{\sqrt{n}} \right] \right. = 0,9973 \]
que é equivalente a
\[ P\left[ \left.-3 < \dfrac{\sqrt{n}(\bar{X}_{i}-\mu)}{\sigma} < 3\right] \right. = 0,9973 \]
\[LSC = \mu + 3\dfrac{\sigma}{\sqrt{n}}\] \[LC = \mu\]
\[LIC = \mu - 3\dfrac{\sigma}{\sqrt{n}}\]
\[LSC = \mu + A\sigma\] \[LC = \mu\]
\[LIC = \mu - A\sigma\]
Fórmulas:
\[ \bar{x}_{LC} = \bar{\bar{x}}, \quad LSC = \bar{\bar{x}} + A_2 \bar{R}, \quad LIC = \bar{\bar{x}} - A_2 \bar{R} \]
\[ R_{LC} = \bar{R}, \quad LSC = D_4 \bar{R}, \quad LIC = D_3 \bar{R} \]
Fórmulas:
\[ \bar{x}_{LC} = \bar{\bar{x}}, \quad LSC = \bar{\bar{x}} + A_3 \bar{s}, \quad LIC = \bar{\bar{x}} - A_3 \bar{s} \]
\[ s_{LC} = \bar{s}, \quad LSC = B_4 \bar{s}, \quad LIC = B_3 \bar{s} \]
Fórmulas:
\[ LC = \bar{s}^2, \quad LSC = \frac{(n - 1)\bar{s}^2}{\chi^2_{\alpha/2, n-1}}, \quad LIC = \frac{(n - 1)\bar{s}^2}{\chi^2_{1-\alpha/2, n-1}} \]
Exemplo 6.1. página 239 (Montgomery, 2009):
O processo de cozimento duro é utilizado em conjunto com a fotolitografia na fabricação de semicondutores. Desejamos estabelecer o controle estatístico da largura de fluxo do resistor neste processo utilizando gráficos \(\bar{x}\) e \(\bar{R}\). Vinte e cinco amostras, cada uma com wafers de tamanho cinco, foram coletadas quando acreditamos que o processo está sob controle. O intervalo de tempo entre as amostras ou subgrupos é de uma hora. Os dados de medição da largura de fluxo (em x mícrons) dessas amostras são mostrados na Tabela 6.1.
# Criando a tabela 6.1 (25 linhas, 5 colunas) em R
tabela_6.1 <- matrix(c(
1, 1.3235, 1.4128, 1.6744, 1.4573,
2, 1.4314, 1.3592, 1.6075, 1.4666,
3, 1.4284, 1.4871, 1.4932, 1.4324,
4, 1.5028, 1.6352, 1.3841, 1.2831,
5, 1.5604, 1.2735, 1.5265, 1.4362,
6, 1.5955, 1.5451, 1.3574, 1.3281,
7, 1.6274, 1.5064, 1.8366, 1.4177,
8, 1.4190, 1.4303, 1.6637, 1.6067,
9, 1.3884, 1.7277, 1.5355, 1.5176,
10, 1.4039, 1.6697, 1.5089, 1.6477,
11, 1.4158, 1.7667, 1.4278, 1.5927,
12, 1.5821, 1.3355, 1.5777, 1.3908,
13, 1.2856, 1.4106, 1.4447, 1.6388,
14, 1.4951, 1.4036, 1.5893, 1.6458,
15, 1.3589, 1.2863, 1.5996, 1.2497,
16, 1.5747, 1.5301, 1.5171, 1.1839,
17, 1.3680, 1.7269, 1.3957, 1.5019,
18, 1.4163, 1.3864, 1.3057, 1.6210,
19, 1.5796, 1.4185, 1.6541, 1.5116,
20, 1.7106, 1.4412, 1.2361, 1.3824,
21, 1.4371, 1.5051, 1.3485, 1.5670,
22, 1.4738, 1.5936, 1.6583, 1.4973,
23, 1.5917, 1.4333, 1.5551, 1.5295,
24, 1.6399, 1.5243, 1.5705, 1.5563,
25, 1.5797, 1.3663, 1.6240, 1.3732
), ncol = 5, byrow = TRUE)
tabela_6.1 <- as.data.frame(tabela_6.1)
colnames(tabela_6.1) <- c("Amostra", "x1", "x2", "x3", "x4")
Calcule os limites de controle para o gráfico \(\bar{x}\).
Calcule os limites de controle para o gráfico \(R\)
Construa os dois gráficos no R
.
Calcule o desvio padrão de cada subgrupo.
Calcule a média dos desvios \(\bar{s}\) e os limites de controle do gráfico \(s\).
Construa o gráfico do desvio padrão no R
.
Algum subgrupo está fora dos limites de controle?
Há alguma tendência ou padrão preocupante mesmo com os pontos dentro dos limites?
O processo pode ser considerado sob controle estatístico?
Compare os gráficos \(\bar{x} - R\) e \(\bar{x} - s\):
✅ A escolha entre amplitude ou desvio padrão depende do tamanho da amostra.
✅ Gráficos de variância são mais sensíveis, mas menos utilizados.
✅ Gráficos \(\bar{x}\) e \(R\) são os mais comuns na prática industrial.
O Gráfico de Controle de Shewhart para Medições Individuais é usado quando:
Amplitude móvel
\[ MR_{i} = |x_{i} - x_{i-1}| \]
\(\overline{MR}\) = média da ampitude móvel entre observações consecutivas.
d\(_{2}\) \(\approx\) 1.128 para n = 2.
Exemplo: Viscosidade da tinta de base (Primer) de aviões (Montgomery)
Lote Viscosidade
1 1 33.75
2 2 33.05
3 3 34.00
4 4 33.81
5 5 33.46
6 6 34.02
7 7 33.68
8 8 33.27
9 9 33.49
10 10 33.20
11 11 33.62
12 12 33.00
13 13 33.54
14 14 33.12
15 15 33.84
✅ Gráfico adequado para processos com n = 1.
✅ Simples de aplicar.
✅ Sensível à não normalidade!
Corrigir não normalidade.
Reduzir heterocedasticidade (não homogeneidade de variâncias).
Melhorar a adequação de modelos lineares e de controle estatístico.
Definição
Para uma variável ( y > 0 ) e um parâmetro ():
\[ y^{(\lambda)} = \begin{cases} \frac{y^\lambda - 1}{\lambda}, & \text{se } \lambda \neq 0 \\ \ln(y), & \text{se } \lambda = 0 \end{cases} \] Simplificando:
\[ y^{(\lambda)} = \begin{cases} y^\lambda, & \text{se } \lambda \neq 0 \\ \ln(y), & \text{se } \lambda = 0 \end{cases} \]
Exemplo:
[1] 0.2626263
Exemplo com dados simulados:
set.seed(123)
# Dados com assimetria positiva
dados <- rexp(20, rate = 0.1)
hist(dados, probability = TRUE, col = "lightblue",
main = "Histograma dos Dados Originais")
curve(dnorm(x, mean = mean(dados), sd = sd(dados)),
col = "darkblue", lwd = 2, add = TRUE)
# teste de normalidade
shapiro.test(dados)
Shapiro-Wilk normality test
data: dados
W = 0.72256, p-value = 7.442e-05
Testando a necessidade de transformação
[1] 0.1414141
if (abs(melhor_lambda) < 0.01) {
dados_transf <- log(dados)
} else {
dados_transf <- (dados^melhor_lambda - 1) / melhor_lambda
}
hist(dados_transf, probability = TRUE, col = "lightgreen",
main = "Historgama dos Dados Transformados")
curve(dnorm(x, mean = mean(dados_transf), sd = sd(dados_transf)),
col = "darkgreen", lwd = 2, add = TRUE)
# teste de normalidade
shapiro.test(dados_transf)
Shapiro-Wilk normality test
data: dados_transf
W = 0.97645, p-value = 0.8806
Limites de controle
Gráfico de Controle Individual
set.seed(123)
# 12 subgrupos, 5 peças cada
n <- 5
k <- 12
dados <- matrix(rnorm(k * n, mean = 10, sd = 0.1), ncol = n, byrow = TRUE)
dados
[,1] [,2] [,3] [,4] [,5]
[1,] 9.943952 9.976982 10.155871 10.007051 10.012929
[2,] 10.171506 10.046092 9.873494 9.931315 9.955434
[3,] 10.122408 10.035981 10.040077 10.011068 9.944416
[4,] 10.178691 10.049785 9.803338 10.070136 9.952721
[5,] 9.893218 9.978203 9.897400 9.927111 9.937496
[6,] 9.831331 10.083779 10.015337 9.886186 10.125381
[7,] 10.042646 9.970493 10.089513 10.087813 10.082158
[8,] 10.068864 10.055392 9.993809 9.969404 9.961953
[9,] 9.930529 9.979208 9.873460 10.216896 10.120796
[10,] 9.887689 9.959712 9.953334 10.077997 9.991663
[11,] 10.025332 9.997145 9.995713 10.136860 9.977423
[12,] 10.151647 9.845125 10.058461 10.012385 10.021594
faithful
do datasets
.Ozone
dos dados airquality
do datasets
.\(p\): probabilidade de que uma unidade não esteja de acordo com as especificações.
\(D\): número de unidade que são não-conforme em uma amostra de tamanho n.
\[D \sim Bin (n,p) \]
em que a fração não-conforme é
\[\hat{p} = \dfrac{D}{n}\]
p
(Padrão dado)\[\begin{matrix} LSC = & p + 3\sqrt{\dfrac{p(1-p)}{n}} \\ LC = & p \\ LIC = & p - 3\sqrt{\dfrac{p(1-p)}{n}} \\ \end{matrix}\]
p
(Nenhum padrão dado)\[\begin{matrix} LSC = & \bar{p} + 3\sqrt{\dfrac{\bar{p}(1-\bar{p})}{n}} \\ LC = & \bar{p} \\ LIC = & \bar{p} - 3\sqrt{\dfrac{\bar{p}(1-\bar{p})}{n}} \\ \end{matrix}\]
em que a fração não-conforme é
\[ \hat{p}_{i} = \dfrac{D_{i}}{n}, \quad i = 1,2,...,m \]
e a média dessas frações é
\[ \hat{p}_{i} = \dfrac{\sum_{i}^{m}D_{i}}{mn} = \dfrac{\sum_{i}^{m}\hat{p}_{i}}{n} \]
Exemplo: Suco de laranja congelado e concentrado é embalado e latas de papelão. Selecionaram-se 30 amostras de tamanho n = 50 embalagens cada.
np
\[\begin{matrix} LSC = & np + 3\sqrt{np(1-p)} \\ LC = & np \\ LIC = & np - 3\sqrt{np(1-p)} \\ \end{matrix}\]
\[\begin{matrix} LSC = & n\bar{p} + 3\sqrt{n\bar{p}(1-\bar{p})} \\ LC = & n\bar{p} \\ LIC = & n\bar{p} - 3\sqrt{n\bar{p}(1-\bar{p})} \\ \end{matrix}\]
Usando os dados da tabela anterior temos:
\[\begin{matrix} LIC & > 0 \Rightarrow p - 3\sqrt{\dfrac{p(1-p)}{n}} > 0 \\ \Rightarrow & \dfrac{p}{3} > \sqrt{\dfrac{p(1-p)}{n}} \Rightarrow \dfrac{p^2}{9} > \dfrac{p(1-p)}{n} \\ \Rightarrow & n > \dfrac{9(1-p)}{p} \\ \end{matrix}\]
\[\begin{matrix} LSC = & \bar{p} + 3\sqrt{\dfrac{\bar{p}(1-\bar{p})}{n_{i}}} \\ LC = & \bar{p} \\ LIC = & \bar{p} - 3\sqrt{\dfrac{\bar{p}(1-\bar{p})}{n_{i}}} \\ \end{matrix}\]
\[\begin{matrix} LSC = & \bar{p} + 3\sqrt{\dfrac{\bar{p}(1-\bar{p})}{\bar{n}}} \\ LC = & \bar{p} \\ LIC = & \bar{p} - 3\sqrt{\dfrac{\bar{p}(1-\bar{p})}{\bar{n}}} \\ \end{matrix}\]
Os pontos são plotados como:
\[ Z_{i} = \dfrac{\hat{p_{i}} - p}{ \sqrt{\dfrac{p(1-p)}{n_{i}}} } \]
em que a linha central é zero e os limites superior e inferior são \(\pm\) 3.
Exemplo (Montgomery, 2009): Dados de pedido de compra para um gráfico de controle para fração não conforme com tamanho de amostra variável.
Amostra n_i D_i p_i Desvio LIC LSC z_i
1 1 100 12 0.12000000 0.02939184 0.007334695 0.1836857 0.8332176
2 2 80 8 0.10000000 0.03286107 -0.003073012 0.1940934 0.1366296
3 3 80 6 0.07500000 0.03286107 -0.003073012 0.1940934 -0.6241490
4 4 100 9 0.09000000 0.02939184 0.007334695 0.1836857 -0.1874740
5 5 110 10 0.09090909 0.02802402 0.011438155 0.1795823 -0.1641846
6 6 110 12 0.10909091 0.02802402 0.011438155 0.1795823 0.4846095
7 7 100 11 0.11000000 0.02939184 0.007334695 0.1836857 0.4929871
8 8 100 16 0.16000000 0.02939184 0.007334695 0.1836857 2.1941397
9 9 90 10 0.11111111 0.03098172 0.002565056 0.1884554 0.5035521
10 10 90 6 0.06666667 0.03098172 0.002565056 0.1884554 -0.9309858
11 11 110 20 0.18181818 0.02802402 0.011438155 0.1795823 3.0797861
12 12 120 15 0.12500000 0.02683095 0.015017345 0.1760031 1.0990961
13 13 120 9 0.07500000 0.02683095 0.015017345 0.1760031 -0.7644232
14 14 120 8 0.06666667 0.02683095 0.015017345 0.1760031 -1.0750098
15 15 110 6 0.05454545 0.02802402 0.011438155 0.1795823 -1.4617730
16 16 80 8 0.10000000 0.03286107 -0.003073012 0.1940934 0.1366296
17 17 80 10 0.12500000 0.03286107 -0.003073012 0.1940934 0.8974082
18 18 80 7 0.08750000 0.03286107 -0.003073012 0.1940934 -0.2437597
19 19 90 5 0.05555556 0.03098172 0.002565056 0.1884554 -1.2896203
20 20 100 8 0.08000000 0.02939184 0.007334695 0.1836857 -0.5277045
21 21 100 5 0.05000000 0.02939184 0.007334695 0.1836857 -1.5483961
22 22 100 8 0.08000000 0.02939184 0.007334695 0.1836857 -0.5277045
23 23 100 10 0.10000000 0.02939184 0.007334695 0.1836857 0.1527566
24 24 90 6 0.06666667 0.03098172 0.002565056 0.1884554 -0.9309858
25 25 90 9 0.10000000 0.03098172 0.002565056 0.1884554 0.1449176
p
para tamanho de amostra variáveln_i <- c(100, 80, 80, 100, 110, 110, 100, 100, 90, 90,
110, 120, 120, 120, 110, 80, 80, 80, 90, 100,
100, 100, 100, 90, 90)
d_i <- c(12, 8, 6, 9, 10, 12, 11, 16, 10, 6,
20, 15, 9, 8, 6, 8, 10, 10, 5, 8,
5, 8, 10, 6, 9)
# Proporções por amostra
p_i <- d_i / n_i
# Fração média global
p_barra <- sum(d_i) / sum(n_i)
# Desvio padrão por amostra
desvio <- sqrt(p_barra * (1 - p_barra) / n_i)
# Limites (sem pmax ou pmin)
LIC <- p_barra - 3 * desvio
LSC <- p_barra + 3 * desvio
# Corrige limites inferiores negativos manualmente
LIC[LIC < 0] <- 0
# Corrige limites superiores maiores que 1
LSC[LSC > 1] <- 1
# Gráfico
plot(p_i, type = "b", pch = 19, col = "lightblue",
ylim = range(c(LIC, LSC, p_i)),
xlab = "Amostra", ylab = "Proporção de não conformes",
main = "Gráfico de Controle p para tamanho de amostra variável")
lines(LIC, col = "red", lty = 2)
lines(LSC, col = "red", lty = 2)
abline(h = p_barra, col = "darkgreen", lwd = 2)
p
para tamanho médio de amostran = 25
# tamanho médio das amostras
n_barra = sum(n_i)/n
# Fração média global
p_barra <- sum(d_i) / sum(n_i)
# limites de controle
desvio = 3*sqrt((p_barra*(1-p_barra)/n_barra))
LSC = p_barra + desvio
LIC = p_barra - desvio
# Gráfico
plot(p_i, type = "b", pch = 19, col = "lightblue",
ylim = c(0.005,0.19),
xlab = "Amostra", ylab = "Proporção de não conformes",
main = "Gráfico de Controle p para tamanho médio de amostra")
abline(h = c(LSC, LC, LIC), col = c("darkorange", "darkgray", "darkorange"),
lty = c(2,1,2), lwd = 2)
z_i = (p_i-p_barra)/(sqrt((p_barra*(1-p_barra))/n_i))
LSC = 3
LIC = -3
LC = 0
# Gráfico
plot(z_i, type = "b", pch = 19, col = "lightblue3",
ylim = c(-4,4),
xlab = "Amostra", ylab = "Scores z",
main = "Gráfico de Controle padronizado")
abline(h = c(LSC, LC, LIC), col = c("tomato3", "darkgray", "tomato3"),
lty = c(2,1,2), lwd = 2)
c
(Padrão dado)Empregado no controle do número de defeitos por item.
Cada item pode apresentar mais de um tipo defeito.
Exemplo: aparelhos eletrônicos; placas de um circuito; veículo automotivo.
Suponha que os defeitos ou não-conformidades em uma unidade ocorram segundo uma distribuição Poisson:
\[ p(x) = \dfrac{e^{-c}c^{x}}{x!}, \quad x = 0,1,2,... \] \(x\): número de não-conformidades.
\(c\): média e variância dessa distribuição.
\[\begin{matrix} LSC = & c + 3\sqrt{c} \\ LC = & c \\ LIC = & c - 3\sqrt{c} \\ \end{matrix}\]
c
(Nenhum padrão dado)\[\begin{matrix} LSC = & \bar{c} + 3\sqrt{\bar{c}} \\ LC = & \bar{c} \\ LIC = & \bar{c} - 3\sqrt{\bar{c}} \\ \end{matrix}\]
em que \(\bar{c}\) é o número médio estimado de não-conformidades em uma amostra.
Exemplo (Montgomery, 2009): Número de não-conformidade em amostras de 100 placas de circuito impresso.
Amostra n_i
1 1 21
2 2 24
3 3 16
4 4 12
5 5 15
6 6 5
7 7 28
8 8 20
9 9 31
10 10 25
11 11 20
12 12 24
13 13 16
14 14 19
15 15 10
16 16 17
17 17 13
18 18 22
19 19 18
20 20 39
21 21 30
22 22 24
23 23 16
24 24 19
25 25 17
26 26 15
amostra <- 1:26
n_i <- c(21,24,16,12,15,5,28,20,31,25,20,24,16,19,10,17,13,22,18,39,30,24,16,19,17,15)
tab6.7 = data.frame(Amostra = amostra, n_i = n_i)
LC = sum(n_i)/length(n_i)
LSC = LC + 3*sqrt(LC)
LIC = LC - 3*sqrt(LC)
plot(n_i, type = "b", col = "steelblue3", axes = FALSE,
ylim = c(min(n_i),max(n_i)),
xlim = c(1,26),
xlab = "Amostra", ylab = "Número de não-conformidade",
main = "Gráfico de Controle c")
abline(h = c(LSC,LC,LIC), lty = c(2,1,2),
col = c("violetred2","azure4","violetred2"))
axis(1)
axis(2)
u
(Padrão dado)Número médio de defeitos por unidade de inspeção.
\[u = \dfrac{x}{n}\]
\(x\) é uma v.a. Poisson.
\[\begin{matrix} LSC = & \bar{u} + 3 \sqrt{\dfrac{\bar{u}}{n}} \\ LC = & \bar{u} \\ LIC = & \bar{u} - 3 \sqrt{\dfrac{\bar{u}}{n}} \\ \end{matrix}\]
Exemplo: tabela 6.10 (Montgomery, 2009)
Um fabricante de microcomputadores deseja estabelecer um gráfico de controle para não-conformidade por unidade na linha de montagem final. O tamanho da amostra é escolhido com 5 computadores.
Amostra Tamanho x_i u_i
1 1 5 10 2.0
2 2 5 12 2.4
3 3 5 8 1.6
4 4 5 14 2.8
5 5 5 10 2.0
6 6 5 16 3.2
7 7 5 11 2.2
8 8 5 7 1.4
9 9 5 10 2.0
10 10 5 15 3.0
11 11 5 9 1.8
12 12 5 5 1.0
13 13 5 7 1.4
14 14 5 11 2.2
15 15 5 12 2.4
16 16 5 6 1.2
17 17 5 8 1.6
18 18 5 10 2.0
19 19 5 7 1.4
20 20 5 5 1.0
amostra = 1:20
tamanho = rep(5,20); n = 5
x_i = c(10,12,8,14,10,16,11,7,10,15,9,5,7,11,12,6,8,10,7,5)
u_i = x_i/n
tab6.10 = data.frame(Amostra = amostra,
Tamanho = tamanho,
x_i = x_i,
u_i = u_i)
### contruindo os limites
u.barra = mean(u_i)
LSC = u.barra + 3*sqrt(u.barra/n)
LC = u.barra
LIC = u.barra - 3*sqrt(u.barra/n)
### construindo os gráficos
plot(u_i, type = "b", pch = 20, col = "darkolivegreen4",
ylim = c(0,4), xlim = c(0,20),axes = F,
main = "Gráfico u", xlab = "Amostra", ylab = "Número médio de não-conformidade por unidade")
abline(h = c(LIC,LC,LSC), col = c("tan1","steelblue4","tan1"),
lty = c(2,1,2))
axis(1)
axis(2)
u
com tamanho de amostra variávelExemplo: tabela 6.11 (Montgomery, 2009)
Em uma fábrica de acabamento de tecido, pano tingido é inspecionado procurando-se a ocorrência de defeitos por 50 metros quadrados.
rolo Metro2 x_i n_i u_i
1 1 500 14 10.0 1.4000000
2 2 400 12 8.0 1.5000000
3 3 650 20 13.0 1.5384615
4 4 500 11 10.0 1.1000000
5 5 475 7 9.5 0.7368421
6 6 500 10 10.0 1.0000000
7 7 600 21 12.0 1.7500000
8 8 525 16 10.5 1.5238095
9 9 600 19 12.0 1.5833333
10 10 625 23 12.5 1.8400000
rolo = 1:10
metro2 = c(500,400,650,500,475,500,600,525,600,625)
x_i = c(14,12,20,11,7,10,21,16,19,23)
n_i = c(10,8,13,10,9.5,10,12,10.5,12,12.5)
u_i = x_i/n_i
u.barra = sum(x_i)/sum(n_i)
tab6.11 = data.frame(rolo = rolo,
Metro2 = metro2,
x_i = x_i,
n_i = n_i,
u_i = u_i)
### contruindo os limites
LSC = u.barra + 3*sqrt(u.barra/n_i)
LC = u.barra
LIC = u.barra - 3*sqrt(u.barra/n_i)
### construindo os gráficos
plot(u_i, type = "b", pch = 20, col = "springgreen3",
ylim = c(0,3), xlim = c(0,10),axes = F,
main = "Gráfico u - tamanho de amostra variável", xlab = "Amostra", ylab = "Número médio de não-conformidade por unidade")
lines(LSC, col = "violetred", lty = 2)
lines(LIC, col = "violetred", lty = 2)
abline(h = LC, col = "steelblue4")
axis(1)
axis(2)
\[\bar{n} = \sum_{i=1}^{n}\dfrac{n_{i}}{m}\]
n.barra = sum(n_i)/length(amostra)
LSC = u.barra + 3*sqrt(u.barra/n.barra)
LC = u.barra
LIC = u.barra - 3*sqrt(u.barra/n.barra)
# Corrige limites inferiores negativos manualmente
LIC[LIC < 0] <- 0
### construindo os gráficos
plot(u_i, type = "b", pch = 20, col = "springgreen",
ylim = c(0,4), xlim = c(0,10),axes = F,
main = "Gráfico u - tamanho médio de amostra", xlab = "Amostra", ylab = "Número médio de não-conformidade por unidade")
abline(h = c(LSC,LC,LIC), col = c("violetred4","steelblue1","violetred4"),lty = c(2,1,2))
axis(1)
axis(2)
\[ z_{i} = \dfrac{u_{i} - \bar{u}}{\sqrt{\dfrac{\bar{u}}{n_{i}}}} \]
# score z
z_i = (u_i - u.barra)/(sqrt(u.barra/n_i))
### Limites
LC = 0
LSC = 3
LIC = -3
### construindo os gráficos
plot(z_i, type = "b", pch = 20, col = "springgreen4",
ylim = c(-3,3), xlim = c(0,10),axes = F,
main = "Gráfico u - padronizado", xlab = "Amostra", ylab = "Score z")
abline(h = c(LSC,LC,LIC), col = c("indianred1","gold4","indianred1"), lty = c(2,1,2))
axis(1)
axis(2)
gráfico c
versus gráfico u
Ambos usados para monitorar defeitos (e não unidades defeituosas).
A diferença está na tamanho da amostra e na forma de padronização.
Comparação Geral
Característica | Gráfico c |
Gráfico u |
---|---|---|
Tipo de dado | Contagem de defeitos | Defeitos por unidade |
Tamanho da amostra | Constante | Variável |
Medida usada | \(c_i\) | \(u_i = c_i/n_i\) |
Linha central | \(\bar{c}\) | \(\bar{u}\) |
Limites de controle | Fixos | Variáveis com base em \(n_i\) |
Aplicação típica | Inspeções padronizadas | Inspeções com tamanhos variados |
Quando usar?
Situação | Gráfico indicado |
---|---|
Você inspeciona sempre 100 peças | c |
Às vezes inspeciona 80, 100 ou 120 peças | u |
Cada folha ou lote tem mesma dimensão | c |
O tamanho das amostras varia com o lote ou turno | u |
Exemplos:
Gráfico c
: contar riscos por folha de vidro do mesmo tamanho.
Gráfico u
: contar falhas em produtos de inspeção com quantidades diferentes.
Conclusão
Gráfico c
: simples e direto quando o tamanho da amostra é constante.Gráfico u
: flexível, ideal para quando o tamanho da amostra varia. Amostra Defeitos
1 1 16
2 2 6
3 3 3
4 4 10
5 5 13
6 6 7
7 7 11
8 8 7
9 9 5
10 10 21
11 11 26
12 12 12
13 13 7
14 14 10
15 15 8
16 16 12
17 17 10
18 18 14
19 19 10
20 20 11
Amostra n_i Defeitos
1 1 80 9
2 2 94 8
3 3 80 8
4 4 104 10
5 5 98 7
6 6 95 7
7 7 84 11
8 8 95 7
9 9 85 6
10 10 128 19
11 11 95 11
12 12 101 8
13 13 122 13
14 14 127 11
15 15 123 6
16 16 90 8
17 17 126 14
18 18 84 6
19 19 94 9
20 20 89 8
21 21 119 10
22 22 130 14
23 23 101 14
24 24 102 27
25 25 109 19
Construa os gráficos \(p\) e \(p\) padronizado. O Processo parece estar sobre controle?
Faça as revisões necessárias nos limites de controle tentativos, de modo a produzir um conjunto de gráficos de controle para monitorar a produção futura.
Dia Defeitos
1 1 9
2 2 11
3 3 14
4 4 9
5 5 16
6 6 11
7 7 10
8 8 12
9 9 5
10 10 10
11 11 9
12 12 11
13 13 7
14 14 9
15 15 22
16 16 11
17 17 8
18 18 11
19 19 9
20 20 13
21 21 9
22 22 7
23 23 9
24 24 8
25 25 12
Estabeleça os limites de controle. Qual a sua conclusão?
Qual o menor tamanho de amostra que pode ser usado para este processo e ainda fornecer um limite inferior de controle positivo?
Lote Defeitos
1 1 11
2 2 6
3 3 9
4 4 12
5 5 8
6 6 7
7 7 14
8 8 9
9 9 14
10 10 9
11 11 9
12 12 8
13 13 6
14 14 6
15 15 11
16 16 12
17 17 22
18 18 15
19 19 20
20 20 13
21 21 8
22 22 13
23 23 13
24 24 12
25 25 9
26 26 11
27 27 11
28 28 14
29 29 9
30 30 11
Estabeleça um gráfico de controle para monitorar a produção futura (considere \(p\) = 0,20)
Ache o menos tamanho de amostra que dá um limite inferior de controle positivo.
Placa Defeitos
1 1 6
2 2 1
3 3 4
4 4 3
5 5 4
6 6 4
7 7 5
8 8 4
9 9 2
10 10 3
11 11 4
12 12 2
13 13 4
14 14 6
15 15 0
16 16 2
17 17 5
18 18 12
19 19 8
20 20 13
Amostra Falha
1 1 10
2 2 14
3 3 9
4 4 7
5 5 12
6 6 3
7 7 5
8 8 6
9 9 12
10 10 24
11 11 23
12 12 6
13 13 8
14 14 6
15 15 6
16 16 6
17 17 10
18 18 8
19 19 4
20 20 10
21 21 12
22 22 8
23 23 9
24 24 1
25 25 7
26 26 3
27 27 12
28 28 10
29 29 9
30 30 14
Estabeleça um gráfico de controle para o número de falhas por unidade de inspeção usando uma linha central c = 8 e examine o processo com relação ao controle estatístico.
Refaça o item (a) sem considerar a especificação. Qual a sua conclusão?
Bolfarine, H.; Sandoval, M.C. Introducao a Inferencia Estatistica, SBM, 2010;
LOUZADA, Francisco; DINIZ, Carlos; FERREIRA, Paulo. Controle estatístico de processos: uma abordagem prática para cursos de engenharia e administração. Grupo Gen-LTC, 2000.
Montgomery, D. C. (2009). Introduction to Statistical Quality Control (7ª ed.). Wiley.
Exemplos e gráficos produzidos com R base
Mermaid.js para diagramas visuais