Neste conteúdo iremos introduzir o procedimento básico de teste de hipótese sobre um parâmetro de uma população.
A ideia central desse procedimento é a de supor verdadeira a hipótese em questão e verificar se a amostra observada é “verossímil” nessas condições.
A hipótese que usamos como alternativa à hipótese nula, isto é, a hipótese que aceitamos quando a hipótese nula é rejeitada é chamada Hipótese Alternativa e será denotada por H1. Assim, considerando o exemplo do réu, formulamos as hipóteses:
Hipótese Alternativa e será denotada por H1. Assim, considerando o exemplo do réu, formulamos as hipóteses:
\[ H_0: \mbox{O réu é inocente}\] \[ H_1: \mbox{O réu é culpado}\] - Vamos supor uma situação em que um fabricante quer saber se um determinado tipo de barra produzido por sua fábrica atende a exigência de ter um comprimento médio de 70 cm.
O tal fabricante está interessado em decidir se as barras tem uma média igual a 70 cm ou diferente de 70 cm. Nesse caso, as hipóteses seriam:
\[ H_0: \mu = 70\] \[ H_1: \mu \neq 70\]
Ainda com relação a esse exemplo poderíamos ter hipóteses do tipo:
Caso 1: \[ H_0: \mu = 70 \\ H_1: \mu > 70\]
Caso 2: \[ H_0: \mu = 70 \\ H_1: \mu < 70\]
São dois os tipos de erros que podemos cometer na realização de um teste de hipóteses:
Rejeitar a hipótese \(H_0\), quando ela é verdadeira.
Não rejeitar a hipótese \(H_0\), quando ela é falsa.
A Tabela a seguir resume as situações acima.
\[\alpha=\mathbb{P}(\hbox{Erro do tipo I})=P(\hbox{rejeitar} \ H_0 \ \hbox{dado} \ H_0 \ \hbox{verdadeira});\]
\[\beta=\mathbb{P}(\hbox{Erro do tipo II})=P(\hbox{aceitar} \ H_0 \ \hbox{dado} \ H_0 \ \hbox{falsa}).\]
O valor p, também denominado nível descritivo do teste, é a probabilidade de que a estatística do teste (como variável aleatória) tenha valor extremo em relação ao valor observado (estatística) quando a hipótese \(H_0\) é verdadeira.
Regra de decisão: Se o valor p for inferior ao nível de significância, rejeita-se \(H_0\), caso contrário não rejeita-se \(H_0\).
Se não conhecemos o valor do desvio padrão populacional \(\sigma\) e a amostra é pequena, \(n < 30\), devemos substituir a expressão:
\[Z=\frac{\overline{X}-\mu_0}{\frac{\sigma}{\sqrt{n}}}\]
pela expressão
\[T=\frac{\overline{X}-\mu_0}{\frac{s}{\sqrt{n}}}\]
em que \(T\) tem distribuição t de Student com \(n-1\) graus de liberdade.
Para facilitar a execução do teste, podemos seguir os passos:
Fixamos \(\mu=\mu_0\). Dependendo da informação que fornece o problema que estamos estudando, a hipótese alternativa pode ter uma das três formas abaixo:
\[\mu\neq\mu_0 \quad \text{(teste bilateral)};\\ \mu > \mu_0 \quad \text{(teste unilateral à direita)} ;\\ \mu < \mu_0 \quad \text{(teste unilateral à esquerda)}. \]
\[T_{\text{obs}}=\frac{\overline{x}-\mu_0}{\frac{s}{\sqrt{n}}}\]
Teste bilateral: se \(T_{\text{obs}} > t_{\alpha/2}\) ou se \(T_{\text{obs}} < -t_{-\alpha/2}\), rejeitamos \(H_0\). Caso contrário, não rejeitamos \(H_0\).
Teste unilateral à direita: se \(T_{\text{obs}} > t_{\alpha}\), rejeitamos \(H_0\). Caso contrário, não rejeitamos \(H_0\).
Teste unilateral à esquerda: se \(T_{\text{obs}} < -t_{\alpha}\), rejeitamos \(H_0\). Caso contrário, não rejeitamos \(H_0\).
Dados da usinagem | |||
---|---|---|---|
903,88 | 1036,92 | 1098,04 | 1011,26 |
1020,7 | 915,38 | 1014,53 | 1097,79 |
934,52 | 1214,08 | 993,45 | 1120,19 |
860,41 | 1039,19 | 950,38 | 941,83 |
936,78 | 1086,98 | 1144,94 | 1066,12 |
altura <- c(
903.88, 1036.92, 1098.04, 1011.26,
1020.7, 915.38, 1014.53, 1097.79,
934.52, 1214.08, 993.45, 1120.19,
860.41, 1039.19, 950.38, 941.83,
936.78, 1086.98, 1144.94, 1066.12)
\[ H_0: \mu = 1055 \\ H_1: \mu \neq 1055 \]
alpha = 0.05
t.test(altura,
mu = 1055, # Hipotese a ser testada
alternative = "two.sided", #Teste Bilateral
conf.level = 1 - alpha)
##
## One Sample t-test
##
## data: altura
## t = -1.744, df = 19, p-value = 0.09731
## alternative hypothesis: true mean is not equal to 1055
## 95 percent confidence interval:
## 976.6067 1062.1303
## sample estimates:
## mean of x
## 1019.369
A estatística do teste foi de (\(t = -1.744\))
Temos os graus de liberdade igual a 19
Obtendo o valor p
pt(q = -1.744, # Estatística do Testes
df = 19, # Graus de liberdade
lower.tail = TRUE) ## P[X ??? x]
## [1] 0.04865831
# Como o teste é bilateral, temos que multiplicar este valor por dois
2*pt(q = -1.744,
df = 19,
lower.tail = TRUE)
## [1] 0.09731662
Note que este é o mesmo resultado obtido pela função t.test
Conclusão: Como o valor p foi superior ao nível de 0,05 de significância, devemos não rejeitar a hipótese nula. Assim, a fortes evidências de que a altura média de uma haste esteja próxima do valor nominal de 1055 mm
O procedimento é análogo a construção do teste para média, a única mudança é no cálculo da estatística do teste:
Calcular, sob a hipótese nula, o valor
\[Z_{\text{obs}}=\frac{\hat{p}-p_0}{\sqrt{p_0(1-p_0)/n}}.\] - Aqui, devemos utilizar a distribuição Normal Padrão.
Um fabricante garante que \(90\%\) das peças que fornece à linha de produção de uma determinada fábrica estão de acordo com as especificações exigidas.
A análise de uma amostra de \(200\) peças revelou \(25\) defeituosas.
A um nível de \(5\%\), podemos dizer que é verdadeira a afirmação do fabricante?
Queremos testar as hipóteses: \[ H_0: p = 0,90 \\ H_1: p < 0,90 \]
alpha = 0.05
prop.test(x = 200-25, # QTD de peças não defeituosas
n = 200,
p = 0.90,
alternative = "less", #Teste unilateral a esquerda
conf.level = 1 - alpha,
correct = F)
##
## 1-sample proportions test without continuity correction
##
## data: 200 - 25 out of 200, null probability 0.9
## X-squared = 1.3889, df = 1, p-value = 0.1193
## alternative hypothesis: true p is less than 0.9
## 95 percent confidence interval:
## 0.0000000 0.9085292
## sample estimates:
## p
## 0.875
Neste caso, a estatística do teste é dada por:
\[F_{obs}=\frac{s_1^2}{s_2^2}\]
Este valor será comparado com a distribuição \(F\) de Snedecor com \(n_1-1\) graus de liberdade no numerador e \(n_2-1\) graus de liberdade no denominador, a qual denotamos por \(F_{(n_1-1;n_2-1)}\).
Podemos formular as seguintes hipóteses:
Bilateral \[ H_0: \sigma_{1}^{2} = \sigma_{2}^{2} \\ H_1: \sigma_{1}^{2} \neq \sigma_{2}^{2} \]
Unilateral a esquerda \[ H_0: \sigma_{1}^{2} = \sigma_{2}^{2} \\ H_1: \sigma_{1}^{2} < \sigma_{2}^{2} \]
Unilateral a direita \[ H_0: \sigma_{1}^{2} = \sigma_{2}^{2} \\ H_1: \sigma_{1}^{2} > \sigma_{2}^{2} \]
Queremos verificar se duas máquinas produzem peças com a mesma homogeneidade quanto à resistência à tensão (admita \(\alpha = 0,10\)).
Para isso, sorteamos duas amostras de seis peças de cada máquina, e obtivemos as seguintes resistências:
\[Máquina ~A ~~~145 ~~~127 ~~~136 ~~~142 ~~~141 ~~~137 \\ Máquina ~B ~~~143 ~~~128 ~~~132 ~~~138 ~~~142 ~~~132\]
maqA <- c(145, 127, 136, 142, 141, 137)
maqB <- c(143, 128, 132, 138, 142, 132)
\[ H_0: \sigma_{A}^{2} = \sigma_{B}^{2} \\ H_1: \sigma_{A}^{2} \neq \sigma_{B}^{2} \]
alpha = 0.10
var.test(maqA, maqB,
ratio=1,
alternative = "two.sided", #Bilateral
conf.level = 1-alpha)
##
## F test to compare two variances
##
## data: maqA and maqB
## F = 1.0821, num df = 5, denom df = 5, p-value = 0.9331
## alternative hypothesis: true ratio of variances is not equal to 1
## 90 percent confidence interval:
## 0.2142545 5.4647384
## sample estimates:
## ratio of variances
## 1.082056
Podemos formular as seguintes hipóteses:
Bilateral \[ H_0: \mu_{1} = \mu_{2} \\ H_1: \mu_{1} \neq \mu_{2} \]
Unilateral a esquerda \[ H_0: \mu_{1} = \mu_{2} \\ H_1: \mu_{1} < \mu_{2} \]
A estatística do teste é:
\[T_{\text{obs}}=\frac{(\overline{x}-\overline{y})}{s_p\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}}.\]
Aqui, \(s_p\) é o desvio padrão agrupado (pooled) que é dado por:
\[s_p=\sqrt{\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2}}\]
Sob a \(H_0\), devemos comparar a estatística do teste com a distribuição t-Student com \(n_1+n_2-2\) graus de liberdade
Duas técnicas de venda são aplicadas por dois grupos de vendedores:
a técnica A, por 12 vendedores, e a técnica B, por 15 vendedores.
Espera-se que a técnica B produza melhores resultados. Utilize \(\alpha = 0,05\)
No final de um mês, obtiveram-se os resultados:
vendA <- c(71, 72, 62, 62, 66, 59,
58, 80, 66, 59, 68, 59)
vendB <- c(80, 80, 69, 69, 73, 65,
64, 91, 74, 65, 75, 65,
83, 72, 80)
alpha = 0.05
var.test(vendA, vendB,
ratio=1,
alternative = "two.sided", #Bilateral
conf.level = 1-alpha)
##
## F test to compare two variances
##
## data: vendA and vendB
## F = 0.7207, num df = 11, denom df = 14, p-value = 0.5923
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.2328887 2.4206782
## sample estimates:
## ratio of variances
## 0.7206951
\[ H_0: \mu_A = \mu_B \\ H_1: \mu_A < \mu_B \]
alpha = 0.05
t.test(vendA, vendB,
alternative = "less",
var.equal = TRUE,
conf.level = 1 - alpha)
##
## Two Sample t-test
##
## data: vendA and vendB
## t = -2.9636, df = 25, p-value = 0.003294
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
## -Inf -3.600881
## sample estimates:
## mean of x mean of y
## 65.16667 73.66667
Podemos formular as seguintes hipóteses:
Bilateral \[ H_0: \mu_{1} = \mu_{2} \\ H_1: \mu_{1} \neq \mu_{2} \]
Unilateral a esquerda \[ H_0: \mu_{1} = \mu_{2} \\ H_1: \mu_{1} < \mu_{2} \]
Unilateral a direita \[ H_0: \mu_{1} = \mu_{2} \\ H_1: \mu_{1} > \mu_{2} \]
A estatística do teste é:
\[T_{\text{obs}}=\frac{(\overline{x}-\overline{y})}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}}.\]
Sob a \(H_0\), devemos comparar a estatística do teste com a distribuição t-Student com \(n_1+n_2-2\) graus de liberdade
Uma fábrica de embalagens para produtos químicos está estudando dois processos para combater a corrosão de suas latas especiais.
Para verificar o efeito dos tratamentos, foram usadas amostras cujos resultados estão abaixo (em porcentagem de corrosão eliminada). Qual seria a conclusão sobre os dois tratamentos?
tratA <- c(53, 53, 44, 40, 45, 35, 34, 65,
45, 35, 47, 36, 56, 43, 45)
tratB <- c(59, 59, 39, 40, 47, 32,
31, 78, 48, 32, 71, 34)
alpha = 0.05
var.test(tratA, tratB,
ratio=1,
alternative = "two.sided", #Bilateral
conf.level = 1-alpha)
##
## F test to compare two variances
##
## data: tratA and tratB
## F = 0.30325, num df = 14, denom df = 11, p-value = 0.03887
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.0902862 0.9384474
## sample estimates:
## ratio of variances
## 0.3032542
\[ H_0: \mu_A = \mu_B \\ H_1: \mu_A \neq \mu_B \]
alpha = 0.05
t.test(tratA, tratB,
alternative = "two.sided",
var.equal = FALSE,
conf.level = 1 - alpha)
##
## Welch Two Sample t-test
##
## data: tratA and tratB
## t = -0.47303, df = 16.234, p-value = 0.6425
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -13.32559 8.45892
## sample estimates:
## mean of x mean of y
## 45.06667 47.50000
Podemos formular as seguintes hipóteses:
Bilateral \[ H_0: \mu_{D} = 0 \\ H_1: \mu_{D} \neq 0 \]
Unilateral a esquerda \[ H_0: \mu_{D} = 0 \\ H_1: \mu_{D} < 0 \]
Unilateral a direita \[ H_0: \mu_{D} = 0 \\ H_1: \mu_{D} > 0 \]
A estatística do teste é:
\[ T_{\text{obs}}=\frac{\overline{D}-\mu_D}{\frac{s_D}{\sqrt{n}}}\] Sendo, \[s_D^2=\frac{\sum_{i=1}^n(D_i-\overline{D})^2}{n-1}.\]
Operador | Marca A | Marca B |
---|---|---|
1 | 80 | 75 |
2 | 72 | 70 |
3 | 65 | 60 |
4 | 78 | 72 |
5 | 85 | 78 |
marca_A <- c(80, 72, 65, 78, 85)
marca_B <- c(75, 70, 60, 72, 78)
\[ H_0: \mu_A = \mu_B \\ H_1: \mu_A > \mu_B \] ou,
\[ H_0: \mu_D = 0 \\ H_1: \mu_D > 0 \]
alpha = 0.10
t.test(marca_A, marca_B,
alternative = "greater",
paired = TRUE,
conf.level = 1 - alpha)
##
## Paired t-test
##
## data: marca_A and marca_B
## t = 5.9761, df = 4, p-value = 0.00197
## alternative hypothesis: true difference in means is greater than 0
## 90 percent confidence interval:
## 3.717228 Inf
## sample estimates:
## mean of the differences
## 5
Segue-se que rejeitamos \(H_0\), ou seja, demora-se mais para realizar a tarefa com a máquina A.