Teste de Hipóteses

Hipótese Alternativa e será denotada por H1. Assim, considerando o exemplo do réu, formulamos as hipóteses:

\[ H_0: \mbox{O réu é inocente}\] \[ H_1: \mbox{O réu é culpado}\] - Vamos supor uma situação em que um fabricante quer saber se um determinado tipo de barra produzido por sua fábrica atende a exigência de ter um comprimento médio de 70 cm.

O tal fabricante está interessado em decidir se as barras tem uma média igual a 70 cm ou diferente de 70 cm. Nesse caso, as hipóteses seriam:

\[ H_0: \mu = 70\] \[ H_1: \mu \neq 70\]

Ainda com relação a esse exemplo poderíamos ter hipóteses do tipo:

Erros Cometidos

  • São dois os tipos de erros que podemos cometer na realização de um teste de hipóteses:

  • Rejeitar a hipótese \(H_0\), quando ela é verdadeira.

  • Não rejeitar a hipótese \(H_0\), quando ela é falsa.

A Tabela a seguir resume as situações acima.

  • Assim temos,

\[\alpha=\mathbb{P}(\hbox{Erro do tipo I})=P(\hbox{rejeitar} \ H_0 \ \hbox{dado} \ H_0 \ \hbox{verdadeira});\]

\[\beta=\mathbb{P}(\hbox{Erro do tipo II})=P(\hbox{aceitar} \ H_0 \ \hbox{dado} \ H_0 \ \hbox{falsa}).\]

Valor p

  • O valor p, também denominado nível descritivo do teste, é a probabilidade de que a estatística do teste (como variável aleatória) tenha valor extremo em relação ao valor observado (estatística) quando a hipótese \(H_0\) é verdadeira.

  • Regra de decisão: Se o valor p for inferior ao nível de significância, rejeita-se \(H_0\), caso contrário não rejeita-se \(H_0\).

Teste para Média

Se não conhecemos o valor do desvio padrão populacional \(\sigma\) e a amostra é pequena, \(n < 30\), devemos substituir a expressão:

\[Z=\frac{\overline{X}-\mu_0}{\frac{\sigma}{\sqrt{n}}}\]

pela expressão

\[T=\frac{\overline{X}-\mu_0}{\frac{s}{\sqrt{n}}}\]

Fixamos \(\mu=\mu_0\). Dependendo da informação que fornece o problema que estamos estudando, a hipótese alternativa pode ter uma das três formas abaixo:

\[\mu\neq\mu_0 \quad \text{(teste bilateral)};\\ \mu > \mu_0 \quad \text{(teste unilateral à direita)} ;\\ \mu < \mu_0 \quad \text{(teste unilateral à esquerda)}. \]

\[T_{\text{obs}}=\frac{\overline{x}-\mu_0}{\frac{s}{\sqrt{n}}}\]

Teste bilateral: se \(T_{\text{obs}} > t_{\alpha/2}\) ou se \(T_{\text{obs}} < -t_{-\alpha/2}\), rejeitamos \(H_0\). Caso contrário, não rejeitamos \(H_0\).

Teste unilateral à direita: se \(T_{\text{obs}} > t_{\alpha}\), rejeitamos \(H_0\). Caso contrário, não rejeitamos \(H_0\).

Teste unilateral à esquerda: se \(T_{\text{obs}} < -t_{\alpha}\), rejeitamos \(H_0\). Caso contrário, não rejeitamos \(H_0\).

Aplicação

  • Um engenheiro de produção quer testar, com base nos dados da tabela a seguir, e para um nível de significância \(\alpha = 0,05\), se a altura média de uma haste está próxima do valor nominal de \(1055\) mm. Uma amostra de \(20\) hastes foi analisada as medidas obtidas são dadas a seguir.
Dados da usinagem
903,88 1036,92 1098,04 1011,26
1020,7 915,38 1014,53 1097,79
934,52 1214,08 993,45 1120,19
860,41 1039,19 950,38 941,83
936,78 1086,98 1144,94 1066,12
altura <- c(
  903.88, 1036.92, 1098.04, 1011.26,
  1020.7, 915.38,   1014.53, 1097.79,
  934.52, 1214.08, 993.45, 1120.19,
  860.41, 1039.19, 950.38, 941.83,
  936.78, 1086.98, 1144.94, 1066.12)
  • Formulando as hipóteses

\[ H_0: \mu = 1055 \\ H_1: \mu \neq 1055 \]

alpha = 0.05
t.test(altura,
       mu = 1055, # Hipotese a ser testada
       alternative = "two.sided", #Teste Bilateral
       conf.level = 1 - alpha)
## 
##  One Sample t-test
## 
## data:  altura
## t = -1.744, df = 19, p-value = 0.09731
## alternative hypothesis: true mean is not equal to 1055
## 95 percent confidence interval:
##   976.6067 1062.1303
## sample estimates:
## mean of x 
##  1019.369
  • A estatística do teste foi de (\(t = -1.744\))

  • Temos os graus de liberdade igual a 19

  • Obtendo o valor p

pt(q = -1.744,  # Estatística do Testes 
   df = 19,     # Graus de liberdade
   lower.tail = TRUE) ## P[X ??? x]
## [1] 0.04865831
# Como o teste é bilateral, temos que multiplicar este valor por dois

2*pt(q = -1.744,  
   df = 19,     
   lower.tail = TRUE)
## [1] 0.09731662
  • Note que este é o mesmo resultado obtido pela função t.test

  • Conclusão: Como o valor p foi superior ao nível de 0,05 de significância, devemos não rejeitar a hipótese nula. Assim, a fortes evidências de que a altura média de uma haste esteja próxima do valor nominal de 1055 mm

Teste para proporção

O procedimento é análogo a construção do teste para média, a única mudança é no cálculo da estatística do teste:

Calcular, sob a hipótese nula, o valor

\[Z_{\text{obs}}=\frac{\hat{p}-p_0}{\sqrt{p_0(1-p_0)/n}}.\] - Aqui, devemos utilizar a distribuição Normal Padrão.

Aplicação

  • Um fabricante garante que \(90\%\) das peças que fornece à linha de produção de uma determinada fábrica estão de acordo com as especificações exigidas.

  • A análise de uma amostra de \(200\) peças revelou \(25\) defeituosas.

  • A um nível de \(5\%\), podemos dizer que é verdadeira a afirmação do fabricante?

Queremos testar as hipóteses: \[ H_0: p = 0,90 \\ H_1: p < 0,90 \]

alpha = 0.05
prop.test(x = 200-25, # QTD de peças não defeituosas
          n = 200,
          p = 0.90,
          alternative = "less", #Teste unilateral a esquerda
          conf.level = 1 - alpha,
          correct = F)
## 
##  1-sample proportions test without continuity correction
## 
## data:  200 - 25 out of 200, null probability 0.9
## X-squared = 1.3889, df = 1, p-value = 0.1193
## alternative hypothesis: true p is less than 0.9
## 95 percent confidence interval:
##  0.0000000 0.9085292
## sample estimates:
##     p 
## 0.875
  • Conclusão: Como o valor p (0.1193) foi maior do que o nível de \(5\%\) de significância, não rejeita-se \(H_0\). Assim, há fortes evidências de que a afirmação do fabricante seja verdadeira (\(90\%\) das peças estão de acordo com as especificações exigidas).

Teste para comparação de duas variâncias

Neste caso, a estatística do teste é dada por:

\[F_{obs}=\frac{s_1^2}{s_2^2}\]

Este valor será comparado com a distribuição \(F\) de Snedecor com \(n_1-1\) graus de liberdade no numerador e \(n_2-1\) graus de liberdade no denominador, a qual denotamos por \(F_{(n_1-1;n_2-1)}\).

Aplicação

  • Queremos verificar se duas máquinas produzem peças com a mesma homogeneidade quanto à resistência à tensão (admita \(\alpha = 0,10\)).

  • Para isso, sorteamos duas amostras de seis peças de cada máquina, e obtivemos as seguintes resistências:

\[Máquina ~A ~~~145 ~~~127 ~~~136 ~~~142 ~~~141 ~~~137 \\ Máquina ~B ~~~143 ~~~128 ~~~132 ~~~138 ~~~142 ~~~132\]

maqA <- c(145, 127, 136, 142, 141, 137)
maqB <- c(143, 128, 132, 138, 142, 132)
  • Formulação das hipóteses:

\[ H_0: \sigma_{A}^{2} = \sigma_{B}^{2} \\ H_1: \sigma_{A}^{2} \neq \sigma_{B}^{2} \]

alpha = 0.10

var.test(maqA, maqB,
         ratio=1,
         alternative = "two.sided", #Bilateral
         conf.level = 1-alpha)
## 
##  F test to compare two variances
## 
## data:  maqA and maqB
## F = 1.0821, num df = 5, denom df = 5, p-value = 0.9331
## alternative hypothesis: true ratio of variances is not equal to 1
## 90 percent confidence interval:
##  0.2142545 5.4647384
## sample estimates:
## ratio of variances 
##           1.082056
  • Como o valor p (0.9331) é maior do que o nível de \(10\%\) de significância, não rejeita-se \(H_0\). Assim, há fortes indícios de que as máquinas produzem com a mesma homogeneidade quanto à variabilidade.

Comparação de médias: Variâncias iguais

\[T_{\text{obs}}=\frac{(\overline{x}-\overline{y})}{s_p\sqrt{\frac{1}{n_1}+\frac{1}{n_2}}}.\]

Aqui, \(s_p\) é o desvio padrão agrupado (pooled) que é dado por:

\[s_p=\sqrt{\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2}}\]

Sob a \(H_0\), devemos comparar a estatística do teste com a distribuição t-Student com \(n_1+n_2-2\) graus de liberdade

Aplicação

  • Duas técnicas de venda são aplicadas por dois grupos de vendedores:

  • a técnica A, por 12 vendedores, e a técnica B, por 15 vendedores.

  • Espera-se que a técnica B produza melhores resultados. Utilize \(\alpha = 0,05\)

  • No final de um mês, obtiveram-se os resultados:

vendA <- c(71, 72, 62, 62, 66, 59,
          58, 80, 66, 59, 68, 59)

vendB <- c(80, 80, 69, 69, 73, 65,
           64, 91, 74, 65, 75, 65,
           83, 72, 80)
  • Verificando se as variâncias são iguais
alpha = 0.05

var.test(vendA, vendB,
         ratio=1,
         alternative = "two.sided", #Bilateral
         conf.level = 1-alpha)
## 
##  F test to compare two variances
## 
## data:  vendA and vendB
## F = 0.7207, num df = 11, denom df = 14, p-value = 0.5923
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.2328887 2.4206782
## sample estimates:
## ratio of variances 
##          0.7206951
  • Ao nível de \(5\%\) de significância, as variâncias populacionais podem ser ditas, estatisticamente, iguais.

Comparando as médias

\[ H_0: \mu_A = \mu_B \\ H_1: \mu_A < \mu_B \]

alpha = 0.05 

t.test(vendA, vendB,
       alternative = "less",
       var.equal = TRUE,
       conf.level = 1 - alpha)
## 
##  Two Sample t-test
## 
## data:  vendA and vendB
## t = -2.9636, df = 25, p-value = 0.003294
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
##       -Inf -3.600881
## sample estimates:
## mean of x mean of y 
##  65.16667  73.66667
  • Como o valor p (0.003294) é menor do que o nível de \(5\%\) de significância, devemos rejeitar \(H_0\). Assim, existe evidência de que a técnica B produz melhores resultados do que a técnica A.

Comparação de médias: Variâncias diferentes

\[T_{\text{obs}}=\frac{(\overline{x}-\overline{y})}{\sqrt{\frac{s_1^2}{n_1}+\frac{s_2^2}{n_2}}}.\]

Sob a \(H_0\), devemos comparar a estatística do teste com a distribuição t-Student com \(n_1+n_2-2\) graus de liberdade

Aplicação

  • Uma fábrica de embalagens para produtos químicos está estudando dois processos para combater a corrosão de suas latas especiais.

  • Para verificar o efeito dos tratamentos, foram usadas amostras cujos resultados estão abaixo (em porcentagem de corrosão eliminada). Qual seria a conclusão sobre os dois tratamentos?

tratA <- c(53, 53, 44, 40, 45, 35, 34, 65,
           45, 35, 47, 36, 56, 43, 45)

tratB <- c(59, 59, 39, 40, 47, 32,
           31, 78, 48, 32, 71, 34)
  • Verificando se as variâncias são iguais
alpha = 0.05

var.test(tratA, tratB,
         ratio=1,
         alternative = "two.sided", #Bilateral
         conf.level = 1-alpha)
## 
##  F test to compare two variances
## 
## data:  tratA and tratB
## F = 0.30325, num df = 14, denom df = 11, p-value = 0.03887
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.0902862 0.9384474
## sample estimates:
## ratio of variances 
##          0.3032542
  • Ao nível de \(5\%\) de significância, as variâncias populacionais podem ser ditas, estatisticamente, diferentes.

Comparando as médias

\[ H_0: \mu_A = \mu_B \\ H_1: \mu_A \neq \mu_B \]

alpha = 0.05 

t.test(tratA, tratB,
       alternative = "two.sided",
       var.equal = FALSE,
       conf.level = 1 - alpha)
## 
##  Welch Two Sample t-test
## 
## data:  tratA and tratB
## t = -0.47303, df = 16.234, p-value = 0.6425
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -13.32559   8.45892
## sample estimates:
## mean of x mean of y 
##  45.06667  47.50000
  • Como o valor p (0.6425) é maior do que o nível de \(5\%\) de significância, não rejeitamos \(H_0\). Assim, existe evidência de que, em médiaa, não existe diferença entre os tratamentos.

Comparação de médias: amostras pareadas (dependentes)

\[ T_{\text{obs}}=\frac{\overline{D}-\mu_D}{\frac{s_D}{\sqrt{n}}}\] Sendo, \[s_D^2=\frac{\sum_{i=1}^n(D_i-\overline{D})^2}{n-1}.\]

Aplicação

  • Cinco operadores de certo tipo de máquina são treinados em máquinas de duas marcas diferentes, A e B. Mediu-se o tempo que cada um deles gasta na realização de uma mesma tarefa, e os resultados estão na Tabela a seguir.
Operador Marca A Marca B
1 80 75
2 72 70
3 65 60
4 78 72
5 85 78
  • Com o nível de significância de \(10\%\), poderíamos afirmar que a tarefa realizada na máquina A demora mais do que na máquina B?
marca_A <- c(80, 72, 65, 78, 85)

marca_B <- c(75, 70, 60, 72, 78)

Comparando as médias

\[ H_0: \mu_A = \mu_B \\ H_1: \mu_A > \mu_B \] ou,

\[ H_0: \mu_D = 0 \\ H_1: \mu_D > 0 \]

alpha = 0.10 

t.test(marca_A, marca_B,
       alternative = "greater",
       paired = TRUE,
       conf.level = 1 - alpha)
## 
##  Paired t-test
## 
## data:  marca_A and marca_B
## t = 5.9761, df = 4, p-value = 0.00197
## alternative hypothesis: true difference in means is greater than 0
## 90 percent confidence interval:
##  3.717228      Inf
## sample estimates:
## mean of the differences 
##                       5

Segue-se que rejeitamos \(H_0\), ou seja, demora-se mais para realizar a tarefa com a máquina A.