27 de Outubro de 2015
População 1: Coletamos uma amostra aleatória \(X_1, X_2, \ldots,X_n\) de uma população com média \(\mu_1\) e a variância \(\sigma_1^2\) e usamos \(\bar{X}\) para estimar \(\mu_1\).
População 2: Coletamos uma amostra aleatória \(Y_1, Y_2, \ldots,Y_m\) de uma população com média \(\mu_2\) e a variância \(\sigma_2^2\) e usamos \(\bar{Y}\) para estimar \(\mu_2\).
A população 1 é independente da população 2.
Condições:
As populações 1 e 2 são aproximadamente normais ou
Os tamanhos amostrais \(n\) e \(m\) são suficientemente grandes.
Se pelo menos uma das condições acima é satisfeita, temos: \[\bar{X} \sim N\left(\mu_1,\frac{\sigma_1^2}{n} \right) \quad \mbox{e} \quad \bar{Y} \sim N\left(\mu_2,\frac{\sigma_2^2}{m} \right)\]
Caso 1: Variâncias diferentes e conhecidas
Assumindo que as duas amostras \(X_1, \ldots, X_n\) e \(Y_1, \ldots, Y_m\) são independentes com \(\sigma_1^2 \neq \sigma_2^2\) conhecidas, temos:
\[ \bar{X} - \bar{Y} \sim N\left(\mu_1 - \mu_2, \frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m} \right)\]
Caso 1: Variâncias diferentes e conhecidas
Temos interesse em testar as hipóteses: \[H_0: \mu_1-\mu_2=\Delta_0 \quad \mbox{vs} \quad \begin{cases} H_a: \mu_1-\mu_2 \neq \Delta_0 \mbox{ (bilateral)} \\ H_a: \mu_1-\mu_2 < \Delta_0 \mbox{ (unilateral à esquerda)} \\ H_a: \mu_1-\mu_2 > \Delta_0 \mbox{ (unilateral à direita)} \end{cases} \]
EstatÃstica do teste: sob \(H_0\), temos que \[Z= \frac{(\bar{X} - \bar{Y}) - \overbrace{(\mu_1 - \mu_2)}^{\Delta_0}}{ \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \sim N(0, 1)\]
Se o teste é unilateral á direita, ou seja, as hipóteses são: \[H_{0}: \mu_{1}-\mu_{2}=\Delta_{0} \quad \mbox{vs} \quad H_{a}: \mu_{1}-\mu_{2} > \Delta_{0}\]
Uma amostra aleatória de tamanho \(m\) é coletada da população \(X\) e calcula-se a média amostral, \(\bar{x}\).
Similarmente, para a população \(Y\), temos \(\bar{y}\) obtida a partir de uma amostra aleatória de tamanho \(n\).
Calcula-se então a estatÃstica do teste \(Z\) para essa amostra e a chamamos de \(z_{obs}\).
\[ \mbox{valor-de-p} = P(Z \geq z_{obs}) = 1-\Phi(z_{obs}) \] em que \(\Phi(z)=P(Z\leq z)\) para \(Z\sim N(0,1)\).
Se o teste é unilateral á esquerda, ou seja, as hipóteses são: \[H_{0}: \mu_{1}-\mu_{2}=\Delta_{0} \quad \mbox{vs} \quad H_{a}: \mu_{1}-\mu_{2} < \Delta_{0}\]
\[ \mbox{valor-de-p} = P(Z \leq z_{obs}) = \Phi(z_{obs}) \] em que \(\Phi(z)=P(Z\leq z)\) para \(Z\sim N(0,1)\).
Se o teste é bilateral, ou seja, as hipóteses são: \[H_{0}: \mu_{1}-\mu_{2}=\Delta_{0} \hspace{0.3cm} vs \hspace{0.3cm} H_{a}: \mu_{1}-\mu_{2} \neq \Delta_{0}\]
\[ \begin{aligned} \mbox{valor-de-p} & = P(|Z| \geq |z_{obs}|) \\ & = P(Z \leq -|z_{obs}|) + P(Z \geq |z_{obs}|) \\ & = \Phi(-|z_{obs}|) + 1 - \Phi(|z_{obs}|) \\ &= \Phi(-|z_{obs}|) + \Phi(-|z_{obs}|) \\ &= 2\Phi(-|z_{obs}|) \\ &= 2\times(1 - \Phi(|z_{obs}|)) \end{aligned} \] em que \(\Phi(z)=P(Z\leq z)\) para \(Z\sim N(0,1)\).
Caso 2: Variâncias iguais e conhecidas
\[ \bar{X} - \bar{Y} \sim N\left(\mu_1 - \mu_2, \frac{\sigma^{2}}{n} + \frac{\sigma^{2}}{m} \right)\]
As hipóteses são as mesmas que antes.
EstatÃstica do teste: sob \(H_0\), temos que \[Z= \frac{(\bar{X} - \bar{Y}) - \overbrace{(\mu_1 - \mu_2)}^{\Delta_0}}{ \sqrt{\sigma^2 ( \frac{1}{n} + \frac{1}{m}} )} \sim N(0, 1)\]
O valor-de-p é calculado da mesma forma que acabamos de ver.
Caso 3: Variâncias iguais e desconhecidas
Assim como no caso de uma média com variância desconhecida, usamos uma estimativa de \(\sigma^2\) e a distribuição normal é substituÃda pela distribuição \(t\).
No caso de duas populações, o estimador da variância \(\sigma^2\) é a combinação das variâncias amostrais de cada população, ou seja, \[s_p^2 = \frac{(n-1)s_1^2 + (m-1)s_2^2}{n+m-2},\] sendo \(s_i^2\) é a variância amostral da população \(i\).
Quando \(\sigma^2\) é conhecida:
\[ \frac{\bar{X} - \bar{Y}-(\mu_1-\mu_2)}{\sqrt{\sigma^2 \left(\frac{1}{n} + \frac{1}{m} \right)}} \sim N(0,1)\]
Quando \(\sigma^2\) é desconhecida: \[ \frac{\bar{X} - \bar{Y}-(\mu_1-\mu_2)}{\sqrt{s_p^2 \left(\frac{1}{n} + \frac{1}{m} \right)}} \sim t_{n+m-2}\]
As hipóteses são as mesmas.
EstatÃstica do teste: sob \(H_0\), temos que \[T= \frac{(\bar{X} - \bar{Y}) - \overbrace{(\mu_1 - \mu_2)}^{\Delta_0}}{ \sqrt{s_p^2 ( \frac{1}{n} + \frac{1}{m}} )} \sim t_{n+m-2}\]
Observação: Se \(n\) e \(m\) são pequenos, as duas amostras devem vir de populações aproximadamente normais. Se \(n\) e \(m\) são grandes, então a distribuição \(t\) com \(n+m-2\) graus de liberdade aproxima-se de uma normal.
O valor-de-p é calculado da mesma forma que fizemos anteriormente.
Hipóteses \(\qquad H_0: \mu_1-\mu_2=\Delta_0 \quad \mbox{vs} \quad H_1: \mu_1-\mu_2\neq\Delta_0\) (bilateral)
| Variâncias | EstatÃstica do teste | Valor crÃtico para \(\alpha\) | Valor de p |
|---|---|---|---|
| Diferentes e conhecidas (\(\sigma_1^2 \neq \sigma_2^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{\displaystyle \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \sim N(0, 1)\] | rejeitar se \(|z_{obs}|\geq z_{\alpha/2}\) | \(2 P(Z\geq |z_{obs}|)\) |
| Iguais e conhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{\displaystyle \sqrt{\sigma^2 \left(\frac{1}{n} + \frac{1}{m}\right)}} \sim N(0, 1)\] | rejeitar se \(|z_{obs}|\geq z_{\alpha/2}\) | \(2 P(Z\geq |z_{obs}|)\) |
| Iguais e desconhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[T = \frac{(\bar{X} - \bar{Y}) -\Delta_0}{\displaystyle \sqrt{s_p^2 \left( \frac{1}{n} + \frac{1}{m} \right)}}\sim t_{n+m-2}\] | rejeitar se \(|t_{obs}|\geq t_{n+m-2,\alpha/2}\) | \(2 P(T\geq |t_{obs}|)\) |
Hipóteses \(\qquad H_0: \mu_1-\mu_2=\Delta_0 \quad \mbox{vs} \quad H_1: \mu_1-\mu_2 < \Delta_0\) (unilateral à esquerda)
| Variâncias | EstatÃstica do teste | Valor crÃtico para \(\alpha\) | Valor de p |
|---|---|---|---|
| Diferentes e conhecidas (\(\sigma_1^2 \neq \sigma_2^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{\displaystyle \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \sim N(0, 1)\] | rejeitar se \(z_{obs}\leq -z_{\alpha}\) | \(P(Z\leq z_{obs})\) |
| Iguais e conhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{\displaystyle \sqrt{\sigma^2 \left( \frac{1}{n} + \frac{1}{m} \right)}} \sim N(0, 1)\] | rejeitar se \(z_{obs}\leq -z_{\alpha}\) | \(P(Z\leq z_{obs})\) |
| Iguais e desconhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[T = \frac{(\bar{X} - \bar{Y}) -\Delta_0}{\displaystyle \sqrt{s_p^2 \left(\frac{1}{n} + \frac{1}{m} \right)}} \sim t_{n+m-2}\] | rejeitar se \(t_{obs}\leq -t_{n+m+2,\alpha}\) | \(P(T\leq t_{obs})\) |
Hipóteses \(\qquad H_0: \mu_1-\mu_2=\Delta_0 \quad \mbox{vs} \quad H_1: \mu_1-\mu_2 > \Delta_0\) (unilateral à direita)
| Variâncias | EstatÃstica do teste | Valor crÃtico para \(\alpha\) | Valor de p |
|---|---|---|---|
| Diferentes e conhecidas (\(\sigma_1^2 \neq \sigma_2^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{\displaystyle \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \sim N(0, 1)\] | rejeitar se \(z_{obs}\geq z_{\alpha}\) | \(P(Z\geq z_{obs})\) |
| Iguais e conhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{\displaystyle \sqrt{\sigma^2 \left( \frac{1}{n} + \frac{1}{m} \right)}} \sim N(0, 1)\] | rejeitar se \(z_{obs}\geq z_{\alpha}\) | \(P(Z\geq z_{obs})\) |
| Iguais e desconhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[T = \frac{(\bar{X} - \bar{Y}) -\Delta_0}{\displaystyle \sqrt{s_p^2 \left(\frac{1}{n} + \frac{1}{m} \right)}} \sim t_{n+m-2}\] | rejeitar se \(t_{obs}\geq t_{n+m+2,\alpha}\) | \(P(T\geq t_{obs})\) |
\[P(|Z|\leq z_{\alpha/2})=P(-z_{\alpha/2}\leq Z \leq z_{\alpha/2})=1-\alpha\]
Procure na tabela o valor de \(z\) tal que a probabilidade acumulada até o valor de \(z\), isto é \(P(Z\leq z)=\Phi(z)\), seja \(1-\alpha/2\).
\[P(-t_{\nu,\alpha/2} < T < t_{\nu,\alpha/2}) = 1-\alpha\]
Nesse caso, \(\nu=n+m-2\) e os valores da distribuição \(t\) encontram-se tabelados.
O tempo de incubação do vÃrus 1 segue uma distribuição normal com média \(\mu_1\) e desvio padrão \(\sigma_{1}=\sqrt{2}\).
Por outro lado, o tempo de incubação do vÃrus 2 segue uma distribuição normal com média \(\mu_2\) e desvio padrão \(\sigma_{2}=1\).
Os tempos de incubação de ambos os vÃrus são considerados independentes.
Afirma-se que em média, o tempo de incubação do vÃrus 1 é 3 meses depois do tempo médio de incubação do vÃrus 2.
Vamos testar essa hipótese considerando \(\alpha=0.01\).
Realizaram um estudo de controle e os tempos de incubação registrados foram (tempo em meses):
## [1] 4.56 3.72 3.45 2.86 4.03 4.08 6.56 4.31 0.42 5.56 5.92 2.65 4.54 4.04 ## [15] 4.23 6.24 6.16 5.46 3.22 2.28
## [1] 2.44 1.49 2.68 2.60 1.51 1.60 1.47 3.70 2.22 1.78 2.36 1.56 2.98 3.33 ## [15] 2.22 0.58 2.26 2.26 1.92 0.50 1.17 1.70
Recentemente, pacientes contaminados com os vÃrus foram avaliados e suspeita-se que talvez o tempo de incubação do vÃrus 1 não seja 3 meses depois do tempo médio de incubação do vÃrus 2.
Definindo as hipóteses as serem testadas:
\[H_{0}: \mu_{1}-\mu_{2}=3 \quad \mbox{vs} \quad H_{a}: \mu_{1}-\mu_{2} \neq 3\]
Os dados coletados serão usados para avaliar se temos ou não evidências contra \(H_0\).
Vamos calcular a média amostral das duas populações: \(\bar x=4.21\) e \(\bar y = 2.02\).
Pelo enunciado, as duas populações são normais e as variâncias são conhecidas: \(\sigma_1^2 = 2\) e \(\sigma_2^2= 1\). Veja que as populações são normais, variâncias diferentes mas conhecidas. Além disso, \(n=20\) e \(m=22\).
EstatÃstica do teste: \[ \begin{aligned} z_{obs} & = \frac{\bar{x}-\bar{y}-\Delta_{0}}{\sqrt{\frac{\sigma_{1}^{2}}{m} + \frac{\sigma_{2}^{2}}{n}}} = \frac{4.21-2.02-3}{\sqrt{ \frac{2}{22} + \frac{1}{20} }} = -2.12 \end{aligned} \]
Então, \[ \begin{aligned} \mbox{valor-de-p} & = P\left(|Z|\geq 2.12\right) = 2\times P\left(Z \geq 2.12\right) \\ & = 2\times \left[1-\Phi\left(2.12\right)\right] = 2\times \left[1-0.983\right] = 0.034 \end{aligned} \]
Se \(\alpha=0.01\), como valor-de-p=0.034 \(> \alpha=0.01\), não temos evidência para rejeitar \(H_{0}: \mu_{1}=3+\mu_{2}\) com nÃvel de significância 0.01.
Valor crÃtico para \(\alpha=0.01\): 2.58, ou seja, se \(|z_{obs}|\geq 2.58\) temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.01\).
Dois tipos diferentes de tecido devem ser comparados. Uma máquina de testes Martindale pode comparar duas amostras ao mesmo tempo. O peso (em miligramas) para sete experimentos foram:
| Tecido | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
|---|---|---|---|---|---|---|---|
| A | 36 | 26 | 31 | 38 | 28 | 20 | 37 |
| B | 39 | 27 | 35 | 42 | 31 | 39 | 22 |
Construa um teste de hipótese com nÃvel de significância 5% para testar a hipótese nula de igualdade entre os pesos médios dos tecidos. Admita que a variância é a mesma, e igual a 49.
Quais outras suposições são necessárias para que o teste seja válido?
Adaptado de: Profa. Nancy Garcia, Notas de aula.
Os tecidos do tipo A tem uma média amostral igual a \(\bar{x}_A=30.86\). Já os tecidos do tipo B têm média amostral de \(\bar{x}_B=33.57\).
A variância populacional é igual a 49, enquanto as variâncias amostrais são 44.14 e 52.62, respectivamente.
Suposições: Como os tamanhos amostrais \(n=m=7\) são pequenos, devemos assumir os pesos dos tecidos dos dois tipos são normalmente distribuÃdos ou seja, \(X_A \sim N(\mu_A, \sigma^2)\) e \(X_B \sim N(\mu_B, \sigma^2)\). Além disso são independentes e com variâncias iguais.
Assumimos que as variâncias são iguais e conhecidas (\(\sigma_1^2=\sigma_2^2=49\)). Além disso, \(n=7\) e \(m=7\).
Definindo as hipóteses as serem testadas:
\[H_{0}: \mu_{A}-\mu_{B}=0 \quad \mbox{vs} \quad H_{a}: \mu_{A}-\mu_{B}\neq 0\]
Como a variância é conhecida, a estatÃstica do teste é dada por \[Z = \frac{\bar{X}_A-\bar{X}_B-\Delta_0}{\sigma \sqrt{\frac{1}{n_A} + \frac{1}{n_B}}}\]
Se a hipótese nula é verdadeira, temos que \(\Delta_0=\mu_A-\mu_B=0\) e \(Z \sim N \left(0, 1 \right)\). Note que a hipótese alternativa é do tipo \(\neq\), então o teste é bilateral.
O valor observado da estatÃstica do teste é: \[ z_{obs} = \frac{\bar{x}_A - \bar{x}_B - \Delta_{0}}{\sigma\sqrt{\frac{1}{n_A} + \frac{1}{n_B}}} = \frac{30.86-33.57-0}{7\sqrt{\frac{1}{7}+\frac{1}{7}}} = -0.72 \]
Como o teste é bilateral: \[ \begin{aligned} \mbox{valor-de-p} & = P\left(|Z|\geq 0.72\right) = 2\times P\left(Z \geq 0.72\right) \\ & = 2\times \left[1-\Phi\left(0.72\right)\right] = 2\times \left[1-0.7642\right] = 0.4716 \end{aligned} \]
Se \(\alpha=0.05\), como p-valor=0.4716 \(> \alpha=0.05\), não temos evidência para rejeitar \(H_{0}: \mu_{A}=\mu_{B}\) com nÃvel de significância 0.05.
Valor crÃtico para \(\alpha=0.05\): 1.96, ou seja, se \(|z_{obs}|\geq 1.96\) temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.05\).
Vamos assumir agora que a variância populacional não fosse conhecida.
Assumindo ainda que as variâncias são iguais mas desconhecidas, vamos então estimar a variância amostral combinada.
Sabendo que \(s_1^2=44.14\), \(s_2^2=52.62\) e \(n=m=7\) temos: \[\begin{aligned} s_p^2 &= \frac{(n-1)s_1^2 + (m-1)s_2^2}{n+m-2}\\ &= \frac{(7-1) 44.14 + (7-1)52.62}{7 + 7 - 2} \\ &= 48.38 \end{aligned}\]
Nesse caso, a estatÃstica do teste, sob \(H_0\), é dada por:
\[T=\frac{\bar{X}_A-\bar{X}_B}{\sqrt{s_p^2\left(\frac{1}{n_A}+\frac{1}{n_B}\right)}}\sim t_{n+m-2}\]
E o valor observado da estatÃstica do teste: \[ t_{obs} =\frac{\bar{x}_A-\bar{x}_B}{\sqrt{s_p^2\left(\frac{1}{n_A}+\frac{1}{n_B}\right)}} =\frac{30.86-33.57}{\sqrt{48.38 \left(\frac{1}{7} + \frac{1}{7} \right)}}= -0.73 \]
Considerando nÃvel de significância 0.05, rejeitamos \(H_0\) se \(|t_{obs}|\geq t_{12,0.025}\).
Valor crÃtico para \(\alpha=0.05\): 2.18, ou seja, se \(|t_{obs}|\geq 2.18\) temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.05\).
No caso, \(|t_{obs}|=0.73 < 2.18\), portanto não encontramos evidências para rejeitar a hipótese de que as médias são iguais.
Num estudo comparativo do tempo médio de adaptação (em anos), uma amostra aleatória, de 50 homens e 50 mulheres de um grande complexo industrial, produziu os seguintes resultados:
| EstatÃstica | Homens | Mulheres |
|---|---|---|
| Média | 3.2 | 3.7 |
| Desvio Padrão | 0.8 | 0.9 |
Construa um teste de hipótese com nÃvel de significância de 5% para a diferença entre o tempo médio de adaptação para homens e mulheres.
Fonte: Adaptado de Morettin & Bussab, EstatÃstica Básica \(5^a\) edição, pág 365.
Veja que não sabemos a variância populacional, mas temos os desvios-padrão amostrais e estes são bem próximos. Então iremos assumir que as variâncias são iguais porém desconhecidas.
Nesse caso, vamos então estimar a variância amostral combinada.
Sabendo que \(s_1=0.8\), \(s_2=0.9\) e \(n=m=50\) temos: \[\begin{aligned} s_p^2 &= \frac{(n-1)s_1^2 + (m-1)s_2^2}{n+m-2}\\ &= \frac{(50-1) (0.8)^2 + (50-1)(0.9)^2}{50 + 50 - 2} \\ &= 0.73 \end{aligned}\]
Hipóteses: \[H_{0}: \mu_1-\mu_2=0 \quad \mbox{vs} \quad H_{a}: \mu_1-\mu_2 \neq 0\]
EstatÃstica do teste: Sob \(H_0\)
\[T=\frac{\bar{X}_1 -\bar{X}_2}{\sqrt{s_p^2(\frac{1}{n}+\frac{1}{m})}}\sim t_{n + m -2}\]
O valor observado da estatÃstica do teste: \[ t_{obs} =\frac{\bar{x}_1-\bar{x}_2}{\sqrt{s_p^2 \left(\frac{1}{n}+\frac{1}{m} \right)}} =\frac{3.2-3.7}{\sqrt{0.73 \left(\frac{1}{50}+\frac{1}{50} \right)}}= -2.93 \]
Considerando nÃvel de significância 0.05 e o teste bilateral, rejeitamos \(H_0\) se \(|t_{obs}|\geq t_{98,0.025}=1.98\).
Valor crÃtico para \(\alpha=0.05\): 1.98, ou seja, se \(|t_{obs}|\geq 1.98\) temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.05\).
No caso, \(|t_{obs}|=2.93 > 1.98\), portanto encontramos evidências para rejeitar a hipótese de que as médias são iguais.
Considere \(X_1, \ldots, X_{n_1}\) e \(Y_1, \ldots,Y_{n_2}\) duas amostras independentes de ensaios de Bernoulli tal que \(X \sim b(p_1)\) e \(Y \sim b(p_2)\), com probabilidade \(p_1\) e \(p_2\) de apresentarem uma certa caracterÃstica.
Temos interesse em testar as hipóteses: \[H_0: p_1-p_2=0 \quad \mbox{vs} \quad \begin{cases} H_a: p_1-p_2 \neq 0 \mbox{ (bilateral)} \\ H_a: p_1-p_2 < 0 \mbox{ (unilateral à esquerda)} \\ H_a: p_1-p_2 > 0 \mbox{ (unilateral à direita)} \end{cases} \]
Em aulas anteriores vimos que: \[\hat p_1 \sim N\left(p_1,\frac{p_1(1-p_1)}{n_1} \right) \quad \mbox{e} \quad \hat p_2 \sim N\left(p_2,\frac{p_2(1-p_2)}{n_2} \right)\]
As variâncias de \(\hat p_1\) e \(\hat p_2\) dependem de \(p_1\) e \(p_2\) e, portanto, não são conhecidas.
Sob \(H_0\), \(p_1=p_2=p\), portanto:
\[\hat p_1 \sim N\left(p_1,\frac{p(1-p)}{n_1} \right) \quad \mbox{e} \quad \hat p_2 \sim N\left(p_2,\frac{p(1-p)}{n_2} \right)\]
No entanto, \(p\) é desconhecido.
Iremos utilizar como estimativa para \(p\): \(\hat p\), definido como o número de sucessos entre todos os elementos amostrados. \[\hat p = \frac{\sum X_i + \sum Y_j}{n_1 + n_2} = \frac{n_1\hat p_1 + n_2\hat p_1}{n_1 + n_2}\]
Ou seja, o estimador é a proporção de sucessos na amostra toda, sem levar em consideração as populações, pois, sob \(H_0\), \(p_1=p_2\) (não há diferença entre as proporções das duas populações).
A estatÃstica do teste sob \(H_0\): \(p_1 - p_2=0\): \[Z = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\hat{p}(1 - \hat{p}) \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} \sim N(0, 1)\] em que \(\hat p\) é a proporção de sucessos entre os \(n_1 + n_2\) elementos amostrados.
Condições: Todas as quantidades \(n_1\hat p_1, \; n_1(1- \hat p_1), \; n_2\hat p_2 \; \mbox{ e } \; n_2(1- \hat p_2)\) devem ser pelo menos igual a 10 para que a aproximação pela normal seja válida.
Resumindo: \(H_0\): \(p_1-p_2=0\)
EstatÃstica do teste: \[Z = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\hat{p}(1 - \hat{p}) \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} \stackrel{H_0}{\sim} N(0, 1)\]
| \(H_a\) | Valor crÃtico para \(\alpha\) | Valor-de-p |
|---|---|---|
| \(p_1-p_2\neq0\) (bilateral) | rejeitar se \(|z_{obs}|\geq z_{\alpha/2}\) | \(2 P(Z\geq |z_{obs}|)\) |
| \(p_1-p_2<0\) (unilateral à esquerda) | rejeitar se \(z_{obs}\leq -z_{\alpha}\) | \(P(Z\leq z_{obs})\) |
| \(p_1-p_2>0\) (unilateral à direita) | rejeitar se \(z_{obs}\geq z_{\alpha}\) | \(P(Z\geq z_{obs})\) |
O dinheiro que não é gasto hoje pode ser gasto depois.
Será que ao relembrar o aluno deste fato faz com que tome a decisão sobre uma compra de maneira diferente?
O cético pode pensar que relembrar não irá influenciar na decisão.
Podemos utilizar um teste de hipótese:
\(H_0\): Relembrar o aluno de que ele pode poupar para comprar algo especial depois não irá influenciar na decisão de gasto do aluno.
\(H_a\): Relembrar o aluno de que ele pode poupar para comprar algo especial depois irá aumentar a chance dele não gastar em algo no presente.
Alunos de ME414 do segundo semestres de 2015 foram recrutados para um estudo e cada um recebeu a seguinte informação através do Google Forms:
Imagine que você estivesse poupando para comprar algo especial. Em uma visita ao shopping você encontra um DVD da sua série/filme favorita que estava na sua "lista de desejos" há tempos. O DVD está em promoção, custando R$ 20,00. O que você faria?
53 alunos (grupo 1) selecionados ao acaso receberam a seguinte opção de resposta:
49 alunos (grupo 2) selecionados ao acaso receberam a seguinte opção de resposta:
Obs: estudo adaptado do artigo Frederick S, Novemsky N, Wang J, Dhar R, Nowlis S. 2009. Opportunity Cost Neglect. Journal of Consumer Research 36: 553-561.
| Compraria | Não compraria | |
|---|---|---|
| grupo1 | 29 | 24 |
| grupo2 | 24 | 25 |
Entre os alunos do grupo 1, a proporção que decide não comprar foi: \[\hat p_1 = \frac{24}{53} = 0.45\]
Entre os alunos do grupo 2, a proporção que decide não comprar foi: \[\hat p_2 = \frac{25}{49} = 0.51\]
Temos evidências contra a hipótese nula, ou seja, relembrar o aluno não influencia na decisão?
Para realizar o teste de hipótese, devemos fazer algumas suposições.
Considere duas populações: \(X\) e \(Y\) tal que:
Queremos testar as seguintes hipóteses:
\[H_0: p_1=p_2 \quad \mbox{vs} \quad H_a: p_1 < p_2\]
Que é equivalente a testar: \[H_0: p_1 - p_2 = 0 \quad \mbox{vs} \quad H_a: p_1 - p_2 < 0 \]
Seja \(\hat{p}_1\) a proporção que decide não comprar entre os alunos \(n_1\) amostrados do grupo 1.
Seja \(\hat{p}_2\) a proporção que decide não comprar entre os \(n_2\) alunos amostrados do grupo 2.
Relembrando o TCL:
\[\hat p_1 \sim N\left(p_1,\frac{ p_1(1 - p_1)}{n_1} \right) \quad \mbox{e} \quad \hat p_2 \sim N\left(p_2,\frac{ p_2(1 - p_2)}{n_2} \right)\]
Condições: Todas as quantidades \(n_1\hat p_1, \; n_1(1- \hat p_1), \; n_2\hat p_2 \; \mbox{ e } \; n_2(1- \hat p_2)\) devem ser pelo menos igual a 10 para que a aproximação pela normal seja válida.
Então, sob \(H_0\), a estatÃstica do teste a seguir: \[Z = \frac{(\hat p_1 - \hat p_2)}{\sqrt{\hat p(1 - \hat p) \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} \sim N(0, 1)\]
em que \(\hat p\) é a proporção que decide não comprar entre os \(n_1 + n_2\) alunos amostrados.
Hipóteses: \(\quad H_0: p_1 - p_2 = 0 \quad \mbox{vs} \quad H_a: p_1 - p_2 < 0\)
Estimativa de \(p\): \(\hat p = \frac{24 + 25}{53 + 49} = 0.48\)
Valor observado da estatÃstica do teste: \[z_{obs} = \frac{\hat p_1 - \hat p_2}{\sqrt{\hat p(1 - \hat p) \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} = \frac{0.45 - 0.51}{\sqrt{0.48(1 - 0.48) \left(\frac{1}{53} + \frac{1}{49}\right)}} = -0.58\]
Como o teste é bilateral à esquerda: \(\mbox{valor-de-p} = P(Z \leq -0.58) = 0.281\)
Como valor-de-p=0.281 \(> \alpha=0.05\), não temos evidência para rejeitar \(H_{0}\) com nÃvel de significância 0.05.
Valor crÃtico para \(\alpha=0.05\): -1.64.