População 1: Coletamos uma amostra aleatória \(X_1, X_2, \ldots,X_n\) de uma população com média \(\mu_1\) e a variância \(\sigma_1^2\) e usamos \(\bar{X}\) para estimar \(\mu_1\).
População 2: Coletamos uma amostra aleatória \(Y_1, Y_2, \ldots,Y_m\) de uma população com média \(\mu_2\) e a variância \(\sigma_2^2\) e usamos \(\bar{Y}\) para estimar \(\mu_2\).
A população 1 é independente da população 2.
Condições:
As populações 1 e 2 são aproximadamente normais ou
Os tamanhos amostrais \(n\) e \(m\) são suficientemente grandes.
Se pelo menos uma das condições acima é satisfeita, temos pelo TLC: \[\bar{X} \sim N\left(\mu_1,\frac{\sigma_1^2}{n} \right) \quad \mbox{e} \quad \bar{Y} \sim N\left(\mu_2,\frac{\sigma_2^2}{m} \right)\]
Caso 1: Variâncias diferentes e conhecidas
Assumindo que as duas amostras \(X_1, \ldots, X_n\) e \(Y_1, \ldots, Y_m\) são independentes com \(\sigma_1^2 \neq \sigma_2^2\) conhecidas, temos:
\[ \bar{X} - \bar{Y} \sim N\left(\mu_1 - \mu_2, \frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m} \right)\]
Caso 1: Variâncias diferentes e conhecidas
Hipóteses: \[H_0: \mu_1-\mu_2=\Delta_0 \quad \mbox{vs} \quad H_1: \begin{cases} \mu_1-\mu_2\neq\Delta_0 & \mbox{(bilateral)}\\ \mu_1-\mu_2 > \Delta_0 & \mbox{(unilateral à direita)} \\ \mu_1-\mu_2 < \Delta_0 & \mbox{(unilateral à esquerda)} \end{cases} \]
EstatÃstica do teste: Sob a hipótese \(H_0\), temos \[Z= \frac{(\bar{X} - \bar{Y}) - \overbrace{(\mu_1 - \mu_2)}^{\Delta_0}}{\displaystyle \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \stackrel{H_0}{\sim} N(0, 1)\]
População 1: uma amostra aleatória de tamanho \(n\) é coletada da população \(X\) e encontra-se uma estimativa de \(\mu_1\), a média amostral \(\bar{x}\).
População 2: uma amostra aleatória de tamanho \(m\) é coletada da população \(Y\) e encontra-se uma estimativa de \(\mu_2\), a média amostral \(\bar{y}\).
Calcula-se a estatÃstica do teste: \[z_{obs}= \frac{(\bar x - \bar y) - \Delta_0}{\displaystyle \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}}\]
Valor-de-p: Depende de \(H_1\) \[ \begin{aligned} \mbox{Hipótese Alternativa} & \qquad \qquad \mbox{Valor-de-p} \\ H_1: \mu_1 - \mu_2 \neq \Delta_0 & \qquad \qquad P(|Z| \geq |z_{obs}|) \\ H_1: \mu_1 - \mu_2 > \Delta_0 & \qquad \qquad P(Z \geq z_{obs}) \\ H_1: \mu_1 - \mu_2 < \Delta_0 & \qquad \qquad P(Z \leq z_{obs}) \end{aligned} \]
Decisão: Para um nÃvel de significância \(\alpha=0.05\):
Rejeita-se \(H_0\) se valor-de-p \(< \alpha\).
Não Rejeita-se \(H_0\) se valor-de-p \(\geq \alpha\).
Caso 2: Variâncias iguais e conhecidas
\[ \bar{X} - \bar{Y} \sim N\left(\mu_1 - \mu_2, \frac{\sigma^{2}}{n} + \frac{\sigma^{2}}{m} \right)\]
Hipóteses: As mesmas definidas anteriormente.
EstatÃstica do teste: Sob a hipótese \(H_0\), temos \[Z= \frac{(\bar{X} - \bar{Y}) - \overbrace{(\mu_1 - \mu_2)}^{\Delta_0}}{\displaystyle \sqrt{\sigma^2 \left(\frac{1}{n} + \frac{1}{m}\right)}} \stackrel{H_0}{\sim} N(0, 1)\] Valor-de-p: calculado de forma análoga ao que fizemos anteriormente.
Caso 3: Variâncias iguais e desconhecidas
Assim como no caso de uma média com variância desconhecida, usamos uma estimativa de \(\sigma^2\) e a distribuição normal é substituÃda pela distribuição \(t\).
No caso de duas populações, o estimador da variância \(\sigma^2\) é a combinação das variâncias amostrais de cada população, ou seja, \[S_p^2 = \frac{(n-1)S_1^2 + (m-1)S_2^2}{n+m-2},\] sendo \(S_i^2\) é a variância amostral da população \(i\).
Quando \(\sigma^2\) é conhecida:
\[ \frac{\bar{X} - \bar{Y}-(\mu_1-\mu_2)}{\displaystyle \sqrt{\sigma^2 \left(\frac{1}{n} + \frac{1}{m}\right)}} \sim N(0,1)\]
Quando \(\sigma^2\) é desconhecida: \[ \frac{\bar{X} - \bar{Y}-(\mu_1-\mu_2)}{\displaystyle \sqrt{S_p^2 \left(\frac{1}{n} + \frac{1}{m}\right)}} \sim t_{n+m-2}\]
Hipóteses: As mesmas definidas anteriormente
EstatÃstica do teste: Sob a hipótese \(H_0\), temos \[T= \frac{(\bar{X} - \bar{Y}) - \overbrace{(\mu_1 - \mu_2)}^{\Delta_0}}{\displaystyle \sqrt{S_p^2 \left(\frac{1}{n} + \frac{1}{m}\right)}} \stackrel{H_0}{\sim} t_{n+m-2}\]
Observação: Se \(n\) e \(m\) são pequenos, as duas amostras devem vir de populações aproximadamente normais. Se \(n\) e \(m\) são grandes, então a distribuição \(t\) com \(n+m-2\) graus de liberdade aproxima-se de uma normal.
Hipóteses: \(H_0\): \(\mu_1-\mu_2=\Delta_0 \qquad\) vs \(\qquad H_1\): \(\mu_1-\mu_2\neq\Delta_0\)
| Variâncias | EstatÃstica do teste | Valor crÃtico para \(\alpha\) | Valor-de-p |
|---|---|---|---|
| Diferentes e conhecidas (\(\sigma_1^2 \neq \sigma_2^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{ \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \sim N(0, 1)\] | rejeitar se \(z_{obs} < -z_{\alpha/2}\) ou \(z_{obs} > z_{\alpha/2}\) | \(2P(Z \geq \mid z_{obs} \mid)\) |
| Iguais e conhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{ \sqrt{\sigma^2 ( \frac{1}{n} + \frac{1}{m})}} \sim N(0, 1)\] | rejeitar se \(z_{obs} < -z_{\alpha/2}\) ou \(z_{obs} > z_{\alpha/2}\) | \(2 P(Z\geq \mid z_{obs} \mid)\) |
| Iguais e desconhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[T\sim\frac{(\bar{X} - \bar{Y}) -\Delta_0}{ \sqrt{S_p^2 ( \frac{1}{n} + \frac{1}{m})}}\sim t_{n+m-2}\] | rejeitar se \(t_{obs} < -t_{n+m-2,\alpha/2}\) ou \(t_{obs} > -t_{n+m-2,\alpha/2}\) | \(2 P(T\geq \mid t_{obs}\mid )\) |
Hipóteses: \(H_0\): \(\mu_1-\mu_2=\Delta_0 \qquad\) vs \(\qquad H_1\): \(\mu_1-\mu_2 < \Delta_0\)
| Variâncias | EstatÃstica do teste | Valor crÃtico para \(\alpha\) | Valor-de-p |
|---|---|---|---|
| Diferentes e conhecidas (\(\sigma_1^2 \neq \sigma_2^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{ \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \sim N(0, 1)\] | rejeitar se \(z_{obs} \leq -z_{\alpha}\) | \(P(Z\leq z_{obs})\) |
| Iguais e conhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{ \sqrt{\sigma^2 ( \frac{1}{n} + \frac{1}{m})}} \sim N(0, 1)\] | rejeitar se \(z_{obs}\leq -z_{\alpha}\) | \(P(Z\leq z_{obs})\) |
| Iguais e desconhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[T\sim\frac{(\bar{X} - \bar{Y}) -\Delta_0}{ \sqrt{S_p^2 ( \frac{1}{n} + \frac{1}{m} )}}\sim t_{n+m-2}\] | rejeitar se \(t_{obs}\leq -t_{n+m+2,\alpha}\) | \(P(T\leq t_{obs})\) |
Hipóteses: \(H_0\): \(\mu_1-\mu_2=\Delta_0 \qquad\) vs \(\qquad H_1\): \(\mu_1-\mu_2 > \Delta_0\)
| Variâncias | EstatÃstica do teste | Valor crÃtico para \(\alpha\) | Valor de p |
|---|---|---|---|
| Diferentes e conhecidas (\(\sigma_1^2 \neq \sigma_2^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{ \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} \sim N(0, 1)\] | rejeitar se \(z_{obs}\geq z_{\alpha}\) | \(P(Z\geq z_{obs})\) |
| Iguais e conhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[Z= \frac{(\bar{X} - \bar{Y}) - \Delta_0}{ \sqrt{\sigma^2 ( \frac{1}{n} + \frac{1}{m})}} \sim N(0, 1)\] | rejeitar se \(z_{obs}\geq z_{\alpha}\) | \(P(Z\geq z_{obs})\) |
| Iguais e desconhecidas (\(\sigma_1^2 = \sigma_2^2 =\sigma^2\)) | \[T\sim\frac{(\bar{X} - \bar{Y}) -\Delta_0}{ \sqrt{S_p^2 ( \frac{1}{n} + \frac{1}{m} )}}\sim t_{n+m-2}\] | rejeitar se \(t_{obs}\geq t_{n+m+2,\alpha}\) | \(P(T\geq t_{obs})\) |
\[P(|Z|\leq z_{\alpha/2})=P(-z_{\alpha/2}\leq Z \leq z_{\alpha/2})=1-\alpha\]
Procure na tabela o valor de \(z\) tal que a probabilidade acumulada até o valor de \(z\), isto é \(P(Z\leq z)=\Phi(z)\), seja \(1-\alpha/2\).
\[P(-t_{\nu,\alpha/2} < T < t_{\nu,\alpha/2}) = 1-\alpha\]
Nesse caso, \(\nu=n+m-2\) e os valores da distribuição \(t\) encontram-se tabelados.
O tempo de incubação do vÃrus 1 segue uma distribuição normal com média \(\mu_1\) e desvio padrão \(\sigma_{1}=\sqrt{2}\).
Por outro lado, o tempo de incubação do vÃrus 2 segue uma distribuição normal com média \(\mu_2\) e desvio padrão \(\sigma_{2}=1\).
Os tempos de incubação de ambos os vÃrus são considerados independentes.
Afirma-se que em média, o tempo de incubação do vÃrus 1 é 3 meses depois do tempo médio de incubação do vÃrus 2.
Realizaram um estudo de controle e os tempos de incubação registrados foram (tempo em meses):
## [1] 4.56 3.72 3.45 2.86 4.03 4.08 6.56 4.31 0.42 5.56 5.92 2.65 4.54 4.04 ## [15] 4.23 6.24 6.16 5.46 3.22 2.28
## [1] 2.44 1.49 2.68 2.60 1.51 1.60 1.47 3.70 2.22 1.78 2.36 1.56 2.98 3.33 ## [15] 2.22 0.58 2.26 2.26 1.92 0.50 1.17 1.70
Recentemente, pacientes contaminados com os vÃrus foram avaliados e suspeita-se que talvez o tempo de incubação do vÃrus 1 não seja 3 meses depois do tempo médio de incubação do vÃrus 2.
Definindo as hipóteses as serem testadas: \[H_{0}: \mu_{1}-\mu_{2}=3 \qquad \mbox{vs} \qquad H_{1}: \mu_{1}-\mu_{2}\neq3\]
Os dados coletados serão usados para avaliar se temos ou não evidências contra \(H_0\).
Vamos calcular a média amostral das duas populações: \(\bar x=4.21\) e \(\bar y = 2.02\).
Pelo enunciado, as duas populações são normais e as variâncias são conhecidas: \(\sigma_1^2 = 2\) e \(\sigma_2^2= 1\). Veja que as populações são normais, variâncias diferentes mas conhecidas. Além disso, \(n=20\) e \(m=22\).
EstatÃstica do teste: \[z_{obs}= \frac{(\bar x - \bar y) - \Delta_0}{\displaystyle \sqrt{\frac{\sigma_1^{2}}{n} + \frac{\sigma_2^{2}}{m}}} = \frac{(4.21 - 2.02) - 3}{\displaystyle \sqrt{\frac{2}{20} + \frac{1}{22}}} = -2.12\]
Valor-de-p: \[P(|Z| \geq |z_{obs}|) = P(Z \geq 2.12) + P(Z \leq -2.12) = 2P(Z \geq 2.12) = 0.034 \]
Conclusão: Para \(\alpha=0.01\), como p-valor=0.034 \(> \alpha=0.01\), não temos evidência para rejeitar \(H_{0}: \mu_{1}=3+\mu_{2}\) com nÃvel de significância 0.01.
Valor crÃtico: \(z_{0.005}=\) 2.58. Portanto, com \(|z_{obs}| < 2.58\) não temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.01\).
Dois tipos diferentes de tecido devem ser comparados. Uma máquina de testes Martindale pode comparar duas amostras ao mesmo tempo. O peso (em miligramas) para sete experimentos foram:
| Tecido | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
|---|---|---|---|---|---|---|---|
| A | 36 | 26 | 31 | 38 | 28 | 20 | 37 |
| B | 39 | 27 | 35 | 42 | 31 | 39 | 22 |
Construa um teste de hipótese com nÃvel de significância 5% para testar a hipótese nula de igualdade entre os pesos médios dos tecidos. Admita que a variância é a mesma, e igual a 49.
Quais outras suposições são necessárias para que o teste seja válido?
Adaptado de: Profa. Nancy Garcia, Notas de aula.
Os tecidos do tipo A tem uma média amostral igual a \(\bar{x}_A=30.86\). Já os tecidos do tipo B têm média amostral de \(\bar{x}_B=33.57\).
A variância populacional é igual a 49, enquanto as variâncias amostrais são 44.14 e 52.62, respectivamente.
Suposições: Como os tamanhos amostrais \(n=m=7\) são pequenos, devemos assumir os pesos dos tecidos dos dois tipos são normalmente distribuÃdos ou seja, \(X_A \sim N(\mu_A, \sigma^2)\) e \(X_B \sim N(\mu_B, \sigma^2)\). Além disso são independentes e com variâncias iguais.
Assumimos que as variâncias são iguais e conhecidas (\(\sigma_1^2=\sigma_2^2=49\)). Além disso, \(n=7\) e \(m=7\).
Definindo as hipóteses as serem testadas:
\(H_{0}: \mu_{A}-\mu_{B}=0 \qquad \mbox{vs} \qquad H_{1}: \mu_{A}-\mu_{B}\neq 0\).
Como a variância é conhecida, a estatÃstica do teste é dada por \[Z = \frac{\bar{X}_A-\bar{X}_B-\Delta_0}{\sqrt{\sigma^2 \left(\frac{1}{n_A} + \frac{1}{n_B}\right)}}\]
Se a hipótese nula é verdadeira, temos que \(\Delta_0=\mu_A-\mu_B=0\) e \(Z \sim N \left(0, 1 \right)\). Note que a hipótese alternativa é do tipo \(\neq\), então o teste é bilateral.
EstatÃstica do teste: \[z_{obs}= \frac{(\bar x - \bar y) - \Delta_0}{\displaystyle \sqrt{\sigma^2 \left(\frac{1}{n} + \frac{1}{m} \right)}} = \frac{(30.86 - 33.57) - 0}{\displaystyle \sqrt{49\left(\frac{1}{7} + \frac{1}{7} \right)}} = -0.72\]
Valor-de-p: \[P(|Z| \geq |z_{obs}|) = P(Z \geq 0.72) + P(Z \leq -0.72) = 2P(Z \geq 0.72) = 0.4716 \]
Conclusão: Para \(\alpha=0.05\), como p-valor=0.4716 \(> \alpha=0.05\), não temos evidência para rejeitar \(H_{0}: \mu_{A}=\mu_{B}\) com nÃvel de significância 0.05.
Valor crÃtico: \(z_{0.025}=\) 1.96. Portanto, com \(|z_{obs}| < 1.96\) não temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.05\).
Vamos assumir agora que a variância populacional não fosse conhecida.
Assumindo ainda que as variâncias são iguais mas desconhecidas, vamos então estimar a variância amostral combinada.
Sabendo que \(s_1^2=44.14\), \(s_2^2=52.62\) e \(n=m=7\) temos: \[\begin{aligned} s_p^2 &= \frac{(n-1)s_1^2 + (m-1)s_2^2}{n+m-2}\\ &= \frac{(7-1) 44.14 + (7-1)52.62}{7 + 7 - 2} \\ &= 48.38 \end{aligned}\]
Nesse caso, a estatÃstica do teste, sob \(H_0\), é dada por:
\[T=\frac{\bar{X}_A-\bar{X}_B}{\sqrt{S_p^2\left(\frac{1}{n_A}+\frac{1}{n_B}\right)}}\sim t_{n_A + n_B -2}\]
\[ t_{obs} =\frac{\bar{x}_A-\bar{x}_B}{\sqrt{s_p^2\left( \frac{1}{n_A} + \frac{1}{n_B} \right)}} =\frac{30.86-33.57}{\sqrt{48.38(1/7+1/7)}}= -0.73\]
Considerando nÃvel de significância 0.05, rejeitamos \(H_0\) se \(|t_{obs}|\geq t_{n+m-2,0.025}\).
Valor crÃtico para \(\alpha=0.05\): 2.18, ou seja, se \(|t_{obs}|\geq 2.18\) temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.05\). No caso, \(|t_{obs}|=0.73 < 2.18\), portanto não encontramos evidências para rejeitar a hipótese de que as médias são iguais.
Num estudo comparativo do tempo médio de adaptação (em anos), uma amostra aleatória, de 50 homens e 50 mulheres de um grande complexo industrial, produziu os seguintes resultados:
| EstatÃstica | Homens | Mulheres |
|---|---|---|
| Média | 3.2 | 3.7 |
| Desvio Padrão | 0.8 | 0.9 |
Construa um teste de hipótese com nÃvel de significância de 5% para a diferença entre o tempo médio de adaptação para homens e mulheres.
Fonte: Adaptado de Morettin & Bussab, EstatÃstica Básica \(5^a\) edição, pág 365.
Veja que não sabemos a variância populacional, mas temos os desvios-padrão amostrais e estes são bem próximos. Então iremos assumir que as variâncias são iguais porém desconhecidas.
Nesse caso, vamos então estimar a variância amostral combinada.
Sabendo que \(s_1=0.8\), \(s_2=0.9\) e \(n=m=50\) temos: \[\begin{aligned} s_p^2 &= \frac{(n-1)s_1^2 + (m-1)s_2^2}{n+m-2}\\ &= \frac{(50-1) (0.8)^2 + (50-1)(0.9)^2}{50 + 50 - 2} \\ &= 0.73 \end{aligned}\]
Nesse caso, a estatÃstica do teste, sob \(H_0\), é dada por:
\[T=\frac{\bar{X}_1 -\bar{X}_2}{\sqrt{S_p^2(\frac{1}{n}+\frac{1}{m})}}\sim t_{n + m-2}\]
\[t_{obs} =\frac{\bar{x}_1-\bar{x}_2}{\sqrt{s_p^2(\frac{1}{n}+\frac{1}{m})}} =\frac{3.2-3.7}{\sqrt{0.73(\frac{1}{50}+\frac{1}{50})}}= -2.93 \]
Considerando nÃvel de significância 0.05 e \(H_1\): \(\mu_1\neq\mu_2\), rejeitamos \(H_0\) se \(|t_{obs}|\geq t_{n+m-2,0.025}=1.98\).
Valor crÃtico Se \(|t_{obs}|\geq 1.98\) temos evidências para rejeitar \(H_0\) com nÃvel de significância \(\alpha=0.05\). No caso, \(|t_{obs}|=2.93 > 1.98\), portanto encontramos evidências para rejeitar a hipótese de que as médias são iguais.
Considere \(X_1, \ldots,X_{n_1}\) e \(Y_1, \ldots,Y_{n_2}\) duas amostras independentes de ensaios de Bernoulli tal que \(X \sim b(p_1)\) e \(Y \sim b(p_2)\), com probabilidade \(p_1\) e \(p_2\) de apresentarem uma certa caracterÃstica.
Hipóteses: \[H_0: p_1-p_2=0 \quad \mbox{vs} \quad H_1: \begin{cases} p_1- p_2 \neq 0 & \mbox{(bilateral)}\\ p_1-p_2 > 0 & \mbox{(unilateral à direita)} \\ p_1-p_2 < 0 & \mbox{(unilateral à esquerda)} \end{cases} \]
Em aulas anteriores vimos que: \[\hat p_1 \sim N\left(p_1,\frac{p_1(1-p_1)}{n_1} \right) \quad \mbox{e} \quad \hat p_2 \sim N\left(p_2,\frac{p_2(1-p_2)}{n_2} \right)\]
Veja que as variâncias de \(\hat p_1\) e \(\hat p_2\) dependem de \(p_1\) e \(p_2\) (não conhecidas).
Sob \(H_0\), \(p_1=p_2=p\), portanto:
\[\hat p_1 \sim N\left(p_1,\frac{p(1-p)}{n_1} \right) \quad \mbox{e} \quad \hat p_2 \sim N\left(p_2,\frac{p(1-p)}{n_2} \right)\]
No entanto, \(p\) é desconhecido. Iremos utilizar como estimativa para \(p\): \(\hat p\), definido como o número de sucessos entre todos os elementos amostrados. Ou seja, o estimador é a proporção de sucessos na amostra toda, sem levar em consideração as populações, pois, sob \(H_0\), \(p_1=p_2\) (não há diferença entre as proporções das duas populações).
Então, para \(H_0\): \(p_1=p_2\) usamos a estatÃstica do teste a seguir: \[Z = \frac{\hat{p}_1 - \hat{p}_2}{\sqrt{\hat{p}(1 - \hat{p}) \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} \sim N(0, 1)\]
em que \(\hat p\) é a proporção de sucessos entre os \(n_1 + n_2\) elementos amostrados.
Condições: Todas as quantidades \(n_1\hat p_1, \; n_1(1- \hat p_1), \; n_2\hat p_2 \; \mbox{ e } \; n_2(1- \hat p_2)\) devem ser pelo menos igual a 10 para que a aproximação pela normal seja válida.
Resumindo:
Para \(H_0\): \(p_1-p_2=0\)
| \(H_1\) | Valor crÃtico para \(\alpha\) | Valor de p |
|---|---|---|
| \(p_1-p_2\neq0\) | rejeitar se \(\mid z_{obs} \mid \geq z_{\alpha/2}\) | \(2 P(Z\geq \mid z_{obs} \mid)\) |
| \(p_1-p_2<0\) | rejeitar se \(z_{obs}\leq -z_{\alpha}\) | \(P(Z\leq z_{obs})\) |
| \(p_1-p_2>0\) | rejeitar se \(z_{obs}\geq z_{\alpha}\) | \(P(Z\geq z_{obs})\) |
O dinheiro que não é gasto hoje pode ser gasto depois.
Será que ao relembrar o aluno deste fato faz com que tome a decisão sobre uma compra de maneira diferente?
O cético pode pensar que relembrar não irá influenciar na decisão.
Podemos utilizar um teste de hipótese:
\(H_0\): Relembrar o aluno de que ele pode poupar para comprar algo especial depois não irá influenciar na decisão de gasto do aluno.
\(H_1\): Relembrar o aluno de que ele pode poupar para comprar algo especial depois irá aumentar a chance dele não gastar em algo no presente.
Alunos de ME414 do segundo semestres de 2015 foram recrutados para um estudo e cada um recebeu a seguinte informação através do Google Forms:
Imagine que você estivesse poupando para comprar algo especial. Em uma visita ao shopping você encontra um DVD da sua série/filme favorita que estava na sua "lista de desejos" há tempos. O DVD está em promoção, custando R$ 20,00. O que você faria?
56 alunos (grupo 1) selecionados ao acaso receberam a seguinte opção de resposta:
54 alunos (grupo 2) selecionados ao acaso receberam a seguinte opção de resposta:
Obs: estudo adaptado do artigo Frederick S, Novemsky N, Wang J, Dhar R, Nowlis S. 2009. Opportunity Cost Neglect. Journal of Consumer Research 36: 553-561.
| Compraria | Não compraria | |
|---|---|---|
| grupo1 | 31 | 25 |
| grupo2 | 29 | 25 |
Entre os alunos do grupo 1, a proporção que decide não comprar foi 0.45.
Entre os alunos do grupo 2, a proporção que decide não comprar foi 0.46.
Temos evidências contra a hipótese nula, ou seja, relembrar o aluno não influencia na decisão?
Para realizar o teste de hipótese, devemos fazer algumas suposições.
Considere duas populações: \(X\) e \(Y\) tal que:
Queremos testar:
Seja \(\hat{p}_1\) a proporção que decide não comprar entre os alunos \(n_1\) amostrados do grupo 1.
Seja \(\hat{p}_2\) a proporção que decide não comprar entre os \(n_2\) alunos amostrados do grupo 2.
Relembrando o TLC:
\[\hat p_1 \sim N\left(p_1,\frac{ p_1(1 - p_1)}{n_1} \right) \quad \mbox{e} \quad \hat p_2 \sim N\left(p_2,\frac{ p_2(1 - p_2)}{n_2} \right)\]
Condições: Todas as quantidades \(n_1\hat p_1, \; n_1(1- \hat p_1), \; n_2\hat p_2 \; \mbox{ e } \; n_2(1- \hat p_2)\) devem ser pelo menos igual a 10 para que a aproximação pela normal seja válida.
Então, para \(H_0\): \(p_1=p_2\) usamos a estatÃstica do teste a seguir: \[Z = \frac{\hat p_1 - \hat p_2}{\sqrt{\hat p(1 - \hat p) \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} \sim N(0, 1)\]
em que \(\hat p\) é a proporção que decide não comprar entre os \(n_1 + n_2\) alunos amostrados.
Testar: \[H_0: p_1=p_2 \qquad \mbox{vs} \qquad H_1: p_1 < p_2,\] é equivalente a testar: \[H_0: p_1-p_2=0 \qquad \mbox{vs} \qquad H_1: p_1 - p_2<0.\]
EstatÃstica do teste: \[z_{obs} = \frac{\hat p_1 - \hat p_2}{\sqrt{\hat p(1 - \hat p) \left(\frac{1}{n_1} + \frac{1}{n_2}\right)}} = \frac{25/56-25/54}{\sqrt{5/11(1-5/11) \left(\frac{1}{56} + \frac{1}{54}\right)}} = -0.17\]
Valor crÃtico: Para \(\alpha=0.05\), \(z_{0.025}= -1.64\)
Conclusão: como \(z_{obs} > -1.64\) não temos evidências para rejeitar \(H_0\).
Slides produzidos pelos professores:
Samara Kiihl
Tatiana Benaglia
Benilton Carvalho