Para esta quarta aula prática de Estatística Computacional I, precisaremos dos seguintes pacotes:
require(ggplot2) # Abordagem gráfica
require(dplyr) # Manipulação de data frames
Ao estudarmos a distribuição amostral de um
estimador, demos um passo importante para responder a uma
pergunta central da inferência estatística:
“Quão confiável é o valor obtido a partir de uma única
amostra?”
Agora é hora de usar esse conhecimento para tomar decisões concretas. A partir de uma estimativa pontual (como a média ou a proporção amostral), queremos expressar o grau de incerteza associado a essa estimativa, ou ainda, testar afirmações sobre a população com base nos dados da amostra.
Essas duas tarefas constituem os pilares da inferência estatística:
O raciocínio por trás dessas ferramentas se ancora na distribuição amostral: Se sabemos como o estimador se comporta ao longo de muitas amostras, conseguimos avaliar o quanto o valor observado se desvia (ou não) do que seria esperado sob determinada hipótese. O enfoque computacional traz enormes vantagens para o aprendizado dessa etapa. Com simulações, podemos:
Nosso foco hoje será nos casos mais importantes da inferência para uma população:
Em todos os casos, vamos alternar entre teoria e
prática, reforçando os conceitos com experimentos
computacionais no R. Essa abordagem não só facilita o
entendimento, como prepara você para aplicar inferência de forma
crítica e fundamentada em situações reais. Para finalizar,
serão apresentadas as funções automáticas do R que
realizam intervalos de confiança e testes de hipóteses para uma
população.
Ao estimarmos um parâmetro populacional \(\theta\), como a média \(\mu\) ou a proporção \(p\), a partir de uma amostra aleatória, obtemos apenas uma estimativa pontual \(\hat{\theta}\). No entanto, como essa estimativa depende da amostra coletada, ela está sujeita à variabilidade amostral. Para expressar essa incerteza, utilizamos intervalos de confiança, que fornecem um intervalo de valores plausíveis para o parâmetro desconhecido \(\theta\), com base nas propriedades de distribuição do estimador \(\hat{\theta}\).
Formalmente, um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) é construído a partir de dois limites, \(L(X)\) e \(U(X)\), que são funções da amostra aleatória \(X\). Esses limites são, portanto, variáveis aleatórias, e o intervalo \([L(X), U(X)]\) deve satisfazer:
\[ \mathbb{P}(L(X) \leq \theta \leq U(X)) = 1 - \alpha, \]
onde:
Dessa forma, interpretamos o nível de confiança \(1 - \alpha\) como a proporção de vezes (no longo prazo) em que o intervalo \([L(X), U(X)]\), construído da mesma maneira a partir de amostras aleatórias independentes, conteria o verdadeiro valor de \(\theta\).
Nesta seção, abordaremos a construção de intervalos de confiança bilaterais tanto por métodos analíticos quanto por simulações, desenvolvendo uma compreensão intuitiva e rigorosa de sua interpretação e uso.
Vamos começar estudando a construção do intervalo de confiança para a média populacional \(\mu\), assumindo que:
Sabemos que, sob essas condições, a média amostral \(\bar{X}\) segue uma distribuição normal:
\[ \bar{X} \sim \mathcal{N}\left( \mu, \frac{\sigma^2}{n} \right) \]
Usando a padronização da média amostral, temos:
\[ Z = \frac{\bar{X} - \mu}{\sigma/\sqrt{n}} \sim \mathcal{N}(0, 1) \]
Para construir um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) (por exemplo, 95%), utilizamos o quantil \(z_{\alpha/2}\) da distribuição normal padrão. A figura a seguir retrata essa quantidade:
No R, esse valor crítico é obtido da seguinte forma
(para uma confiança de 95%, por exemplo):
# Nível de confiança
conf = 0.95
# Nível de significância
alfa = 1-conf
# Valor crítico
z_critico = qnorm(alfa/2,lower.tail=F)
Isso nos leva ao seguinte intervalo com confiança \(1-\alpha\) para a média populacional \(\mu\):
\[ IC_{1-\alpha}(\mu)=\left[ \bar{X} - z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}},\ \bar{X} + z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}} \right] \]
A interpretação correta é: se repetíssemos o processo de amostragem muitas vezes, cerca de \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\mu\). Na próxima etapa, vamos explorar computacionalmente como esse tipo de intervalo se comporta na prática, usando simulações para verificar sua frequência de acerto e o impacto de diferentes parâmetros.
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Vamos simular \(B=100\) amostras dessa população e, para cada amostra, vamos construir o intervalo de confiança com 95% de confiança, assumindo que a variância é conhecida.
# Parâmetros populacionais de X
media_real = 170
sigma_real = 10
# Tamanho da amostra
n = 25
# Quantidade de réplicas
B = 100
# Nível de confiança
Conf = 0.95
# Nível de signifiância
Alfa = 1-Conf
# Cria o vetor de B médias amostrais da população teórica
set.seed(2025)
medias = replicate(B, mean(rnorm(n, media_real, sigma_real)))
# Z crítico e erro padrão
z_critico = qnorm(Alfa/2,lower.tail=F)
erro_padrao = sigma_real / sqrt(n)
# Intervalos de confiança
inferior = medias - z_critico * erro_padrao
superior = medias + z_critico * erro_padrao
# Verifica se o intervalo contém o valor verdadeiro
Contem = inferior <= media_real & superior >= media_real
# Cobertura dos intervalos
Cobertura = sum(Contem)/length(Contem)
# Dados para o gráfico
dados = data.frame(
Replica = 1:B,
Inferior = inferior,
Superior = superior,
Contem = Contem
)
ggplot(dados, aes(x = Replica)) +
geom_segment(aes(xend = Replica, y = Inferior, yend = Superior, color = Contem), size = 1) +
geom_hline(yintercept = media_real, linetype = "dashed", color = "black") +
scale_color_manual(values = c("TRUE" = "blue", "FALSE" = "red")) +
labs(
title = expression("IC para " * mu * " (caso normal e " * sigma^2 * " conhecida)"),
x = "Replicações",
y = "Intervalo de Confiança"
) +
theme_minimal()+
theme(legend.position = "none")
Assim, conseguimos uma cobertura de 96% dos intervalos (próxima do valor verdadeiro de 95%). Essa cobertura vai se aproximando cada vez mais do valor de 95% à medida que aumentamos o valor de \(B\) (Experimente alterar \(B\) para 10000).
Retorne ao exemplo anterior e troque o tamanho da amostra de \(n=25\) para \(n=100\). Compare os dois gráficos. O que você nota de diferente?
Vamos agora estudar a construção do intervalo de confiança para a média populacional \(\mu\), assumindo que:
Nesse caso, como não conhecemos \(\sigma\), utilizamos o desvio padrão amostral \(S\), definido por:
\[ S = \sqrt{\frac{1}{n-1} \sum_{i=1}^n (X_i - \bar{X})^2} \]
A média amostral \(\bar{X}\) ainda é um estimador de \(\mu\), mas a distribuição agora que é utilizada é a T de Student com \(n - 1\) graus de liberdade:
\[ T = \frac{\bar{X} - \mu}{S/\sqrt{n}} \sim t_{n-1} \]
Essa variabilidade adicional alarga a cauda da distribuição, e isso é capturado pela distribuição T de Student, que possui as seguintes características:
À medida que o tamanho da amostra aumenta (\(n \to \infty\)), a distribuição T se aproxima da distribuição normal. Por isso, com amostras grandes, o uso da normal ou da T costuma levar a resultados semelhantes. Para construir um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) (por exemplo, 95%), utilizamos o quantil \(t_{n-1, \alpha/2}\) da distribuição T de Student com \(n - 1\) graus de liberdade. Veja na figura a seguir:
No R, esse valor crítico é obtido da
seguinte forma (para uma confiança de 95%, por exemplo):
# Tamanho da amostra
n = length(dados)
# Nível de confiança
conf = 0.95
# Nível de significância
alfa = 1-conf
# Valor crítico
t_critico = qt(alfa/2,df=n-1,lower.tail=F)
Isso nos leva ao seguinte intervalo confiança para \(\mu\) com nível de confiança \(1 - \alpha\) é dado por:
\[ IC_{1-\alpha}(\mu)=\left[ \bar{X} - t_{n-1, \alpha/2} \cdot \frac{S}{\sqrt{n}},\ \bar{X} + t_{n-1, \alpha/2} \cdot \frac{S}{\sqrt{n}} \right] \]
A interpretação correta permanece: se repetíssemos o processo de amostragem muitas vezes, cerca de \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\mu\). Na próxima etapa, vamos explorar computacionalmente como esse tipo de intervalo se comporta na prática, usando simulações para verificar sua frequência de acerto e o impacto de diferentes parâmetros.
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Vamos simular \(B=100\) amostras dessa população e, para cada amostra, vamos construir o intervalo de confiança com 95% de confiança, assumindo que a variância é desconhecida.
# Parâmetros populacionais de X
media_real = 170
sigma_real = 10
# Tamanho da amostra
n = 25
# Quantidade de réplicas
B = 100
# Nível de confiança
Conf = 0.95
# Nível de signifiância
Alfa = 1-Conf
# Cria o vetor de B médias amostrais da população teórica
set.seed(2025)
medias = replicate(B, mean(rnorm(n, media_real, sigma_real)))
# Cria o vetor de B desvios padrões amostrais da população teórica
set.seed(2025)
desvios_padroes = replicate(B, sd(rnorm(n, media_real, sigma_real)))
# T crítico e erros padrões
t_critico = qt(Alfa/2,df=n-1,lower.tail=F)
erros_padroes = desvios_padroes / sqrt(n)
# Intervalos de confiança
inferior = medias - t_critico * erros_padroes
superior = medias + t_critico * erros_padroes
# Verifica se o intervalo Contem o valor verdadeiro
Contem = inferior <= media_real & superior >= media_real
# Cobertura dos intervalos
Cobertura = sum(Contem)/length(Contem)
# Dados para o gráfico
dados = data.frame(
Replica = 1:B,
Inferior = inferior,
Superior = superior,
Contem = Contem
)
ggplot(dados, aes(x = Replica)) +
geom_segment(aes(xend = Replica, y = Inferior, yend = Superior, color = Contem), size = 1) +
geom_hline(yintercept = media_real, linetype = "dashed", color = "black") +
scale_color_manual(values = c("TRUE" = "blue", "FALSE" = "red")) +
labs(
title = expression("IC para " * mu * " (caso normal e " * sigma^2 * " desconhecida)"),
x = "Replicações",
y = "Intervalo de Confiança"
) +
theme_minimal()+
theme(legend.position = "none")
Assim, conseguimos, novamente, uma cobertura de 96% dos intervalos (próxima do valor verdadeiro de 95%). Essa cobertura vai se aproximando cada vez mais do valor de 95% à medida que aumentamos o valor de \(B\).
Retorne ao exemplo anterior e troque o nível de confiança de 95% para 80%. Compare os dois gráficos. O que você nota de diferente?
Vamos estudar a construção do intervalo de confiança para a média populacional \(\mu\), assumindo que:
Como a variância populacional é desconhecida, usamos a variância amostral \(s^2\) para estimar \(\sigma^2\). Além disso, como \(n\) é grande, podemos aplicar o Teorema Central do Limite para afirmar que a média amostral \(\bar{X}\) é aproximadamente normal:
\[ \bar{X} \approx \mathcal{N} \left( \mu, \frac{\sigma^2}{n} \right) \]
Substituindo \(\sigma\) por \(s\), a estatística
\[ Z \approx \frac{\bar{X} - \mu}{s / \sqrt{n}} \]
pode ser aproximada por uma distribuição normal padrão \(\mathcal{N}(0, 1)\), quando \(n\) é grande. Assim, o intervalo de confiança para \(\mu\), com nível de confiança \(1 - \alpha\), é dado por:
\[ IC_{1-\alpha}(\mu)=\left[ \bar{X} - z_{\alpha/2} \cdot \frac{s}{\sqrt{n}},\ \bar{X} + z_{\alpha/2} \cdot \frac{s}{\sqrt{n}} \right] \]
Note que usamos o quantil \(z_{\alpha/2}\) da normal padrão, e não o \(t\), porque a aproximação normal é válida para amostras grandes, mesmo com variância desconhecida. A interpretação permanece: se repetíssemos o processo de amostragem muitas vezes, aproximadamente \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\mu\).
Na próxima etapa, vamos investigar computacionalmente como esse intervalo se comporta na prática, verificando sua frequência de acerto para diferentes distribuições populacionais e tamanhos amostrais.
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de uma população com distribuição Exponencial com parâmetro \(\lambda\). Considerando \(n=48\) e \(\lambda=6\), faça, em sequência:
1- Gere \(B=100\) amostras de tamanho \(n=48\) dessa população e, para cada amostra, obtenha o intervalo com 90% de confiança para a média populacional \(\mu\).
2- Faça o gráfico da cobertura dos intervalos gerados e calcule a porcentagem de cobertura.
3- Altere o valor do nível de confiança para 80% e veja o que muda no gráfico.
4- Altere o valor o tamanho da amostra para n=100 e veja o que muda no gráfico.
Vamos estudar a construção do intervalo de confiança para a proporção populacional \(p\), assumindo que:
Como \(n\) é grande, podemos aplicar o Teorema Central do Limite para afirmar que a proporção amostral \(\hat{p}\) é aproximadamente normal:
\[ \hat{p} \approx \mathcal{N} \left( p,\ \frac{p(1 - p)}{n} \right) \]
Como \(p\) é desconhecido, substituímos pela estimativa \(\hat{p}\), obtendo a estatística:
\[ Z \approx \frac{\hat{p} - p}{\sqrt{\hat{p}(1 - \hat{p}) / n}} \sim N(0,1) \]
que pode ser aproximada por uma distribuição normal padrão \(\mathcal{N}(0, 1)\). Essa aproximação acontece, principalmente, se:
\[ n\hat{p} \geq 5 \quad \text{e} \quad n(1 - \hat{p}) \geq 5 \]
Assim, o intervalo de confiança para \(p\), com nível de confiança \(1 - \alpha\), é dado por:
\[ IC_{1-\alpha}(p)=\left[ \hat{p} - z_{\alpha/2} \cdot \sqrt{\frac{\hat{p}(1 - \hat{p})}{n}},\ \hat{p} + z_{\alpha/2} \cdot \sqrt{\frac{\hat{p}(1 - \hat{p})}{n}} \right] \]
Esse intervalo é conhecido como intervalo de Wald. Ele é simples de calcular, mas pode ter desempenho ruim quando a proporção está muito próxima de 0 ou 1, ou quando o tamanho amostral é pequeno. Por isso, a importância das condições acima. A interpretação permanece: se repetíssemos o processo de amostragem muitas vezes, aproximadamente \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(p\).
Na próxima etapa, vamos investigar computacionalmente como esse intervalo se comporta na prática, verificando sua frequência de acerto para diferentes valores de \(p\) e tamanhos amostrais.
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de uma população com distribuição Bernouli com parâmetro \(p\). Considerando \(n=64\) e \(p=0.6\), faça, em sequência:
1- Gere \(B=100\) amostras de tamanho \(n=64\) dessa população e, para cada amostra, obtenha o intervalo com 95% de confiança para a proporção populacional \(p\).
2- Faça o gráfico da cobertura dos intervalos gerados e calcule a porcentagem de cobertura.
3- Altere o valor de \(p\) para \(p=0.9\) e observe o que muda.
Vamos estudar a construção do intervalo de confiança para a variância populacional \(\sigma^2\), assumindo que:
Como a população é assumida normal, temos uma distribuição exata para a estatística baseada na variância amostral \(S^2\):
\[ \frac{(n - 1)S^2}{\sigma^2} \sim \chi^2_{n - 1} \]
Ou seja, a razão entre a soma dos quadrados centrados da amostra e a variância populacional segue uma distribuição qui-quadrado com \(n - 1\) graus de liberdade.
Para construir um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) (por exemplo, 95%), utilizamos os quantis \(\chi^2_{n-1, \alpha/2}\) e \(\chi^2_{n-1, 1-\alpha/2}\) da distribuição chi-quadrado com \(n - 1\) graus de liberdade. Veja na figura a seguir:
No R, esses valores críticos são
obtidos da seguinte forma (para uma confiança de 95%, por exemplo):
# Tamanho da amostra
n = length(dados)
# Nível de confiança
conf = 0.95
# Nível de significância
alfa = 1-conf
# Valores críticos
x_critico1 = qchisq(alfa/2,df=n-1)
x_critico2 = qchisq(alfa/2,df=n-1,lower.tail=F)
Com isso, podemos construir um intervalo de confiança para \(\sigma^2\), com nível de confiança \(1 - \alpha\), utilizando os quantis da distribuição qui-quadrado:
\[ IC_{1-\alpha}(\sigma^2)=\left[ \frac{(n - 1)s^2}{\chi^2_{\alpha/2}},\ \frac{(n - 1)s^2}{\chi^2_{1 - \alpha/2}} \right] \]
Note que a ordem dos quantis é invertida, pois a distribuição qui-quadrado é assimétrica. A interpretação permanece: se repetíssemos o processo de amostragem muitas vezes, aproximadamente \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\sigma^2\).
Na próxima etapa, vamos investigar computacionalmente como esse intervalo se comporta na prática, verificando sua frequência de acerto para diferentes valores de \(\sigma^2\) e tamanhos amostrais.
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Considerando \(n=22\), faça, em sequência:
1- Gere \(B=100\) amostras dessa população e, para cada amostra, obtenha o intervalo com 95% de confiança para a variância populacional \(\sigma^2\).
2- Faça o gráfico da cobertura dos intervalos gerados e calcule a porcentagem de cobertura.
3- Altere o valor de \(\sigma^2\) para \(25\) e observe o que muda.
Diante da incerteza sobre o verdadeiro valor de um parâmetro populacional \(\theta\), como a média, proporção ou variância, o teste de hipóteses nos fornece uma estrutura formal para avaliar uma suposição sobre esse parâmetro com base em dados amostrais.
Começamos formulando duas hipóteses estatísticas:
Com uma amostra aleatória \(X = (X_1, X_2, \dots, X_n)\), calculamos uma estatística de teste \(T(X)\), escolhida de forma que valores extremos de \(T(X)\) forneçam evidência contra \(H_0\). A estatística de teste \(T(X)\) é construída assumindo que \(H_0\) é verdadeira. Com base em \(T(X)\), definimos uma região crítica \(C\), tal que:
\[ \text{Rejeitamos } H_0 \quad \text{se } T(X) \in C. \]
Essa decisão envolve incertezas, que podem ser quantificadas por dois tipos de erro:
\[ \alpha = \mathbb{P}(T(X) \in C \mid H_0 \text{ verdadeira}). \]
Erro tipo II: não rejeitar \(H_0\) quando ela é falsa; sua probabilidade é denotada por \(\beta\), e dada por: \[ \beta = \mathbb{P}(T(X) \notin C \mid H_1 \text{ verdadeira}). \]
Poder do Teste:rejeitar \(H_0\) quando ela é falsa; sua probabilidade é denotada por 1-\(\beta\), e dada por:
\[ 1-\beta = \mathbb{P}(T(X) \in C \mid H_1 \text{ verdadeira}). \]
Outra abordagem para tomar a decisão sobre rejeitar ou não \(H_0\) é por meio do p-valor, que representa a probabilidade de observarmos um valor da estatística de teste tão extremo quanto, ou mais extremo que, o valor observado, sob a suposição de que a hipótese nula \(H_0\) é verdadeira. Formalmente, para o valor observado \(t_{\text{obs}} = T(x)\), o p-valor é:
Para um teste unilateral à direita: \[ \text{p-valor} = \mathbb{P}\big(T(X) \ge t_{\text{obs}} \mid H_0 \big) \]
Para um teste unilateral à esquerda: \[ \text{p-valor} = \mathbb{P}\big(T(X) \le t_{\text{obs}} \mid H_0 \big) \]
Para um teste bilateral:
\[ \text{p-valor} = \begin{cases} 2 \, P(T(X) \ge t_{\text{obs}} \mid H_0), & \text{se } t_{\text{obs}} > \mu_0, \\ 2 \, P(T(X) \le t_{\text{obs}} \mid H_0), & \text{se } t_{\text{obs}} < \mu_0. \end{cases} \]
em que \(\mu_0 = \mathbb{E}[T(X)\mid H_0]\) a média da distribuição sob a hipótese nula. Se o resultado for maior que 1, trunque o valor-p em 1.
Em todos os casos, o critério para decisão é:
Com o apoio de ferramentas computacionais, é possível simular o comportamento da estatística de teste sob diferentes cenários, o que permite investigar de forma prática as probabilidades dos erros tipo I e tipo II, avaliar o poder do teste e explorar o efeito de diferentes hipóteses alternativas.
Vamos começar estudando a construção de testes de hipóteses para a média populacional \(\mu\), assumindo que:
O teste bilateral verifica se a média populacional é igual a um valor específico \(\mu_0\) ou diferente, para mais ou para menos.
\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu \neq \mu_0 \quad \text{(hipótese alternativa bilateral)} \]
A estatística de teste usada é a média amostral
\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]
Sabemos que:
\[ \bar{X} \sim \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right). \]
Sob \(H_0\):
\[ \bar{X} \sim \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right). \]
O nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(\mu_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \quad \text{ou} \quad \bar{X} \geq U, \]
Queremos determinar os valores \(L\) e \(U\) que satisfazem:
\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \quad \text{ e } \quad P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \]
Sabemos que:
\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{\sigma/\sqrt{n}}=-z_{\alpha/2}\rightarrow L = \mu_0-z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \]
e
\[ P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{U-\mu_0}{\sigma/\sqrt{n}}=z_{\alpha/2}\rightarrow U = \mu_0+z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \bar{X} \leq L=\mu_0 - z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}} \quad \text{ou} \quad \bar{X} \geq U=\mu_0 + z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}. \]
EXEMPLO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\), com \(\sigma^2=100\). Considere o teste das seguintes hipóteses:
\[ H_0: \mu = 170 \] \[ H_1: \mu \neq 170 \]
Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:
\[L=\mu_0 - z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}=170-1,96\cdot\frac{10}{4}=165,1\]
e
\[U=\mu_0 + z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}=170+1,96\cdot\frac{10}{4}=174.9\]
Portanto, rejeitaremos \(H_0\) se \(\bar{X}\leq 165,1\) ou se \(\bar{X}\geq 174.9\)
De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=16\) de uma população normal com \(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), assumindo \(\sigma^2\) conhecido. Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):
# Parâmetros populacionais de X
media_real <- 170
sigma_real <- 10
# Tamanho da amostra
n <- 16
# Número de réplicas (simulações)
B <- 1000
# Nível de significância
alfa <- 0.05
# Simulação das médias amostrais
set.seed(2025)
medias <- replicate(B, mean(rnorm(n, media_real, sigma_real)))
# Z crítico
z_critico <- qnorm(alfa/2,lower.tail=F)
# valores criticos de xbarra
L <- media_real-z_critico*sigma_real/sqrt(n)
U <- media_real+z_critico*sigma_real/sqrt(n)
# Cria um data frame com os valores das medias e decisão do teste
df <- data.frame(medias = medias) %>%
mutate(rejeita_H0 = medias >= U | medias <= L )
# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)
# Gráfico
ggplot(df, aes(x = medias, fill = rejeita_H0)) +
geom_histogram(color = "black") +
scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
labels = c("Não rejeita H0", "Rejeita H0"),
name = "Decisão") +
labs(title = "Distribuição das médias amostrais",
x = "Médias Amostrais",
y = "Frequência") +
theme_minimal()
Esse gráfico representa a distribuição empírica dos \(B\) valores de \(\bar{X}\). A quantidade empírica de testes que rejeitaram a hipótese nula é aproximadamente 5%, o nível de significância.
EXERCÍCIO: Adapte o script anterior utilizando o critério do valor-p como método de decisão.
O teste unilateral à direita verifica se a média populacional é maior que um valor específico \(\mu_0\):
\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu > \mu_0 \quad \text{(hipótese alternativa)} \]
A estatística de teste utilizada é a média amostral:
\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]
Sabemos que:
\[ \bar{X} \sim \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right) \]
Sob \(H_0\):
\[ \bar{X} \sim \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right) \]
O nível de significância é \(\alpha\). No teste unilateral à direita, rejeitamos \(H_0\) se a média amostral estiver muito maior que \(\mu_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \geq U \]
Queremos determinar o valor \(U\) tal que:
\[ P(\bar{X} \geq U \mid H_0) = \alpha \]
Sabemos que:
\[ \frac{U - \mu_0}{\sigma/\sqrt{n}} = z_\alpha \Rightarrow U = \mu_0 + z_\alpha \cdot \frac{\sigma}{\sqrt{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \bar{X} \geq U = \mu_0 + z_\alpha \cdot \frac{\sigma}{\sqrt{n}} \]
EXERCÍCIO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\), com \(\sigma^2=100\). Considere o teste das seguintes hipóteses:
\[ H_0: \mu = 170 \] \[ H_1: \mu > 170 \]
Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:
\[U=\mu_0 + z_{\alpha} \cdot \frac{\sigma}{\sqrt{n}}=170+1.64\cdot\frac{10}{4}=174.1\]
Portanto, rejeitaremos \(H_0\) se \(\bar{X}\geq 174.1\)
Fixado o valor de \(\alpha\)=5%, simule \(B=1000\) amostras de uma população normal (\(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, teste as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), assumindo \(\sigma^2\) conhecido. Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).
Utilize, agora, o método do valor-p como decisão do teste.
Vamos investigar o comportamento do erro tipo II e do poder do teste no exemplo do teste bilateral. As hipóteses eram:
\[ H_0: \mu = 170 \] \[ H_1: \mu \neq 170 \]
Com um tamanho de amostra \(n=16\), \(\sigma=10\) e considerando um \(\alpha\) de 5%, obtivemos a seguinte região crítica:
\[C=\bar{X}\leq L=165,1 \text{ ou } \bar{X}\geq U=174.9\]
Dessa forma, o erro tipo II será dado por:
\[\beta = \mathbb{P}(\bar{X} \notin C \mid H_1 \text{ verdadeira})=\mathbb{P}(165,1\leq\bar{X}\leq174,9|\mu \neq 170)\]
Consequentemente, o poder do teste será dado por:
\[1-\beta = \mathbb{P}(\bar{X} \in C \mid H_1 \text{ verdadeira})=\mathbb{P}(\bar{X}\geq 174,9\cup \bar{X}\leq 165,1|\mu \neq 170)\]
Para que \(H_1\) seja verdadeira, nesse caso, poderemos considerar que a média verdadeira \(\mu\) assuma diferentes valores de 170. Denote por \(\mu_1\) estes valores sob a hipótese alternativa. Segue, o código para a obtenção do erro tipo II e do poder do teste, considerando os valores de \(n\) tamanho amostral, \(\sigma\) o desvio padrão populacional, \(\alpha\) o nível de significância, \(\mu_0\) a média sob a hipótese nula e \(\mu_1\) a média sob a hipótese alternativa:
ErroTipoII = function(n, sigma_real, alfa, mu0, mu1){
# Calcula o valor crítico para teste bilateral
z_critico = qnorm(alfa / 2, lower.tail = FALSE)
# Define os limites da região crítica
L = mu0 - z_critico * sigma_real / sqrt(n)
U = mu0 + z_critico * sigma_real / sqrt(n)
# Calcula o erro tipo II: probabilidade de não rejeitar H0 quando mu = mu1
Beta = pnorm(U, mean = mu1, sd = sigma_real / sqrt(n)) -
pnorm(L, mean = mu1, sd = sigma_real / sqrt(n))
return(Beta)
}
PoderDoTeste = function(n, sigma_real, alfa, mu0, mu1){
1 - ErroTipoII(n, sigma_real, alfa, mu0, mu1)
}
Vamos avaliar ambas as funções graficamente, considerando \(n=16\), \(\sigma=10\), \(\mu_0=170\) e \(\alpha\)=5%, variando diversos valores possíveis para \(\mu_1\):
# Parâmetros fixos
n <- 16
alfa <- 0.05
mu0 <- 170
sigma_real <- 10
# Variação de mu1
mu1_vals <- seq(150, 190, by = 1)
# Erro do tipo II
betas <- ErroTipoII(n=n, sigma_real=sigma_real, alfa=alfa,
mu0=mu0, mu1=mu1_vals)
# Poder do teste
poderes <- PoderDoTeste(n=n, sigma_real=sigma_real, alfa=alfa,
mu0=mu0, mu1=mu1_vals)
# Data frame para plotagem
dados <- data.frame(mu1 = mu1_vals,
betas = betas,
poderes = poderes)
# Gráfico com as duas linhas
ggplot(dados, aes(x = mu1)) +
geom_line(aes(y = betas, color = "Erro Tipo II"), size = 1) +
geom_line(aes(y = poderes, color = "Poder do Teste"), size = 1) +
geom_vline(xintercept = mu0, linetype = "dashed", color = "red") +
scale_color_manual(values = c("Erro Tipo II" = "blue", "Poder do Teste" = "darkgreen")) +
labs(
title = expression("Erro Tipo II e Poder do Teste em função de " * mu[1]),
x = expression(mu[1]),
y = "Probabilidade",
color = ""
) +
theme_minimal(base_size = 14)
Este gráfico apresenta a probabilidade do erro tipo II (linha azul) e o poder do teste (linha verde) em função de diferentes valores da média alternativa \(\mu_1\), ou seja, assume que o teste é para:
\[ H_0: \mu = 170 \quad \text{versus} \quad H_1: \mu \neq 170 \]
No eixo \(x\), temos os possíveis valores alternativos de \(\mu_1\), variando entre 150 e 190.
No eixo \(y\), temos as probabilidades:
A linha vermelha vertical tracejada indica \(\mu_1 = \mu_0 = 170\). Neste ponto:
À medida que \(\mu_1\) se afasta de 170 (para cima ou para baixo), a:
Em \(\mu_1\) muito distantes (como abaixo de 160 ou acima de 180), o poder do teste se aproxima de 1, e o erro tipo II tende a 0. Isso significa que o teste é muito eficaz para detectar diferenças grandes. O gráfico mostra como a eficácia do teste depende da verdadeira média populacional \(\mu_1\).
EXERCÍCIO:
Vamos investigar o comportamento do erro tipo II e do poder do teste no exemplo do teste unilateral à direita. As hipóteses eram:
\[ H_0: \mu = 170 \] \[ H_1: \mu > 170 \]
Com um tamanho de amostra \(n=16\), \(\sigma=10\) e considerando um \(\alpha\) de 5%, obtivemos a seguinte região crítica:
\[C=\bar{X}\geq 174,1\]
Dessa forma, o erro tipo II será dado por:
\[\beta = \mathbb{P}(\bar{X} \notin C \mid H_1 \text{ verdadeira})=\mathbb{P}(\bar{X}\leq174,1|\mu \neq 170)\]
Consequentemente, o poder do teste será dado por:
\[1-\beta = \mathbb{P}(\bar{X} \in C \mid H_1 \text{ verdadeira})=\mathbb{P}(\bar{X}\geq 174,1|\mu \neq 170)\]
Para que \(H_1\) seja verdadeira, nesse caso, poderemos considerar que a média verdadeira \(\mu\) assuma valores acima de 170. Denote por \(\mu_1\) estes valores sob a hipótese alternativa.
1- Faça o código para a obtenção do erro tipo II e do poder do teste, considerando os valores de \(n\) tamanho amostral, \(\sigma\) o desvio padrão populacional, \(\alpha\) o nível de significância, \(\mu_0\) a média sob a hipótese nula e \(\mu_1\) a média sob a hipótese alternativa
2- Avalie ambas as funções graficamente, considerando \(n=16\), \(\sigma=10\), \(\mu_0=170\) e \(\alpha\)=5%, variando diversos valores possíveis para \(\mu_1\), de acordo com a hipótese alternativa.
Agora vamos para o estudo da construção de testes de hipóteses para a proporção populacional \(p\), assumindo que:
O teste bilateral verifica se a proporção populacional é igual a um valor específico \(p_0\) ou diferente, para mais ou para menos.
\[ H_0: p = p_0 \quad \text{(hipótese nula)} \] \[ H_1: p \neq p_0 \quad \text{(hipótese alternativa bilateral)} \]
A estatística de teste usada é a proporção amostral
\[ \hat{p} = \frac{1}{n} \sum_{i=1}^n X_i. \]
Sabemos que (segundo o TCL):
\[ \hat{p} \approx \mathcal{N}\left(p, \frac{p(1-p)}{n}\right). \]
Sob \(H_0\):
\[ \hat{p} \approx \mathcal{N}\left(p_0, \frac{p_0(1-p_0)}{n}\right). \]
O nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(p_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \hat{p} \leq L \quad \text{ou} \quad \hat{p} \geq U, \]
Queremos determinar os valores \(L\) e \(U\) que satisfazem:
\[ P(\hat{p} \leq L \mid H_0) = \frac{\alpha}{2} \quad \text{ e } \quad P(\hat{p} \geq U \mid H_0) = \frac{\alpha}{2} \]
Sabemos que:
\[ P(\hat{p} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}=-z_{\alpha/2}\rightarrow L = p_0-z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}} \]
e
\[ P(\hat{p} \geq U \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}=z_{\alpha/2}\rightarrow U = p_0+z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \hat{p} \leq L = p_0-z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}} \quad \text{ou} \quad \hat{p} \geq p_0+z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}}. \]
EXEMPLO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=100\) de uma população com distribuição Bernoulli com parâmetros \(p\). Considere o teste das seguintes hipóteses:
\[ H_0: p = 0.6 \] \[ H_1: p \neq 0.6 \]
Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:
\[L=p_0 - z_{\alpha/2} \cdot \sqrt{\frac{p_0(1-p_0)}{n}}=0.6+1,96\cdot\sqrt{\frac{0.24}{100}}=0,5039\]
e
\[U=p_0 + z_{\alpha/2} \cdot \sqrt{\frac{p_0(1-p_0)}{n}}=0.6+1,96\cdot\sqrt{\frac{0.24}{100}}=0,6960\]
Portanto, rejeitaremos \(H_0\) se \(\hat{p}\leq 0,5039\) ou se \(\bar{X}\geq 0,6960\).
De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=100\) de uma população Bernoulli com \(p=0.6\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):
# Parâmetros populacionais de X
p_real=0.6
# Tamanho da amostra
n <- 100
# Número de réplicas (simulações)
B <- 1000
# Nível de significância
alfa <- 0.05
# Simulação das médias amostrais
set.seed(2025)
props <- replicate(B, mean(rbinom(n, size=1,p=p_real)))
# Z crítico
z_critico <- qnorm(alfa/2,lower.tail=F)
# Desvio padrão
desvio_padrao <- sqrt((p_real*(1-p_real))/n)
# valores criticos de xbarra
L <- p_real-z_critico*desvio_padrao
U <- p_real+z_critico*desvio_padrao
# Cria um data frame com os valores das medias e decisão do teste
df <- data.frame(props = props) %>%
mutate(rejeita_H0 = props >= U | props <= L )
# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)
# Gráfico
ggplot(df, aes(x = props, fill = rejeita_H0)) +
geom_histogram(color = "black") +
scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
labels = c("Não rejeita H0", "Rejeita H0"),
name = "Decisão") +
labs(title = "Distribuição das médias amostrais",
x = "Médias Amostrais",
y = "Frequência") +
theme_minimal()
Esse gráfico representa a distribuição empírica dos \(B\) valores de \(\hat{p}\). A quantidade empírica de testes que rejeitaram a hipótese nula é próxima de 5%, o nível de significância.
O teste unilateral à esquerda verifica se a média populacional é menor que um valor específico \(p_0\):
\[ H_0: p = p_0 \quad \text{(hipótese nula)} \] \[ H_1: p < p_0 \quad \text{(hipótese alternativa)} \]
A estatística de teste usada é a proporção amostral
\[ \hat{p} = \frac{1}{n} \sum_{i=1}^n X_i. \]
Sabemos que (segundo o TCL):
\[ \hat{p} \approx \mathcal{N}\left(p, \frac{p(1-p)}{n}\right). \]
Sob \(H_0\):
\[ \hat{p} \approx \mathcal{N}\left(p_0, \frac{p_0(1-p_0)}{n}\right). \]
O nível de significância é \(\alpha\). No teste unilateral à esquerda, rejeitamos \(H_0\) se a proporção amostral estiver muito distante de \(p_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \hat{p} \leq L, \]
Queremos determinar o valor de \(L\) que satisfaz:
\[ P(\hat{p} \leq L \mid H_0) = \alpha \]
Sabemos que:
\[ P(\hat{p} \leq L \mid H_0) = \alpha \rightarrow \frac{L-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}=-z_{\alpha}\rightarrow L = p_0-z_{\alpha}\sqrt{\frac{p_0(1-p_0)}{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \hat{p} \leq L = p_0-z_{\alpha}\sqrt{\frac{p_0(1-p_0)}{n}}. \]
EXERCÍCIO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=100\) de uma população com distribuição Bernoulli com parâmetros \(p\). Considere o teste das seguintes hipóteses:
\[ H_0: p = 0.6 \] \[ H_1: p < 0.6 \]
Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:
\[L=p_0 - z_{\alpha/2} \cdot \sqrt{\frac{p_0(1-p_0)}{n}}=0.6+1,64\cdot\sqrt{\frac{0.24}{100}}=0,5197\]
Portanto, rejeitaremos \(H_0\) se \(\hat{p}\leq 0,5197\).
De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=100\) de uma população Bernoulli com \(p=0.6\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).
Vamos investigar o comportamento do erro tipo II e do poder do teste no exemplo do teste bilateral. As hipóteses eram:
\[ H_0: p = 0.6 \] \[ H_1: p \neq 0.6 \]
Com um tamanho de amostra \(n=100\) e considerando um \(\alpha\) de 5%, obtivemos a seguinte região crítica:
\[C=\hat{p}\leq L=0,5039 \text{ ou } \hat{p}\geq U=0,6960\]
Dessa forma, o erro tipo II será dado por:
\[\beta = \mathbb{P}(\hat{p} \notin C \mid H_1 \text{ verdadeira})=\mathbb{P}(0,5039 \leq\hat{p}\leq 0,6960|p \neq 0.6)\]
Consequentemente, o poder do teste será dado por:
\[1-\beta = \mathbb{P}(\hat{p} \in C \mid H_1 \text{ verdadeira})=\mathbb{P}(\hat{p}\geq 0,6960\cup \hat{p}\leq 0,5039|p \neq 0.6)\]
Para que \(H_1\) seja verdadeira, nesse caso, poderemos considerar que a proporção verdadeira \(p\) assuma diferentes valores de 0.6. Denote por \(p_1\) estes valores sob a hipótese alternativa. Segue, o código para a obtenção do erro tipo II e do poder do teste, considerando os valores de \(n\) tamanho amostral, \(\alpha\) o nível de significância, \(p_0\) a proporção sob a hipótese nula e \(p_1\) a proporção sob a hipótese alternativa:
ErroTipoII = function(n, alfa, p0, p1){
# Calcula o valor crítico para teste bilateral
z_critico = qnorm(alfa / 2, lower.tail = FALSE)
# Define os limites da região crítica
L = p0 - z_critico * sqrt((p0*(1-p0))) / sqrt(n)
U = p0 + z_critico * sqrt((p0*(1-p0))) / sqrt(n)
# Calcula o erro tipo II: probabilidade de não rejeitar H0 quando mu = mu1
Beta = pnorm(U, mean = p1, sd = sqrt((p1*(1-p1))) / sqrt(n)) -
pnorm(L, mean = p1, sd = sqrt((p1*(1-p1))) / sqrt(n))
return(Beta)
}
PoderDoTeste = function(n, alfa, p0, p1){
1 - ErroTipoII(n, alfa, p0, p1)
}
Vamos avaliar ambas as funções graficamente, considerando \(n=100\), \(p_0=0.6\) e \(\alpha\)=5%, variando diversos valores possíveis para \(p_1\):
# Parâmetros fixos
n <- 100
alfa <- 0.05
p0 <- 0.6
# Variação de mu1
p1_vals <- seq(0.3, 0.9, by = 0.05)
# Erro do tipo II
betas <- ErroTipoII(n=n, alfa=alfa,
p0=p0, p1=p1_vals)
# Poder do teste
poderes <- PoderDoTeste(n=n, alfa=alfa,
p0=p0, p1=p1_vals)
# Data frame para plotagem
dados <- data.frame(p1 = p1_vals,
betas = betas,
poderes = poderes)
# Gráfico com as duas linhas
ggplot(dados, aes(x = p1)) +
geom_line(aes(y = betas, color = "Erro Tipo II"), size = 1) +
geom_line(aes(y = poderes, color = "Poder do Teste"), size = 1) +
geom_vline(xintercept = p0, linetype = "dashed", color = "red") +
scale_color_manual(values = c("Erro Tipo II" = "blue", "Poder do Teste" = "darkgreen")) +
labs(
title = expression("Erro Tipo II e Poder do Teste em função de " * p[1]),
x = expression(p[1]),
y = "Probabilidade",
color = ""
) +
theme_minimal(base_size = 14)
Este gráfico apresenta a probabilidade do erro tipo II (linha azul) e o poder do teste (linha verde) em função de diferentes valores da média alternativa \(p_1\), ou seja, assume que o teste é para:
Agora vamos para o estudo da construção de testes de hipóteses para a média populacional \(\mu\), assumindo que:
O teste bilateral verifica se a média populacional é igual a um valor específico \(\mu_0\) ou diferente, para mais ou para menos.
\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu \neq \mu_0 \quad \text{(hipótese alternativa bilateral)} \]
A estatística de teste usada é a média amostral
\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]
Sabemos que (segundo o TCL):
\[ \bar{X} \approx \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right). \]
Sob \(H_0\):
\[ \bar{X} \approx \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right). \]
O nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(\mu_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \quad \text{ou} \quad \bar{X} \geq U, \]
Queremos determinar os valores \(L\) e \(U\) que satisfazem:
\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \quad \text{ e } \quad P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \]
Como não conhecemos o valor verdadeiro de \(\sigma\), o estimaremos pelo desvio padrão amostral \(s\). Sabemos que:
\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{s/\sqrt{n}}=-z_{\alpha/2}\rightarrow L = \mu_0-z_{\alpha/2}\frac{s}{\sqrt{n}} \]
e
\[ P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{U-\mu_0}{s/\sqrt{n}}=z_{\alpha/2}\rightarrow U = \mu_0+z_{\alpha/2}\frac{s}{\sqrt{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \bar{X} \leq L=\mu_0 - z_{\alpha/2} \cdot \frac{s}{\sqrt{n}} \quad \text{ou} \quad \bar{X} \geq U=\mu_0 + z_{\alpha/2} \cdot \frac{s}{\sqrt{n}}. \]
EXEMPLO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=64\) de uma população com distribuição Exponencial com parâmetros \(\lambda=6\). Assim, \(\mu=\frac{1}{6}\). Considere o teste das seguintes hipóteses:
\[ H_0: \mu = \frac{1}{6} \] \[ H_1: \mu \neq \frac{1}{6} \]
Diferentemente do caso anterior, não conseguimos expressar a região crítica sem os dados da amostra, uma vez que ela depende de \(s\), o desvio padrão amostral. Considerando um \(\alpha\) de 5%, em cada amostra de tamanho \(n=64\) os valores críticos para a construção da regiao de rejeição serão:
\[L=\mu_0 - z_{\alpha/2} \cdot \frac{s}{\sqrt{n}}=1/6-1,96\cdot\frac{s}{8}\]
e
\[U=\mu_0 + z_{\alpha/2} \cdot \frac{s}{\sqrt{n}}=1/6+1,96\cdot\frac{s}{8}\]
Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, nesse caso, cada réplica terá sua respectiva região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):
# Parâmetros populacionais de X
lambda_real <- 6
media_real <- 1/lambda_real
# Tamanho da amostra
n <- 64
# Número de réplicas (simulações)
B <- 1000
# Nível de significância
alfa <- 0.05
# Simulação das médias amostrais
set.seed(2025)
medias <- replicate(B, mean(rexp(n, rate=lambda_real)))
# Simulação dos desvios padrões amostrais
set.seed(2025)
desvios_padroes <- replicate(B, sd(rexp(n, rate=lambda_real)))
# Z crítico
z_critico <- qnorm(alfa/2,lower.tail=F)
# valores criticos de xbarra
L <- media_real-z_critico*desvios_padroes /sqrt(n)
U <- media_real+z_critico*desvios_padroes /sqrt(n)
# Cria um data frame com os valores das medias e decisão do teste
df <- data.frame(medias = medias) %>%
mutate(rejeita_H0 = medias >= U | medias <= L )
# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)
# Gráfico
ggplot(df, aes(x = medias, fill = rejeita_H0)) +
geom_histogram(color = "black", bins = 30) +
scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
labels = c("Não rejeita H0", "Rejeita H0"),
name = "Decisão") +
labs(title = "Distribuição das médias amostrais",
x = "Médias Amostrais",
y = "Frequência") +
theme_minimal()
Esse gráfico representa a distribuição empírica dos \(B\) valores de \(\bar{X}\). A quantidade empírica de testes que rejeitaram a hipótese nula é aproximadamente 5%, o nível de significância.
O teste unilateral à esquerda verifica se a média populacional é menor que um valor específico \(\mu_0\):
\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu < \mu_0 \quad \text{(hipótese alternativa)} \]
A estatística de teste utilizada é a média amostral:
\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]
Sabemos que, pelo TCL:
\[ \bar{X} \approx \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right) \]
Sob \(H_0\):
\[ \bar{X} \approx \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right) \]
O nível de significância é \(\alpha\). No teste unilateral à esquerda, rejeitamos \(H_0\) se a média amostral estiver muito menor que \(\mu_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \]
Queremos determinar o valor \(L\) tal que:
\[ P(\bar{X} \leq L \mid H_0) = \alpha \]
Sabemos que:
\[ \frac{L - \mu_0}{s/\sqrt{n}} = z_\alpha \Rightarrow L = \mu_0 + z_\alpha \cdot \frac{s}{\sqrt{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \bar{X} \leq L = \mu_0 + z_\alpha \cdot \frac{s}{\sqrt{n}} \]
EXERCÍCIO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=64\) de uma população com distribuição Exponencial com parâmetros \(\lambda=6\). Assim, \(\mu=\frac{1}{6}\). Considere o teste das seguintes hipóteses:
\[ H_0: \mu = \frac{1}{6} \] \[ H_1: \mu < \frac{1}{6} \]
Não conseguimos expressar a região crítica sem os dados da amostra, uma vez que ela depende de \(s\), o desvio padrão amostral. Considerando um \(\alpha\) de 5%, em cada amostra de tamanho \(n=64\) os valores críticos para a construção da regiao de rejeição serão:
\[L=\mu_0 - z_{\alpha} \cdot \frac{s}{\sqrt{n}}=1/6-1,64\cdot\frac{s}{8}\]
Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, nesse caso, cada réplica terá sua respectiva região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):
Vamos construir testes de hipóteses para a média populacional \(\mu\), assumindo que:
O teste bilateral verifica se a média populacional é igual a um valor específico \(\mu_0\) ou diferente:
\[ H_0: \mu = \mu_0 \quad \text{vs} \quad H_1: \mu \neq \mu_0 \]
Agora a estatística de teste usada é:
\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i \]
Sabemos que, usando o estimador da variância amostral \(S^2\), a estatística padronizada:
\[ T = \frac{\bar{X} - \mu_0}{S / \sqrt{n}} \]
segue uma distribuição t de Student com \(n-1\) graus de liberdade, sob \(H_0\). Da mesma forma como antes, o nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(\mu_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \quad \text{ou} \quad \bar{X} \geq S, \]
Queremos determinar \(L\) e \(S\) tais que:
\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2}, \quad P(\bar{X} \geq S \mid H_0) = \frac{\alpha}{2} \]
Sabemos que:
\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{s/\sqrt{n}}=-t_{n-1,\alpha/2}\rightarrow L = \mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \]
e
\[ P(\bar{X} \geq S \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{S-\mu_0}{s/\sqrt{n}}=t_{n-1,\alpha/2}\rightarrow S = \mu_0+t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \bar{X} \leq L=\mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \quad \text{ou} \quad \bar{X} \geq S=\mu_0+t_{n-1,\alpha/2}\frac{s}{\sqrt{n}}. \]
EXEMPLO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Considere o teste das seguintes hipóteses:
\[ H_0: \mu = 170 \] \[ H_1: \mu \neq 170 \]
Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), assumindo \(\sigma^2\) desconhecido. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I).
# Parâmetros populacionais de X
media_real <- 170
sigma_real <- 10
# Tamanho da amostra
n <- 25
# Número de réplicas (simulações)
B <- 1000
# Nível de significância
alfa <- 0.05
# Simulação das médias amostrais
set.seed(2025)
medias <- replicate(B, mean(rnorm(n, media_real, sigma_real)))
# Simulação dos desvios padroes amostrais
set.seed(2025)
desvios_padroes <- replicate(B, sd(rnorm(n, media_real, sigma_real)))
# Z crítico
t_critico <- qt(alfa/2,df=n-1,lower.tail=F)
# valores criticos de xbarra
L <- media_real-t_critico*desvios_padroes/sqrt(n)
S <- media_real+t_critico*desvios_padroes/sqrt(n)
# Cria um data frame com os valores das medias e a decisão do teste
df <- data.frame(medias = medias) %>%
mutate(rejeita_H0 = medias >= S | medias <= L )
# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)
# Gráfico
ggplot(df, aes(x = medias, fill = rejeita_H0)) +
geom_histogram(color = "black", bins = 30) +
scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
labels = c("Não rejeita H0", "Rejeita H0"),
name = "Decisão") +
labs(title = "Distribuição das médias amostrais",
x = "Médias Amostrais",
y = "Frequência") +
theme_minimal()
O teste unilateral à direita verifica se a média populacional é menor que um valor específico \(\mu_0\):
\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu < \mu_0 \quad \text{(hipótese alternativa)} \]
A estatística de teste utilizada é a média amostral:
\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]
Sabemos que, usando o estimador da variância amostral \(S^2\), a estatística padronizada:
\[ T = \frac{\bar{X} - \mu_0}{S / \sqrt{n}} \]
segue uma distribuição t de Student com \(n-1\) graus de liberdade, sob \(H_0\). Da mesma forma como antes, o nível de significância é \(\alpha\). No teste unilateral à esquerda, rejeitamos \(H_0\) se a média amostral estiver muito abaixo de \(\mu_0\):
Isto é,
\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \]
Queremos determinar \(L\) tal que:
\[ P(\bar{X} \leq L \mid H_0) = \alpha \]
Sabemos que:
\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{s/\sqrt{n}}=-t_{n-1,\alpha/2}\rightarrow L = \mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \]
Portanto, rejeitamos \(H_0\) se:
\[ \bar{X} \leq L=\mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}}. \]
EXERCÍCIO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Considere o teste das seguintes hipóteses:
\[ H_0: \mu = 170 \] \[ H_1: \mu < 170 \]
Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), considerando que a variância \(\sigma^2\) é desconhecida. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I).
Vamos construir testes de hipóteses para a variância populacional \(\sigma^2\), assumindo que:
O teste bilateral verifica se a variância populacional é igual a um valor específico \(\sigma_0^2\) ou diferente:
\[ H_0: \sigma^2 = \sigma_0^2 \quad \text{vs} \quad H_1: \sigma^2 \neq \sigma_0^2 \]
A estatística de teste usada é baseada na variância amostral:
\[ S^2 = \frac{1}{n-1} \sum_{i=1}^n (X_i - \bar{X})^2 \]
Assm, sob \(H_0\), a estatística de teste
\[ \chi^2 = \frac{(n-1)S^2}{\sigma_0^2} \]
segue uma distribuição qui-quadrado com \(n-1\) graus de liberdade.
Fixado o nível de significância \(\alpha\), rejeitamos \(H_0\) se a estatística de teste \(\chi^2\) for muito pequena ou muito grande em relação ao valor esperado, sob a hipótese nula. Veja na figura a seguir:
Portanto, rejeitamos \(H_0\) se:
\[ .\chi^2 \geq \chi^2_{\alpha/2} \textrm{ ou } \chi^2 \leq \chi^2_{1-\alpha/2} \]
EXEMPLO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\). Considere o teste das seguintes hipóteses:
\[ H_0: \sigma^2 = 100 \] \[ H_1: \sigma^2 \neq 100 \]
Considerando um \(\alpha\) de 5%, temos que a estatística de teste tem distribuição qui-quadrado com \(n-1\)=15 graus de liberdade.
De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=16\) de uma população normal com \(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).
# Parâmetros populacionais de X
media_real <- 170
sigma_real <- 10
sigma2_real <- 100
# Tamanho da amostra
n <- 16
# Número de réplicas (simulações)
B <- 1000
# Nível de significância
alfa <- 0.05
# Simulação das médias amostrais
set.seed(2025)
vars <- replicate(B, var(rnorm(n, media_real, sigma_real)))
# Estatística de teste
chi = (n-1)*vars/sigma2_real
# valores críticos
chi_critico1 <- qchisq(alfa/2,df=n-1)
chi_critico2 <- qchisq(alfa/2,df=n-1,lower.tail=F)
# Cria um data frame com os valores das medias e a decisão do teste
df <- data.frame(chi = chi) %>%
mutate(rejeita_H0 = chi <= chi_critico1 | chi >= chi_critico2 )
# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)
# Gráfico
ggplot(df, aes(x = chi, fill = rejeita_H0)) +
geom_histogram(color = "black", bins = 30) +
scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
labels = c("Não rejeita H0", "Rejeita H0"),
name = "Decisão") +
labs(title = "Distribuição da estatística de teste",
x = "Médias Amostrais",
y = "Frequência") +
theme_minimal()
O teste unilateral à direita verifica se a variância populacional é igual a um valor específico \(\sigma_0^2\) ou maior:
\[ H_0: \sigma^2 = \sigma_0^2 \quad \text{vs} \quad H_1: \sigma^2 > \sigma_0^2 \]
A estatística de teste usada é baseada na variância amostral:
\[ S^2 = \frac{1}{n-1} \sum_{i=1}^n (X_i - \bar{X})^2 \]
Assm, sob \(H_0\), a estatística de teste
\[ \chi^2 = \frac{(n-1)S^2}{\sigma_0^2} \]
segue uma distribuição qui-quadrado com \(n-1\) graus de liberdade.
Fixado o nível de significância \(\alpha\), rejeitamos \(H_0\) se a estatística de teste \(\chi^2\) for muito grande em relação ao valor esperado, sob a hipótese nula. Veja na figura a seguir:
Portanto, rejeitamos \(H_0\) se:
\[ \chi^2 \geq \chi^2_{\alpha} \]
EXEMPLO:
Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\). Considere o teste das seguintes hipóteses:
\[ H_0: \sigma^2 = 100 \] \[ H_1: \sigma^2 > 100 \]
Considerando um \(\alpha\) de 5%, temos que a estatística de teste tem distribuição qui-quadrado com \(n-1\)=15 graus de liberdade.
De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=16\) de uma população normal com \(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).