ESTATÍSTICA COMPUTACIONAL I

PRÁTICA 4: INFERÊNCIA PARA UMA POPULAÇÃO (PARTE II)

Prof: Guilherme Augusto Veloso ()

\[\\[0.05in]\]

1 PACOTES NECESSÁRIOS

Para esta quarta aula prática de Estatística Computacional I, precisaremos dos seguintes pacotes:

require(ggplot2) # Abordagem gráfica
require(dplyr) # Manipulação de data frames

2 INTRODUÇÃO

Ao estudarmos a distribuição amostral de um estimador, demos um passo importante para responder a uma pergunta central da inferência estatística:
“Quão confiável é o valor obtido a partir de uma única amostra?”

Agora é hora de usar esse conhecimento para tomar decisões concretas. A partir de uma estimativa pontual (como a média ou a proporção amostral), queremos expressar o grau de incerteza associado a essa estimativa, ou ainda, testar afirmações sobre a população com base nos dados da amostra.

Essas duas tarefas constituem os pilares da inferência estatística:

  • Intervalos de confiança, que fornecem uma faixa de valores plausíveis para o parâmetro populacional, com um certo nível de confiança.
  • Testes de hipótese, que avaliam se os dados oferecem ou não evidências suficientes para rejeitar uma suposição sobre a população.

O raciocínio por trás dessas ferramentas se ancora na distribuição amostral: Se sabemos como o estimador se comporta ao longo de muitas amostras, conseguimos avaliar o quanto o valor observado se desvia (ou não) do que seria esperado sob determinada hipótese. O enfoque computacional traz enormes vantagens para o aprendizado dessa etapa. Com simulações, podemos:

  • Construir empiricamente intervalos de confiança, observando em que proporção eles contêm o verdadeiro parâmetro.
  • Visualizar a lógica dos testes de hipótese, comparando valores observados com a distribuição sob a hipótese nula.
  • Entender o erro tipo I e tipo II de forma intuitiva, simulando diferentes cenários.
  • Explorar o impacto do tamanho da amostra, da variabilidade e do nível de significância.

Nosso foco hoje será nos casos mais importantes da inferência para uma população:

  • Intervalos de confiança e testes de hipóteses para a média populacional (caso normal)
  • Intervalos de confiança e testes de hipótese para a média populacional (caso amostras grandes)
  • Intervalos de confiança e testes de hipótese para a proporção populacional
  • Intervalos de confiança e testes de hipótese para a variância populacional (caso normal)

Em todos os casos, vamos alternar entre teoria e prática, reforçando os conceitos com experimentos computacionais no R. Essa abordagem não só facilita o entendimento, como prepara você para aplicar inferência de forma crítica e fundamentada em situações reais. Para finalizar, serão apresentadas as funções automáticas do R que realizam intervalos de confiança e testes de hipóteses para uma população.

3 INTERVALOS DE CONFIANÇA

Ao estimarmos um parâmetro populacional \(\theta\), como a média \(\mu\) ou a proporção \(p\), a partir de uma amostra aleatória, obtemos apenas uma estimativa pontual \(\hat{\theta}\). No entanto, como essa estimativa depende da amostra coletada, ela está sujeita à variabilidade amostral. Para expressar essa incerteza, utilizamos intervalos de confiança, que fornecem um intervalo de valores plausíveis para o parâmetro desconhecido \(\theta\), com base nas propriedades de distribuição do estimador \(\hat{\theta}\).

Formalmente, um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) é construído a partir de dois limites, \(L(X)\) e \(U(X)\), que são funções da amostra aleatória \(X\). Esses limites são, portanto, variáveis aleatórias, e o intervalo \([L(X), U(X)]\) deve satisfazer:

\[ \mathbb{P}(L(X) \leq \theta \leq U(X)) = 1 - \alpha, \]

onde:

  • \(\theta\) é o parâmetro populacional desconhecido,
  • \(L(X)\) e \(U(X)\) são, respectivamente, o limite inferior e superior do intervalo, calculados a partir da amostra \(X\),
  • \(\alpha\) é o nível de significância, isto é, a probabilidade de o intervalo não conter o parâmetro verdadeiro.

Dessa forma, interpretamos o nível de confiança \(1 - \alpha\) como a proporção de vezes (no longo prazo) em que o intervalo \([L(X), U(X)]\), construído da mesma maneira a partir de amostras aleatórias independentes, conteria o verdadeiro valor de \(\theta\).

Nesta seção, abordaremos a construção de intervalos de confiança bilaterais tanto por métodos analíticos quanto por simulações, desenvolvendo uma compreensão intuitiva e rigorosa de sua interpretação e uso.

3.1 MÉDIA POPULACIONAL (CASO NORMAL COM VARIÂNCIA CONHECIDA)

Vamos começar estudando a construção do intervalo de confiança para a média populacional \(\mu\), assumindo que:

  • Os dados vêm de uma população com distribuição normal \(\mathcal{N}(\mu, \sigma^2)\);
  • A variância populacional \(\sigma^2\) é conhecida;
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória e de tamanho \(n\).

Sabemos que, sob essas condições, a média amostral \(\bar{X}\) segue uma distribuição normal:

\[ \bar{X} \sim \mathcal{N}\left( \mu, \frac{\sigma^2}{n} \right) \]

Usando a padronização da média amostral, temos:

\[ Z = \frac{\bar{X} - \mu}{\sigma/\sqrt{n}} \sim \mathcal{N}(0, 1) \]

Para construir um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) (por exemplo, 95%), utilizamos o quantil \(z_{\alpha/2}\) da distribuição normal padrão. A figura a seguir retrata essa quantidade:

No R, esse valor crítico é obtido da seguinte forma (para uma confiança de 95%, por exemplo):

# Nível de confiança
conf = 0.95
# Nível de significância
alfa = 1-conf
# Valor crítico
z_critico = qnorm(alfa/2,lower.tail=F)

Isso nos leva ao seguinte intervalo com confiança \(1-\alpha\) para a média populacional \(\mu\):

\[ IC_{1-\alpha}(\mu)=\left[ \bar{X} - z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}},\ \bar{X} + z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}} \right] \]

A interpretação correta é: se repetíssemos o processo de amostragem muitas vezes, cerca de \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\mu\). Na próxima etapa, vamos explorar computacionalmente como esse tipo de intervalo se comporta na prática, usando simulações para verificar sua frequência de acerto e o impacto de diferentes parâmetros.

3.1.1 EXEMPLO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Vamos simular \(B=100\) amostras dessa população e, para cada amostra, vamos construir o intervalo de confiança com 95% de confiança, assumindo que a variância é conhecida.

# Parâmetros populacionais de X
media_real = 170
sigma_real = 10

# Tamanho da amostra
n = 25

# Quantidade de réplicas
B = 100

# Nível de confiança
Conf = 0.95

# Nível de signifiância
Alfa = 1-Conf

# Cria o vetor de B médias amostrais da população teórica
set.seed(2025)
medias = replicate(B, mean(rnorm(n, media_real, sigma_real)))

# Z crítico e erro padrão
z_critico = qnorm(Alfa/2,lower.tail=F)
erro_padrao = sigma_real / sqrt(n)

# Intervalos de confiança
inferior = medias - z_critico * erro_padrao
superior = medias + z_critico * erro_padrao

# Verifica se o intervalo contém o valor verdadeiro
Contem = inferior <= media_real & superior >= media_real

# Cobertura dos intervalos
Cobertura = sum(Contem)/length(Contem)

# Dados para o gráfico
dados = data.frame(
  Replica = 1:B,
  Inferior = inferior,
  Superior = superior,
  Contem = Contem
)

ggplot(dados, aes(x = Replica)) +
  geom_segment(aes(xend = Replica, y = Inferior, yend = Superior, color = Contem), size = 1) +
  geom_hline(yintercept = media_real, linetype = "dashed", color = "black") +
  scale_color_manual(values = c("TRUE" = "blue", "FALSE" = "red")) +
  labs(
title = expression("IC para " * mu * " (caso normal e " * sigma^2 * " conhecida)"),
    x = "Replicações",
    y = "Intervalo de Confiança"
  ) +
  theme_minimal()+
  theme(legend.position = "none")

Assim, conseguimos uma cobertura de 96% dos intervalos (próxima do valor verdadeiro de 95%). Essa cobertura vai se aproximando cada vez mais do valor de 95% à medida que aumentamos o valor de \(B\) (Experimente alterar \(B\) para 10000).

3.1.2 EXERCÍCIO: IMPACTO DO TAMANHO DA AMOSTRA

Retorne ao exemplo anterior e troque o tamanho da amostra de \(n=25\) para \(n=100\). Compare os dois gráficos. O que você nota de diferente?

3.2 MÉDIA POPULACIONAL (CASO NORMAL COM VARIÂNCIA DESCONHECIDA)

Vamos agora estudar a construção do intervalo de confiança para a média populacional \(\mu\), assumindo que:

  • Os dados vêm de uma população com distribuição normal \(\mathcal{N}(\mu, \sigma^2)\);
  • A variância populacional \(\sigma^2\) é desconhecida;
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória e de tamanho \(n\), com \(n\) pequeno \((n<30)\).

Nesse caso, como não conhecemos \(\sigma\), utilizamos o desvio padrão amostral \(S\), definido por:

\[ S = \sqrt{\frac{1}{n-1} \sum_{i=1}^n (X_i - \bar{X})^2} \]

A média amostral \(\bar{X}\) ainda é um estimador de \(\mu\), mas a distribuição agora que é utilizada é a T de Student com \(n - 1\) graus de liberdade:

\[ T = \frac{\bar{X} - \mu}{S/\sqrt{n}} \sim t_{n-1} \]

Essa variabilidade adicional alarga a cauda da distribuição, e isso é capturado pela distribuição T de Student, que possui as seguintes características:

  • Média zero, como a normal;
  • Caudas mais pesadas, ou seja, maior probabilidade de valores extremos;
  • Depende de um parâmetro: os graus de liberdade \(n - 1\).

À medida que o tamanho da amostra aumenta (\(n \to \infty\)), a distribuição T se aproxima da distribuição normal. Por isso, com amostras grandes, o uso da normal ou da T costuma levar a resultados semelhantes. Para construir um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) (por exemplo, 95%), utilizamos o quantil \(t_{n-1, \alpha/2}\) da distribuição T de Student com \(n - 1\) graus de liberdade. Veja na figura a seguir:

No R, esse valor crítico é obtido da seguinte forma (para uma confiança de 95%, por exemplo):

# Tamanho da amostra
n = length(dados)
# Nível de confiança
conf = 0.95
# Nível de significância
alfa = 1-conf
# Valor crítico
t_critico = qt(alfa/2,df=n-1,lower.tail=F)

Isso nos leva ao seguinte intervalo confiança para \(\mu\) com nível de confiança \(1 - \alpha\) é dado por:

\[ IC_{1-\alpha}(\mu)=\left[ \bar{X} - t_{n-1, \alpha/2} \cdot \frac{S}{\sqrt{n}},\ \bar{X} + t_{n-1, \alpha/2} \cdot \frac{S}{\sqrt{n}} \right] \]

A interpretação correta permanece: se repetíssemos o processo de amostragem muitas vezes, cerca de \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\mu\). Na próxima etapa, vamos explorar computacionalmente como esse tipo de intervalo se comporta na prática, usando simulações para verificar sua frequência de acerto e o impacto de diferentes parâmetros.

3.2.1 EXEMPLO

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Vamos simular \(B=100\) amostras dessa população e, para cada amostra, vamos construir o intervalo de confiança com 95% de confiança, assumindo que a variância é desconhecida.

# Parâmetros populacionais de X
media_real = 170
sigma_real = 10

# Tamanho da amostra
n = 25

# Quantidade de réplicas
B = 100

# Nível de confiança
Conf = 0.95

# Nível de signifiância
Alfa = 1-Conf

# Cria o vetor de B médias amostrais da população teórica
set.seed(2025)
medias = replicate(B, mean(rnorm(n, media_real, sigma_real)))

# Cria o vetor de B desvios padrões amostrais da população teórica
set.seed(2025)
desvios_padroes = replicate(B, sd(rnorm(n, media_real, sigma_real)))

# T crítico e erros padrões
t_critico = qt(Alfa/2,df=n-1,lower.tail=F)
erros_padroes = desvios_padroes / sqrt(n)

# Intervalos de confiança
inferior = medias - t_critico * erros_padroes
superior = medias + t_critico * erros_padroes

# Verifica se o intervalo Contem o valor verdadeiro
Contem = inferior <= media_real & superior >= media_real

# Cobertura dos intervalos
Cobertura = sum(Contem)/length(Contem)

# Dados para o gráfico
dados = data.frame(
  Replica = 1:B,
  Inferior = inferior,
  Superior = superior,
  Contem = Contem
)

ggplot(dados, aes(x = Replica)) +
  geom_segment(aes(xend = Replica, y = Inferior, yend = Superior, color = Contem), size = 1) +
  geom_hline(yintercept = media_real, linetype = "dashed", color = "black") +
  scale_color_manual(values = c("TRUE" = "blue", "FALSE" = "red")) +
  labs(
title = expression("IC para " * mu * " (caso normal e " * sigma^2 * " desconhecida)"),
    x = "Replicações",
    y = "Intervalo de Confiança"
  ) +
  theme_minimal()+
  theme(legend.position = "none")

Assim, conseguimos, novamente, uma cobertura de 96% dos intervalos (próxima do valor verdadeiro de 95%). Essa cobertura vai se aproximando cada vez mais do valor de 95% à medida que aumentamos o valor de \(B\).

3.2.2 EXERCÍCIO: IMPACTO DO NÍVEL DE CONFIANÇA

Retorne ao exemplo anterior e troque o nível de confiança de 95% para 80%. Compare os dois gráficos. O que você nota de diferente?

3.3 MÉDIA POPULACIONAL (CASO AMOSTRA GRANDE)

Vamos estudar a construção do intervalo de confiança para a média populacional \(\mu\), assumindo que:

  • Os dados vêm de uma população com distribuição qualquer, com média \(\mu\) e variância \(\sigma^2\);
  • A variância populacional \(\sigma^2\) é desconhecida;
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória, independente e de tamanho grande \(n\).

Como a variância populacional é desconhecida, usamos a variância amostral \(s^2\) para estimar \(\sigma^2\). Além disso, como \(n\) é grande, podemos aplicar o Teorema Central do Limite para afirmar que a média amostral \(\bar{X}\) é aproximadamente normal:

\[ \bar{X} \approx \mathcal{N} \left( \mu, \frac{\sigma^2}{n} \right) \]

Substituindo \(\sigma\) por \(s\), a estatística

\[ Z \approx \frac{\bar{X} - \mu}{s / \sqrt{n}} \]

pode ser aproximada por uma distribuição normal padrão \(\mathcal{N}(0, 1)\), quando \(n\) é grande. Assim, o intervalo de confiança para \(\mu\), com nível de confiança \(1 - \alpha\), é dado por:

\[ IC_{1-\alpha}(\mu)=\left[ \bar{X} - z_{\alpha/2} \cdot \frac{s}{\sqrt{n}},\ \bar{X} + z_{\alpha/2} \cdot \frac{s}{\sqrt{n}} \right] \]

Note que usamos o quantil \(z_{\alpha/2}\) da normal padrão, e não o \(t\), porque a aproximação normal é válida para amostras grandes, mesmo com variância desconhecida. A interpretação permanece: se repetíssemos o processo de amostragem muitas vezes, aproximadamente \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\mu\).

Na próxima etapa, vamos investigar computacionalmente como esse intervalo se comporta na prática, verificando sua frequência de acerto para diferentes distribuições populacionais e tamanhos amostrais.

3.3.1 EXERCÍCIO

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de uma população com distribuição Exponencial com parâmetro \(\lambda\). Considerando \(n=48\) e \(\lambda=6\), faça, em sequência:

1- Gere \(B=100\) amostras de tamanho \(n=48\) dessa população e, para cada amostra, obtenha o intervalo com 90% de confiança para a média populacional \(\mu\).

2- Faça o gráfico da cobertura dos intervalos gerados e calcule a porcentagem de cobertura.

3- Altere o valor do nível de confiança para 80% e veja o que muda no gráfico.

4- Altere o valor o tamanho da amostra para n=100 e veja o que muda no gráfico.

3.4 PROPORÇÃO POPULACIONAL

Vamos estudar a construção do intervalo de confiança para a proporção populacional \(p\), assumindo que:

  • Os dados vêm de uma variável aleatória binária (por exemplo, sucesso/fracasso), com proporção populacional de sucessos \(p\);
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória, independente e de tamanho grande \(n\);
  • A proporção populacional \(p\) é desconhecida, e será estimada pela proporção amostral \(\hat{p}\).

Como \(n\) é grande, podemos aplicar o Teorema Central do Limite para afirmar que a proporção amostral \(\hat{p}\) é aproximadamente normal:

\[ \hat{p} \approx \mathcal{N} \left( p,\ \frac{p(1 - p)}{n} \right) \]

Como \(p\) é desconhecido, substituímos pela estimativa \(\hat{p}\), obtendo a estatística:

\[ Z \approx \frac{\hat{p} - p}{\sqrt{\hat{p}(1 - \hat{p}) / n}} \sim N(0,1) \]

que pode ser aproximada por uma distribuição normal padrão \(\mathcal{N}(0, 1)\). Essa aproximação acontece, principalmente, se:

\[ n\hat{p} \geq 5 \quad \text{e} \quad n(1 - \hat{p}) \geq 5 \]

Assim, o intervalo de confiança para \(p\), com nível de confiança \(1 - \alpha\), é dado por:

\[ IC_{1-\alpha}(p)=\left[ \hat{p} - z_{\alpha/2} \cdot \sqrt{\frac{\hat{p}(1 - \hat{p})}{n}},\ \hat{p} + z_{\alpha/2} \cdot \sqrt{\frac{\hat{p}(1 - \hat{p})}{n}} \right] \]

Esse intervalo é conhecido como intervalo de Wald. Ele é simples de calcular, mas pode ter desempenho ruim quando a proporção está muito próxima de 0 ou 1, ou quando o tamanho amostral é pequeno. Por isso, a importância das condições acima. A interpretação permanece: se repetíssemos o processo de amostragem muitas vezes, aproximadamente \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(p\).

Na próxima etapa, vamos investigar computacionalmente como esse intervalo se comporta na prática, verificando sua frequência de acerto para diferentes valores de \(p\) e tamanhos amostrais.

3.4.1 EXERCÍCIO

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de uma população com distribuição Bernouli com parâmetro \(p\). Considerando \(n=64\) e \(p=0.6\), faça, em sequência:

1- Gere \(B=100\) amostras de tamanho \(n=64\) dessa população e, para cada amostra, obtenha o intervalo com 95% de confiança para a proporção populacional \(p\).

2- Faça o gráfico da cobertura dos intervalos gerados e calcule a porcentagem de cobertura.

3- Altere o valor de \(p\) para \(p=0.9\) e observe o que muda.

3.5 VARIÂNCIA POPULACIONAL (CASO NORMAL)

Vamos estudar a construção do intervalo de confiança para a variância populacional \(\sigma^2\), assumindo que:

  • Os dados vêm de uma população normal com média \(\mu\) (desconhecida) e variância \(\sigma^2\);
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória e independente;

Como a população é assumida normal, temos uma distribuição exata para a estatística baseada na variância amostral \(S^2\):

\[ \frac{(n - 1)S^2}{\sigma^2} \sim \chi^2_{n - 1} \]

Ou seja, a razão entre a soma dos quadrados centrados da amostra e a variância populacional segue uma distribuição qui-quadrado com \(n - 1\) graus de liberdade.

Para construir um intervalo de confiança bilateral com nível de confiança \(1 - \alpha\) (por exemplo, 95%), utilizamos os quantis \(\chi^2_{n-1, \alpha/2}\) e \(\chi^2_{n-1, 1-\alpha/2}\) da distribuição chi-quadrado com \(n - 1\) graus de liberdade. Veja na figura a seguir:

No R, esses valores críticos são obtidos da seguinte forma (para uma confiança de 95%, por exemplo):

# Tamanho da amostra
n = length(dados)
# Nível de confiança
conf = 0.95
# Nível de significância
alfa = 1-conf
# Valores críticos
x_critico1 = qchisq(alfa/2,df=n-1)
x_critico2 = qchisq(alfa/2,df=n-1,lower.tail=F)

Com isso, podemos construir um intervalo de confiança para \(\sigma^2\), com nível de confiança \(1 - \alpha\), utilizando os quantis da distribuição qui-quadrado:

\[ IC_{1-\alpha}(\sigma^2)=\left[ \frac{(n - 1)s^2}{\chi^2_{\alpha/2}},\ \frac{(n - 1)s^2}{\chi^2_{1 - \alpha/2}} \right] \]

Note que a ordem dos quantis é invertida, pois a distribuição qui-quadrado é assimétrica. A interpretação permanece: se repetíssemos o processo de amostragem muitas vezes, aproximadamente \(100 \cdot (1 - \alpha)\%\) dos intervalos construídos conteriam o verdadeiro valor de \(\sigma^2\).

Na próxima etapa, vamos investigar computacionalmente como esse intervalo se comporta na prática, verificando sua frequência de acerto para diferentes valores de \(\sigma^2\) e tamanhos amostrais.

3.5.1 EXERCÍCIO

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Considerando \(n=22\), faça, em sequência:

1- Gere \(B=100\) amostras dessa população e, para cada amostra, obtenha o intervalo com 95% de confiança para a variância populacional \(\sigma^2\).

2- Faça o gráfico da cobertura dos intervalos gerados e calcule a porcentagem de cobertura.

3- Altere o valor de \(\sigma^2\) para \(25\) e observe o que muda.

4 TESTES DE HIPÓTESES

Diante da incerteza sobre o verdadeiro valor de um parâmetro populacional \(\theta\), como a média, proporção ou variância, o teste de hipóteses nos fornece uma estrutura formal para avaliar uma suposição sobre esse parâmetro com base em dados amostrais.

Começamos formulando duas hipóteses estatísticas:

  • A hipótese nula: \(H_0 : \theta = \theta_0\), que representa a suposição que queremos testar (por exemplo, de ausência de efeito ou diferença);
  • A hipótese alternativa: \(H_1\) (ou \(H_a\)), que expressa uma possibilidade contrária a \(H_0\), como:
    • \(H_1: \theta \ne \theta_0\) (teste bilateral),
    • \(H_1: \theta > \theta_0\) ou \(H_1: \theta < \theta_0\) (testes unilaterais).

Com uma amostra aleatória \(X = (X_1, X_2, \dots, X_n)\), calculamos uma estatística de teste \(T(X)\), escolhida de forma que valores extremos de \(T(X)\) forneçam evidência contra \(H_0\). A estatística de teste \(T(X)\) é construída assumindo que \(H_0\) é verdadeira. Com base em \(T(X)\), definimos uma região crítica \(C\), tal que:

\[ \text{Rejeitamos } H_0 \quad \text{se } T(X) \in C. \]

Essa decisão envolve incertezas, que podem ser quantificadas por dois tipos de erro:

  • Erro tipo I: rejeitar \(H_0\) quando ela é verdadeira; sua probabilidade é o nível de significância \(\alpha\):

\[ \alpha = \mathbb{P}(T(X) \in C \mid H_0 \text{ verdadeira}). \]

  • Erro tipo II: não rejeitar \(H_0\) quando ela é falsa; sua probabilidade é denotada por \(\beta\), e dada por: \[ \beta = \mathbb{P}(T(X) \notin C \mid H_1 \text{ verdadeira}). \]

  • Poder do Teste:rejeitar \(H_0\) quando ela é falsa; sua probabilidade é denotada por 1-\(\beta\), e dada por:

\[ 1-\beta = \mathbb{P}(T(X) \in C \mid H_1 \text{ verdadeira}). \]

Outra abordagem para tomar a decisão sobre rejeitar ou não \(H_0\) é por meio do p-valor, que representa a probabilidade de observarmos um valor da estatística de teste tão extremo quanto, ou mais extremo que, o valor observado, sob a suposição de que a hipótese nula \(H_0\) é verdadeira. Formalmente, para o valor observado \(t_{\text{obs}} = T(x)\), o p-valor é:

  • Para um teste unilateral à direita: \[ \text{p-valor} = \mathbb{P}\big(T(X) \ge t_{\text{obs}} \mid H_0 \big) \]

  • Para um teste unilateral à esquerda: \[ \text{p-valor} = \mathbb{P}\big(T(X) \le t_{\text{obs}} \mid H_0 \big) \]

  • Para um teste bilateral:

\[ \text{p-valor} = \begin{cases} 2 \, P(T(X) \ge t_{\text{obs}} \mid H_0), & \text{se } t_{\text{obs}} > \mu_0, \\ 2 \, P(T(X) \le t_{\text{obs}} \mid H_0), & \text{se } t_{\text{obs}} < \mu_0. \end{cases} \]

em que \(\mu_0 = \mathbb{E}[T(X)\mid H_0]\) a média da distribuição sob a hipótese nula. Se o resultado for maior que 1, trunque o valor-p em 1.

Em todos os casos, o critério para decisão é:

  • Rejeitamos \(H_0\) se o p-valor for menor ou igual ao nível de significância \(\alpha\);
  • Caso contrário, não rejeitamos \(H_0\).

Com o apoio de ferramentas computacionais, é possível simular o comportamento da estatística de teste sob diferentes cenários, o que permite investigar de forma prática as probabilidades dos erros tipo I e tipo II, avaliar o poder do teste e explorar o efeito de diferentes hipóteses alternativas.

4.1 MÉDIA POPULACIONAL (CASO NORMAL COM VARIÂNCIA CONHECIDA)

Vamos começar estudando a construção de testes de hipóteses para a média populacional \(\mu\), assumindo que:

  • Os dados vêm de uma população com distribuição normal \(\mathcal{N}(\mu, \sigma^2)\);
  • A variância populacional \(\sigma^2\) é conhecida;
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória e de tamanho \(n\).

4.1.1 TESTE BILATERAL

O teste bilateral verifica se a média populacional é igual a um valor específico \(\mu_0\) ou diferente, para mais ou para menos.

\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu \neq \mu_0 \quad \text{(hipótese alternativa bilateral)} \]

A estatística de teste usada é a média amostral

\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]

Sabemos que:

\[ \bar{X} \sim \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right). \]

Sob \(H_0\):

\[ \bar{X} \sim \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right). \]

O nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(\mu_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \quad \text{ou} \quad \bar{X} \geq U, \]

Queremos determinar os valores \(L\) e \(U\) que satisfazem:

\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \quad \text{ e } \quad P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \]

Sabemos que:

\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{\sigma/\sqrt{n}}=-z_{\alpha/2}\rightarrow L = \mu_0-z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \]

e

\[ P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{U-\mu_0}{\sigma/\sqrt{n}}=z_{\alpha/2}\rightarrow U = \mu_0+z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \bar{X} \leq L=\mu_0 - z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}} \quad \text{ou} \quad \bar{X} \geq U=\mu_0 + z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}. \]

EXEMPLO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\), com \(\sigma^2=100\). Considere o teste das seguintes hipóteses:

\[ H_0: \mu = 170 \] \[ H_1: \mu \neq 170 \]

Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:

\[L=\mu_0 - z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}=170-1,96\cdot\frac{10}{4}=165,1\]

e

\[U=\mu_0 + z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}}=170+1,96\cdot\frac{10}{4}=174.9\]

Portanto, rejeitaremos \(H_0\) se \(\bar{X}\leq 165,1\) ou se \(\bar{X}\geq 174.9\)

De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=16\) de uma população normal com \(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), assumindo \(\sigma^2\) conhecido. Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):

# Parâmetros populacionais de X
media_real <- 170
sigma_real <- 10

# Tamanho da amostra
n <- 16

# Número de réplicas (simulações)
B <- 1000

# Nível de significância
alfa <- 0.05

# Simulação das médias amostrais
set.seed(2025)
medias <- replicate(B, mean(rnorm(n, media_real, sigma_real)))

# Z crítico
z_critico <- qnorm(alfa/2,lower.tail=F)

# valores criticos de xbarra
L <- media_real-z_critico*sigma_real/sqrt(n)
U <- media_real+z_critico*sigma_real/sqrt(n)

# Cria um data frame com os valores das medias e decisão do teste
df <- data.frame(medias = medias) %>%
  mutate(rejeita_H0 = medias >= U | medias <= L )

# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)

# Gráfico
ggplot(df, aes(x = medias, fill = rejeita_H0)) +
  geom_histogram(color = "black") +
  scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
                    labels = c("Não rejeita H0", "Rejeita H0"),
                    name = "Decisão") +
  labs(title = "Distribuição das médias amostrais",
       x = "Médias Amostrais",
       y = "Frequência") +
  theme_minimal()

Esse gráfico representa a distribuição empírica dos \(B\) valores de \(\bar{X}\). A quantidade empírica de testes que rejeitaram a hipótese nula é aproximadamente 5%, o nível de significância.

EXERCÍCIO: Adapte o script anterior utilizando o critério do valor-p como método de decisão.

4.1.2 TESTE UNILATERAL À DIREITA

O teste unilateral à direita verifica se a média populacional é maior que um valor específico \(\mu_0\):

\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu > \mu_0 \quad \text{(hipótese alternativa)} \]

A estatística de teste utilizada é a média amostral:

\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]

Sabemos que:

\[ \bar{X} \sim \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right) \]

Sob \(H_0\):

\[ \bar{X} \sim \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right) \]

O nível de significância é \(\alpha\). No teste unilateral à direita, rejeitamos \(H_0\) se a média amostral estiver muito maior que \(\mu_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \geq U \]

Queremos determinar o valor \(U\) tal que:

\[ P(\bar{X} \geq U \mid H_0) = \alpha \]

Sabemos que:

\[ \frac{U - \mu_0}{\sigma/\sqrt{n}} = z_\alpha \Rightarrow U = \mu_0 + z_\alpha \cdot \frac{\sigma}{\sqrt{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \bar{X} \geq U = \mu_0 + z_\alpha \cdot \frac{\sigma}{\sqrt{n}} \]

EXERCÍCIO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\), com \(\sigma^2=100\). Considere o teste das seguintes hipóteses:

\[ H_0: \mu = 170 \] \[ H_1: \mu > 170 \]

Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:

\[U=\mu_0 + z_{\alpha} \cdot \frac{\sigma}{\sqrt{n}}=170+1.64\cdot\frac{10}{4}=174.1\]

Portanto, rejeitaremos \(H_0\) se \(\bar{X}\geq 174.1\)

  1. Fixado o valor de \(\alpha\)=5%, simule \(B=1000\) amostras de uma população normal (\(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, teste as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), assumindo \(\sigma^2\) conhecido. Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).

  2. Utilize, agora, o método do valor-p como decisão do teste.

4.1.3 ERRO TIPO II E PODER DO TESTE

Vamos investigar o comportamento do erro tipo II e do poder do teste no exemplo do teste bilateral. As hipóteses eram:

\[ H_0: \mu = 170 \] \[ H_1: \mu \neq 170 \]

Com um tamanho de amostra \(n=16\), \(\sigma=10\) e considerando um \(\alpha\) de 5%, obtivemos a seguinte região crítica:

\[C=\bar{X}\leq L=165,1 \text{ ou } \bar{X}\geq U=174.9\]

Dessa forma, o erro tipo II será dado por:

\[\beta = \mathbb{P}(\bar{X} \notin C \mid H_1 \text{ verdadeira})=\mathbb{P}(165,1\leq\bar{X}\leq174,9|\mu \neq 170)\]

Consequentemente, o poder do teste será dado por:

\[1-\beta = \mathbb{P}(\bar{X} \in C \mid H_1 \text{ verdadeira})=\mathbb{P}(\bar{X}\geq 174,9\cup \bar{X}\leq 165,1|\mu \neq 170)\]

Para que \(H_1\) seja verdadeira, nesse caso, poderemos considerar que a média verdadeira \(\mu\) assuma diferentes valores de 170. Denote por \(\mu_1\) estes valores sob a hipótese alternativa. Segue, o código para a obtenção do erro tipo II e do poder do teste, considerando os valores de \(n\) tamanho amostral, \(\sigma\) o desvio padrão populacional, \(\alpha\) o nível de significância, \(\mu_0\) a média sob a hipótese nula e \(\mu_1\) a média sob a hipótese alternativa:

ErroTipoII = function(n, sigma_real, alfa, mu0, mu1){
  # Calcula o valor crítico para teste bilateral
  z_critico = qnorm(alfa / 2, lower.tail = FALSE)
  # Define os limites da região crítica
  L = mu0 - z_critico * sigma_real / sqrt(n)
  U = mu0 + z_critico * sigma_real / sqrt(n)
  # Calcula o erro tipo II: probabilidade de não rejeitar H0 quando mu = mu1
  Beta = pnorm(U, mean = mu1, sd = sigma_real / sqrt(n)) -
                 pnorm(L, mean = mu1, sd = sigma_real / sqrt(n))
  return(Beta)
}

PoderDoTeste = function(n, sigma_real, alfa, mu0, mu1){
  1 - ErroTipoII(n, sigma_real, alfa, mu0, mu1)
}

Vamos avaliar ambas as funções graficamente, considerando \(n=16\), \(\sigma=10\), \(\mu_0=170\) e \(\alpha\)=5%, variando diversos valores possíveis para \(\mu_1\):

# Parâmetros fixos
n <- 16
alfa <- 0.05
mu0 <- 170
sigma_real <- 10

# Variação de mu1
mu1_vals <- seq(150, 190, by = 1)

# Erro do tipo II
betas <- ErroTipoII(n=n, sigma_real=sigma_real, alfa=alfa,
                        mu0=mu0, mu1=mu1_vals)

# Poder do teste
poderes <- PoderDoTeste(n=n, sigma_real=sigma_real, alfa=alfa,
                        mu0=mu0, mu1=mu1_vals)  

# Data frame para plotagem
dados <- data.frame(mu1 = mu1_vals,
                    betas = betas,
                    poderes = poderes)

# Gráfico com as duas linhas
ggplot(dados, aes(x = mu1)) +
  geom_line(aes(y = betas, color = "Erro Tipo II"), size = 1) +
  geom_line(aes(y = poderes, color = "Poder do Teste"), size = 1) +
  geom_vline(xintercept = mu0, linetype = "dashed", color = "red") +
  scale_color_manual(values = c("Erro Tipo II" = "blue", "Poder do Teste" = "darkgreen")) +
  labs(
  title = expression("Erro Tipo II e Poder do Teste em função de " * mu[1]),
  x = expression(mu[1]),
  y = "Probabilidade",
  color = ""
) +
  theme_minimal(base_size = 14)

Este gráfico apresenta a probabilidade do erro tipo II (linha azul) e o poder do teste (linha verde) em função de diferentes valores da média alternativa \(\mu_1\), ou seja, assume que o teste é para:

\[ H_0: \mu = 170 \quad \text{versus} \quad H_1: \mu \neq 170 \]

No eixo \(x\), temos os possíveis valores alternativos de \(\mu_1\), variando entre 150 e 190.

No eixo \(y\), temos as probabilidades:

A linha vermelha vertical tracejada indica \(\mu_1 = \mu_0 = 170\). Neste ponto:

  • O erro tipo II atinge seu valor máximo=0.95 (nível de confiança)
  • O poder do teste é 0.05, como esperado, pois é o nível de significância.

À medida que \(\mu_1\) se afasta de 170 (para cima ou para baixo), a:

  • Probabilidade de erro tipo II diminui, porque fica mais fácil perceber a diferença entre \(\mu_1\) e \(\mu_0\),
  • O poder do teste aumenta, pois se torna mais provável rejeitar corretamente \(H_0\).

Em \(\mu_1\) muito distantes (como abaixo de 160 ou acima de 180), o poder do teste se aproxima de 1, e o erro tipo II tende a 0. Isso significa que o teste é muito eficaz para detectar diferenças grandes. O gráfico mostra como a eficácia do teste depende da verdadeira média populacional \(\mu_1\).

EXERCÍCIO:

Vamos investigar o comportamento do erro tipo II e do poder do teste no exemplo do teste unilateral à direita. As hipóteses eram:

\[ H_0: \mu = 170 \] \[ H_1: \mu > 170 \]

Com um tamanho de amostra \(n=16\), \(\sigma=10\) e considerando um \(\alpha\) de 5%, obtivemos a seguinte região crítica:

\[C=\bar{X}\geq 174,1\]

Dessa forma, o erro tipo II será dado por:

\[\beta = \mathbb{P}(\bar{X} \notin C \mid H_1 \text{ verdadeira})=\mathbb{P}(\bar{X}\leq174,1|\mu \neq 170)\]

Consequentemente, o poder do teste será dado por:

\[1-\beta = \mathbb{P}(\bar{X} \in C \mid H_1 \text{ verdadeira})=\mathbb{P}(\bar{X}\geq 174,1|\mu \neq 170)\]

Para que \(H_1\) seja verdadeira, nesse caso, poderemos considerar que a média verdadeira \(\mu\) assuma valores acima de 170. Denote por \(\mu_1\) estes valores sob a hipótese alternativa.

1- Faça o código para a obtenção do erro tipo II e do poder do teste, considerando os valores de \(n\) tamanho amostral, \(\sigma\) o desvio padrão populacional, \(\alpha\) o nível de significância, \(\mu_0\) a média sob a hipótese nula e \(\mu_1\) a média sob a hipótese alternativa

2- Avalie ambas as funções graficamente, considerando \(n=16\), \(\sigma=10\), \(\mu_0=170\) e \(\alpha\)=5%, variando diversos valores possíveis para \(\mu_1\), de acordo com a hipótese alternativa.

4.2 PROPORÇÃO POPULACIONAL

Agora vamos para o estudo da construção de testes de hipóteses para a proporção populacional \(p\), assumindo que:

  • Os dados vêm de uma população com distribuição Bernoulli (p);
  • A amostra \(X_1, X_2, \dots, X_n\) aleatória e de tamanho \(n\) grande é selecionada dessa população.

4.2.1 TESTE BILATERAL

O teste bilateral verifica se a proporção populacional é igual a um valor específico \(p_0\) ou diferente, para mais ou para menos.

\[ H_0: p = p_0 \quad \text{(hipótese nula)} \] \[ H_1: p \neq p_0 \quad \text{(hipótese alternativa bilateral)} \]

A estatística de teste usada é a proporção amostral

\[ \hat{p} = \frac{1}{n} \sum_{i=1}^n X_i. \]

Sabemos que (segundo o TCL):

\[ \hat{p} \approx \mathcal{N}\left(p, \frac{p(1-p)}{n}\right). \]

Sob \(H_0\):

\[ \hat{p} \approx \mathcal{N}\left(p_0, \frac{p_0(1-p_0)}{n}\right). \]

O nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(p_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \hat{p} \leq L \quad \text{ou} \quad \hat{p} \geq U, \]

Queremos determinar os valores \(L\) e \(U\) que satisfazem:

\[ P(\hat{p} \leq L \mid H_0) = \frac{\alpha}{2} \quad \text{ e } \quad P(\hat{p} \geq U \mid H_0) = \frac{\alpha}{2} \]

Sabemos que:

\[ P(\hat{p} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}=-z_{\alpha/2}\rightarrow L = p_0-z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}} \]

e

\[ P(\hat{p} \geq U \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}=z_{\alpha/2}\rightarrow U = p_0+z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \hat{p} \leq L = p_0-z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}} \quad \text{ou} \quad \hat{p} \geq p_0+z_{\alpha/2}\sqrt{\frac{p_0(1-p_0)}{n}}. \]

EXEMPLO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=100\) de uma população com distribuição Bernoulli com parâmetros \(p\). Considere o teste das seguintes hipóteses:

\[ H_0: p = 0.6 \] \[ H_1: p \neq 0.6 \]

Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:

\[L=p_0 - z_{\alpha/2} \cdot \sqrt{\frac{p_0(1-p_0)}{n}}=0.6+1,96\cdot\sqrt{\frac{0.24}{100}}=0,5039\]

e

\[U=p_0 + z_{\alpha/2} \cdot \sqrt{\frac{p_0(1-p_0)}{n}}=0.6+1,96\cdot\sqrt{\frac{0.24}{100}}=0,6960\]

Portanto, rejeitaremos \(H_0\) se \(\hat{p}\leq 0,5039\) ou se \(\bar{X}\geq 0,6960\).

De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=100\) de uma população Bernoulli com \(p=0.6\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):

# Parâmetros populacionais de X
p_real=0.6

# Tamanho da amostra
n <- 100

# Número de réplicas (simulações)
B <- 1000

# Nível de significância
alfa <- 0.05

# Simulação das médias amostrais
set.seed(2025)
props <- replicate(B, mean(rbinom(n, size=1,p=p_real)))

# Z crítico
z_critico <- qnorm(alfa/2,lower.tail=F)

# Desvio padrão
desvio_padrao <- sqrt((p_real*(1-p_real))/n)

# valores criticos de xbarra
L <- p_real-z_critico*desvio_padrao
U <- p_real+z_critico*desvio_padrao

# Cria um data frame com os valores das medias e decisão do teste
df <- data.frame(props = props) %>%
  mutate(rejeita_H0 = props >= U | props <= L )

# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)

# Gráfico
ggplot(df, aes(x = props, fill = rejeita_H0)) +
  geom_histogram(color = "black") +
  scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
                    labels = c("Não rejeita H0", "Rejeita H0"),
                    name = "Decisão") +
  labs(title = "Distribuição das médias amostrais",
       x = "Médias Amostrais",
       y = "Frequência") +
  theme_minimal()

Esse gráfico representa a distribuição empírica dos \(B\) valores de \(\hat{p}\). A quantidade empírica de testes que rejeitaram a hipótese nula é próxima de 5%, o nível de significância.

4.2.2 TESTE UNILATERAL À ESQUERDA

O teste unilateral à esquerda verifica se a média populacional é menor que um valor específico \(p_0\):

\[ H_0: p = p_0 \quad \text{(hipótese nula)} \] \[ H_1: p < p_0 \quad \text{(hipótese alternativa)} \]

A estatística de teste usada é a proporção amostral

\[ \hat{p} = \frac{1}{n} \sum_{i=1}^n X_i. \]

Sabemos que (segundo o TCL):

\[ \hat{p} \approx \mathcal{N}\left(p, \frac{p(1-p)}{n}\right). \]

Sob \(H_0\):

\[ \hat{p} \approx \mathcal{N}\left(p_0, \frac{p_0(1-p_0)}{n}\right). \]

O nível de significância é \(\alpha\). No teste unilateral à esquerda, rejeitamos \(H_0\) se a proporção amostral estiver muito distante de \(p_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \hat{p} \leq L, \]

Queremos determinar o valor de \(L\) que satisfaz:

\[ P(\hat{p} \leq L \mid H_0) = \alpha \]

Sabemos que:

\[ P(\hat{p} \leq L \mid H_0) = \alpha \rightarrow \frac{L-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}=-z_{\alpha}\rightarrow L = p_0-z_{\alpha}\sqrt{\frac{p_0(1-p_0)}{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \hat{p} \leq L = p_0-z_{\alpha}\sqrt{\frac{p_0(1-p_0)}{n}}. \]

EXERCÍCIO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=100\) de uma população com distribuição Bernoulli com parâmetros \(p\). Considere o teste das seguintes hipóteses:

\[ H_0: p = 0.6 \] \[ H_1: p < 0.6 \]

Considerando um \(\alpha\) de 5%, temos a seguinte regiao crítica:

\[L=p_0 - z_{\alpha/2} \cdot \sqrt{\frac{p_0(1-p_0)}{n}}=0.6+1,64\cdot\sqrt{\frac{0.24}{100}}=0,5197\]

Portanto, rejeitaremos \(H_0\) se \(\hat{p}\leq 0,5197\).

De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=100\) de uma população Bernoulli com \(p=0.6\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).

4.2.3 ERRO TIPO II E PODER DO TESTE

Vamos investigar o comportamento do erro tipo II e do poder do teste no exemplo do teste bilateral. As hipóteses eram:

\[ H_0: p = 0.6 \] \[ H_1: p \neq 0.6 \]

Com um tamanho de amostra \(n=100\) e considerando um \(\alpha\) de 5%, obtivemos a seguinte região crítica:

\[C=\hat{p}\leq L=0,5039 \text{ ou } \hat{p}\geq U=0,6960\]

Dessa forma, o erro tipo II será dado por:

\[\beta = \mathbb{P}(\hat{p} \notin C \mid H_1 \text{ verdadeira})=\mathbb{P}(0,5039 \leq\hat{p}\leq 0,6960|p \neq 0.6)\]

Consequentemente, o poder do teste será dado por:

\[1-\beta = \mathbb{P}(\hat{p} \in C \mid H_1 \text{ verdadeira})=\mathbb{P}(\hat{p}\geq 0,6960\cup \hat{p}\leq 0,5039|p \neq 0.6)\]

Para que \(H_1\) seja verdadeira, nesse caso, poderemos considerar que a proporção verdadeira \(p\) assuma diferentes valores de 0.6. Denote por \(p_1\) estes valores sob a hipótese alternativa. Segue, o código para a obtenção do erro tipo II e do poder do teste, considerando os valores de \(n\) tamanho amostral, \(\alpha\) o nível de significância, \(p_0\) a proporção sob a hipótese nula e \(p_1\) a proporção sob a hipótese alternativa:

ErroTipoII = function(n, alfa, p0, p1){
  # Calcula o valor crítico para teste bilateral
  z_critico = qnorm(alfa / 2, lower.tail = FALSE)
  # Define os limites da região crítica
  L = p0 - z_critico * sqrt((p0*(1-p0))) / sqrt(n)
  U = p0 + z_critico * sqrt((p0*(1-p0))) / sqrt(n)
  # Calcula o erro tipo II: probabilidade de não rejeitar H0 quando mu = mu1
  Beta = pnorm(U, mean = p1, sd = sqrt((p1*(1-p1))) / sqrt(n)) -
                 pnorm(L, mean = p1, sd = sqrt((p1*(1-p1))) / sqrt(n))
  return(Beta)
}

PoderDoTeste = function(n, alfa, p0, p1){
  1 - ErroTipoII(n, alfa, p0, p1)
}

Vamos avaliar ambas as funções graficamente, considerando \(n=100\), \(p_0=0.6\) e \(\alpha\)=5%, variando diversos valores possíveis para \(p_1\):

# Parâmetros fixos
n <- 100
alfa <- 0.05
p0 <- 0.6

# Variação de mu1
p1_vals <- seq(0.3, 0.9, by = 0.05)

# Erro do tipo II
betas <- ErroTipoII(n=n, alfa=alfa,
                        p0=p0, p1=p1_vals)

# Poder do teste
poderes <- PoderDoTeste(n=n, alfa=alfa,
                        p0=p0, p1=p1_vals) 

# Data frame para plotagem
dados <- data.frame(p1 = p1_vals,
                    betas = betas,
                    poderes = poderes)

# Gráfico com as duas linhas
ggplot(dados, aes(x = p1)) +
  geom_line(aes(y = betas, color = "Erro Tipo II"), size = 1) +
  geom_line(aes(y = poderes, color = "Poder do Teste"), size = 1) +
  geom_vline(xintercept = p0, linetype = "dashed", color = "red") +
  scale_color_manual(values = c("Erro Tipo II" = "blue", "Poder do Teste" = "darkgreen")) +
  labs(
  title = expression("Erro Tipo II e Poder do Teste em função de " * p[1]),
  x = expression(p[1]),
  y = "Probabilidade",
  color = ""
) +
  theme_minimal(base_size = 14)

Este gráfico apresenta a probabilidade do erro tipo II (linha azul) e o poder do teste (linha verde) em função de diferentes valores da média alternativa \(p_1\), ou seja, assume que o teste é para:

4.3 MÉDIA POPULACIONAL (CASO AMOSTRA GRANDE)

Agora vamos para o estudo da construção de testes de hipóteses para a média populacional \(\mu\), assumindo que:

  • Os dados vêm de qualquer distribuição;
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória e de tamanho \(n\) grande.

4.3.1 TESTE BILATERAL

O teste bilateral verifica se a média populacional é igual a um valor específico \(\mu_0\) ou diferente, para mais ou para menos.

\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu \neq \mu_0 \quad \text{(hipótese alternativa bilateral)} \]

A estatística de teste usada é a média amostral

\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]

Sabemos que (segundo o TCL):

\[ \bar{X} \approx \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right). \]

Sob \(H_0\):

\[ \bar{X} \approx \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right). \]

O nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(\mu_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \quad \text{ou} \quad \bar{X} \geq U, \]

Queremos determinar os valores \(L\) e \(U\) que satisfazem:

\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \quad \text{ e } \quad P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \]

Como não conhecemos o valor verdadeiro de \(\sigma\), o estimaremos pelo desvio padrão amostral \(s\). Sabemos que:

\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{s/\sqrt{n}}=-z_{\alpha/2}\rightarrow L = \mu_0-z_{\alpha/2}\frac{s}{\sqrt{n}} \]

e

\[ P(\bar{X} \geq U \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{U-\mu_0}{s/\sqrt{n}}=z_{\alpha/2}\rightarrow U = \mu_0+z_{\alpha/2}\frac{s}{\sqrt{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \bar{X} \leq L=\mu_0 - z_{\alpha/2} \cdot \frac{s}{\sqrt{n}} \quad \text{ou} \quad \bar{X} \geq U=\mu_0 + z_{\alpha/2} \cdot \frac{s}{\sqrt{n}}. \]

EXEMPLO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=64\) de uma população com distribuição Exponencial com parâmetros \(\lambda=6\). Assim, \(\mu=\frac{1}{6}\). Considere o teste das seguintes hipóteses:

\[ H_0: \mu = \frac{1}{6} \] \[ H_1: \mu \neq \frac{1}{6} \]

Diferentemente do caso anterior, não conseguimos expressar a região crítica sem os dados da amostra, uma vez que ela depende de \(s\), o desvio padrão amostral. Considerando um \(\alpha\) de 5%, em cada amostra de tamanho \(n=64\) os valores críticos para a construção da regiao de rejeição serão:

\[L=\mu_0 - z_{\alpha/2} \cdot \frac{s}{\sqrt{n}}=1/6-1,96\cdot\frac{s}{8}\]

e

\[U=\mu_0 + z_{\alpha/2} \cdot \frac{s}{\sqrt{n}}=1/6+1,96\cdot\frac{s}{8}\]

Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, nesse caso, cada réplica terá sua respectiva região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):

# Parâmetros populacionais de X
lambda_real <- 6
media_real <- 1/lambda_real

# Tamanho da amostra
n <- 64

# Número de réplicas (simulações)
B <- 1000

# Nível de significância
alfa <- 0.05

# Simulação das médias amostrais
set.seed(2025)
medias <- replicate(B, mean(rexp(n, rate=lambda_real)))

# Simulação dos desvios padrões amostrais
set.seed(2025)
desvios_padroes <- replicate(B, sd(rexp(n, rate=lambda_real)))

# Z crítico
z_critico <- qnorm(alfa/2,lower.tail=F)

# valores criticos de xbarra
L <- media_real-z_critico*desvios_padroes /sqrt(n)
U <- media_real+z_critico*desvios_padroes /sqrt(n)

# Cria um data frame com os valores das medias e decisão do teste
df <- data.frame(medias = medias) %>%
  mutate(rejeita_H0 = medias >= U | medias <= L )

# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)

# Gráfico
ggplot(df, aes(x = medias, fill = rejeita_H0)) +
  geom_histogram(color = "black", bins = 30) +
  scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
                    labels = c("Não rejeita H0", "Rejeita H0"),
                    name = "Decisão") +
  labs(title = "Distribuição das médias amostrais",
       x = "Médias Amostrais",
       y = "Frequência") +
  theme_minimal()

Esse gráfico representa a distribuição empírica dos \(B\) valores de \(\bar{X}\). A quantidade empírica de testes que rejeitaram a hipótese nula é aproximadamente 5%, o nível de significância.

4.3.2 TESTE UNILATERAL À ESQUERDA

O teste unilateral à esquerda verifica se a média populacional é menor que um valor específico \(\mu_0\):

\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu < \mu_0 \quad \text{(hipótese alternativa)} \]

A estatística de teste utilizada é a média amostral:

\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]

Sabemos que, pelo TCL:

\[ \bar{X} \approx \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right) \]

Sob \(H_0\):

\[ \bar{X} \approx \mathcal{N}\left(\mu_0, \frac{\sigma^2}{n}\right) \]

O nível de significância é \(\alpha\). No teste unilateral à esquerda, rejeitamos \(H_0\) se a média amostral estiver muito menor que \(\mu_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \]

Queremos determinar o valor \(L\) tal que:

\[ P(\bar{X} \leq L \mid H_0) = \alpha \]

Sabemos que:

\[ \frac{L - \mu_0}{s/\sqrt{n}} = z_\alpha \Rightarrow L = \mu_0 + z_\alpha \cdot \frac{s}{\sqrt{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \bar{X} \leq L = \mu_0 + z_\alpha \cdot \frac{s}{\sqrt{n}} \]

EXERCÍCIO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=64\) de uma população com distribuição Exponencial com parâmetros \(\lambda=6\). Assim, \(\mu=\frac{1}{6}\). Considere o teste das seguintes hipóteses:

\[ H_0: \mu = \frac{1}{6} \] \[ H_1: \mu < \frac{1}{6} \]

Não conseguimos expressar a região crítica sem os dados da amostra, uma vez que ela depende de \(s\), o desvio padrão amostral. Considerando um \(\alpha\) de 5%, em cada amostra de tamanho \(n=64\) os valores críticos para a construção da regiao de rejeição serão:

\[L=\mu_0 - z_{\alpha} \cdot \frac{s}{\sqrt{n}}=1/6-1,64\cdot\frac{s}{8}\]

Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, nesse caso, cada réplica terá sua respectiva região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\):

4.4 MÉDIA POPULACIONAL (CASO NORMAL COM VARIÂNCIA DESCONHECIDA)

Vamos construir testes de hipóteses para a média populacional \(\mu\), assumindo que:

  • Os dados vêm de uma população com distribuição normal \(\mathcal{N}(\mu, \sigma^2)\);
  • A variância populacional \(\sigma^2\) é desconhecida;
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória e de tamanho \(n\) (n pequeno).

4.4.1 TESTE BILATERAL

O teste bilateral verifica se a média populacional é igual a um valor específico \(\mu_0\) ou diferente:

\[ H_0: \mu = \mu_0 \quad \text{vs} \quad H_1: \mu \neq \mu_0 \]

Agora a estatística de teste usada é:

\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i \]

Sabemos que, usando o estimador da variância amostral \(S^2\), a estatística padronizada:

\[ T = \frac{\bar{X} - \mu_0}{S / \sqrt{n}} \]

segue uma distribuição t de Student com \(n-1\) graus de liberdade, sob \(H_0\). Da mesma forma como antes, o nível de significância é \(\alpha\). No teste bilateral, rejeitamos \(H_0\) se a média amostral estiver muito distante de \(\mu_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \quad \text{ou} \quad \bar{X} \geq S, \]

Queremos determinar \(L\) e \(S\) tais que:

\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2}, \quad P(\bar{X} \geq S \mid H_0) = \frac{\alpha}{2} \]

Sabemos que:

\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{s/\sqrt{n}}=-t_{n-1,\alpha/2}\rightarrow L = \mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \]

e

\[ P(\bar{X} \geq S \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{S-\mu_0}{s/\sqrt{n}}=t_{n-1,\alpha/2}\rightarrow S = \mu_0+t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \bar{X} \leq L=\mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \quad \text{ou} \quad \bar{X} \geq S=\mu_0+t_{n-1,\alpha/2}\frac{s}{\sqrt{n}}. \]

EXEMPLO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Considere o teste das seguintes hipóteses:

\[ H_0: \mu = 170 \] \[ H_1: \mu \neq 170 \]

Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), assumindo \(\sigma^2\) desconhecido. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I).

# Parâmetros populacionais de X
media_real <- 170
sigma_real <- 10

# Tamanho da amostra
n <- 25

# Número de réplicas (simulações)
B <- 1000

# Nível de significância
alfa <- 0.05

# Simulação das médias amostrais
set.seed(2025)
medias <- replicate(B, mean(rnorm(n, media_real, sigma_real)))
# Simulação dos desvios padroes amostrais
set.seed(2025)
desvios_padroes <- replicate(B, sd(rnorm(n, media_real, sigma_real)))

# Z crítico
t_critico <- qt(alfa/2,df=n-1,lower.tail=F)

# valores criticos de xbarra
L <- media_real-t_critico*desvios_padroes/sqrt(n)
S <- media_real+t_critico*desvios_padroes/sqrt(n)

# Cria um data frame com os valores das medias e a decisão do teste
df <- data.frame(medias = medias) %>%
  mutate(rejeita_H0 = medias >= S | medias <= L )

# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)

# Gráfico
ggplot(df, aes(x = medias, fill = rejeita_H0)) +
  geom_histogram(color = "black", bins = 30) +
  scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
                    labels = c("Não rejeita H0", "Rejeita H0"),
                    name = "Decisão") +
  labs(title = "Distribuição das médias amostrais",
       x = "Médias Amostrais",
       y = "Frequência") +
  theme_minimal()

4.4.2 TESTE UNILATERAL À ESQUERDA

O teste unilateral à direita verifica se a média populacional é menor que um valor específico \(\mu_0\):

\[ H_0: \mu = \mu_0 \quad \text{(hipótese nula)} \] \[ H_1: \mu < \mu_0 \quad \text{(hipótese alternativa)} \]

A estatística de teste utilizada é a média amostral:

\[ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i. \]

Sabemos que, usando o estimador da variância amostral \(S^2\), a estatística padronizada:

\[ T = \frac{\bar{X} - \mu_0}{S / \sqrt{n}} \]

segue uma distribuição t de Student com \(n-1\) graus de liberdade, sob \(H_0\). Da mesma forma como antes, o nível de significância é \(\alpha\). No teste unilateral à esquerda, rejeitamos \(H_0\) se a média amostral estiver muito abaixo de \(\mu_0\):

Isto é,

\[ \text{Rejeitamos } H_0 \quad \text{se} \quad \bar{X} \leq L \]

Queremos determinar \(L\) tal que:

\[ P(\bar{X} \leq L \mid H_0) = \alpha \]

Sabemos que:

\[ P(\bar{X} \leq L \mid H_0) = \frac{\alpha}{2} \rightarrow \frac{L-\mu_0}{s/\sqrt{n}}=-t_{n-1,\alpha/2}\rightarrow L = \mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}} \]

Portanto, rejeitamos \(H_0\) se:

\[ \bar{X} \leq L=\mu_0-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}}. \]

EXERCÍCIO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=25\) de uma população com distribuição Normal com parâmetros \(\mu=170\) e \(\sigma^2=100\). Considere o teste das seguintes hipóteses:

\[ H_0: \mu = 170 \] \[ H_1: \mu < 170 \]

Vamos simular \(B=1000\) amostras dessa população e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\), considerando que a variância \(\sigma^2\) é desconhecida. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I).

4.5 VARIÂNCIA POPULACIONAL (CASO NORMAL)

Vamos construir testes de hipóteses para a variância populacional \(\sigma^2\), assumindo que:

  • Os dados vêm de uma população com distribuição normal \(\mathcal{N}(\mu, \sigma^2)\);
  • A média populacional \(\mu\) é desconhecida;
  • A amostra \(X_1, X_2, \dots, X_n\) é aleatória e de tamanho \(n\)

4.5.1 TESTE BILATERAL

O teste bilateral verifica se a variância populacional é igual a um valor específico \(\sigma_0^2\) ou diferente:

\[ H_0: \sigma^2 = \sigma_0^2 \quad \text{vs} \quad H_1: \sigma^2 \neq \sigma_0^2 \]

A estatística de teste usada é baseada na variância amostral:

\[ S^2 = \frac{1}{n-1} \sum_{i=1}^n (X_i - \bar{X})^2 \]

Assm, sob \(H_0\), a estatística de teste

\[ \chi^2 = \frac{(n-1)S^2}{\sigma_0^2} \]

segue uma distribuição qui-quadrado com \(n-1\) graus de liberdade.

Fixado o nível de significância \(\alpha\), rejeitamos \(H_0\) se a estatística de teste \(\chi^2\) for muito pequena ou muito grande em relação ao valor esperado, sob a hipótese nula. Veja na figura a seguir:

Portanto, rejeitamos \(H_0\) se:

\[ .\chi^2 \geq \chi^2_{\alpha/2} \textrm{ ou } \chi^2 \leq \chi^2_{1-\alpha/2} \]

EXEMPLO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\). Considere o teste das seguintes hipóteses:

\[ H_0: \sigma^2 = 100 \] \[ H_1: \sigma^2 \neq 100 \]

Considerando um \(\alpha\) de 5%, temos que a estatística de teste tem distribuição qui-quadrado com \(n-1\)=15 graus de liberdade.

De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=16\) de uma população normal com \(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).

# Parâmetros populacionais de X
media_real <- 170
sigma_real <- 10
sigma2_real <- 100

# Tamanho da amostra
n <- 16

# Número de réplicas (simulações)
B <- 1000

# Nível de significância
alfa <- 0.05

# Simulação das médias amostrais
set.seed(2025)
vars <- replicate(B, var(rnorm(n, media_real, sigma_real)))

# Estatística de teste
chi = (n-1)*vars/sigma2_real

# valores críticos
chi_critico1 <-  qchisq(alfa/2,df=n-1)
chi_critico2 <-  qchisq(alfa/2,df=n-1,lower.tail=F)

# Cria um data frame com os valores das medias e a decisão do teste
df <- data.frame(chi = chi) %>%
  mutate(rejeita_H0 = chi <= chi_critico1 | chi >= chi_critico2 )

# Porcentagem de testes que rejeitaram a hipótese nula
rejeicao = mean(df$rejeita_H0)

# Gráfico
ggplot(df, aes(x = chi, fill = rejeita_H0)) +
  geom_histogram(color = "black", bins = 30) +
  scale_fill_manual(values = c("FALSE" = "skyblue", "TRUE" = "tomato"),
                    labels = c("Não rejeita H0", "Rejeita H0"),
                    name = "Decisão") +
  labs(title = "Distribuição da estatística de teste",
       x = "Médias Amostrais",
       y = "Frequência") +
  theme_minimal()

4.5.2 TESTE UNILATERAL À DIREITA

O teste unilateral à direita verifica se a variância populacional é igual a um valor específico \(\sigma_0^2\) ou maior:

\[ H_0: \sigma^2 = \sigma_0^2 \quad \text{vs} \quad H_1: \sigma^2 > \sigma_0^2 \]

A estatística de teste usada é baseada na variância amostral:

\[ S^2 = \frac{1}{n-1} \sum_{i=1}^n (X_i - \bar{X})^2 \]

Assm, sob \(H_0\), a estatística de teste

\[ \chi^2 = \frac{(n-1)S^2}{\sigma_0^2} \]

segue uma distribuição qui-quadrado com \(n-1\) graus de liberdade.

Fixado o nível de significância \(\alpha\), rejeitamos \(H_0\) se a estatística de teste \(\chi^2\) for muito grande em relação ao valor esperado, sob a hipótese nula. Veja na figura a seguir:

Portanto, rejeitamos \(H_0\) se:

\[ \chi^2 \geq \chi^2_{\alpha} \]

EXEMPLO:

Considere que \(X_1, X_2, \dots, X_n\) seja uma amostra aleatória de tamanho \(n=16\) de uma população com distribuição Normal com parâmetros \(\mu\) e \(\sigma^2\). Considere o teste das seguintes hipóteses:

\[ H_0: \sigma^2 = 100 \] \[ H_1: \sigma^2 > 100 \]

Considerando um \(\alpha\) de 5%, temos que a estatística de teste tem distribuição qui-quadrado com \(n-1\)=15 graus de liberdade.

De acordo com \(\alpha\), vamos simular \(B=1000\) amostras de tamanho \(n=16\) de uma população normal com \(\mu=170\) e \(\sigma^2=100\) e, para cada amostra, vamos testar as hipóteses acima utilizando o método da regiao crítica com um nível \(\alpha=5\%\). Note que, em todas as réplicas, teremos a mesma região crítica. O objetivo é verificar se em aproximadamente 5% dessas amostras rejeitaremos a hipótese nula, quando sabemos que, na verdade, ela é verdadeira (erro do tipo I). Dessa forma, o nosso objetivo é estimar, empiricamente, o nível \(\alpha\).