1 Apresentação do Capítulo

Neste capítulo, abordamos de forma abrangente os fundamentos de Testes Estatísticos, destinado a alunos iniciantes com foco em Matemática, Estatística e programação em R. O curso está dividido em três seções principais: Testes de Hipóteses, Testes Paramétricos e Testes não Paramétricos.

Na primeira seção, exploramos os Testes de Hipóteses, discutindo os conceitos básicos de estatística descritiva e inferencial. Investigamos o processo de teste de hipóteses, analisamos os erros tipo I e tipo II, e exploramos níveis de significância e valores p. Adicionalmente, proporcionamos exercícios práticos para reforçar a formulação de hipóteses.

A segunda seção, Testes Paramétricos, inicia com o Teste t, cobrindo amostras independentes e amostras pareadas. Introduzimos o Intervalo de Confiança para a média, discutindo as condições necessárias para a aplicação desses testes. Apresentamos exemplos práticos utilizando conjuntos de dados reais e exploramos aplicações e interpretações.

A terceira seção, Testes Paramétricos II - Análise de Variância (ANOVA), inicia com ANOVA de um fator, seguido por ANOVA de dois fatores. Apresentamos o Teste de Tukey para comparações múltiplas, discutimos as assunções e condições para aplicação, e exemplificamos com conjuntos de dados reais. Encerramos com uma discussão sobre experimentos controlados.

A última seção aborda Testes não Paramétricos I e II. Exploramos o Teste de Mann-Whitney e Wilcoxon, comparando com testes t paramétricos, e discutimos aplicações e interpretações. Em seguida, apresentamos o Teste de Kruskal-Wallis e o Teste de Friedman, explorando suas comparações com ANOVA. Concluímos com aplicações práticas, exercícios e exemplos.

Por fim, exploramos o Teste Qui-Quadrado, abordando sua aplicação em testes de independência, bondade de ajuste e associação entre variáveis categóricas. Apresentamos aplicações, interpretações e exercícios práticos, proporcionando uma compreensão abrangente do Teste Qui-Quadrado.

2 Introdução à Estatística e Testes de Hipóteses

2.1 Conceitos básicos de estatística descritiva e inferencial

Imagine que você está trabalhando como analista de dados em uma empresa e recebeu um conjunto de dados contendo as notas de dois grupos de estudantes (Grupo A e Grupo B) em uma disciplina específica. Seu gerente pediu para você investigar se há evidências estatísticas de que as médias das notas entre esses dois grupos são realmente diferentes. Neste cenário, a estatística inferencial entra em cena para ajudar na tomada de decisão.

O teste de hipóteses mais comum para comparar duas médias é o teste t de Student. A fórmula para o teste t é dada por:

\[\begin{equation} t = \frac{\bar{X}_1 - \bar{X}_2}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}} \end{equation}\]

em que:

  • \(\bar{X}_1\) e \(\bar{X}_2\) são as médias amostrais dos dois grupos.
  • \(s_1\) e \(s_2\) são os desvios padrões amostrais dos dois grupos.
  • \(n_1\) e \(n_2\) são os tamanhos amostrais dos dois grupos.

Exemplo em R:

Vamos considerar os seguintes conjuntos de notas fictícias para os dois grupos:

set.seed(123)  # Define a semente para reprodução dos resultados
grupo_A <- c(68, 72, 75, 68, 70)
grupo_B <- c(65, 67, 71, 73, 68, 72)

# Executando o teste t de Student
resultado_teste_t <- t.test(grupo_A, grupo_B)

# Exibindo o resultado
print(resultado_teste_t)
## 
##  Welch Two Sample t-test
## 
## data:  grupo_A and grupo_B
## t = 0.6865, df = 8.8123, p-value = 0.5101
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -2.920864  5.454198
## sample estimates:
## mean of x mean of y 
##  70.60000  69.33333

Explicação:

No exemplo acima, utilizamos o teste t de Student para comparar as notas médias dos dois grupos (Grupo A e Grupo B). A função t.test() é uma ferramenta que calcula automaticamente o valor do teste t, o valor p e outras estatísticas relevantes. O resultado do teste nos dará informações sobre se há evidências estatísticas para rejeitar ou não a hipótese nula de que as médias dos grupos são iguais. Este é um procedimento padrão em análises estatísticas para tomada de decisões informadas. Como o p-value = 0.5101, ou seja p-value > 0.05, rejeitamos a hipotese alternativa e ficamos com a hipótese nula de que as duas médias são iguais.

2.2 O processo de teste de hipóteses

Ao realizar uma pesquisa ou análise de dados, muitas vezes nos deparamos com perguntas específicas que exigem respostas estatísticas. O processo de teste de hipóteses é uma abordagem sistemática que nos permite tomar decisões baseadas em evidências amostrais. Vamos explorar esse processo através de um exemplo prático.

O teste de hipóteses envolve a formulação de duas hipóteses, a hipótese nula (\(H_0\)) e a hipótese alternativa (\(H_1\)), seguido pelo cálculo de uma estatística de teste e a comparação dessa estatística com um valor crítico ou um intervalo crítico. Uma fórmula geral para a estatística de teste (z ou t, dependendo do contexto) pode ser expressa como:

\[\begin{equation} \text{Estatística de Teste} = \frac{\text{Estimativa do Parâmetro} - \text{Valor Sob a Hipótese Nula}}{\text{Erro Padrão da Estimativa}} \end{equation}\]

Exemplo em R:

Suponha que queremos testar se a média de uma amostra é igual a 70. Vamos utilizar o teste t de uma amostra em R:

set.seed(456)  # Define a semente para reprodução dos resultados
amostra <- c(68, 72, 75, 68, 70, 72, 71, 69, 70, 68)

# Executando o teste t de uma amostra
resultado_teste_t <- t.test(amostra, mu = 70)

# Exibindo o resultado
print(resultado_teste_t)
## 
##  One Sample t-test
## 
## data:  amostra
## t = 0.41917, df = 9, p-value = 0.6849
## alternative hypothesis: true mean is not equal to 70
## 95 percent confidence interval:
##  68.68098 71.91902
## sample estimates:
## mean of x 
##      70.3

Explicação:

Neste exemplo, a hipótese nula (\(H_0\)) é que a média da população é igual a 70. A hipótese alternativa (\(H_1\)) é que a média é diferente de 70. O teste t é aplicado à amostra, e o resultado do teste nos dirá se há evidências suficientes para rejeitar a hipótese nula em favor da hipótese alternativa. O valor p fornecido na saída do teste é importante para tomar essa decisão. Valores de p baixos (p < 0.05) geralmente levam à rejeição da hipótese nula. Este processo é fundamental para a análise estatística rigorosa em diversas áreas.

2.3 Erros tipo I e tipo II

Ao realizar um teste de hipóteses, é importante entender os conceitos de erros tipo I e tipo II. Esses erros estão relacionados à decisão de rejeitar ou não a hipótese nula e têm implicações importantes na interpretação dos resultados. Vamos explorar esses conceitos através de um cenário prático.

Os erros tipo I e tipo II estão diretamente ligados à rejeição ou aceitação incorreta da hipótese nula. A definição desses erros pode ser expressa como:

  • Erro Tipo I (\(\alpha\)): Rejeitar erroneamente a hipótese nula quando ela é verdadeira.

  • Erro Tipo II (\(\beta\)): Aceitar erroneamente a hipótese nula quando ela é falsa.

Exemplo em R:

Vamos considerar um exemplo prático usando o teste t de uma amostra:

set.seed(789)  # Define a semente para reprodução dos resultados
amostra <- c(round(runif(1000, min = 60, max = 80)))

# Executando o teste t de uma amostra
resultado_teste_t <- t.test(amostra, mu = 70)

# Exibindo o resultado
print(resultado_teste_t)
## 
##  One Sample t-test
## 
## data:  amostra
## t = 0.67315, df = 999, p-value = 0.501
## alternative hypothesis: true mean is not equal to 70
## 95 percent confidence interval:
##  69.76061 70.48939
## sample estimates:
## mean of x 
##    70.125

Explicação:

Suponha que fixamos um nível de significância \(\alpha\) em 0.05. Se o valor p resultante do teste for menor que \(\alpha\), rejeitamos a hipótese nula. Se \(\alpha\) for muito baixo, podemos reduzir o risco de um erro tipo I, mas aumentamos o risco de um erro tipo II. Encontrar um equilíbrio entre esses erros é uma parte crucial do processo de teste de hipóteses. O entendimento desses conceitos permite aos analistas tomar decisões informadas, considerando as implicações de cada tipo de erro.

2.4 Níveis de significância e valores p

Em testes estatísticos, os níveis de significância e valores p desempenham um papel fundamental na interpretação dos resultados. Esses conceitos ajudam a tomar decisões sobre rejeitar ou não a hipótese nula com base nas evidências amostrais. Vamos explorar esses elementos em um contexto prático.

  • Nível de Significância (\(\alpha\)): É a probabilidade de cometer um erro tipo I, ou seja, rejeitar a hipótese nula quando ela é verdadeira. Geralmente, os níveis de significância comuns são 0.01, 0.05 ou 0.10.

  • Valor p: Representa a probabilidade de observar os dados amostrais, dado que a hipótese nula é verdadeira. Um valor p baixo sugere que as evidências são inconsistentes com a hipótese nula.

Exemplo em R:

Vamos usar um exemplo prático com o teste t de uma amostra:

set.seed(987)  # Define a semente para reprodução dos resultados
amostra <- round(runif(1000, min = 65, max = 85))

# Executando o teste t de uma amostra
resultado_teste_t <- t.test(amostra, mu = 70)

# Exibindo o resultado
print(resultado_teste_t)
## 
##  One Sample t-test
## 
## data:  amostra
## t = 26.503, df = 999, p-value < 2.2e-16
## alternative hypothesis: true mean is not equal to 70
## 95 percent confidence interval:
##  74.54182 75.26818
## sample estimates:
## mean of x 
##    74.905

Explicação:

No exemplo acima, o resultado do teste inclui o valor p. Se o valor p for menor que o nível de significância \(\alpha\) estabelecido (por exemplo, 0.05), podemos rejeitar a hipótese nula. A escolha do nível de significância é fundamental pois determina a probabilidade de cometer um erro tipo I. Um valor p mais baixo fornece evidências mais fortes contra a hipótese nula. Entender esses conceitos é essencial para interpretar corretamente os resultados de testes estatísticos.

2.5 Exemplo de formulação de hipóteses

A formulação adequada de hipóteses é uma etapa no processo de teste estatístico. Vamos praticar a formulação de hipóteses por meio de um cenário fictício. Suponha que você seja um cientista de dados em uma empresa que está avaliando o desempenho de dois modelos de máquinas em termos de produção de peças defeituosas.

Cenário: Você coletou amostras de produção de ambas as máquinas e deseja investigar se há evidências estatísticas de que a média de peças defeituosas produzidas pela Máquina A é diferente da média produzida pela Máquina B.

Formulação de Hipóteses:

  • Hipótese Nula (\(H_0\)): A média de peças defeituosas produzidas pela Máquina A é igual à média produzida pela Máquina B. \(H_0: \mu_A = \mu_B\)

  • Hipótese Alternativa (\(H_1\)): A média de peças defeituosas produzidas pela Máquina A é diferente da média produzida pela Máquina B. \(H_1: \mu_A \neq \mu_B\)

Exercício em R:

Vamos simular dados para representar as amostras e realizar o teste t de duas amostras em R:

set.seed(123)  # Define a semente para reprodução dos resultados
amostra_maquina_A <- round(runif(10000, min = 10, max = 15))
amostra_maquina_B <- round(runif(5000, min = 10, max = 15))

# Executando o teste t de duas amostras
resultado_teste_t <- t.test(amostra_maquina_A, amostra_maquina_B)

# Exibindo o resultado
print(resultado_teste_t)
## 
##  Welch Two Sample t-test
## 
## data:  amostra_maquina_A and amostra_maquina_B
## t = -0.093051, df = 9995.9, p-value = 0.9259
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.05295825  0.04815825
## sample estimates:
## mean of x mean of y 
##   12.4838   12.4862

Explicação:

Neste exemplo, as hipóteses nula e alternativa foram formuladas com base no cenário apresentado. O teste t de duas amostras é aplicado aos dados simulados para avaliar se há evidências estatísticas de diferença nas médias de peças defeituosas produzidas pelas duas máquinas. A interpretação dos resultados, incluindo o valor p, ajudará a tomar decisões informadas sobre o desempenho relativo das máquinas. A habilidade de formular hipóteses apropriadas é essencial para a correta condução de testes estatísticos.

2.6 Exercícios

  • Exercício 01: Conceitos Básicos de Estatística Descritiva Considere o seguinte conjunto de dados representando as idades de um grupo de estudantes: 20, 22, 23, 25, 21, 24, 26, 22, 23, 24. Calcule a média, mediana e moda das idades.

  • Exercício 02: Variabilidade nos Dados Dado o conjunto de notas em uma prova: 85, 88, 92, 79, 90, 87, 94, 82, 88, 83. Calcule o desvio padrão para avaliar a dispersão das notas.

  • Exercício 03: Conceitos Básicos de Estatística Inferencial Suponha que uma amostra de 30 alunos de uma escola tenha obtido uma média de 75 em uma prova de matemática, com um desvio padrão de 10. Construa um intervalo de confiança de 95% para a média populacional.

  • Exercício 04: Compreensão de Erros Tipo I e Tipo II Um fabricante de medicamentos desenvolveu um novo medicamento para reduzir a pressão arterial. O objetivo é verificar se o novo medicamento é eficaz. Explique, em termos simples, o que representariam os erros Tipo I e Tipo II nesse contexto, considerando as seguintes situações:

  • Erro Tipo I ocorre.
  • Erro Tipo II ocorre.
  • Exercício 05: Impacto na Tomada de Decisão Imagine que um teste de hipóteses foi realizado para determinar se uma nova técnica de ensino melhora o desempenho dos alunos. Se o teste resultar em um erro Tipo I, como isso pode impactar as decisões da escola em relação à implementação da nova técnica?

  • Exercício 06: Escolha do Nível de Significância Um pesquisador está conduzindo um experimento para avaliar se uma nova dieta é eficaz na perda de peso. Explique como a escolha do nível de significância pode impactar as conclusões do estudo. Considere diferentes níveis de significância, como 1%, 5% e 10%.

  • Exercício 07: Interpretação do Valor-p Suponha que, ao conduzir um teste de hipóteses, você obtenha um valor-p de 0.03. Explique o que esse valor-p indica em termos da hipótese nula e da decisão de rejeição ou não rejeição da hipótese nula.

  • Exercício 08: Níveis de Significância e Tamanho da Amostra Discuta como a escolha do nível de significância e o tamanho da amostra estão inter-relacionados. Considere como diferentes tamanhos de amostra podem influenciar a interpretação dos resultados, especialmente em relação aos valores-p.

  • Exercício 09: Valor-p e Significância Estatística Explique a diferença entre um valor-p de 0.07 e 0.15 em um teste de hipóteses. Como a interpretação desses valores-p pode afetar a decisão de rejeitar ou não rejeitar a hipótese nula?

  • Exercício 10: Formulação de Hipóteses para Estudo de Mercado Imagine que uma empresa de alimentos deseja lançar um novo sabor de batatas fritas. Formule as hipóteses nula e alternativa para testar se a preferência pelos consumidores pelo novo sabor é igual à preferência pelo sabor existente.

  • Exercício 11: Teste de Desempenho de Estudantes Um educador acredita que a introdução de aulas online pode melhorar o desempenho dos estudantes. Formule as hipóteses nula e alternativa para testar essa afirmação. Considere a média de notas dos alunos antes e depois da introdução das aulas online.

  • Exercício 12: Efeito de uma Nova Campanha Publicitária Uma empresa lançou uma nova campanha publicitária para aumentar as vendas de um produto. Formule as hipóteses nula e alternativa para testar se a nova campanha resultou em um aumento significativo nas vendas.

  • Exercício 13: Efeito da Mudança de Preço em Vendas Um supermercado reduziu os preços de certos produtos na tentativa de aumentar as vendas. Formule as hipóteses nula e alternativa para testar se a mudança de preço teve algum impacto significativo nas vendas desses produtos.

  • Exercício 14: Avaliação de Desempenho de Funcionários Uma empresa está considerando a implementação de um novo programa de treinamento para melhorar o desempenho dos funcionários. Formule as hipóteses nula e alternativa para avaliar se o programa de treinamento é eficaz em melhorar o desempenho.

3 Testes Paramétricos I - Testes t

3.1 Teste t de amostras independentes

Os testes t são amplamente utilizados na estatística para comparar médias entre diferentes grupos. Vamos começar explorando o teste t de amostras independentes. Suponha que você seja responsável por analisar os tempos de execução de dois algoritmos diferentes (A e B) projetados para realizar uma tarefa específica.

Cenário: Você coletou amostras de tempos de execução de ambos os algoritmos e deseja determinar se há evidências estatísticas de que os tempos médios de execução dos dois algoritmos são diferentes.

O teste t de amostras independentes envolve a comparação das médias de duas amostras independentes. A fórmula para o teste t de amostras independentes é dada por:

\[ t = \frac{\bar{X}_1 - \bar{X}_2}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}} \]

em que:

  • \(\bar{X}_1\) e \(\bar{X}_2\) são as médias das amostras 1 e 2, respectivamente.
  • \(s_1\) e \(s_2\) são os desvios padrões amostrais das amostras 1 e 2, respectivamente.
  • \(n_1\) e \(n_2\) são os tamanhos das amostras 1 e 2, respectivamente.

Exemplo em R:

Vamos simular dados de tempos de execução para ambos os algoritmos e realizar o teste t de amostras independentes:

set.seed(456)  # Define a semente para reprodução dos resultados
tempo_execucao_A <- round(runif(10000, min = 10, max= 14))
tempo_execucao_B <- round(runif(10000, min = 12, max = 15))

# Executando o teste t de amostras independentes
resultado_teste_t <- t.test(tempo_execucao_A, tempo_execucao_B)

# Exibindo o resultado
print(resultado_teste_t)
## 
##  Welch Two Sample t-test
## 
## data:  tempo_execucao_A and tempo_execucao_B
## t = -95.469, df = 18968, p-value < 2.2e-16
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -1.509876 -1.449124
## sample estimates:
## mean of x mean of y 
##   12.0084   13.4879

Explicação:

Neste exemplo, os tempos de execução dos algoritmos A e B foram simulados como duas amostras independentes. O teste t é aplicado para avaliar se há evidências estatísticas de diferença nas médias dos tempos de execução. O valor p resultante do teste nos dirá se podemos rejeitar a hipótese nula de que as médias são iguais. A interpretação adequada desses resultados é crucial para tomar decisões informadas sobre a eficiência relativa dos algoritmos.

3.2 Teste t de amostras pareadas

Continuando com os testes t, agora vamos explorar o teste t de amostras pareadas. Suponha que você esteja conduzindo um experimento para avaliar a eficácia de um novo tratamento médico em pacientes. Cada paciente passa por dois tratamentos distintos: o tratamento A e o tratamento B. O objetivo é determinar se há diferenças nas respostas dos pacientes aos dois tratamentos.

Cenário: Você coletou dados de um grupo de pacientes antes e depois de receberem os tratamentos A e B. Agora, deseja verificar se há evidências estatísticas de que os tratamentos afetaram significativamente as respostas dos pacientes.

O teste t de amostras pareadas compara as médias de duas amostras relacionadas, como antes e depois de um tratamento. A fórmula para o teste t de amostras pareadas é dada por:

\[\begin{equation} t = \frac{\bar{D}}{\frac{s_D}{\sqrt{n}}} \end{equation}\]

onde:

  • \(\bar{D}\) é a média das diferenças entre as observações pareadas.
  • \(s_D\) é o desvio padrão das diferenças.
  • \(n\) é o número de pares de observações.

Exemplo em R:

Vamos simular dados representando as respostas dos pacientes ao tratamentos e realizar o teste t de amostras pareadas:

set.seed(789)  # Define a semente para reprodução dos resultados
Antes <- round(runif(200, min=30, max=35))
Depois <- round(runif(200, min=29, max=37))

# Executando o teste t de amostras pareadas
resultado_teste_t_pareado <- t.test(Antes,
                                    Depois, 
                                    paired = T)

# Exibindo o resultado
print(resultado_teste_t_pareado)
## 
##  Paired t-test
## 
## data:  Antes and Depois
## t = -4.0401, df = 199, p-value = 7.626e-05
## alternative hypothesis: true mean difference is not equal to 0
## 95 percent confidence interval:
##  -1.2202342 -0.4197658
## sample estimates:
## mean difference 
##           -0.82

Explicação:

Neste exemplo, criamos um conjunto de dados simulando respostas de pacientes aos tratamentos A e B. O teste t de amostras pareadas é aplicado para verificar se há evidências estatísticas de diferenças nas respostas antes e depois dos tratamentos. A opção paired = TRUE na função t.test() indica que as amostras são pareadas. Interpretar corretamente os resultados é essencial para avaliar a eficácia dos tratamentos.

3.3 Intervalo de confiança para a média

Ao conduzir análises estatísticas, é comum desejar estimar não apenas a média de uma amostra, mas também a faixa em que a média populacional provavelmente está contida. Isso nos leva ao conceito de intervalo de confiança para a média. Vamos explorar como construir um intervalo de confiança para a média populacional.

O intervalo de confiança para a média é construído usando a fórmula:

\[\begin{equation} \bar{X} \pm t \left(\frac{s}{\sqrt{n}}\right) \end{equation}\]

onde:

  • \(\bar{X}\) é a média da amostra.
  • \(t\) é o valor crítico associado ao nível de confiança desejado e aos graus de liberdade.
  • \(s\) é o desvio padrão da amostra.
  • \(n\) é o tamanho da amostra.

Exemplo em R:

Suponha que você esteja analisando o tempo de resposta de um website e deseja construir um intervalo de confiança para a média do tempo de resposta com um nível de confiança de 95%. Vamos simular dados e calcular o intervalo de confiança:

set.seed(987)  # Define a semente para reprodução dos resultados
tempos_resposta <- runif(n = 5000, min = 2.0, max=2.9)
 

# Calculando o intervalo de confiança
intervalo_confianca <- t.test(tempos_resposta)$conf.int

# Exibindo o resultado
print(intervalo_confianca)
## [1] 2.439095 2.453605
## attr(,"conf.level")
## [1] 0.95

Explicação:

Neste exemplo, simulamos dados de tempos de resposta do website e utilizamos a função t.test() para calcular o intervalo de confiança para a média do tempo de resposta. O resultado é um intervalo que fornece uma estimativa da média populacional com um nível de confiança especificado. Interpretar corretamente o intervalo de confiança é fundamental para comunicar a variabilidade na estimativa da média.

3.4 Assunções e condições para aplicação

Ao realizar testes estatísticos e construir intervalos de confiança, é crucial estar ciente das assunções e condições necessárias para a aplicação correta desses métodos. Vamos abordar as principais assunções e condições relacionadas a testes t e intervalos de confiança para a média populacional.

Assunções e Condições para o Teste t:

  1. Distribuição Normal: A amostra deve ser aproximadamente normalmente distribuída. Isso é especialmente importante para tamanhos de amostra pequenos. Se o tamanho da amostra for grande o suficiente (geralmente \(n > 30\)), a aplicação do teorema do limite central pode mitigar essa condição.

  2. Variabilidade Populacional Desconhecida: As amostras devem ser selecionadas aleatoriamente e a variabilidade populacional deve ser desconhecida. Se a variabilidade populacional for conhecida, o teste z pode ser mais apropriado.

  3. Independência: As observações devem ser independentes. Isso significa que a observação de um indivíduo não deve influenciar a observação de outro.

Assunções e Condições para o Intervalo de Confiança para a Média:

  1. Distribuição Normal ou Tamanho da Amostra Grande: Assim como no teste t, a amostra deve ser normalmente distribuída para tamanhos de amostra pequenos. Se o tamanho da amostra for grande, o teorema do limite central pode ser aplicado, permitindo a construção de intervalos de confiança mesmo para distribuições não normais.

  2. Variabilidade Populacional Desconhecida: Assim como no teste t, a variabilidade populacional deve ser desconhecida para a construção adequada do intervalo de confiança.

Exemplo em R:

Vamos considerar a construção de um intervalo de confiança para a média, levando em consideração as condições necessárias:

set.seed(123)  # Define a semente para reprodução dos resultados
amostra <- c(22, 25, 28, 20, 24, 26, 28, 22, 23)

# Verificando a normalidade da amostra
hist(amostra, main = "Histograma da Amostra", xlab = "Valores")

# Executando o teste de normalidade Shapiro-Wilk
teste_shapiro <- shapiro.test(amostra)

# Exibindo o resultado do teste de normalidade
print(teste_shapiro)
## 
##  Shapiro-Wilk normality test
## 
## data:  amostra
## W = 0.94772, p-value = 0.665

Explicação:

Neste exemplo, simulamos uma amostra e verificamos a normalidade dos dados por meio de um histograma e do teste de normalidade Shapiro-Wilk. A normalidade é uma das condições importantes para a aplicação correta de testes t e construção de intervalos de confiança. Se a amostra não for normal, podem ser necessárias abordagens alternativas ou tamanhos de amostra maiores para aplicar as condições do teorema do limite central. Interpretação e verificação adequadas dessas condições são fundamentais para garantir a validade dos resultados estatísticos. Neste caso o p-valor > 0.05 indica a normalidade dos dados e o teste t pode ser executado sem problemas.

3.5 Exemplos práticos com dados reais

A melhor maneira de solidificar o entendimento de testes t e intervalos de confiança é aplicá-los a conjuntos de dados reais. Vamos realizar exemplos práticos utilizando dados reais para ilustrar como essas técnicas podem ser aplicadas na prática.

Exemplo Prático - Teste t de Amostras Pareadas:

Considere um conjunto de dados representando as pontuações de estudantes em um exame antes e depois de participarem de um programa de tutoria. O objetivo é verificar se há uma diferença estatisticamente significativa nas pontuações antes e depois da tutoria.

# Dados de pontuações antes da tutoria
antes_tutoria <- c(75, 82, 68, 90, 78, 88, 95, 72, 84, 79)

# Dados de pontuações depois da tutoria
depois_tutoria <- c(80, 88, 72, 95, 82, 92, 98, 78, 90, 85)

# Executando o teste t de amostras pareadas
resultado_teste_t_pareado <- t.test(antes_tutoria, depois_tutoria,
                                    paired = TRUE)

# Exibindo o resultado
print(resultado_teste_t_pareado)
## 
##  Paired t-test
## 
## data:  antes_tutoria and depois_tutoria
## t = -14.08, df = 9, p-value = 1.952e-07
## alternative hypothesis: true mean difference is not equal to 0
## 95 percent confidence interval:
##  -5.687254 -4.112746
## sample estimates:
## mean difference 
##            -4.9

Exemplo Prático - Intervalo de Confiança para a Média:

Agora, considere um conjunto de dados representando as alturas de uma amostra de indivíduos. O objetivo é construir um intervalo de confiança para a média das alturas com um nível de confiança de 90%.

# Dados de alturas (em centímetros)
alturas <- c(165, 172, 160, 178, 168, 175, 162, 170, 167, 180)

# Calculando o intervalo de confiança para a média com nível de
#confiança de 90%
intervalo_confianca_alturas_90 <- 
  t.test(alturas, conf.level = 0.90)$conf.int

# Exibindo o resultado
print(intervalo_confianca_alturas_90)
## [1] 165.8641 173.5359
## attr(,"conf.level")
## [1] 0.9

Explicação:

Nos exemplos acima, aplicamos o teste t de amostras pareadas para verificar se há uma diferença nas pontuações antes e depois da tutoria. Além disso, construímos um intervalo de confiança para a média das alturas dos indivíduos. Esses exemplos práticos ajudam a demonstrar como aplicar essas técnicas a conjuntos de dados reais, interpretar os resultados e tirar conclusões estatísticas relevantes para situações do mundo real.

3.6 Aplicações e interpretações

A aplicação correta de testes t e intervalos de confiança é essencial para tirar conclusões válidas a partir de dados amostrais. Vamos explorar algumas aplicações comuns e interpretar os resultados dessas técnicas estatísticas.

Aplicação 1: Teste t de Amostras Independentes - Comparação de Grupos:

Imagine que uma empresa de e-commerce deseja avaliar se há uma diferença significativa nas médias de tempo de navegação em seu site entre usuários de dispositivos móveis e usuários de computadores desktop.

# Dados simulados de tempo de navegação em minutos
tempo_navegacao_mobile <- c(8, 10, 9, 11, 7, 10, 12, 9, 8, 11)
tempo_navegacao_desktop <- c(10, 11, 9, 12, 8, 11, 13, 10, 9, 12)

# Executando o teste t de amostras independentes
resultado_teste_t_independentes <- 
  t.test(tempo_navegacao_mobile, tempo_navegacao_desktop)

# Exibindo o resultado
print(resultado_teste_t_independentes)
## 
##  Welch Two Sample t-test
## 
## data:  tempo_navegacao_mobile and tempo_navegacao_desktop
## t = -1.4142, df = 18, p-value = 0.1744
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -2.4855762  0.4855762
## sample estimates:
## mean of x mean of y 
##       9.5      10.5

Interpretação: O resultado do teste t informará se há uma diferença estatisticamente significativa nas médias de tempo de navegação entre usuários de dispositivos móveis e desktop. Um valor p baixo sugere evidências de diferença.

Aplicação 2: Intervalo de Confiança para a Média - Estimação com Incerteza:

Considere um estudo que mede a concentração de um determinado composto químico em amostras de água de um rio. O objetivo é construir um intervalo de confiança para a média da concentração desse composto.

# Dados simulados de concentração do composto (em mg/L)
concentracao_composto <- 
  c(2.1, 2.3, 2.0, 2.5, 2.2, 2.4, 2.3, 2.1, 2.4, 2.6)

# Calculando o intervalo de confiança para a média
intervalo_confianca_concentracao <-
  t.test(concentracao_composto)$conf.int

# Exibindo o resultado
print(intervalo_confianca_concentracao)
## [1] 2.153227 2.426773
## attr(,"conf.level")
## [1] 0.95

Interpretação: O intervalo de confiança informará a faixa em que a média da concentração do composto químico provavelmente está contida. Isso fornece uma estimativa com incerteza da concentração média no rio.

Considerações Gerais:

  • Um valor p menor que o nível de significância (por exemplo, 0.05) em um teste t sugere evidências de diferença ou efeito.
  • Intervalos de confiança fornecem estimativas pontuais juntamente com uma faixa de valores plausíveis para o parâmetro de interesse.

Essas aplicações demonstram como testes t e intervalos de confiança são ferramentas valiosas para a análise estatística e interpretação de resultados em diversas áreas, desde análise de websites até estudos ambientais.

3.7 Exercícios

Para os exerc;icios, quando necessário gere as amostras utilizando o comando round() e runif().

  • Exercício 01: Comparação de Médias de Alturas Considere duas amostras independentes de alturas de duas populações diferentes, A e B. Formule as hipóteses nula e alternativa para testar se as médias das alturas nas duas populações são iguais. Use um teste t de amostras independentes.

  • Exercício 02: Teste de Desempenho de Duas Equipes Suponha que você tenha dados de desempenho de duas equipes esportivas. Formule as hipóteses nula e alternativa para testar se não há diferença significativa nas médias de desempenho das duas equipes.

  • Exercício 03: Comparação de Médias de Rendimentos Um estudo está sendo realizado para comparar os rendimentos médios de dois grupos de investidores, Grupo X e Grupo Y. Formule as hipóteses nula e alternativa para testar se há uma diferença significativa nos rendimentos médios dos dois grupos.

  • Exercício 04: Avaliação de Programas de Treinamento Uma empresa implementou dois programas de treinamento diferentes para melhorar as habilidades de comunicação de seus funcionários. Formule as hipóteses nula e alternativa para testar se há uma diferença significativa no impacto dos dois programas.

  • Exercício 05: Comparação de Médias de Tempo de Reação Considere dois grupos de indivíduos que passaram por diferentes métodos de treinamento para melhorar o tempo de reação. Formule as hipóteses nula e alternativa para testar se não há diferença significativa nas médias de tempo de reação dos dois grupos.

  • Exercício 06: Avaliação de Tratamento Médico Um estudo clínico foi realizado para avaliar a eficácia de um novo tratamento médico. Considere uma amostra de pacientes antes e depois do tratamento. Formule as hipóteses nula e alternativa para testar se há uma diferença significativa nos resultados antes e depois do tratamento usando um teste t de amostras pareadas.

  • Exercício 07: Desempenho de Estudantes em Duas Avaliações Suponha que você tenha dados de desempenho de estudantes em duas avaliações diferentes. Formule as hipóteses nula e alternativa para testar se há uma diferença significativa nas médias dos resultados das duas avaliações.

  • Exercício 08: Comparação de Desempenho de Funcionários Uma empresa conduziu uma avaliação de desempenho de seus funcionários antes e depois da implementação de um novo sistema de gerenciamento. Formule as hipóteses nula e alternativa para testar se o novo sistema teve um impacto significativo no desempenho dos funcionários.

  • Exercício 09: Efeito de um Treinamento de Vendas Uma empresa de vendas ofereceu um treinamento intensivo a sua equipe de vendas. Formule as hipóteses nula e alternativa para testar se o treinamento resultou em uma diferença significativa nas vendas antes e depois do treinamento.

  • Exercício 10: Comparação de Avaliações de Produtos Considere as avaliações de um produto antes e depois de uma reformulação. Formule as hipóteses nula e alternativa para testar se há uma diferença significativa nas avaliações dos consumidores antes e depois da reformulação.

  • Exercício 11: Intervalo de Confiança para Média de Alturas Suponha que você tenha uma amostra de alturas de uma população. Calcule e interprete um intervalo de confiança de 95% para a média da altura dessa população.

  • Exercício 12: Intervalo de Confiança para Média de Rendimentos Considere uma amostra de rendimentos mensais de uma determinada profissão. Calcule um intervalo de confiança de 90% para a média dos rendimentos e explique o que esse intervalo representa.

  • Exercício 13: Estudo de Tempo de Entrega de Produtos Uma empresa deseja estimar o tempo médio de entrega de seus produtos a partir de uma amostra. Calcule um intervalo de confiança de 99% para a média do tempo de entrega e forneça uma interpretação.

  • Exercício 14: Intervalo de Confiança para Média de Idades Suponha que você tenha dados de idades de uma amostra aleatória de pessoas. Calcule um intervalo de confiança de 98% para a média das idades e discuta como a escolha do nível de confiança influencia a amplitude do intervalo.

  • Exercício 15: Intervalo de Confiança para Média de Teste de Desempenho Em um estudo sobre o desempenho de estudantes em um teste padronizado, calcule um intervalo de confiança de 95% para a média do desempenho e interprete os resultados.

  • Exercício 16: Condições para o Teste t de Amostras Independentes Ao realizar um teste t de amostras independentes para comparar as médias de duas populações, liste as condições e pressuposições necessárias para garantir a validade do teste.

  • Exercício 17: Assunções para o Teste t de Amostras Pareadas Explique as assunções e condições que devem ser atendidas ao realizar um teste t de amostras pareadas para comparar médias antes e depois de uma intervenção ou tratamento.

  • Exercício 18: Verificação de Assunções no R Suponha que você esteja conduzindo um teste t de amostras independentes no R. Descreva os comandos e métodos disponíveis para verificar se as assunções do teste estão sendo atendidas.

  • Exercício 19: Condições para Intervalo de Confiança para Média Ao calcular um intervalo de confiança para a média, identifique as condições que devem ser atendidas para que o intervalo seja válido. Discuta como essas condições podem impactar a interpretação do intervalo.

  • Exercício 20: Teste de Normalidade e Homogeneidade de Variâncias Para um teste t de amostras independentes, explique como verificar as assunções de normalidade e homogeneidade de variâncias. Descreva os métodos e gráficos que podem ser utilizados no R para essa verificação.

  • Exercício 21: Comparação de Salários por Gênero Utilize um conjunto de dados reais sobre salários de uma empresa para realizar um teste t de amostras independentes e determinar se há uma diferença significativa nos salários entre funcionários do sexo masculino e feminino. Interprete os resultados.

  • Exercício 22: Avaliação de Desempenho de Estudantes Analise dados reais de desempenho de estudantes antes e depois da implementação de uma nova abordagem de ensino. Realize um teste t de amostras pareadas para avaliar se houve uma melhoria significativa no desempenho dos estudantes.

  • Exercício 23: Comparação de Médias de Peso em Estudo Clínico Considere dados de um estudo clínico que mediu o peso de pacientes antes e depois de um tratamento específico. Realize um teste t de amostras pareadas para determinar se o tratamento teve um impacto significativo no peso dos pacientes.

  • Exercício 24: Intervalo de Confiança para Média de Alturas Utilize dados reais sobre alturas de uma amostra populacional para calcular um intervalo de confiança para a média da altura. Discuta a precisão do intervalo e sua aplicabilidade.

  • Exercício 25: Teste t de Amostras Independentes para Dados de Vendas Analisando dados reais de vendas de dois grupos de produtos, aplique um teste t de amostras independentes para verificar se há uma diferença significativa nas médias de vendas entre os dois grupos.

  • Exercício 26: Impacto de uma Intervenção na Saúde Considere um estudo que investiga o impacto de uma intervenção na saúde de pacientes. Aplique um teste t de amostras pareadas para comparar os resultados de saúde antes e depois da intervenção. Interprete os resultados em termos práticos e clínicos.

  • Exercício 27: Avaliação de Eficiência de Dois Métodos de Produção Imagine que uma fábrica tenha implementado dois métodos de produção. Utilize um teste t de amostras independentes para avaliar se há uma diferença significativa na eficiência entre os dois métodos. Explique as implicações práticas dessa análise.

  • Exercício 28: Comparação de Desempenho de Vendedores Analise dados de desempenho de vendedores de uma empresa usando um teste t de amostras independentes. Determine se existe uma diferença significativa nas médias de desempenho entre dois grupos de vendedores. Interprete os resultados para a tomada de decisões gerenciais.

  • Exercício 29: Avaliação de Impacto de Treinamento Corporativo Considere dados de desempenho de funcionários antes e depois de um treinamento corporativo. Utilize um teste t de amostras pareadas para avaliar o impacto do treinamento no desempenho. Faça interpretações práticas sobre a eficácia do treinamento.

  • Exercício 30: Análise de Desempenho em Estudo Educacional Analise dados de desempenho de estudantes em dois métodos de ensino. Aplique um teste t de amostras independentes para determinar se há uma diferença significativa nas médias de desempenho entre os métodos. Apresente interpretações relevantes para a educação.

4 Testes Paramétricos II - Análise de Variância (ANOVA)

4.1 ANOVA de um fator

A Análise de Variância (ANOVA) é uma técnica estatística utilizada para comparar as médias de três ou mais grupos independentes. Vamos explorar a ANOVA de um fator, que é adequada quando estamos interessados em comparar as médias de mais de dois grupos distintos.

Fórmula Matemática:

A ANOVA de um fator avalia se há diferença significativa entre as médias dos grupos. A estatística de teste F é calculada como a razão da variabilidade entre os grupos sobre a variabilidade dentro dos grupos. A fórmula é dada por:

\[\begin{equation} F = \frac{\text{Variabilidade Entre Grupos}}{\text{Variabilidade Dentro dos Grupos}} \end{equation}\]

Na ANOVA de um fator, formulamos as hipóteses da seguinte maneira:

  • Hipótese Nula (\(H_0\)): As médias dos grupos são iguais.
  • Hipótese Alternativa (\(H_1\)): Pelo menos uma média é diferente.

Exemplo Prático com R:

Considere três grupos de estudantes, grupo1, grupo2 e grupo3, cada um submetido a um método diferente de aprendizado. Vamos realizar uma ANOVA de um fator para determinar se há diferenças significativas nas médias entre esses grupos.

# Dados simulados para os grupos
set.seed(123)
grupo1 <- rnorm(30, mean = 70, sd = 8)
grupo2 <- rnorm(30, mean = 75, sd = 8)
grupo3 <- rnorm(30, mean = 78, sd = 8)

# Criando um dataframe
dados_anova <- data.frame(
  Grupo = rep(c("Grupo 1", "Grupo 2", "Grupo 3"), each = 30),
  Pontuacao = c(grupo1, grupo2, grupo3)
)

# Visualizando os dados
boxplot(Pontuacao ~ Grupo, data = dados_anova, 
        main = "Pontuações por Grupo",
        ylab = "Pontuação", 
        col = c("lightblue", "lightgreen", "lightpink"))

# Executando a ANOVA de um fator
resultado_anova <- aov(Pontuacao ~ Grupo, data = dados_anova)

# Exibindo os resultados
summary(resultado_anova)
##             Df Sum Sq Mean Sq F value   Pr(>F)    
## Grupo        2   1229   614.5   11.92 2.66e-05 ***
## Residuals   87   4485    51.5                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Explicação:

Neste exemplo, geramos dados simulados para três grupos diferentes (Grupo 1, Grupo 2 e Grupo 3). Utilizamos um boxplot para visualizar as distribuições das pontuações em cada grupo. Em seguida, aplicamos a ANOVA de um fator usando o comando aov no R. A função summary fornece as estatísticas da ANOVA, incluindo a estatística de teste F, o valor-p e outras informações relevantes.

A interpretação dos resultados inclui verificar se há uma diferença significativa nas médias entre os grupos. Se o valor-p resultante for menor que um nível de significância escolhido (por exemplo, 0,05), rejeitamos a hipótese nula, concluindo que há evidências de diferenças nas médias entre os grupos. Se o valor-p for maior, não temos evidências suficientes para rejeitar a hipótese nula, indicando que as médias podem ser consideradas iguais.

4.2 ANOVA de dois fatores

A Análise de Variância (ANOVA) de dois fatores é uma extensão da ANOVA de um fator, permitindo a avaliação da influência de dois fatores independentes simultaneamente sobre uma variável dependente contínua. Esta técnica é útil quando há interesse em investigar o efeito conjunto de duas variáveis categóricas em uma variável contínua.

A ANOVA de dois fatores envolve o cálculo de diferentes componentes de variabilidade, incluindo a variabilidade entre níveis dos dois fatores e a variabilidade dentro desses níveis. A fórmula geral da estatística de teste F é semelhante à ANOVA de um fator, mas agora incorpora os dois fatores e sua interação.

Exemplo Prático com R:

Considere um estudo que investiga o efeito de dois fatores, método e tempo, nas pontuações dos alunos. Vamos realizar uma ANOVA de dois fatores para determinar se existem diferenças significativas nas médias considerando ambos os fatores.

# Dados simulados para a ANOVA de dois fatores
set.seed(789)
dados_anova2 <- data.frame(
  Método = rep(c("A", "B", "C"), each = 20),
  Tempo = rep(c("Pré", "Pós"), each = 30),
  Pontuação = rnorm(60, mean = c(70, 75, 78), sd = 8)
)

# Visualizando os dados
interaction.plot(dados_anova2$Método, 
                 dados_anova2$Tempo, dados_anova2$Pontuação, 
                 type = "b", 
                 col = c("lightblue", "lightgreen", "lightpink"),
                 pch = c(1, 2, 3), 
                 main = "Pontuações por Método e Tempo", 
                 xlab = "Método", ylab = "Pontuação")

# Executando a ANOVA de dois fatores
resultado_anova2 <- aov(Pontuação ~ Método * Tempo, 
                        data = dados_anova2)

# Exibindo os resultados
summary(resultado_anova2)
##             Df Sum Sq Mean Sq F value Pr(>F)  
## Método       2    381  190.74   2.942  0.061 .
## Tempo        1     18   17.90   0.276  0.601  
## Residuals   56   3631   64.83                 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Explicação:

Neste exemplo, geramos dados simulados para a ANOVA de dois fatores considerando os fatores Método e Tempo. Utilizamos um gráfico de interação para visualizar as pontuações em diferentes combinações de métodos e tempos. Em seguida, aplicamos a ANOVA de dois fatores usando o comando aov no R. A função summary fornece as estatísticas relevantes da ANOVA, incluindo a estatística de teste F, o valor-p e outras informações.

A interpretação dos resultados inclui verificar se há efeitos significativos dos fatores Método, Tempo e sua interação nas pontuações dos alunos. Se o valor-p resultante for menor que um nível de significância escolhido (por exemplo, 0,05), rejeitamos a hipótese nula, concluindo que há evidências de efeitos significativos. Se o valor-p for maior, não temos evidências suficientes para rejeitar a hipótese nula, indicando que os fatores podem não ter um efeito significativo nas médias.

4.3 Teste de Tukey para comparações múltiplas

Após realizar uma ANOVA e rejeitar a hipótese nula de que todas as médias são iguais, é comum realizar testes de comparações múltiplas para identificar quais grupos são diferentes entre si. O Teste de Tukey é um desses métodos, adequado para comparações entre todas as combinações possíveis de médias.

O Teste de Tukey compara as médias de todos os grupos, controlando o erro do tipo I para comparações múltiplas. A estatística de teste é calculada como:

\[\begin{equation} q = \frac{\bar{X}_i - \bar{X}_j}{\sqrt{\frac{MSW}{n}}} \end{equation}\]

onde \(\bar{X}_i\) e \(\bar{X}_j\) são as médias dos grupos a serem comparados, \(MSW\) é a média dos quadrados dentro dos grupos e \(n\) é o tamanho da amostra.

Exemplo Prático com R:

Vamos continuar o exemplo anterior da ANOVA de dois fatores e, em seguida, realizar o Teste de Tukey para comparar as médias entre os diferentes métodos e tempos.

# Executando o Teste de Tukey após a ANOVA de dois fatores
resultado_tukey <- TukeyHSD(resultado_anova2)

# Exibindo os resultados
print(resultado_tukey)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Pontuação ~ Método * Tempo, data = dados_anova2)
## 
## $Método
##          diff        lwr       upr     p adj
## B-A 0.3016635 -5.8286208  6.431948 0.9922928
## C-A 5.4933973 -0.6368869 11.623682 0.0876308
## C-B 5.1917339 -0.9385504 11.322018 0.1123445
## 
## $Tempo
##              diff       lwr      upr     p adj
## Pré-Pós 0.6306766 -3.534087 4.795441 0.7627444

Explicação:

Neste exemplo, utilizamos o resultado da ANOVA de dois fatores (resultado_anova2) para realizar o Teste de Tukey usando a função TukeyHSD. O resultado é uma tabela que compara todas as combinações possíveis de médias, fornecendo intervalos de confiança ajustados.

Ao interpretar os resultados do Teste de Tukey, observe quais comparações entre grupos têm intervalos de confiança que não incluem zero. Essas são as comparações em que há evidências de diferenças significativas nas médias. Isso auxilia na identificação específica de quais grupos são estatisticamente diferentes após a ANOVA.

4.4 Assunções e condições para aplicação

Antes de aplicar a Análise de Variância (ANOVA) e o Teste de Tukey, é essencial entender as assunções subjacentes e as condições que devem ser atendidas para garantir a validade dos resultados. Vamos explorar essas assunções e condições importantes.

Assunções da ANOVA:

  1. Normalidade: As pontuações em cada grupo devem ser aproximadamente distribuídas normalmente. A ANOVA é robusta o suficiente para pequenas violações dessa assunção, especialmente com tamanhos de amostra moderados a grandes.

  2. Homogeneidade das Variâncias: As variâncias dos grupos devem ser aproximadamente iguais. Esta é uma assunção crítica para a ANOVA.

  3. Independência: As observações em um grupo devem ser independentes das observações em outros grupos.

Condições para Aplicação do Teste de Tukey:

  1. Homogeneidade das Variâncias: O Teste de Tukey assume homogeneidade das variâncias, o que deve ser verificado após a realização da ANOVA.

  2. Independência: Como na ANOVA, as observações devem ser independentes.

Exemplo Prático com R:

4.5 Exemplos práticos com dados reais

A aplicação prática de ANOVA e Teste de Tukey com dados reais é crucial para entender como essas técnicas podem ser utilizadas em situações do mundo real. Vamos utilizar um conjunto de dados real para demonstrar o processo.

Exemplo Prático com R:

Neste exemplo, utilizaremos o conjunto de dados mtcars incorporado no R, que contém informações sobre vários modelos de carros.

# Carregando o conjunto de dados mtcars
data(mtcars)

# Visualizando as primeiras linhas do conjunto de dados
head(mtcars)
##                    mpg cyl disp  hp drat    wt  qsec vs am gear carb
## Mazda RX4         21.0   6  160 110 3.90 2.620 16.46  0  1    4    4
## Mazda RX4 Wag     21.0   6  160 110 3.90 2.875 17.02  0  1    4    4
## Datsun 710        22.8   4  108  93 3.85 2.320 18.61  1  1    4    1
## Hornet 4 Drive    21.4   6  258 110 3.08 3.215 19.44  1  0    3    1
## Hornet Sportabout 18.7   8  360 175 3.15 3.440 17.02  0  0    3    2
## Valiant           18.1   6  225 105 2.76 3.460 20.22  1  0    3    1
# Realizando uma ANOVA para comparar as médias de consumo de
#combustível (mpg) 
# entre diferentes números de cilindros (cyl)
resultado_anova_real <- aov(mpg ~ as.factor(cyl), data = mtcars)

# Exibindo os resultados da ANOVA
summary(resultado_anova_real)
##                Df Sum Sq Mean Sq F value   Pr(>F)    
## as.factor(cyl)  2  824.8   412.4    39.7 4.98e-09 ***
## Residuals      29  301.3    10.4                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
# Aplicando o Teste de Tukey para comparações múltiplas
resultado_tukey_real <- TukeyHSD(resultado_anova_real)

# Exibindo os resultados do Teste de Tukey
print(resultado_tukey_real)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = mpg ~ as.factor(cyl), data = mtcars)
## 
## $`as.factor(cyl)`
##           diff        lwr        upr     p adj
## 6-4  -6.920779 -10.769350 -3.0722086 0.0003424
## 8-4 -11.563636 -14.770779 -8.3564942 0.0000000
## 8-6  -4.642857  -8.327583 -0.9581313 0.0112287

Explicação:

Neste exemplo, utilizamos o conjunto de dados mtcars. A variável de interesse é o consumo de combustível (mpg), e estamos interessados em verificar se há diferenças significativas nas médias entre diferentes números de cilindros (cyl). Realizamos uma ANOVA para testar essa hipótese e, em seguida, aplicamos o Teste de Tukey para identificar quais grupos diferem entre si.

Ao interpretar os resultados da ANOVA, observamos o valor-p associado ao fator cyl. Se este valor-p for menor que um nível de significância escolhido (por exemplo, 0,05), rejeitamos a hipótese nula de que as médias são iguais, indicando que há diferenças significativas. O Teste de Tukey, em seguida, fornece informações mais detalhadas sobre quais grupos específicos têm médias significativamente diferentes.

4.6 Discussão sobre experimentos controlados

A ANOVA é frequentemente aplicada em experimentos controlados, onde os pesquisadores têm controle sobre as variáveis independentes. Vamos discutir a importância desses experimentos e como a ANOVA é uma ferramenta valiosa para analisar a variação nos resultados.

Discussão:

  1. Controle de Variáveis: Em experimentos controlados, os pesquisadores têm a capacidade de manipular e controlar variáveis independentes. Isso ajuda a isolar os efeitos específicos que desejam estudar.

  2. Validade Interna: Experimentos controlados geralmente possuem alta validade interna, o que significa que é possível estabelecer relações causais entre as variáveis independentes e dependentes. Isso fortalece as inferências que podem ser feitas a partir dos resultados.

  3. Mínima Variação Não Controlada: O controle cuidadoso das condições experimentais reduz a variação não controlada nos dados. Isso é crucial para análises estatísticas como a ANOVA, que pressupõe a homogeneidade das variâncias.

  4. Reprodutibilidade: A capacidade de reproduzir as condições experimentais é uma característica importante. Experimentos controlados permitem que outros pesquisadores reproduzam e verifiquem os resultados, contribuindo para a robustez das descobertas.

  5. Design Experimental: A ANOVA é flexível o suficiente para lidar com diversos designs experimentais, como fatorial, de blocos completos ou aleatorizados. Isso permite adaptar a análise de acordo com a estrutura do experimento.

Exemplo Prático com R:

Vamos considerar um exemplo em que diferentes fertilizantes foram aplicados a diferentes tipos de solo para avaliar o impacto na produção de culturas. Este é um experimento controlado onde os tipos de solo e os fertilizantes são manipulados.

# Simulação de dados para um experimento controlado
set.seed(123)
dados_experimento <- data.frame(
  TipoSolo = rep(c("A", "B", "C"), each = 30),
  Fertilizante = rep(c("X", "Y"), each = 45),
  Producao = rnorm(90, mean = c(80, 85, 88), sd = 8)
)

# Visualizando os dados
boxplot(Producao ~ TipoSolo * Fertilizante, data = dados_experimento, 
        main = "Produção por Tipo de Solo e Fertilizante", 
        ylab = "Produção", 
        col = c("lightblue", "lightgreen", "lightpink"))

# Aplicando a ANOVA de dois fatores
resultado_anova_experimento <- 
  aov(Producao ~ TipoSolo * Fertilizante, 
      data = dados_experimento)

# Exibindo os resultados da ANOVA
summary(resultado_anova_experimento)
##              Df Sum Sq Mean Sq F value Pr(>F)
## TipoSolo      2     51   25.48   0.432  0.651
## Fertilizante  1     26   26.26   0.445  0.507
## Residuals    86   5075   59.02

Explicação:

Neste exemplo, simulamos dados de um experimento controlado com diferentes tipos de solo (TipoSolo) e diferentes fertilizantes (Fertilizante). A ANOVA de dois fatores é aplicada para analisar a influência desses fatores na produção de culturas.

A interpretação dos resultados da ANOVA neste contexto experimental ajudaria a entender se existem diferenças significativas na produção de culturas devido aos diferentes tipos de solo, fertilizantes ou à interação entre eles. A discussão se estenderia para como essas descobertas podem ser aplicadas na prática agrícola e na otimização do rendimento das culturas.

4.7 Exercícios

Baixe o dataSet ‘experimentos_anova.xlsx’ no seu ambiente virtual de aprendizagem - AVA e faça o teste de Anova de um e dois fatores para os dados presentes.

5 Testes não Paramétricos I - Teste de Mann-Whitney e Wilcoxon

5.1 Teste de Mann-Whitney (U)

O Teste de Mann-Whitney é uma ferramenta estatística não paramétrica utilizada para comparar as distribuições de duas amostras independentes. Este teste é particularmente útil quando as condições necessárias para a aplicação de testes paramétricos não são atendidas, como a normalidade das distribuições. Suponhamos que estamos interessados em comparar as pontuações de desempenho de dois grupos de alunos que foram submetidos a diferentes métodos de estudo, e nossos dados não seguem uma distribuição normal.

A estatística de teste \(U\) no Teste de Mann-Whitney é calculada usando a seguinte fórmula:

\[\begin{equation} U = R_1 - \frac{n_1 \cdot (n_1 + 1)}{2} \end{equation}\]

onde \(R_1\) é a soma das classificações do primeiro grupo, \(n_1\) é o tamanho do primeiro grupo.

Exemplo Prático com R:

Considere dois grupos de estudantes, Grupo A e Grupo B, que foram submetidos a diferentes métodos de preparação para um exame. Vamos gerar dados simulados e realizar o Teste de Mann-Whitney para determinar se há uma diferença significativa nas pontuações de desempenho entre esses dois grupos.

# Gerando dados simulados
set.seed(123)
grupo_a <- c(78, 80, 85, 88, 92, 95, 97)
grupo_b <- c(70, 72, 75, 78, 82, 84, 88)

# Criando um dataframe
dados_mannwhitney <- data.frame(
  Grupo = rep(c("A", "B"), each = 7),
  Pontuacao = c(grupo_a, grupo_b)
)

# Visualizando os dados
boxplot(Pontuacao ~ Grupo, data = dados_mannwhitney, 
        main = "Pontuações por Grupo",
        ylab = "Pontuação", 
        col = c("lightblue", "lightgreen"))

# Executando o Teste de Mann-Whitney
resultado_mannwhitney <- wilcox.test(Pontuacao ~ Grupo, 
                                     data = dados_mannwhitney)
## Warning in wilcox.test.default(x = DATA[[1L]], y = DATA[[2L]], ...): cannot
## compute exact p-value with ties
# Exibindo os resultados
print(resultado_mannwhitney)
## 
##  Wilcoxon rank sum test with continuity correction
## 
## data:  Pontuacao by Grupo
## W = 41, p-value = 0.04047
## alternative hypothesis: true location shift is not equal to 0

Explicação:

No exemplo acima, geramos dados simulados para os grupos A e B e os visualizamos através de um boxplot. Em seguida, aplicamos o Teste de Mann-Whitney utilizando o comando wilcox.test no R. Este teste estatístico nos fornecerá a estatística de teste \(U\) e o valor-p associado. No contexto deste exemplo, o teste nos ajudará a determinar se há uma diferença significativa nas pontuações entre os grupos A e B, sem a necessidade de assumir a normalidade das distribuições. Este é um método robusto e útil quando os pressupostos paramétricos não podem ser atendidos.

5.2 Teste de Wilcoxon assinado (S)

O Teste de Wilcoxon assinado é uma ferramenta estatística não paramétrica utilizada para comparar as distribuições de duas amostras pareadas, ou seja, amostras em que as observações estão relacionadas. Suponhamos que estamos interessados em avaliar se há uma diferença significativa entre as pontuações de desempenho de um mesmo grupo de estudantes antes e depois de receberem um determinado treinamento. O Teste de Wilcoxon assinado é apropriado quando as diferenças entre as observações não seguem uma distribuição normal.

A estatística de teste \(S\) no Teste de Wilcoxon assinado é calculada somando os postos dos valores absolutos das diferenças entre as observações pareadas. A fórmula é dada por:

\[\begin{equation} S = \sum_{i=1}^{n} \text{sign}(D_i) \times R_i \end{equation}\]

onde \(D_i\) é a diferença entre as observações pareadas e \(R_i\) é o posto dessa diferença.

Exemplo Prático com R:

Considere um conjunto fictício de dados representando as pontuações de desempenho de um grupo de estudantes antes e depois de um treinamento. Vamos realizar o Teste de Wilcoxon assinado para determinar se houve uma mudança significativa nas pontuações.

# Gerando dados simulados
set.seed(456)
antes <- c(65, 70, 72, 75, 80, 82, 85)
depois <- c(75, 78, 80, 82, 85, 88, 90)

# Criando um dataframe
dados_wilcoxon <- data.frame(
  Aluno = 1:7,
  Pontuacao_Antes = antes,
  Pontuacao_Depois = depois
)

# Visualizando os dados
barplot(rbind(dados_wilcoxon$Pontuacao_Antes,
              dados_wilcoxon$Pontuacao_Depois),
        beside = TRUE, col = c("lightblue", "lightgreen"), 
        legend.text = TRUE, names.arg = dados_wilcoxon$Aluno)

# Executando o Teste de Wilcoxon assinado
resultado_wilcoxon <- wilcox.test(dados_wilcoxon$Pontuacao_Antes,
                                  dados_wilcoxon$Pontuacao_Depois, paired = TRUE)
## Warning in wilcox.test.default(dados_wilcoxon$Pontuacao_Antes,
## dados_wilcoxon$Pontuacao_Depois, : cannot compute exact p-value with ties
# Exibindo os resultados
print(resultado_wilcoxon)
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  dados_wilcoxon$Pontuacao_Antes and dados_wilcoxon$Pontuacao_Depois
## V = 0, p-value = 0.02201
## alternative hypothesis: true location shift is not equal to 0

Explicação:

No exemplo acima, geramos dados simulados para as pontuações antes e depois do treinamento. Utilizamos um gráfico de barras para visualizar as mudanças nas pontuações de cada aluno. Em seguida, aplicamos o Teste de Wilcoxon assinado utilizando o comando wilcox.test no R, com o parâmetro paired = TRUE indicando que se trata de um teste para amostras pareadas. O resultado do teste nos fornecerá a estatística de teste \(S\) e o valor-p associado. Isso nos ajudará a determinar se há uma diferença significativa nas pontuações antes e depois do treinamento. O Teste de Wilcoxon assinado é uma ferramenta valiosa em situações onde a normalidade das diferenças não pode ser assumida.

5.3 Comparação com testes t paramétricos

Ao realizar análises estatísticas, muitas vezes nos deparamos com a escolha entre testes paramétricos e não paramétricos. No contexto específico de comparar amostras pareadas ou independentes, surge a questão de quando utilizar testes t paramétricos em comparação com testes não paramétricos, como o Teste de Wilcoxon assinado que discutimos anteriormente. Vamos considerar a situação em que desejamos comparar as médias de duas amostras pareadas ou independentes.

O Teste t paramétrico é amplamente utilizado para comparar as médias de duas amostras. No entanto, ele assume que as amostras são normalmente distribuídas, o que nem sempre é o caso na prática. Em contrapartida, o Teste de Wilcoxon assinado não requer a suposição de normalidade, tornando-se uma alternativa robusta quando essa suposição não é atendida.

Exemplo Prático com R:

Vamos considerar novamente o exemplo em que temos as pontuações de desempenho de um grupo de estudantes antes e depois de um treinamento. Vamos comparar as médias usando o Teste t pareado e o Teste de Wilcoxon assinado.

# Executando o Teste t pareado
resultado_t_test <- t.test(dados_wilcoxon$Pontuacao_Antes,
                           dados_wilcoxon$Pontuacao_Depois, 
                           paired = TRUE)

# Executando o Teste de Wilcoxon assinado
resultado_wilcoxon <- wilcox.test(dados_wilcoxon$Pontuacao_Antes,
                                  dados_wilcoxon$Pontuacao_Depois,
                                  paired = TRUE)
## Warning in wilcox.test.default(dados_wilcoxon$Pontuacao_Antes,
## dados_wilcoxon$Pontuacao_Depois, : cannot compute exact p-value with ties
# Exibindo os resultados
print(resultado_t_test)
## 
##  Paired t-test
## 
## data:  dados_wilcoxon$Pontuacao_Antes and dados_wilcoxon$Pontuacao_Depois
## t = -10.144, df = 6, p-value = 5.338e-05
## alternative hypothesis: true mean difference is not equal to 0
## 95 percent confidence interval:
##  -8.68853 -5.31147
## sample estimates:
## mean difference 
##              -7
print(resultado_wilcoxon)
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  dados_wilcoxon$Pontuacao_Antes and dados_wilcoxon$Pontuacao_Depois
## V = 0, p-value = 0.02201
## alternative hypothesis: true location shift is not equal to 0

Explicação:

Neste exemplo, utilizamos o Teste t pareado (função t.test) e o Teste de Wilcoxon assinado (função wilcox.test) para comparar as médias das pontuações antes e depois do treinamento. O resultado de ambos os testes será apresentado, permitindo uma comparação direta entre os métodos.

Ao interpretar os resultados, observe se as conclusões são consistentes entre os dois testes. Se as amostras atenderem aos pressupostos do teste t paramétrico, como normalidade, e não houver evidências de violação desses pressupostos, o teste t pode ser uma escolha apropriada. No entanto, se a normalidade for uma preocupação ou se houver evidências de violação dos pressupostos, o Teste de Wilcoxon assinado pode ser uma alternativa mais robusta. A escolha entre os métodos dependerá das características específicas dos dados e da validade dos pressupostos assumidos.

5.4 Aplicações e interpretações

Os testes não paramétricos, incluindo o Teste de Mann-Whitney, Wilcoxon e outros, desempenham um papel importante na análise estatística quando os pressupostos dos testes paramétricos não são atendidos. Vamos explorar algumas aplicações comuns desses testes e como interpretar os resultados em contextos específicos.

Suponha que estamos interessados em comparar as pontuações de desempenho de dois grupos de estudantes que foram submetidos a diferentes métodos de ensino. O Teste de Mann-Whitney seria apropriado para essa comparação quando a normalidade das pontuações não pode ser assumida.

# Gerando dados simulados para os grupos
set.seed(123)
pontuacoes_grupo1 <- round(runif(30, 70, 80))
pontuacoes_grupo2 <- round(runif(35, 75, 85))

# Executando o Teste de Mann-Whitney
resultado_mannwhitney <- wilcox.test(pontuacoes_grupo1, 
                                     pontuacoes_grupo2)
## Warning in wilcox.test.default(pontuacoes_grupo1, pontuacoes_grupo2): cannot
## compute exact p-value with ties
# Exibindo os resultados
print(resultado_mannwhitney)
## 
##  Wilcoxon rank sum test with continuity correction
## 
## data:  pontuacoes_grupo1 and pontuacoes_grupo2
## W = 229.5, p-value = 9.395e-05
## alternative hypothesis: true location shift is not equal to 0

Interpretação: Se o valor-p resultante for significativo, podemos rejeitar a hipótese nula, concluindo que há uma diferença significativa nas pontuações médias dos dois grupos. A estatística de teste U e a direção da diferença podem fornecer insights adicionais.

Vamos considerar novamente o exemplo em que temos as pontuações de desempenho de um mesmo grupo de estudantes antes e depois de um treinamento.

# Gerando dados simulados para as pontuações antes e depois
set.seed(456)
pontuacoes_antes <- c(65, 70, 72, 75, 80, 82, 85)
pontuacoes_depois <- c(75, 78, 80, 82, 85, 88, 90)

# Executando o Teste de Wilcoxon assinado
resultado_wilcoxon <- wilcox.test(pontuacoes_antes,
                                  pontuacoes_depois, 
                                  paired = TRUE)
## Warning in wilcox.test.default(pontuacoes_antes, pontuacoes_depois, paired =
## TRUE): cannot compute exact p-value with ties
# Exibindo os resultados
print(resultado_wilcoxon)
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  pontuacoes_antes and pontuacoes_depois
## V = 0, p-value = 0.02201
## alternative hypothesis: true location shift is not equal to 0

Interpretação: Se o valor-p for significativo, podemos concluir que há uma diferença significativa nas pontuações médias antes e depois do treinamento. A estatística de teste W e a direção da diferença podem ser utilizadas para uma interpretação mais detalhada.

Considerações Importantes:

  1. Mediana como Estatística Descritiva: Em testes não paramétricos, a mediana é frequentemente utilizada como medida descritiva central em vez da média, devido à sua robustez a outliers.

  2. Interpretação Contextual: Ao interpretar os resultados, é essencial considerar o contexto específico do estudo e as implicações práticas das descobertas.

Os testes não paramétricos são ferramentas valiosas em situações onde os pressupostos dos testes paramétricos não são atendidos. A escolha entre diferentes testes dependerá das características dos dados e das perguntas de pesquisa específicas. A interpretação dos resultados deve ser cuidadosa e contextual, levando em consideração as nuances do problema em questão.

5.5 Exercícios práticos

A melhor maneira de solidificar o entendimento dos testes não paramétricos é por meio da prática. Abaixo estão alguns exercícios práticos que envolvem a aplicação de Teste de Mann-Whitney, Wilcoxon Assinado e comparação entre testes não paramétricos e t paramétricos.

Exercício 1: Teste de Mann-Whitney para Grupos Independentes

Considere dois grupos de amostras, amostra_A e amostra_B. Execute o Teste de Mann-Whitney para determinar se há uma diferença significativa entre as duas amostras.

# Dados simulados para os grupos
set.seed(789)
amostra_A <- rnorm(25, mean = 70, sd = 8)
amostra_B <- rnorm(30, mean = 75, sd = 8)

# Executando o Teste de Mann-Whitney
resultado_mannwhitney <- wilcox.test(amostra_A, amostra_B)

# Exibindo os resultados
print(resultado_mannwhitney)
## 
##  Wilcoxon rank sum exact test
## 
## data:  amostra_A and amostra_B
## W = 161, p-value = 0.0001946
## alternative hypothesis: true location shift is not equal to 0

Exercício 2: Teste de Wilcoxon Assinado para Amostras Pareadas

Considere um conjunto de dados que representa medidas antes e depois de uma intervenção. Execute o Teste de Wilcoxon Assinado para verificar se há uma diferença significativa antes e depois da intervenção.

# Dados simulados para antes e depois
set.seed(456)
antes <- c(65, 70, 72, 75, 80, 82, 85)
depois <- c(75, 78, 80, 82, 85, 88, 90)

# Executando o Teste de Wilcoxon Assinado
resultado_wilcoxon <- wilcox.test(antes, depois, paired = TRUE)
## Warning in wilcox.test.default(antes, depois, paired = TRUE): cannot compute
## exact p-value with ties
# Exibindo os resultados
print(resultado_wilcoxon)
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  antes and depois
## V = 0, p-value = 0.02201
## alternative hypothesis: true location shift is not equal to 0

Exercício 3: Comparação entre Teste t Paramétrico e Teste de Mann-Whitney

Usando os dados do Exercício 1, compare os resultados do Teste t paramétrico para grupos independentes e o Teste de Mann-Whitney. Considere os pressupostos e interprete os resultados.

# Executando o Teste t para grupos independentes
resultado_t_test <- t.test(amostra_A, amostra_B)

# Exibindo os resultados
print(resultado_t_test)
## 
##  Welch Two Sample t-test
## 
## data:  amostra_A and amostra_B
## t = -3.8896, df = 52.07, p-value = 0.0002864
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -11.233778  -3.587623
## sample estimates:
## mean of x mean of y 
##  67.39566  74.80636
# Comparando com o Teste de Mann-Whitney
print(resultado_mannwhitney)
## 
##  Wilcoxon rank sum exact test
## 
## data:  amostra_A and amostra_B
## W = 161, p-value = 0.0001946
## alternative hypothesis: true location shift is not equal to 0

Explicação:

Estes exercícios visam proporcionar prática na aplicação dos testes não paramétricos em situações comuns. O primeiro exercício envolve a comparação de grupos independentes, o segundo examina mudanças ao longo do tempo, e o terceiro destaca a comparação entre testes paramétricos e não paramétricos. Ao realizar esses exercícios, os alunos poderão consolidar o conhecimento prático dessas técnicas estatísticas.

5.6 Exercício

Baixe o dataSet ‘Assemble time.xlsx’ no seu ambiente virtual de aprendizagem - AVA e faça o teste de Wilcoxon para os dados presentes.

6 Testes não Paramétricos II - Teste de Kruskal-Wallis e Teste de Friedman

6.1 Teste de Kruskal-Wallis

O Teste de Kruskal-Wallis é uma alternativa não paramétrica à ANOVA quando os dados não atendem às pressuposições necessárias. Este teste é utilizado quando se deseja comparar as medianas de três ou mais grupos independentes.

O teste é baseado na soma das classificações médias dos grupos e é calculado pela seguinte fórmula:

\[\begin{equation} H = \frac{12}{N(N+1)} \sum \frac{T_i^2}{n_i} - 3(N+1) \end{equation}\]

onde \(H\) é a estatística de teste, \(N\) é o número total de observações, \(T_i\) é a soma das classificações para o grupo \(i\) e \(n_i\) é o tamanho do grupo \(i\).

Exemplo Prático com R:

Vamos considerar um exemplo com três grupos de estudantes submetidos a diferentes métodos de estudo. O objetivo é verificar se há diferenças significativas nas notas finais entre esses grupos.

# Simulação de dados para o Teste de Kruskal-Wallis
set.seed(456)
grupo1 <- rnorm(30, mean = 70, sd = 8)
grupo2 <- rnorm(30, mean = 75, sd = 8)
grupo3 <- rnorm(30, mean = 78, sd = 8)

# Criando um dataframe
dados_kruskal <- data.frame(
  Grupo = rep(c("Grupo 1", "Grupo 2", "Grupo 3"), each = 30),
  Notas = c(grupo1, grupo2, grupo3)
)

# Visualizando os dados
boxplot(Notas ~ Grupo, data = dados_kruskal, 
        main = "Notas por Grupo", 
        ylab = "Notas", 
        col = c("lightblue", "lightgreen", "lightpink"))

# Executando o Teste de Kruskal-Wallis
resultado_kruskal <- kruskal.test(Notas ~ Grupo, 
                                  data = dados_kruskal)

# Exibindo os resultados
print(resultado_kruskal)
## 
##  Kruskal-Wallis rank sum test
## 
## data:  Notas by Grupo
## Kruskal-Wallis chi-squared = 4.8003, df = 2, p-value = 0.0907

Explicação:

Neste exemplo, utilizamos dados simulados para três grupos diferentes (Grupo 1, Grupo 2 e Grupo 3). Aplicamos o Teste de Kruskal-Wallis usando a função kruskal.test no R.

Ao interpretar o resultado do Teste de Kruskal-Wallis, observamos o valor-p associado. Se este valor-p for menor que um nível de significância escolhido (por exemplo, 0,05), rejeitamos a hipótese nula, concluindo que há evidências de diferenças nas medianas entre os grupos. Se o valor-p for maior, não temos evidências suficientes para rejeitar a hipótese nula, indicando que as medianas podem ser consideradas iguais.

6.2 Comparação com ANOVA

A escolha entre o Teste de Kruskal-Wallis e a ANOVA depende das características dos dados e das suposições necessárias para cada teste. Vamos explorar as diferenças entre esses dois testes estatísticos.

Diferenças Principais:

  1. Pressuposições:
    • ANOVA: Assume normalidade e homogeneidade das variâncias. Menos robusto em relação a violações dessas pressuposições.
    • Kruskal-Wallis: Não assume normalidade ou homogeneidade das variâncias. Mais robusto para dados não normais.
  2. Tipo de Dados:
    • ANOVA: Adequado para dados contínuos normalmente distribuídos.
    • Kruskal-Wallis: Adequado para dados ordinais ou contínuos que não seguem uma distribuição normal.
  3. Estatística de Teste:
    • ANOVA: Baseia-se nas médias e na variação entre os grupos.
    • Kruskal-Wallis: Baseia-se nas classificações médias e na variação dentro dos grupos.
  4. Interpretação dos Resultados:
    • ANOVA: Testa se há diferenças significativas nas médias dos grupos.
    • Kruskal-Wallis: Testa se há diferenças significativas nas medianas dos grupos.

Exemplo Prático com R:

Vamos continuar com o exemplo anterior, mas agora aplicaremos também um teste de ANOVA para comparação.

# Executando o Teste de ANOVA para comparação
resultado_anova_comp <- aov(Notas ~ Grupo, data = dados_kruskal)

# Exibindo os resultados do Teste de ANOVA
summary(resultado_anova_comp)
##             Df Sum Sq Mean Sq F value Pr(>F)  
## Grupo        2    500  249.80   3.735 0.0278 *
## Residuals   87   5819   66.89                 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Explicação:

Neste exemplo, aplicamos um teste de ANOVA ao mesmo conjunto de dados utilizado para o Teste de Kruskal-Wallis. Ambos os testes serão comparados para ilustrar a diferença nos resultados.

Ao comparar os resultados do Teste de Kruskal-Wallis e do Teste de ANOVA, podemos observar como a escolha do teste pode impactar a conclusão sobre a presença de diferenças significativas entre os grupos. Se ambos os testes apontarem para diferenças, isso fortalece a evidência em favor dessas diferenças. Se houver discrepâncias, deve-se considerar a natureza dos dados e as pressuposições de cada teste.

6.3 Teste de Friedman para dados pareados

O Teste de Friedman é uma extensão do Teste de Kruskal-Wallis aplicado a dados pareados ou repetidos. Este teste não paramétrico é utilizado quando se deseja comparar as medianas de três ou mais grupos relacionados. Ele é uma alternativa ao Teste de ANOVA para medidas repetidas quando os dados não atendem às pressuposições necessárias.

A estatística de teste \(\chi^2\) para o Teste de Friedman é calculada pela seguinte fórmula:

\[\begin{equation} \chi^2 = \frac{12}{nk(n+1)} \sum R_i^2 - 3n(n+1) \end{equation}\]

onde \(n\) é o número de repetições (observações pareadas) e \(k\) é o número de grupos.

Exemplo Prático com R:

Vamos criar um exemplo para o Teste de Friedman. Suponhamos que temos três tratamentos diferentes aplicados a um mesmo grupo de indivíduos, e queremos verificar se há diferenças nas medições feitas em cada tratamento.

# Simulação de dados para o Teste de Friedman
set.seed(789)
tratamento1 <- c(20, 25, 30)
tratamento2 <- c(18, 22, 28)
tratamento3 <- c(23, 26, 32)

# Criando um dataframe
dados_friedman <- data.frame(
  Tratamento = rep(c("Tratamento1", "Tratamento2", "Tratamento3"),
                   each = 3),
  Medidas = c(tratamento1, tratamento2, tratamento3),
  Individuo = rep(1:3, times = 3)
)

# Visualizando os dados
boxplot(Medidas ~ Tratamento, data = dados_friedman, 
        main = "Efeito de Tratamentos em Medidas", ylab = "Medidas", 
        col = c("lightblue", "lightgreen", "lightpink"))

# Executando o Teste de Friedman
resultado_friedman <- friedman.test(Medidas ~ Tratamento | Individuo, 
                                    data = dados_friedman)

# Exibindo os resultados
print(resultado_friedman)
## 
##  Friedman rank sum test
## 
## data:  Medidas and Tratamento and Individuo
## Friedman chi-squared = 6, df = 2, p-value = 0.04979

Explicação:

Neste exemplo, utilizamos três tratamentos diferentes (Tratamento1, Tratamento2, Tratamento3) aplicados a três indivíduos (Indivíduo 1, Indivíduo 2, Indivíduo 3), e medimos os resultados obtidos. O Teste de Friedman é aplicado para verificar se há diferenças nas medianas entre os tratamentos.

A interpretação do resultado do Teste de Friedman envolve a análise do valor-p associado. Se este valor-p for menor que um nível de significância escolhido (por exemplo, 0,05), rejeitamos a hipótese nula, indicando que há evidências de diferenças nas medianas entre os testes. Se o valor-p for maior, não temos evidências suficientes para rejeitar a hipótese nula, sugerindo que as medianas podem ser consideradas iguais. Este teste é útil quando as condições para a ANOVA de medidas repetidas não são atendidas.

6.4 Aplicações e interpretações

Os testes não paramétricos desempenham um papel fundamental na análise estatística quando as suposições dos testes paramétricos não são atendidas. Vamos explorar algumas aplicações comuns e como interpretar os resultados desses testes.

Aplicações:

  1. Teste de Kruskal-Wallis:
    • Aplicado quando há três ou mais grupos independentes e se deseja comparar medianas.
  2. Comparação com ANOVA:
    • Utilizado para confirmar ou contrastar resultados obtidos com o Teste de Kruskal-Wallis. A escolha entre eles depende das características dos dados.
  3. Teste de Friedman:
    • Aplicado em dados pareados ou repetidos, quando se deseja comparar medianas de três ou mais grupos relacionados.
  4. Comparação com ANOVA para Medidas Repetidas:
    • Similar à comparação entre Kruskal-Wallis e ANOVA, o Teste de Friedman é comparado com o Teste de ANOVA para medidas repetidas.

Exemplo Prático com R:

Vamos considerar um cenário em que temos dados de três métodos de treinamento utilizados para melhorar o desempenho de atletas em uma competição. Vamos simular esses dados e aplicar os testes não paramétricos.

# Simulação de dados para aplicações dos testes não paramétricos
set.seed(987)
metodo1 <- c(18, 22, 25)
metodo2 <- c(20, 24, 28)
metodo3 <- c(23, 26, 30)

# Criando um dataframe
dados_aplicacoes <- data.frame(
  Metodo = rep(c("Metodo1", "Metodo2", "Metodo3"), each = 3),
  Desempenho = c(metodo1, metodo2, metodo3),
  Atleta = rep(1:3, times = 3)
)

# Visualizando os dados
boxplot(Desempenho ~ Metodo, data = dados_aplicacoes, 
        main = "Desempenho de Atletas com Diferentes Métodos", 
        ylab = "Desempenho", 
        col = c("lightblue", "lightgreen", "lightpink"))

# Executando o Teste de Kruskal-Wallis
resultado_kruskal_aplicacoes <- 
  kruskal.test(Desempenho ~ Metodo,                                              data = dados_aplicacoes)

# Executando o Teste de Friedman
resultado_friedman_aplicacoes <- 
  friedman.test(Desempenho ~ Metodo | Atleta,                                                data = dados_aplicacoes)

# Exibindo os resultados
print(resultado_kruskal_aplicacoes)
## 
##  Kruskal-Wallis rank sum test
## 
## data:  Desempenho by Metodo
## Kruskal-Wallis chi-squared = 2.2222, df = 2, p-value = 0.3292
print(resultado_friedman_aplicacoes)
## 
##  Friedman rank sum test
## 
## data:  Desempenho and Metodo and Atleta
## Friedman chi-squared = 6, df = 2, p-value = 0.04979

Interpretação:

Ao realizar o Teste de Kruskal-Wallis, analisamos se há diferenças significativas nas medianas do desempenho entre os métodos de treinamento. O Teste de Friedman é aplicado quando consideramos que os mesmos atletas foram submetidos aos diferentes métodos, verificando se há diferenças nas medianas considerando a relação pareada dos dados.

Quando os resultados do Teste de Friedman e do Teste de Kruskal-Wallis são diferentes, é importante entender as razões por trás dessas discrepâncias. Aqui estão algumas considerações e interpretações possíveis:

  1. Diferenças nas Suposições:
    • O Teste de Friedman é apropriado para dados pareados ou repetidos, enquanto o Teste de Kruskal-Wallis é aplicado a grupos independentes. Se os dados têm uma estrutura pareada, o Teste de Friedman pode ser mais apropriado.
  2. Natureza dos Dados:
    • Considere a natureza dos seus dados. Se você está trabalhando com observações independentes, o Teste de Kruskal-Wallis pode ser mais apropriado. Se os dados são pareados ou repetidos, o Teste de Friedman é mais adequado.
  3. Verificação dos Dados:
    • Revise os dados para garantir que foram inseridos corretamente no contexto do teste escolhido. Certifique-se de que a formulação da hipótese nula e alternativa está em conformidade com a estrutura dos dados.
  4. Decisão Contextual:
    • Às vezes, a escolha entre o Teste de Kruskal-Wallis e o Teste de Friedman pode depender do contexto específico do seu estudo. Considere fatores práticos, como o design experimental, a coleta de dados e os objetivos do estudo.

Se, após uma revisão cuidadosa, a discrepância persistir e ambos os testes forem justificados em seu contexto, é possível relatar ambos os resultados, fornecendo uma discussão mais completa da análise estatística realizada. Entender a natureza dos dados e as suposições subjacentes a cada teste é crucial para tomar a decisão correta.

6.5 Exemplos práticos com dados reais

A aplicação de testes não paramétricos com dados reais fornece uma visão prática de como essas análises estatísticas podem ser úteis em situações do mundo real. Vamos explorar dois exemplos: um usando o Teste de Kruskal-Wallis e outro utilizando o Teste de Friedman.

6.5.1 Exemplo 1: Teste de Kruskal-Wallis

Cenário: Um pesquisador está interessado em avaliar se três diferentes métodos de tratamento apresentam diferenças significativas nos tempos de recuperação de pacientes após uma cirurgia. Os dados são coletados de três grupos independentes de pacientes.

Dados:

# Simulação de dados reais para o Teste de Kruskal-Wallis
set.seed(123)
grupo1 <- c(18, 20, 22, 25, 23)
grupo2 <- c(15, 19, 21, 24, 20)
grupo3 <- c(17, 22, 23, 26, 21)

# Criando um dataframe
dados_kruskal_real <- data.frame(
  Metodo = rep(c("Metodo1", "Metodo2", "Metodo3"), each = 5),
  TempoRecuperacao = c(grupo1, grupo2, grupo3)
)

# Visualizando os dados
boxplot(TempoRecuperacao ~ Metodo, data = dados_kruskal_real, 
        main = "Tempos de Recuperação com Diferentes Métodos", 
        ylab = "Tempo de Recuperação", 
        col = c("lightblue", "lightgreen", "lightpink"))

Análise Estatística:

# Executando o Teste de Kruskal-Wallis
resultado_kruskal_real <- kruskal.test(TempoRecuperacao ~ Metodo, 
                                       data = dados_kruskal_real)

# Exibindo os resultados
print(resultado_kruskal_real)
## 
##  Kruskal-Wallis rank sum test
## 
## data:  TempoRecuperacao by Metodo
## Kruskal-Wallis chi-squared = 1.2439, df = 2, p-value = 0.5369

Exemplo 2: Teste de Friedman

Cenário: Em um estudo longitudinal, um pesquisador monitora o desempenho de um grupo de indivíduos submetidos a três diferentes protocolos de treinamento físico. O objetivo é verificar se há diferenças significativas nas pontuações ao longo do tempo.

Dados:

# Simulação de dados reais para o Teste de Friedman
set.seed(456)
individuo1 <- c(75, 80, 82, 85, 88)
individuo2 <- c(70, 72, 75, 78, 80)
individuo3 <- c(82, 85, 88, 90, 92)

# Criando um dataframe
dados_friedman_real <- data.frame(
  Tempo = rep(c("T1", "T2", "T3", "T4", "T5"), times = 3),
  Pontuacoes = c(individuo1, individuo2, individuo3),
  Individuo = rep(1:3, each = 5)
)

# Visualizando os dados
boxplot(Pontuacoes ~ Tempo, data = dados_friedman_real, 
        main = "Pontuações ao Longo do Tempo", 
        ylab = "Pontuações", 
        col = "lightblue")

Análise Estatística:

# Executando o Teste de Friedman
resultado_friedman_real <- 
  friedman.test(Pontuacoes ~ Tempo | Individuo, 
                data = dados_friedman_real)

# Exibindo os resultados
print(resultado_friedman_real)
## 
##  Friedman rank sum test
## 
## data:  Pontuacoes and Tempo and Individuo
## Friedman chi-squared = 12, df = 4, p-value = 0.01735

Interpretação:

Os resultados dessas análises proporcionam insights sobre possíveis diferenças nos tempos de recuperação entre os métodos de tratamento (Teste de Kruskal-Wallis) e nas pontuações ao longo do tempo para diferentes protocolos de treinamento (Teste de Friedman).

6.6 Exercício

Baixe o dataSet ‘Teste de Velocidade.xlsx’ no seu ambiente virtual de aprendizagem - AVA e faça o teste de média para os tipos de algoritmos apresentados.

OBS: Como realizar um teste de média para comparar os algoritmos:

  1. Verificar a normalidade dos dados
  • Teste de Shapiro-Wilk ou Kolmogorov-Smirnov para verificar se os tempos seguem uma distribuição normal.
  • Se os dados forem normais, podemos usar a ANOVA para comparar as médias.
  • Se os dados não forem normais, usaremos um teste não paramétrico como o Kruskal-Wallis.
  1. Comparar as médias
  • Se os dados forem normais: utilizar ANOVA e, se necessário, um teste post-hoc (como Tukey) para identificar diferenças entre os grupos.
  • Se os dados não forem normais: utilizar o teste de Kruskal-Wallis e, se necessário, um post-hoc (Dunn) para identificar diferenças entre os algoritmos.
  1. Interpretar os resultados
  • Se houver diferença estatística entre as médias dos algoritmos, podemos identificar qual é o melhor com base na métrica fornecida.

7 Teste Qui-Quadrado

7.1 Teste Qui-Quadrado de independência

O Teste Qui-Quadrado de Independência é uma ferramenta estatística utilizada para avaliar a relação entre duas variáveis categóricas em um conjunto de dados. Especificamente, ele verifica se a distribuição de frequência de uma variável é independente da distribuição de outra variável.

A estatística de teste Qui-Quadrado (\(\chi^2\)) é calculada pela seguinte fórmula:

\[\begin{equation} \chi^2 = \sum \frac{(O_{ij} - E_{ij})^2}{E_{ij}} \end{equation}\]

onde:

  • \(O_{ij}\) representa a frequência observada na célula \((i, j)\),
  • \(E_{ij}\) representa a frequência esperada na célula \((i, j)\), calculada como \(\frac{(\text{Soma da linha i}) \times (\text{Soma da coluna j})}{ \text{Total de observações}}\).

Exemplo Prático com R:

Considere um cenário onde estamos investigando a relação entre faixas etárias (Jovens e Adultos) e a preferência por bebidas quentes (Café, Chá, Chocolate Quente). Vamos usar um conjunto de dados simulado para ilustrar o Teste Qui-Quadrado de Independência.

# Simulação de dados para o Teste Qui-Quadrado de Independência
set.seed(789)
dados_quiquadrado <- data.frame(
  FaixaEtaria = rep(c("Jovens", "Adultos"), each = 100),
  Preferencia = rep(c("Cafe", "Cha", "ChocolateQuente"), 
                    times = c(50, 25, 25))
)

# Tabela de contingência
tabela_contingencia <- table(dados_quiquadrado$FaixaEtaria,
                             dados_quiquadrado$Preferencia)

# Executando o Teste Qui-Quadrado
resultado_quiquadrado <- chisq.test(tabela_contingencia)

# Exibindo os resultados
print(resultado_quiquadrado)
## 
##  Pearson's Chi-squared test
## 
## data:  tabela_contingencia
## X-squared = 0, df = 2, p-value = 1

Interpretação:

O resultado do Teste Qui-Quadrado fornecerá informações sobre se a preferência por bebidas quentes é independente da faixa etária. Um valor-p significativamente baixo sugere que há uma associação entre as variáveis.

No exemplo, criamos um conjunto de dados simulados onde 100 observações foram atribuídas a cada faixa etária (Jovens e Adultos) e as preferências por bebidas quentes (Café, Chá, Chocolate Quente) foram distribuídas de maneira específica. A tabela de contingência foi criada para representar a distribuição dessas observações. O Teste Qui-Quadrado é então aplicado usando a função chisq.test no R.

7.2 Teste Qui-Quadrado de bondade de ajuste

O Teste Qui-Quadrado de Bondade de Ajuste é uma ferramenta estatística utilizada para avaliar se uma distribuição de frequência observada se ajusta bem a uma distribuição de probabilidade teórica. Ele é frequentemente aplicado quando temos interesse em verificar se os dados observados seguem uma distribuição específica.

A estatística de teste Qui-Quadrado (\(\chi^2\)) para bondade de ajuste é calculada usando a fórmula:

\[\begin{equation} \chi^2 = \sum \frac{(O_i - E_i)^2}{E_i} \end{equation}\]

onde:

  • \(O_i\) representa a frequência observada em uma categoria,
  • \(E_i\) representa a frequência esperada em uma categoria, calculada com base na distribuição de probabilidade teórica.

Exemplo Prático com R:

Suponhamos que estamos interessados em verificar se a distribuição de preferência por cores em uma amostra de 200 pessoas está de acordo com uma distribuição teórica esperada. Vamos usar um exemplo fictício para ilustrar o Teste Qui-Quadrado de Bondade de Ajuste.

# Simulação de dados para o Teste Qui-Quadrado de Bondade de Ajuste
set.seed(123)
preferencias_obs <- 
  c("Azul", "Vermelho", "Verde", "Azul", "Amarelo", "Vermelho")
preferencias_obs <- rep(preferencias_obs, times = 33)  
# 33 repetições para totalizar 198 observações
cores_teoria <- c("Azul", "Vermelho", "Verde", "Amarelo")
preferencias_teoricas <- rep(cores_teoria, times = 50)  
# Distribuição teórica esperada

# Tabela de contingência
tabela_contingencia_bondade_ajuste <- table(preferencias_obs)

# Executando o Teste Qui-Quadrado de Bondade de Ajuste
resultado_bondade_ajuste <- 
  chisq.test(tabela_contingencia_bondade_ajuste, 
             p = rep(0.25, 4))  # Distribuição teórica uniforme

# Exibindo os resultados
print(resultado_bondade_ajuste)
## 
##  Chi-squared test for given probabilities
## 
## data:  tabela_contingencia_bondade_ajuste
## X-squared = 22, df = 3, p-value = 6.523e-05

Interpretação:

O resultado do Teste Qui-Quadrado de Bondade de Ajuste fornecerá informações sobre se a distribuição de preferência por cores observada se ajusta bem à distribuição teórica uniforme esperada. Um valor-p significativamente alto sugere que não há evidências suficientes para rejeitar a hipótese nula de boa adequação.

No exemplo, criamos um conjunto de dados simulados para representar a preferência por cores em uma amostra. A tabela de contingência foi criada e o Teste Qui-Quadrado de Bondade de Ajuste foi aplicado usando a função chisq.test no R. A distribuição teórica esperada foi definida como uniforme, indicando que esperamos uma preferência igual por todas as cores.

7.3 Associação entre variáveis categóricas

O Teste Qui-Quadrado para Associação entre Variáveis Categóricas é uma ferramenta estatística importante quando desejamos avaliar se há uma associação significativa entre duas variáveis categóricas. Ele é utilizado para verificar se a distribuição de frequência de uma variável é independente da distribuição de outra variável em um conjunto de dados.

Exemplo Prático com R:

Suponha que estamos investigando a associação entre o tipo de atividade física praticada (Caminhada, Corrida, Ciclismo) e a faixa etária das pessoas (Jovens, Adultos). Vamos usar um exemplo fictício para ilustrar o Teste Qui-Quadrado para Associação entre Variáveis Categóricas.

# Simulação de dados para o Teste Qui-Quadrado de Associação
set.seed(456)
dados_assoc <- data.frame(
  Atividade = rep(c("Caminhada", "Corrida", "Ciclismo"), each = 50),
  FaixaEtaria = rep(c("Jovens", "Adultos"), times = 75)
)

# Tabela de contingência
tabela_contingencia_assoc <- table(dados_assoc$Atividade,
                                   dados_assoc$FaixaEtaria)

# Executando o Teste Qui-Quadrado de Associação
resultado_assoc <- chisq.test(tabela_contingencia_assoc)

# Exibindo os resultados
print(resultado_assoc)
## 
##  Pearson's Chi-squared test
## 
## data:  tabela_contingencia_assoc
## X-squared = 0, df = 2, p-value = 1

Interpretação:

O resultado do Teste Qui-Quadrado para Associação entre Variáveis Categóricas fornecerá informações sobre se o tipo de atividade física praticada está associado à faixa etária. Um valor-p significativamente baixo sugere que há uma associação entre as variáveis.

No exemplo, criamos um conjunto de dados simulados representando o tipo de atividade física praticada e a faixa etária das pessoas. A tabela de contingência foi criada e o Teste Qui-Quadrado de Associação foi aplicado usando a função chisq.test no R.

7.4 Aplicações e interpretações

O Teste Qui-Quadrado é uma ferramenta versátil com diversas aplicações em estatística, principalmente quando lidamos com variáveis categóricas. Neste contexto, exploraremos algumas das aplicações comuns e como interpretar os resultados deste teste estatístico.

Aplicações:

  1. Teste Qui-Quadrado de Independência: Utilizado para verificar se existe uma associação significativa entre duas variáveis categóricas. Por exemplo, investigar se a preferência por determinado tipo de entretenimento é independente do gênero.

  2. Teste Qui-Quadrado de Bondade de Ajuste: Aplicado para avaliar se a distribuição observada de uma variável categórica se ajusta bem a uma distribuição teórica esperada. Pode ser utilizado em situações como verificar se a distribuição de cores preferidas em uma amostra é uniforme.

  3. Teste Qui-Quadrado para Associação entre Variáveis Categóricas: Usado para analisar a associação entre duas variáveis categóricas. Por exemplo, examinar se a preferência por diferentes categorias de produtos varia entre diferentes grupos demográficos.

Interpretação:

  • Valor-p Baixo: Se o valor-p do teste for significativamente baixo (geralmente abaixo de 0,05), temos evidências estatísticas para rejeitar a hipótese nula. Isso sugere que há uma associação significativa entre as variáveis.

  • Valor-p Alto: Se o valor-p for alto, não temos evidências suficientes para rejeitar a hipótese nula. Nesse caso, consideramos que não há uma associação significativa entre as variáveis.

Exemplo Prático com R:

Vamos considerar um exemplo em que desejamos investigar se a escolha de atividade física (Caminhada, Corrida, Ciclismo) está associada à faixa etária das pessoas (Jovens, Adultos).

# Simulação de dados para o Teste Qui-Quadrado de Associação
set.seed(456)
dados_assoc <- data.frame(
  Atividade = rep(c("Caminhada", "Corrida", "Ciclismo"), 
                  each = 50),
  FaixaEtaria = rep(c("Jovens", "Adultos"), times = 75)
)

# Tabela de contingência
tabela_contingencia_assoc <- table(dados_assoc$Atividade,
                                   dados_assoc$FaixaEtaria)

# Executando o Teste Qui-Quadrado de Associação
resultado_assoc <- chisq.test(tabela_contingencia_assoc)

# Exibindo os resultados
print(resultado_assoc)
## 
##  Pearson's Chi-squared test
## 
## data:  tabela_contingencia_assoc
## X-squared = 0, df = 2, p-value = 1

Interpretação do Exemplo:

O resultado do teste nos dará informações sobre se a escolha de atividade física está associada à faixa etária. Um valor-p significativamente baixo indicaria uma associação significativa.

Criamos um conjunto de dados simulados, criamos uma tabela de contingência e aplicamos o Teste Qui-Quadrado de Associação usando a função chisq.test no R.

7.5 Exercícios práticos

Para consolidar o entendimento do Teste Qui-Quadrado e suas diversas aplicações, propomos alguns exercícios práticos que abordam situações comuns encontradas na análise estatística de variáveis categóricas.

Exercício 1: Teste Qui-Quadrado de Independência

Considere um conjunto de dados fictício que investiga a associação entre o método de transporte utilizado para ir ao trabalho (Carro, Ônibus, Bicicleta) e a área de residência das pessoas (Centro, Subúrbio, Rural). Aplique o Teste Qui-Quadrado de Independência para determinar se o método de transporte está associado à área de residência.

# Simulação de dados para o Teste Qui-Quadrado de Independência
set.seed(789)
dados_transporte <- data.frame(
  Transporte = rep(c("Carro", "Ônibus", "Bicicleta"), each = 50),
  AreaResidencia = rep(c("Centro", "Subúrbio", "Rural"), 
                       times = 50)
)

# Tabela de contingência
tabela_contingencia_transporte <-
  table(dados_transporte$Transporte,
        dados_transporte$AreaResidencia)

# Executando o Teste Qui-Quadrado de Independência
resultado_transporte <- chisq.test(tabela_contingencia_transporte)

# Exibindo os resultados
print(resultado_transporte)
## 
##  Pearson's Chi-squared test
## 
## data:  tabela_contingencia_transporte
## X-squared = 0.12, df = 4, p-value = 0.9983

Exercício 2: Teste Qui-Quadrado de Bondade de Ajuste

Imagine que você está analisando a distribuição de preferência por tipos de música (Pop, Rock, Eletrônica) em uma amostra de 150 pessoas. A hipótese nula é que a preferência por tipos de música segue uma distribuição uniforme. Execute o Teste Qui-Quadrado de Bondade de Ajuste para verificar se os dados observados se ajustam à distribuição uniforme esperada.

# Simulação de dados para o Teste Qui-Quadrado de Bondade de Ajuste
set.seed(123)
preferencias_obs <- c("Pop", "Rock", "Eletronica")
preferencias_obs <- rep(preferencias_obs, times = 50)
preferencias_teoricas <- rep(preferencias_obs, times = 1)  
# Distribuição uniforme esperada

# Tabela de contingência
tabela_contingencia_bondade_ajuste <- table(preferencias_obs)

# Executando o Teste Qui-Quadrado de Bondade de Ajuste
resultado_bondade_ajuste <-
  chisq.test(tabela_contingencia_bondade_ajuste, 
                                       p = rep(1/3, 3)) 
# Distribuição teórica uniforme

# Exibindo os resultados
print(resultado_bondade_ajuste)
## 
##  Chi-squared test for given probabilities
## 
## data:  tabela_contingencia_bondade_ajuste
## X-squared = 0, df = 2, p-value = 1

Exercício 3: Teste Qui-Quadrado para Associação entre Variáveis Categóricas

Suponha que você possui dados sobre a preferência de dispositivos eletrônicos (Smartphone, Tablet, Laptop) em diferentes faixas etárias (Jovens, Adultos, Idosos). Aplique o Teste Qui-Quadrado para verificar se há uma associação significativa entre a preferência de dispositivos e faixa etária.

# Simulação de dados para o Teste Qui-Quadrado de Associação
set.seed(456)
dados_dispositivos <- data.frame(
  Dispositivo = rep(c("Smartphone", "Tablet", "Laptop"), 
                    each = 50),
  FaixaEtaria = rep(c("Jovens", "Adultos", "Idosos"), times = 50)
)

# Tabela de contingência
tabela_contingencia_dispositivos <-
  table(dados_dispositivos$Dispositivo,
        dados_dispositivos$FaixaEtaria)

# Executando o Teste Qui-Quadrado de Associação
resultado_dispositivos <-
  chisq.test(tabela_contingencia_dispositivos)

# Exibindo os resultados
print(resultado_dispositivos)
## 
##  Pearson's Chi-squared test
## 
## data:  tabela_contingencia_dispositivos
## X-squared = 0.12, df = 4, p-value = 0.9983

Observações: Para cada exercício, interprete os resultados do teste, analise o valor-p e conclua se há ou não uma associação significativa entre as variáveis.

Nos exercícios, criamos conjuntos de dados simulados, tabelas de contingência e aplicamos os Testes Qui-Quadrado correspondentes utilizando a função chisq.test no R. As hipóteses nulas e alternativas podem ser ajustadas conforme necessário.

No sequência temos os exercícios 136 a 160 relacionados a este tema. A resolução deles irá consolidar os conceitos aqui aprendidos.

7.6 Exercícios

baixe o arquivo chiTest.xlsx do seu ambiente de aprendizagem e faça os testes de Qui-Quadrado para cada uma das situações.

REFERÊNCIAS

BENGFORT, B.; KIM, J. Análise de dados com Hadoop: Uma introdução para Cientista de Dados. 1ª Edição. São Paulo - SP: Novatec, 2016.

BRUCE, P.; BRUCE, A. Estatística para Cientista de Dados: 50 conceitos iniciais. 1ª Edição. Rio de Janeiro - RJ: Alta Books, 2019.

DIAS, Rodrigo fernando. Estaística com R. Alura. 2022. disponível em: https://cursos.alura.com.br/course/estatistica-r-frequencias-medidas

GOLDSCHMIDT, R.; PASSOS, E.; BEZERRA, E. Data Mining: Conceitos, técnicas, orientações e aplicações. 2ª Edição. Rio de Janeiro - RJ: ELSEVIER, 2015.

HADLEY, W.; GARRETT, G. R para Data Science: Importe, arrume, transforme, visualize e modele dados. 1ª Edição. Rio de Janeiro - RJ: Alta Books, 2019.

MUELLER, J. P.; MASSARON, L. Aprendizado de Máquina para leigos. 1ª Edição. Rio de Janeiro - RJ: Alta Books, 2019.

OLIVEIRA, Francisco Estevam Martins de. Estatistica e Probabilidade - Exercicios Resolvidos e Propostos, 3ª edição. [Digite o Local da Editora]: Grupo GEN, 2017. E-book. ISBN 9788521633846. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788521633846/. Acesso em: 06 abr. 2023.

ROSS, Sheldon. Probabilidade. [Digite o Local da Editora]: Grupo A, 2010. E-book. ISBN 9788577806881. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788577806881/. Acesso em: 06 abr. 2023.

UCS - Universidade Caxias do Sul. Big Data: o que é, para que serve, como aplicar e exemplos. Disponível em: https://ead.ucs.br/blog/big-data Acesso em: 12, setembro de 2022.

TAULLI, T. Introdução à Inteligência Artificial: Uma abordagem não técnica. 1ª Edição. São Paulo - SP: Novatec, 2020.