1-pnorm(q=1, mean = 0, sd=1)
## [1] 0.1586553
tigerstats:: pnormGC(1, region="above", mean=0,
sd=1, graph=TRUE)
## Registered S3 method overwritten by 'mosaic':
## method from
## fortify.SpatialPolygonsDataFrame ggplot2
## [1] 0.1586553
pnorm(q=1, mean = 0, sd=1)
## [1] 0.8413447
tigerstats:: pnormGC(1, region="below", mean=0,
sd=1, graph=TRUE)
## [1] 0.8413447
pnorm(q=1.5, mean = 0, sd=1)-0.5
## [1] 0.4331928
tigerstats:: pnormGC(c(0,1.5), region="between", mean=0,
sd=1, graph=TRUE)
## [1] 0.4331928
pnorm(q=-0.2, mean = 0, sd=1)-pnorm(q=-0.56, mean = 0, sd=1)
## [1] 0.1330006
tigerstats:: pnormGC(c(-0.56,-0.2), region="between", mean=0,
sd=1, graph=TRUE)
## [1] 0.1330006
pnorm(q=0.5, mean = 0, sd=1)
## [1] 0.6914625
tigerstats:: pnormGC(c(0.5, 0.5), region = "between", mean = 0, sd = 1, graph = TRUE)
## [1] 0
F Área entre \(Z = 0\) e \(Z = -2.5\)
pnorm(q=-2.5, mean = 0, sd=1)-pnorm(q=-0, mean = 0, sd=1)
## [1] -0.4937903
tigerstats:: pnormGC(c(-2.5, 0), region = "between", mean = 0, sd = 1, graph = TRUE)
## [1] 0.4937903
qnorm(0.0505, mean = 0, sd=1, lower.tail = TRUE)
## [1] -1.640025
tigerstats:: pnormGC(qnorm(0.0505, mean = 0, sd=1), region="below", mean=0,
sd=1, graph=TRUE)
## [1] 0.0505
qnorm(0.0228, mean = 0, sd=1, lower.tail = FALSE)
## [1] 1.999077
tigerstats:: pnormGC(qnorm(0.0228, mean = 0, sd=1 , lower.tail = FALSE), region="above", mean=0, sd=1, graph=TRUE)
## [1] 0.0228
qnorm(0.0228, mean = 0, sd=1, lower.tail = TRUE)
## [1] -1.999077
tigerstats:: pnormGC(qnorm(0.0228, mean = 0, sd=1), region = "below", mean = 0,
sd = 1, graph = TRUE)
## [1] 0.0228
tigerstats:: pnormGC(c(0, qnorm(0.5 - 0.4772, mean = 0, sd = 1)), region = "between", mean = 0, sd = 1, graph = TRUE)
## [1] 0.4772
tigerstats:: pnormGC(c(-1.2, 2), region = "between", mean = 0, sd = 1, graph = TRUE)
## [1] 0.8621802
Sabemos que \(Z =\frac{X-\mu}{\sigma},\) logo:
(Z=(23-25)/2)
## [1] -1
(Z = (23.5 - 25) / 2)
## [1] -0.75
(Z = (24 - 25) / 2)
## [1] -0.5
(Z = (25.2 - 25) / 2)
## [1] 0.1
(Z = (25.5 - 25) / 2)
## [1] 0.25
tigerstats:: pnormGC(c(-1.3, 1.5), region = "between", mean = 0, sd = 1, graph = TRUE)
## [1] 0.8363923
Sabemos que \(Z=\frac{X-\mu}{\sigma},\) logo. dado z, temos que \(X=Z\sigma+\mu,\) assim:
(X=(0.1*3)+40)
## [1] 40.3
(X = (2 * 3) + 40)
## [1] 46
(X = (0.75 * 3) + 40)
## [1] 42.25
(X = (-3 * 3) + 40)
## [1] 31
(X = (-2.53 * 3) + 40)
## [1] 32.41
Teste de hipótese é uma ferramenta da estatística que é baseada na utilização de uma amostra aleatória que é extraída de uma população de interesse. Seu objetivo é testar uma afirmação sobre um parâmetro ou característica.Não é apenas uma simpres comparação matemática entre dois ou mais valores, e sim a necessidade de entender se o valor obtido representa uma simples variação amostral da situação atual ou não.
Hipótese nula é, muitas vezes, uma alegação inicial baseado em análises anteriores ou conhecimentos especializados, geralmente afirma que não existe relação entre dois fenômenos medidos.A hipótese alternativa é aquela que você acredita que pode ser verdadeira ou espera provar ser verdadeira.
Um erro tipo 1 ocorre quando a hipótese nula é verdadeira, mas a rejeitamos por causa de um resultado de amostra usual. E o erro tipo 2 é quando você não rejeitar a hipótese nula e na verdade ela é falsas.
O nível de significância é um limite que determina se o resultado de um estudo pode ser considerado estatisticamente significativo depois de se realizarem os teste estatísticos planeados.
\(H_{0}:\mu=40\) toneladas por hectare
\(H_{1}:\mu>40\) toneladas por hectare
#H0:mu=40
#H1:mu>40
mentindo? Calcule o valor da prova para esta amostra.
mu <- 500
sigma <- 10
n <- 200
xbarra <- 498
alpha <- 0.05
#H0: mu=500
#H1: mu<500 (Unilateral a esquerda)
#Estatística do Teste
Zcal <- (xbarra-mu)/(sigma/sqrt(n))
Zcal
## [1] -2.828427
tigerstats:: pnormGC(Zcal, region="below", mean=0,
sd=1, graph=TRUE)
## [1] 0.002338867
Ztab <- qnorm(alpha)
Ztab
## [1] -1.644854
ConclusaoZ <- ifelse(abs(Zcal)>abs(Ztab),paste(
"Como |Zcal|>|Ztab| Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
), paste(
"Como |Zcal|<|Ztab| Não Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
))
ConclusaoZ
## [1] "Como |Zcal|>|Ztab| Rejeita-se H0 ao nível de 0.05 de significância"
#Logo, o fabricante está mentindo!
(pvalor <- pnorm(Zcal))
## [1] 0.002338867
n <- 100
xbarra <- 1265
mu <- 1200
sigma <- 300
alpha <- 0.05
#H0:mu = 1200h
#H1:mu > 1200h (Teste-z unilateral)
#Estatística do Teste
Zcal <- (xbarra-mu)/(sigma/sqrt(n))
Zcal
## [1] 2.166667
tigerstats:: pnormGC(Zcal, region="above", mean=0,
sd=1, graph=TRUE)
## [1] 0.01513014
Ztab <- qnorm(alpha, mean = 0, sd=1, lower.tail = FALSE)
Ztab
## [1] 1.644854
ConclusaoZ <- ifelse(abs(Zcal)>abs(Ztab),paste(
"Como |Zcal|>|Ztab| Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
), paste(
"Como |Zcal|<|Ztab| Não Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
))
ConclusaoZ
## [1] "Como |Zcal|>|Ztab| Rejeita-se H0 ao nível de 0.05 de significância"
#Logo, o fabricante está mentindo!
(pvalor <- pnorm(Zcal, lower.tail = FALSE))
## [1] 0.01513014
ConclusaoZ <- ifelse(pvalor>alpha,paste(
"Como p-valor>", alpha, " Não Rejeita-se H0"
), paste(
"Como p-valor<", alpha, " Rejeita-se H0")
)
ConclusaoZ
## [1] "Como p-valor< 0.05 Rejeita-se H0"
mu <- 42
n <- 10
x <- c(34, 41, 36, 41, 29, 32, 38, 35, 33, 30)
xbarra <- mean(x)
s <- sd(x)
alpha <- 0.05
#H0: mu = 42
#H1: mu < 42 (Teste-t unilateral)
gl <- n-1
#Estatística do Teste
Tcal <- (xbarra-mu)/(s/sqrt(n))
Tcal
## [1] -5.377348
Ttab <- qt(alpha, df=gl, lower.tail = TRUE,)
Ttab
## [1] -1.833113
ConclusaoT <- ifelse(abs(Tcal)>abs(Ttab),paste(
"Como |Tcal|>|Ttab| Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
), paste(
"Como |Tcal|<|Ttab| Não Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
))
ConclusaoT
## [1] "Como |Tcal|>|Ttab| Rejeita-se H0 ao nível de 0.05 de significância"
#Logo, o fabricante está mentindo!
(pvalor <- pt(Tcal, df = gl, lower.tail = TRUE))
## [1] 0.0002230215
ConclusaoT <- ifelse(pvalor>alpha,paste(
"Como p-valor>", alpha, " Não Rejeita-se H0"
), paste(
"Como p-valor<", alpha, " Rejeita-se H0")
)
ConclusaoT
## [1] "Como p-valor< 0.05 Rejeita-se H0"
mu <- 57
n <- 10
x <- c(56.5, 56.6, 57.3, 56.9, 57.1, 56.7, 57.1, 56.8, 57.1, 57)
xbarra <- mean(x)
s <- sd(x)
alpha <- 0.05
#H0: mu = 57
#H1: mu != 57 (Teste-t bilateral)
gl <- n - 1
#Estatística do Teste
Tcal <- (xbarra - mu) / (s / sqrt(n))
Ttab <- qt(alpha, df = gl, lower.tail = TRUE)
paste("Estatística teste:", Tcal)
## [1] "Estatística teste: -1.11251561863099"
paste("Estatística da tabela:", Ttab)
## [1] "Estatística da tabela: -1.83311293265624"
(ConclusaoT <- ifelse(abs(Tcal) > abs(Ttab),
paste("Como |Tcal|>|Ttab| Rejeita-se H0 ao nível de", alpha , "de significância"),
paste("Como |Tcal|<|Ttab| Não Rejeita-se H0 ao nível de", alpha , "de significância")))
## [1] "Como |Tcal|<|Ttab| Não Rejeita-se H0 ao nível de 0.05 de significância"
pvalor <- pt(Tcal, df = gl, lower.tail = TRUE)
(ConclusaoT <- ifelse(pvalor > alpha,
paste("Como p-valor >", alpha, "não Rejeita-se H0"),
paste("Como p-valor <", alpha, "rejeita-se H0")))
## [1] "Como p-valor > 0.05 não Rejeita-se H0"
p <- 0.32
n <- 500
pchapeu <- 145 / n
s <- sqrt(pchapeu * (1 - pchapeu))
alpha <- 0.02
#H0: mu = 0.32
#H1: mu < 0.32 (Teste Z unilateral)
#Estatística do Teste
Zcal <- (pchapeu - p) / (s / sqrt(n))
Ztab <- qnorm(alpha, lower.tail = TRUE)
paste("Estatística teste:", Zcal)
## [1] "Estatística teste: -1.47835278429489"
paste("Estatística da tabela:", Ztab)
## [1] "Estatística da tabela: -2.05374891063182"
(ConclusaoT <- ifelse(abs(Zcal) > abs(Ztab),
paste("Como |Tcal| > |Ttab| rejeita-se H0 ao nível de", alpha , "de significância"),
paste("Como |Tcal| < |Ttab| não rejeita-se H0 ao nível de", alpha , "de significância")))
## [1] "Como |Tcal| < |Ttab| não rejeita-se H0 ao nível de 0.02 de significância"
pvalor <- pnorm(Zcal, lower.tail = TRUE)
(ConclusaoT <- ifelse(pvalor > alpha,
paste("Como p-valor >", alpha, "não rejeita-se H0"),
paste("Como p-valor <", alpha, "rejeita-se H0")))
## [1] "Como p-valor > 0.02 não rejeita-se H0"
p <- 0.06
n <- 400
pchapeu <- 12 / n
s <- sqrt(pchapeu * (1 - pchapeu))
alpha <- 0.03
#H0: mu = 0.06
#H1: mu < 0.06 (Teste Z unilateral)
#Estatística do Teste
Zcal <- (pchapeu - p) / (s / sqrt(n))
Ztab <- qnorm(alpha, lower.tail = TRUE)
paste("Estatística teste:", Zcal)
## [1] "Estatística teste: -3.5172622905633"
paste("Estatística da tabela:", Ztab)
## [1] "Estatística da tabela: -1.88079360815125"
(ConclusaoT <- ifelse(abs(Zcal) > abs(Ztab),
paste("Como |Tcal| > |Ttab| rejeita-se H0 ao nível de", alpha , "de significância"),
paste("Como |Tcal| < |Ttab| não rejeita-se H0 ao nível de", alpha , "de significância")))
## [1] "Como |Tcal| > |Ttab| rejeita-se H0 ao nível de 0.03 de significância"
pvalor <- pnorm(Zcal, lower.tail = TRUE)
(ConclusaoT <- ifelse(pvalor > alpha,
paste("Como p-valor >", alpha, "não rejeita-se H0"),
paste("Como p-valor <", alpha, "rejeita-se H0")))
## [1] "Como p-valor < 0.03 rejeita-se H0"
(pMenor80 <- pnorm(80, mean = 90, sd = 15, lower.tail = TRUE))
## [1] 0.2524925
(pMaior120 <- pnorm(120, mean = 90, sd = 15, lower.tail = FALSE))
## [1] 0.02275013
(p <- pnorm(85, mean = 90, sd = 15, lower.tail = TRUE) - pnorm(75, mean = 90, sd = 15, lower.tail = TRUE))
## [1] 0.2107861
qnorm(0.98, mean = 90, sd = 15)
## [1] 120.8062
pnorm(110, mean = 100, sd = 10)-pnorm(90, mean = 100, sd = 10)
## [1] 0.6826895
sigma <- 10/sqrt(n)
pnorm(110, mean = 100, sd = sigma)-pnorm(90, mean = 100, sd = sigma)
## [1] 1
n <- 16
x <- seq(-50, 150, length=1000)
mu <- 100
sigma <- 10/sqrt(n)
z <- dnorm(x, mean = 100, sd = 10)
colors <- "blue"
plot(x, z, type = "l", lty = 2, xlab = "x", ylim = c(0,0.2),
ylab = "Densidade", main = "Comparação de distribuições normais")
lines(x, dnorm(x, mu, sigma), lwd = 2, col = colors)
RESPOSTA) H0: ii (tudo bem, apenas uma leve interferência)
RESPOSTA) H0:o acusado é inocente
RESPOSTA) H0: ii. a vacina não é eficaz
mu <- 11 #litros por 100 quilometro
sigma <- 0.8 #litros
n <- 35
xbarra <- 11.3 #litros por 100 quilometro
alpha <- 0.1
#H0:mu=11
#H1:mu!=11 (Teste Z bilateral)
#Estatística do Teste
Zcal <- (xbarra - mu) / (sigma / sqrt(n))
Zcal
## [1] 2.21853
Ztab <- qnorm(alpha, mean = 0, sd=1, lower.tail = FALSE)
Ztab
## [1] 1.281552
ConclusaoZ <- ifelse(abs(Zcal)>abs(Ztab),paste(
"Como |Zcal|>|Ztab| Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
), paste(
"Como |Zcal|<|Ztab| Não Rejeita-se H0 ao nível de"
, alpha ,
"de significância"
))
ConclusaoZ
## [1] "Como |Zcal|>|Ztab| Rejeita-se H0 ao nível de 0.1 de significância"
tigerstats::pnormGC(c(qnorm(0.05), qnorm(0.05, lower.tail = F)), region="between", mean=0, sd=1, graph=TRUE)
## [1] 0.9
#Logo, o fabricante está mentindo!
(pvalor <- 2*pnorm(Zcal, lower.tail = FALSE))
## [1] 0.02651872
ConclusaoZ <- ifelse(pvalor>alpha,paste(
"Como p-valor>", alpha, " Não Rejeita-se H0"
), paste(
"Como p-valor<", alpha, " Rejeita-se H0")
)
ConclusaoZ
## [1] "Como p-valor< 0.1 Rejeita-se H0"
sigma <- 10
nA <- 25
nB <- 16
xAbarra <- 502.74
xBbarra <- 496.6
alpha <- 0.05
#H0:muA=MuB
#H1:muA!=muB (Teste-z bilateral)
#Estatística do Teste
Zcal <- (xAbarra-xBbarra)/(sqrt((sigma^2)*((1/nA)+(1/nB))))
Zcal
## [1] 1.917814
Ztab <- qnorm((alpha)/2, mean = 0, sd=1, lower.tail = FALSE)
Ztab
## [1] 1.959964
ConclusaoZ <- ifelse(abs(Zcal) > abs(Ztab),
paste("Como |Zcal|>|Ztab| Rejeita-se H0 ao nível de", alpha , "de significância"),
paste("Como |Zcal|<|Ztab| Não Rejeita-se H0 ao nível de", alpha , "de significância"))
ConclusaoZ
## [1] "Como |Zcal|<|Ztab| Não Rejeita-se H0 ao nível de 0.05 de significância"
tigerstats:: pnormGC(c(qnorm((alpha)/2), qnorm((alpha)/2, lower.tail = F)), region="between", mean=0, sd=1, graph=TRUE)
## [1] 0.95
#Logo, o fabricante está mentindo!
(pvalor <- 2*pnorm(Zcal, lower.tail = FALSE))
## [1] 0.05513463
ConclusaoZ <- ifelse(pvalor>alpha,paste("Como p-valor>", alpha, " Não Rejeita-se H0"),
paste("Como p-valor<", alpha, " Rejeita-se H0"))
ConclusaoZ
## [1] "Como p-valor> 0.05 Não Rejeita-se H0"
Método | Amostra | Média | Desvio Padrão |
---|---|---|---|
A | 15 | 48 | 10 |
B | 12 | 52 | 15 |
nA <- 15
nB <- 12
xAbarra <- 48
xBbarra <- 52
sA <- 10
sB <- 15
#H0:muA=muB
#H1:muA!=muB (Teste-t bilateral)
#Precisamos proceder antes do teste-T o teste-F.
#H0:SigmaA^2=SigmaB^2
#H1:SigmaA^2<SigmaB^2 (Teste unilateral)
(Fcal <- (sB^2)/(sA^2))
## [1] 2.25
(pvalor <- pf(q=Fcal, df1 = nB-1, df2 = nA-1))
## [1] 0.9224523
#Conclusao: Não rejeita-se H0 para todo alpha < pvalor. Assim, para realizar o teste - t, vamos considerar que as variâncias do método A
#e método B são iguais (SigmaA^2=SigmaB^2). Dessa forma, procedemos
# o teste-t para variâncias populacionais iguais.
#df <- ((A+B)^2)/(((A^2)/(nA-1))+((B^2)/(nB-1)))
df <- nA+nB-2
Sc <- sqrt((((sA^2)*(nA-1))+((sB^2)*(nB-1)))/(nA+nB-2))
#H0:muA=muB
#H1:muA!=muB (Teste-t bilateral)
Tcal <- (xAbarra-xBbarra)/(Sc*sqrt((1/nA)+(1/nB)))
Tcal
## [1] -0.8295614
(pvalor <- pt(Tcal, df = df, lower.tail = TRUE))
## [1] 0.207319
#A <- (sA^2)/nA
#B <- (sB^2)/nB
#
#Estatística do Teste
ConclusaoT <- "Não rejeita-se H0 para alpha menor que pvalor"
Com os resultados abaixo, expressos em salários mínimos, quais seriam suas conclusões?
Liberais | 6,6 | 10,3 | 10,8 | 12,9 | 9,2 | 12,3 | 7,0 |
---|---|---|---|---|---|---|---|
Administradores | 8,1 | 9,8 | 8,7 | 10,0 | 10,2 | 8,2 | 8,7 |
Li <- c(6.6, 10.3, 10.8, 12.9, 9.2, 12.3, 7.0)
Ad <- c(8.1, 9.8, 8.7, 10.0, 10.2, 8.2, 8.7, 10.1)
sd(Li)
## [1] 2.432909
sd(Ad)
## [1] 0.8876132
nLi <- length(Li)
nAd <- length(Ad)
#Teste-F
#H0:SigmaLi^2=SigmaAd^2
#H1:SigmaLi^2!=SigmaAd^2
var.test(Li, Ad, alternative = "two.sided")
##
## F test to compare two variances
##
## data: Li and Ad
## F = 7.5128, num df = 6, denom df = 7, p-value = 0.01768
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 1.467755 42.789180
## sample estimates:
## ratio of variances
## 7.512844
print("Para alpha > p-value=0.01768 rejeita-se H0, logo, devemos proceder o teste-t para variâncias desiguais.")
## [1] "Para alpha > p-value=0.01768 rejeita-se H0, logo, devemos proceder o teste-t para variâncias desiguais."
#H0:muLi=muAd
#H1:muLi!=muAd
t.test(Li, Ad, alternative = "two.sided", var.equal = FALSE)
##
## Welch Two Sample t-test
##
## data: Li and Ad
## t = 0.6653, df = 7.393, p-value = 0.5261
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -1.626575 2.919433
## sample estimates:
## mean of x mean of y
## 9.871429 9.225000
print("Para alpha menor do que p-value=0.5261, não rejeita-se H0. Ou seja nesse caso, as médias salariais são iguais.")
## [1] "Para alpha menor do que p-value=0.5261, não rejeita-se H0. Ou seja nesse caso, as médias salariais são iguais."
Pessoas | Pré | Pós | Pessoas | Pré | Pós |
---|---|---|---|---|---|
1 | 50,0 | 42,0 | 10 | 40,0 | 50,0 |
2 | 50,0 | 42,0 | 11 | 50,0 | 48,0 |
3 | 50,0 | 78,0 | 12 | 75,0 | 52,0 |
4 | 87,5 | 33,0 | 13 | 92,5 | 74,0 |
5 | 32,5 | 96,0 | 14 | 38,0 | 47,5 |
6 | 35,0 | 82,0 | 15 | 46,5 | 49,0 |
7 | 40,0 | 44,0 | 16 | 50,0 | 58,0 |
8 | 45,0 | 31,0 | 17 | 30,0 | 42,0 |
9 | 62,5 | 87,0 | 18 | 35,0 | 60,0 |
10 | 19 | 39,4 | 28,0 |
Pre <- c(50.0,50.0,50.0,87.5,32.5,35.0,40.0,45.0,62.5,40.0,50.0,75.0,92.5,38.0,46.5,50.0,30.0,35.0,39.4)
Pos <- c(42.0,42.0,78.0,33.0,96.0,82.0,44.0,31.0,87.0,50.0,48.0,52.0,74.0,47.5,49.0,58.0,42.0,60.0,28.0)
Dif <- Pre-Pos
sd(Dif)
## [1] 26.35174
mean(Dif)
## [1] -4.978947
#H0:muDif=0
#H1:muDif!=0
t.test(Dif, alternative = "two.sided")
##
## One Sample t-test
##
## data: Dif
## t = -0.82358, df = 18, p-value = 0.421
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## -17.680077 7.722183
## sample estimates:
## mean of x
## -4.978947
print("Não rejeita-se H0 ao nível de 5% de significância, pois pvalor é maior que alpha=0.05")
## [1] "Não rejeita-se H0 ao nível de 5% de significância, pois pvalor é maior que alpha=0.05"
Operário | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
Sem intervalo | 23 | 35 | 29 | 33 | 43 | 32 |
Com intervalo | 28 | 38 | 29 | 37 | 42 | 30 |
sem <- c(23, 35, 29, 33, 43, 32)
com <- c(28, 38, 29, 37, 42, 30)
# primeiro, testamos as variâncias
var.test(sem, com, alternative = "two.sided")
##
## F test to compare two variances
##
## data: sem and com
## F = 1.3223, num df = 5, denom df = 5, p-value = 0.7667
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.1850292 9.4495832
## sample estimates:
## ratio of variances
## 1.322289
# variâncias iguais. logo, teste T com variâncias iguais:
t.test(sem, com, alternative = "two.sided", var.equal = TRUE)
##
## Two Sample t-test
##
## data: sem and com
## t = -0.41845, df = 10, p-value = 0.6845
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -9.487186 6.487186
## sample estimates:
## mean of x mean of y
## 32.5 34.0
print("Não houve melhora na produtividade pois encontrou-se um p-valor de 0,68.")
## [1] "Não houve melhora na produtividade pois encontrou-se um p-valor de 0,68."
mu <- 3.64
dp <- 0.85
xbarra <- 4.22
s <- 1.25
n <- 25
print("Não houve melhora na produtividade pois encontrou-se um p-valor de 0,68.")
## [1] "Não houve melhora na produtividade pois encontrou-se um p-valor de 0,68."
##teste da variância
n = 25
S = 1.25
sigma = 0.85
alpha = 0.05
#H0: Sigma = 0.85
#H1: Sigma =! 0.85
XsqCAL = ((n-1)*S^2)/sigma^2
XsqTAB = 30.144
ConclusãoXsq = ifelse(abs(XsqCAL)>abs(XsqTAB),paste("Como |XsqCAL|>|XsqTAB| Rejeita-se H0 ao nível de", alpha, "de significância"),paste("Como |XsqCAL|<|XsqTAB| Não Rejeita-se H0 ao nível de",alpha,"de significância"))
ConclusãoXsq
## [1] "Como |XsqCAL|>|XsqTAB| Rejeita-se H0 ao nível de 0.05 de significância"
## Os valores do salário da subclasse possuem variâncias diferentes.
#teste z (variância populacional conhecida)
#H0: mu = 3.64
#H1: mu =! 3.64
#Estatística do teste
mu = 3.64
sigma = 0.85
n = 25
xbarra = 4.22
s = 1.25
alpha = 0.05
zcal = (xbarra-mu)/(sigma/sqrt(n))
zcal
## [1] 3.411765
ztab = qnorm(alpha/2)
ztab
## [1] -1.959964
ConclusãoZ = ifelse(abs(zcal)>abs(ztab),paste("Como |zcal|>|ztab| Rejeita-se H0 ao nível de", alpha, "de significância"),paste("Como |zcal|<|ztab| Não Rejeita-se H0 ao nível de",alpha,"de significância"))
ConclusãoZ
## [1] "Como |zcal|>|ztab| Rejeita-se H0 ao nível de 0.05 de significância"
#O salário médio dos torneiros mecânicos é diferente do que o salário da indústria mecânica.
Método | A | 16 | 14 | 19 | 18 | 19 | 20 | 15 | 18 | 17 | 18 |
---|---|---|---|---|---|---|---|---|---|---|---|
Método | B | 13 | 19 | 14 | 17 | 21 | 24 | 10 | 14 | 13 | 15 |
a <- c(16, 14, 19, 18, 19, 20, 15, 18, 17, 18)
b <- c(13, 19, 14, 17, 21, 24, 10, 14, 13, 15)
# primeiro, testamos as variâncias
var.test(a, b, alternative = "two.sided")
##
## F test to compare two variances
##
## data: a and b
## F = 0.2, num df = 9, denom df = 9, p-value = 0.02507
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.04967717 0.80519883
## sample estimates:
## ratio of variances
## 0.2
# variâncias diferentes. logo, teste T com variâncias diferentes:
t.test(a, b, alternative = "two.sided", var.equal = FALSE)
##
## Welch Two Sample t-test
##
## data: a and b
## t = 0.95258, df = 12.462, p-value = 0.3589
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -1.789083 4.589083
## sample estimates:
## mean of x mean of y
## 17.4 16.0
print("Não houve diferença na adesão quando as montagens são diferentes.")
## [1] "Não houve diferença na adesão quando as montagens são diferentes."
Dieta A | 15 | 18 | 12 | 11 | 14 | 15 | |||
---|---|---|---|---|---|---|---|---|---|
Dieta B | 11 | 11 | 12 | 16 | 12 | 13 | 8 | 10 | 13 |
a <- c(15, 18, 12, 11, 14, 15)
b <- c(11, 11, 12, 16, 12, 13, 8, 10, 13)
# primeiro, testamos as variâncias
var.test(a, b, alternative = "two.sided")
##
## F test to compare two variances
##
## data: a and b
## F = 1.2472, num df = 5, denom df = 8, p-value = 0.7425
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.2588997 8.4274842
## sample estimates:
## ratio of variances
## 1.247191
# variâncias iguais. logo, teste T com variâncias iguais:
t.test(sem, com, alternative = "two.sided", var.equal = TRUE)
##
## Two Sample t-test
##
## data: sem and com
## t = -0.41845, df = 10, p-value = 0.6845
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -9.487186 6.487186
## sample estimates:
## mean of x mean of y
## 32.5 34.0
print("Não houve diferença no efeito das duas dietas.")
## [1] "Não houve diferença no efeito das duas dietas."
a <- c(16, 14, 19, 18, 19, 20, 15, 18, 17, 18)
b <- c(13, 19, 14, 17, 21, 24, 10, 14, 13, 15)
# primeiro, testamos as variâncias
var.test(a, b, alternative = "two.sided")
##
## F test to compare two variances
##
## data: a and b
## F = 0.2, num df = 9, denom df = 9, p-value = 0.02507
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.04967717 0.80519883
## sample estimates:
## ratio of variances
## 0.2
# variâncias diferentes. logo, teste T com variâncias diferentes:
t.test(a, b, alternative = "two.sided", var.equal = FALSE)
##
## Welch Two Sample t-test
##
## data: a and b
## t = 0.95258, df = 12.462, p-value = 0.3589
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -1.789083 4.589083
## sample estimates:
## mean of x mean of y
## 17.4 16.0
print("Não houve diferença na adesão quando as montagens são diferentes.")
## [1] "Não houve diferença na adesão quando as montagens são diferentes."
mu <- 8
dp <- 2
pnorm(5, mean = mu, sd = dp, lower.tail = TRUE)
## [1] 0.0668072
pnorm(9.5, mean = mu, sd = dp, lower.tail = FALSE)
## [1] 0.2266274
pnorm(10, mean = mu, sd = dp, lower.tail = TRUE) - pnorm(7, mean = mu, sd = dp, lower.tail = TRUE)
## [1] 0.5328072
qnorm(0.75, mean = mu, sd = dp, lower.tail = TRUE)
## [1] 9.34898
mu <- 5
dp <- 0.9
qnorm(0.15, mean = mu, sd = dp, lower.tail = TRUE)
## [1] 4.06721
qnorm(0.65, mean = mu, sd = dp, lower.tail = TRUE)
## [1] 5.346788
qnorm(0.85, mean = mu, sd = dp, lower.tail = TRUE)
## [1] 5.93279
qnorm(0.15, mean = mu, sd = dp, lower.tail = FALSE)
## [1] 5.93279
mu <- 1000
dp <- 10
pnorm(990, mean = mu, sd = dp, lower.tail = TRUE)
## [1] 0.1586553
# Usando normal padrão:
pnorm(2, mean = 0, sd = 1, lower.tail = TRUE) - pnorm(-2, mean = 0, sd = 1, lower.tail = TRUE)
## [1] 0.9544997
mu_a <- 10
dp_a <- 2
mu_b <- 11
dp_b <- 3
l_a <- 1200
l_b <- 2100
p_a <- -2500
p_b <- -7000
# A
pnorm(6, mean = mu_a, sd = dp_a, lower.tail = TRUE)
## [1] 0.02275013
# B
pnorm(6, mean = mu_b, sd = dp_b, lower.tail = TRUE)
## [1] 0.04779035
Baseando-se nos lucros médios, a empresa deveria incentivar as vendas dos aparelhos do tipo A ou do tipo B?
# Lucro médio = lucro * P(lucro) + prejuízo * P(prejuízo)
# A
lucro_a <- l_a * (1 - pnorm(6, mean = mu_a, sd = dp_a, lower.tail = TRUE)) + p_a * pnorm(6, mean = mu_a, sd = dp_a, lower.tail = TRUE)
# B
lucro_b <- l_b * (1 - pnorm(6, mean = mu_b, sd = dp_b, lower.tail = TRUE)) + p_b * pnorm(6, mean = mu_b, sd = dp_b, lower.tail = TRUE)
print(lucro_a)
## [1] 1115.825
print(lucro_b)
## [1] 1665.108
# A empresa deveria incentivar as vendas dos aparelhos do tipo B.
Método | Número de alunos | Média das notas | Desvio padrão das notas |
---|---|---|---|
A | 10 | 8.15 | 1.15 |
B | 8 | 7.31 | 1.94 |
n <- 10
n_a <- 10
n_b <- 8
mu_a <- 8.15
mu_b <- 7.31
dp_a <- 1.15
dp_b <- 1.94
# teste de variâncias
Fcal = (dp_a ^ 2) / (dp_b ^2)
pf(Fcal, n_a - 1, n_b - 1, lower.tail = TRUE)
## [1] 0.07326077
# variâncias iguais a 5%.
# teste t com variâncias iguais:
gl <- nA + nB - 2
Sc <- sqrt((((sA^2)*(nA - 1))+((sB^2)*(nB - 1)))/gl)
Tcal <- (mu_a - mu_b)/(Sc*sqrt((1/nA)+(1/nB)))
(pvalor <- pt(Tcal, df = gl, lower.tail = TRUE))
## [1] 0.5684474
print("Não devemos rejeitar a hipótese nula de que os métodos têm o mesmo desempenho.")
## [1] "Não devemos rejeitar a hipótese nula de que os métodos têm o mesmo desempenho."
mu <- 13.2
dp <- 2
n <- 40
xbarra <- 12.2
Tcal <- (xbarra - mu) / (dp / sqrt(n))
(pvalor <- pt(Tcal, df = n - 1, lower.tail = TRUE))
## [1] 0.001513711
print("Não devemos acusar a firma de infringir a lei, uma vez que não podemos rejeitar H0 a 1%.")
## [1] "Não devemos acusar a firma de infringir a lei, uma vez que não podemos rejeitar H0 a 1%."
% de motoristas | 10 | 20 | 20 | 25 | 25 |
---|---|---|---|---|---|
idade (anos) | 15-16 | 17-18 | 19-20 | 21-22 | 23-24 |
número de acidentes | 8 | 15 | 13 | 11 | 8 |
alpha <- 0.05
(TotalAcidentes <- 8+15+13+11+8)
## [1] 55
Obs <- c(8,15,13,11,8)
#H0:O percentual de acidentes independe da idade
#H1:Não H0
XiQuad <- chisq.test(Obs, p = c(0.1,0.2,0.2,0.25,0.25))
XiQuad
##
## Chi-squared test for given probabilities
##
## data: Obs
## X-squared = 5.9091, df = 4, p-value = 0.206
Nenhum suplemento 500mg | Vit. C | |
---|---|---|
Tamanho da amostra | 12 | 12 |
Tempo médio | 7,4 | 5,8 |
Variâncias | 2,9 | 2,4 |
# A = tomaram
# B = não tomaram
na <- 12
nb <- 12
xa <- 7.4
xb <- 5.8
vara <- 2.9
varb <- 2.4
sda <- sqrt(vara)
sdb <- sqrt(varb)
Fcal <- (vara)/(varb)
pf(Fcal, na - 1, nb - 1)
## [1] 0.6204097
# variâncias iguais,
# realizamos teste t com variâncias iguais
gl <- na + nb - 2
Sc <- sqrt((((sda^2)*(na - 1))+((sdb^2)*(nb - 1)))/gl)
Tcal <- (xb - xa)/(Sc*sqrt((1/na)+(1/nb))) # B - A: tempo de quem tomou, menos tempo de quem não tomou (a diferença tem de ser negativa)
(pvalor <- pt(Tcal, df = gl, lower.tail = TRUE))
## [1] 0.01244463
print("Podemos afirmar que houve melhoria dentre os pacientes que tomaram vitamina C, ao nível de 5%.")
## [1] "Podemos afirmar que houve melhoria dentre os pacientes que tomaram vitamina C, ao nível de 5%."
Sim | Indeciso | Não | Total | |
---|---|---|---|---|
Distrito A | 20 | 9 | 21 | 50 |
Distrito B | 26 | 3 | 21 | 50 |
Total | 46 | 12 | 42 | 100 |
Fobs <- data.frame(Distrito = c("Distrito A", "Distrito B"),
Sim = c(20, 26),
Indeciso = c(9, 3),
Nao = c(21, 21),
row.names = TRUE)
#H0: As opiniões são homogêneas
#H1: Não H0
chisq.test(Fobs, correct = TRUE)
##
## Pearson's Chi-squared test
##
## data: Fobs
## X-squared = 3.7826, df = 2, p-value = 0.1509
normalmente distribuído com variância \(\sigma^{2}=275\). Pede-se:
mu <- 60
n <- 30
xbarra <- 55
var <- 275
sd <- sqrt(var)
Tcal <- (xbarra - mu) / (sd / sqrt(n))
(pt(Tcal, df = n - 1, lower.tail = TRUE))
## [1] 0.05471847
print("Ao nível de 1% não é possível rejeitar a hipótese nula de que a campanha não foi eficaz.")
## [1] "Ao nível de 1% não é possível rejeitar a hipótese nula de que a campanha não foi eficaz."
(pt(Tcal, df = n - 1, lower.tail = TRUE))
## [1] 0.05471847
print("Para o nível de 5,4%.")
## [1] "Para o nível de 5,4%."
mu <- 15
n <- 36
xbarra <- 17
var <- 9
sd <- sqrt(var)
Tcal <- (xbarra - mu) / (sd / sqrt(n))
(pt(Tcal, df = n - 1, lower.tail = FALSE))
## [1] 0.0001561009
print("Pode-se concluir que houve mudança significativa após o treinamento, só que para pior: os vendedores passaram a desperdiçar ainda mais horas em contatos comerciais.")
## [1] "Pode-se concluir que houve mudança significativa após o treinamento, só que para pior: os vendedores passaram a desperdiçar ainda mais horas em contatos comerciais."
Nível educacional | ruim | razoável | boa | muito boa |
---|---|---|---|---|
Universidade | 18 | 29 | 70 | 115 |
2º grau | 17 | 28 | 30 | 41 |
3º grau | 11 | 10 | 11 | 20 |
Fobs <- data.frame(Educação = c("Universidade", "2º grau", "3º grau"),
Ruim = c(18, 17, 11),
Razoável = c(29, 28, 10),
Boa = c(70, 30, 11),
Muito_boa = c(115, 41, 20),
row.names = TRUE)
#H0: nível educacional e adaptação à vida conjugal são independentes
#H1: Não H0
chisq.test(Fobs, correct = TRUE)
##
## Pearson's Chi-squared test
##
## data: Fobs
## X-squared = 19.943, df = 6, p-value = 0.002835
print("As variáveis são consideradas dependentes, pois encontramos um p-valor de 0.002, abaixo da significância de 5%.")
## [1] "As variáveis são consideradas dependentes, pois encontramos um p-valor de 0.002, abaixo da significância de 5%."
mu <- 1
n <- 75
xbarra <- 63.97/75
s <- 0.25
Tcal <- (xbarra - mu) / (s / sqrt(n))
(pt(Tcal, df = n - 1, lower.tail = TRUE))
## [1] 1.292756e-06
print("A 5% de probabilidade, devemos parar a máquina para regulagem pois ela está enchendo vasilhames com média diferente de 1L.")
## [1] "A 5% de probabilidade, devemos parar a máquina para regulagem pois ela está enchendo vasilhames com média diferente de 1L."
# H0: renda = 5 U.M.
# Ha: renda > 5 U.M.
# As informações necessárias para se realizar um teste Z é preciso ter uma amostra suficientemente grande (>30), para obter sua média amostral e a variância populacional.
# As informções necessárias para realizar se um teste t é ter uma amostra (não necessariamente grande) e computarmos sua média e variância.
# O erro I rejeita a H0 quando verdadeira, informar que a renda aumentou quando ela se manteve igual.
# O erro II não rejeitar a H0 quando ela é falsa, dizer que a renda está igual quando na verdade ela aumentou.
sd <- 5
mu <- 10
n <- 100
xbarra <- 9
Zcal <- (xbarra - mu) / (sd / sqrt(n))
(pnorm(Zcal, lower.tail = TRUE))
## [1] 0.02275013
print("Ao nível de 1.5% não deve-se rejeitar a H0 de que o consumo médio per capita é de 10kg.")
## [1] "Ao nível de 1.5% não deve-se rejeitar a H0 de que o consumo médio per capita é de 10kg."
Idade | Ruim | Bom |
---|---|---|
Jovem | 30 | 20 |
Experiente | 20 | 30 |
O que pode ser afirmado quanto à seguinte hipótese de nulidade? H0 : Idade e opinião são independentes.
Fobs <- data.frame(Idade = c("Jovem", "Experiente"),
Ruim = c(30, 20),
Bom = c(20, 30),
row.names = TRUE)
#H0: Idade e opinião são independentes
#H1: Não H0
chisq.test(Fobs, correct = TRUE)
##
## Pearson's Chi-squared test with Yates' continuity correction
##
## data: Fobs
## X-squared = 3.24, df = 1, p-value = 0.07186
print("Idade e opinião são independentes")
## [1] "Idade e opinião são independentes"
Pára-choque | Custo (R$) | Média | Variância |
---|---|---|---|
A | 320 310 380 360 320 345 | 339,17 | 744,17 |
B | 305 290 340 315 280 305 | 305,80 | 434,17 |
Teste (\(\alpha=5\%\)) a hipótese de igualdade entre os custos médios de reparo dos pará-choques.
a <- c(320, 310, 380, 360, 320, 345)
b <- c(305, 290, 340, 315, 280, 305)
# testando variâncias
var.test(a, b, alternative = "two.sided")
##
## F test to compare two variances
##
## data: a and b
## F = 1.714, num df = 5, denom df = 5, p-value = 0.5687
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.2398433 12.2489808
## sample estimates:
## ratio of variances
## 1.714012
# variâncias iguais. teste t com variâncias iguais
t.test(a, b, alternative = "two.sided", var.equal = TRUE)
##
## Two Sample t-test
##
## data: a and b
## t = 2.3786, df = 10, p-value = 0.03871
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## 2.108458 64.558208
## sample estimates:
## mean of x mean of y
## 339.1667 305.8333
print("Ao nível de 5% há diferença entre os custos, sendo A o mais caro.")
## [1] "Ao nível de 5% há diferença entre os custos, sendo A o mais caro."
Face | 1 | 2 | 3 | 4 | 5 | 6 | Total |
---|---|---|---|---|---|---|---|
Frequência observada | 129 | 107 | 98 | 132 | 136 | 118 | 720 |
O dado será considerado viciado para qual nível de significância? Explique sua resposta.
Fobs <- data.frame(Face = c("1", "2", "3", "4", "5", "6"),
Frequência_obs = c(129, 107, 98, 132, 136, 118),
Frequência_esperada = c(120, 120, 120, 120, 120, 120),
row.names = TRUE)
#H0: dado não viciado
#H1: Não H0
chisq.test(Fobs, correct = TRUE)
##
## Pearson's Chi-squared test
##
## data: Fobs
## X-squared = 4.8782, df = 5, p-value = 0.4309
print("O dado será considerado viciado para o nível de significância 43.09%")
## [1] "O dado será considerado viciado para o nível de significância 43.09%"
mu <- 100
n <- 16
xbarra <- 85
s <- 12
Tcal <- (xbarra - mu) / (s/sqrt(n))
(pt(Tcal, df = n - 1, lower.tail = TRUE))
## [1] 7.918476e-05
print("Há evidência estatística forte o suficiente para afirmar que a melhora aconteceu após a modificação. Foi assumida que o comportamento da população pode ser modelado por uma distribuição T-Student, por termos uma amostra pequena e usarmos a variância amostral no cálculo.")
## [1] "Há evidência estatística forte o suficiente para afirmar que a melhora aconteceu após a modificação. Foi assumida que o comportamento da população pode ser modelado por uma distribuição T-Student, por termos uma amostra pequena e usarmos a variância amostral no cálculo."