Para medir um experimento planejado, medimos seus efeitos como, o efeito de bloco, assim temos o controle da casualização dos dados e da variância da coleta destes dados logo temos que:
Assumindo os modelos da forma:
Modelo 1: \(y_{ij}=\mu+ \tau_i +e_{ij}\)
Modelo 2: \(y_{ij}=\mu+ \tau_i+ \beta_{j} +e_{ij}\)
set.seed(2222)
sigma = 15; mu = 50 ; alpha = 0.05;
taus = c(10, 20, -15, -15)
trat = factor(c(1,2,3,4))
trats = rep(trat,4)
betas = c(0, 0, 0, 0)
bloco = factor(c(1,2,3,4))
blocos = rep(bloco,each=4)
N = length(taus)*length(betas) # 16 amostras no total
k = 1000 # simulacoes
p_value1 = c()
p_value2 = c()
for (simulacao in 1:k) {
e <- rnorm(N,0, sigma)
y = mu + rep(taus, 4) + rep(betas, each = 4) + e # observacao
modelo1 = aov(y~ trats) # modelo
modelo2 = aov(y~ trats + blocos) # modelo
p_value1[simulacao] = summary(modelo1)[[1]][1,5]
p_value2[simulacao] = summary(modelo2)[[1]][1,5]
}
# Erro do Tipo II modelo 1
mean(p_value1 > alpha)
## [1] 0.16
# Erro do Tipo II modelo 2
mean(p_value2 > alpha)
## [1] 0.203
Como feito acima, o erro do tipo II para os dois modelos se diferem, pois como adicionamos o efeito do bloco, acaba por reduzir os graus de liberdade do resíduo mesmo que os valores do efeito do bloco são iguais a zero. o modelo 1 por não ter o efeito do bloco acaba por ter o erro do tipo II em média igual a 16% e o modelo 2 20%. Esses valores são razoavemente grande, no qual em um caso real obtendo sempre 16 amostras para a avaliação do experimento, sob o efeito apenas do tratamento estariamos classificando aproximadamente 16% dos experimentos como sendo aceitaveis mas na verdade elas não eram, já para o modelo 2 que está sob o efeito do bloco e do tratamento, classificariamos 20% dos experimentos como sendo aceitaveis, quando na verdade eles não eram.
Para o modelo 2:
Temos como resultado da não centralidade, o calculo da distribuição do numerador da distribuição F, ou seja,
\[F={{SQTRAT\over \sigma^2 (a-1)}\over{SQRES\over \sigma^2(a-1)(b-1)}}\] Assim, a não centralidade pode ser indentificada por:
\[\begin{aligned} E\left[{SQTRAT\over \sigma^2} \right] &=E\left[{(a-1)MSTRAT \over \sigma^2} \right]\\ &={(a-1)\over\sigma^2}E\left[{MSTRAT} \right]\\ &={(a-1)\over\sigma^2}E\left[{{\sum_{i=1}^a\sum_{j=1}^b (\bar{y}_{..}-\bar{y}_{i.})^2 \over (a-1)}} \right]\\ &={(a-1)\over\sigma^2}\left[\sigma^2+{b\sum_{i=1}^a\tau_i^2\over a-1} \right]\\ &=(a-1) +{b\sum_{i=1}^a\tau_i^2\over \sigma^2}\\ \end{aligned}\]
Assim temos que o valor de não centralidade é dado por:
\[ncp={b\sum_{i=1}^a\tau_i^2\over \sigma^2}\]
# Modelo 2
sigma = 15;a=4;b=4 ; alpha = 0.05;
taus = c(10, 20, -15, -15)
betas = c(0, 0, 0, 0)
# nao centralidade
ncp = b*sum(taus^2)/sigma^2
f_critc = qf(1-alpha, a-1, (a*1)*(b-1))
# ERRO TIPO II
pf(f_critc, a-1, a*b-a, ncp)
## [1] 0.1559798
Assim, para o modelo 2, o erro do tipo II é aproximadamente 16%, logo de forma análoga para o modelo 1 temos que:
Modelo 1
# Modelo 1
sigma = 15; a=4; n=4 ; alpha = 0.05;
taus = c(10, 20, -15, -15)
# nao centralidade
ncp = n*sum(taus^2)/sigma^2
f_critc = qf(1-alpha, a-1, a*n-a)
# ERRO TIPO II
pf(f_critc, a-1, a*n-a, ncp)
## [1] 0.1559798
Para o modelo 1, temos que o erro do tipo II é exatamente o mesmo valor que do modelo 2, aproximadamente 16%, o que de fato acontece ao comparar os resultados nas simulações onde temos aproximação boa para o modelo 1, mas um razoavelmente distante a do modelo 2, no qual a estatistica de teste está sob efeito dos graus de liberdade do resíduo.
Os valores do erro tipo II são iguais analiticamente justamente pelo fato de estarmos lidando com o mesmo número de amostras por tratamento e o número de blocos, assim o efeito de bloco não influência no erro tipo II do tratamento.
set.seed(2222)
sigma = 15; mu = 50 ; alpha = 0.05;
taus = c(10, 20, -15, -15)
trat = factor(c(1,2,3,4))
trats = rep(trat,4)
betas = c(15, 15, -15, -15)
bloco = factor(c(1,2,3,4))
blocos = rep(bloco,each=4)
N = length(taus)*length(betas) # 16 amostras no total
k = 1000 # simulacoes
p_value1 = c()
p_value2 = c()
for (simulacao in 1:k) {
e <- rnorm(N,0, sigma)
y = mu + rep(taus, 4) + rep(betas, each = 4) + e
modelo1 = aov(y~ trats)
modelo2 = aov(y~ trats + blocos)
p_value1[simulacao] = summary(modelo1)[[1]][1,5]
p_value2[simulacao] = summary(modelo2)[[1]][1,5]
}
# Erro do Tipo II modelo 1
mean(p_value1 > alpha)
## [1] 0.638
# Erro do Tipo II modelo 2
mean(p_value2 > alpha)
## [1] 0.203
Os resultados acima, mostram que o modelo 1, ao não tratar do efeito do bloco, perdemos acurácia ao rejeitar as hipoteses quando elas eram falsas, onde a variância capturada pelo modelo para argumentar sobre o erro aleatório, possui a variabilidade do efeito do bloco, logo perdendo a confiabilidade em do modelo em poder predizer sobre uma tomada de decisão. No qual neste caso, o modelo 1 acaba por não rejeitar as 63% das amostras dizendo serem boas quando na verdade elas não são (Falso-Positivo).
Já para o modelo 2, como este efeito de bloco foi considerado, foi capaz de neutralizar esta variabilidade aleatória por parte do bloco, assim restando apenas a estimativa do erro aleatório, obtendo uma confiabilidade melhor ao predizer os casos falso-positivos, no qual neste modelo 20% dos esperimentos estariamos não rejeitando a amostra como sendo boa, quando na verdade não são.
set.seed(2222)
sigma = 15; mu = 50 ; alpha = 0.05;
taus = c(0, 0, 0, 0)
trat = factor(c(1,2,3,4))
trats = rep(trat,4)
betas = c(0, 0, 0, 0)
bloco = factor(c(1,2,3,4))
blocos = rep(bloco,each=4)
N = length(taus)*length(betas) # 16 amostras no total
k = 1000 # simulacoes
p_value1 = c()
p_value2 = c()
for (simulacao in 1:k) {
e <- rnorm(N,0, sigma)
y = mu + rep(taus, 4) + rep(betas, each = 4) + e
modelo1 = aov(y~ trats)
modelo2 = aov(y~ trats + blocos)
p_value1[simulacao] = summary(modelo1)[[1]][1,5]
p_value2[simulacao] = summary(modelo2)[[1]][1,5]
}
# Erro do Tipo II modelo 1
mean(p_value1 < alpha)
## [1] 0.045
# Erro do Tipo II modelo 2
mean(p_value2 < alpha)
## [1] 0.048
Como o efeito do bloco não influência na amostra observada (\(y\)), temos que tanto no modelo 1 quanto no modelo 2 ao tentar capturar esta variabilidade por parte do bloco, é não significativa. Assim para os dois modelos temos que o erro tipo I está na margem de confiabilidade, no qual este valores observados é puramente por parte do erro aleatório, logo não há indícios de não rejeitar, ou rejeitar a hipotese de igualdade de tratamentos por parte dos dois modelos.
A diferença dos valores do modelo 1 e do modelo 2 se dão pelo grau de liberdade ao considerar o efeito de bloco, mas pouco se diferencia justamente pelo fato do bloco não ter influência nessa variabilidade.
set.seed(2222)
sigma = 15; mu = 50 ; alpha = 0.05;
taus = c(0, 0, 0, 0)
trat = factor(c(1,2,3,4))
trats = rep(trat,4)
betas = c(15, 15, -15, -15)
bloco = factor(c(1,2,3,4))
blocos = rep(bloco,each=4)
N = length(taus)*length(betas) # 16 amostras no total
k = 1000 # simulacoes
p_value1 = c()
p_value2 = c()
for (simulacao in 1:k) {
e <- rnorm(N,0, sigma)
y = mu + rep(taus, 4) + rep(betas, each = 4) + e
modelo1 = aov(y~ trats)
modelo2 = aov(y~ trats + blocos)
p_value1[simulacao] = summary(modelo1)[[1]][1,5]
p_value2[simulacao] = summary(modelo2)[[1]][1,5]
}
# Erro do Tipo I modelo 1
mean(p_value1 < alpha)
## [1] 0.004
# Erro do Tipo I modelo 2
mean(p_value2 < alpha)
## [1] 0.048
Quando há um efeito do bloco, perdemos a confiabilidade do nosso modelo, no qual no modelo 1 por não quantificar essa variabilidade do bloco acaba por influênciar na tomada de decisão, pelo qual o Erro tipo I é dado como rejeitar a amostra quando ela na verdade era boa (Verdadeiro-negativo).
Ja ao análise o modelo 2, temos que esta variabilidade é capturada pelo modelo, assim obtendo mais confiança na análise do modelo e diminuindo a estimativa da variabilidade do erro aleatório.
Sob a ótica dos efeitos do bloco, o modelo que não capturar esta variabilidade colocando como um parâmetro no modelo, a estimativa da variabilidade aleatória vai toda pro erro aleatório, assim perdendo acurácia ao análisar a tomada de decisão. Este erro aleatório inflacionado acaba por reduzir a confiabilidade por parte do proprio problema, e a tomada de decisão acaba por obter estimativas superestimadas ou suberestimadas. No erro tipo I, ganhamos mais confiança para rejeitar nossa hipótese, para o erro tipo II, perdemos acurácia de não rejeitar a hipotese. Dependendo de qual erro é mais crítico no problema, pode ser fatal a decisão.
Se precisar do bloco mas n tem no modelo, ruim, pq o erro vai pra todo sigma e faz perder poder do teste.
Se nao precisar do bloco mas tem, faz o podelo perder poder do teste