Do livro Introdução à Inferência Estatística, de Heleno e Sandoval (2001), capítulo 3, Métodos de Estimação.
\(\qquad\)
\[\begin{equation} L(\theta;\mathbf{x}) = \prod_{i=1}^{n} f(x_i|\theta). \tag{1.1} \end{equation}\]Definição 1. Sejam \(x_1, . . . ,x_n\) uma amostra aleatória de tamanho \(n\) da variável aleatória \(X\) com função de densidade (ou de probabilidade) \(f(x|\theta)\), com \(\theta \in \Theta\), onde \(\Theta\) é o espaço paramétrico. A função de verossimilhança de \(\theta\) correspondente à amostra aleatória observada é dada por
Definição 2. O estimador de máxima verossimilhança de \(\theta\) é o valor \(\hat{\theta} \in \Theta\) que maximiza a função de verossimilhança \(L(\theta; \mathbf{x})\).
O logaritmo natural da função de verossimilhança de \(\theta\) é denotado por
\[\begin{equation} l(\theta;\mathbf{x}) = \ln L(\theta;\mathbf{x}) \tag{1.2} \end{equation}\]O valor de \(\theta\) que maximiza a função de verossimilhança \(L(\theta;\mathbf{x})\), também maximiza \(l(\theta;\mathbf{x})\) dada por (1.2).
No caso uniparamétrico, onde \(\Theta\) é um intervalo da reta e \(l(\theta;\mathbf{x})\) é derivável, o estimador de máxima verossilhança pode ser encontrado como raiz da equação de verossimilhança
\[\begin{equation} l'(\theta;\mathbf{x}) = \frac{\partial l(\theta; \mathbf{x})}{\partial \theta} = 0 \tag{1.3} \end{equation}\]Em alguns exemplos simples, a solução da equação de verossimilhança pode ser obtida explicitamente. Em situações mais complicadas, a solução da equação (1.3) será, em geral, obtida por procedimentos numéricos.
Para se concluir que a solução da equação (1.3) é um ponto de máximo, é necessário verificar se
\[\begin{equation} l''(\hat{\theta}; \mathbf{x}) = \left. \frac{\partial^2 \ln L(\theta; \mathbf{x})}{\partial \theta^2} \right|_{\theta = \hat{\theta}} < 0. \tag{1.4} \end{equation}\]Em situações em que \(\Theta\) é discreto ou em que o máximo de \(l(\theta; \mathbf{x})\) ocorre na fronteira de \(\Theta\), o estimador de máxima verossimilhança não pode ser obtido a partir da solução de (1.3). Em tais situações, o máximo é obtido a partir da inspeção da função de verossimilhança.
\(\quad\)
Exemplo. Sejam \(x_1, \dots ,x_n\) uma amostra aleatória da distribuição da variável aleatória \(X \sim N(\mu, 1)\).
\(\quad\)
Solução
\(\quad\)
Seja \(X \sim N(\mu,1)\), então
\[\begin{equation} f(x; \mu) = \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x - \mu)^2}, -\infty < x < \infty, \end{equation}\]em que \(-\infty < \mu < \infty\).
Nesse caso, a função de verossimilhança é dada por
\[\begin{align*} L(\mu; \mathbf{x}) &= \prod_{i=1}^{n} f(x_i|\mu) \\ &= \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x - \mu)^2} \\ &= \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x_1 - \mu)^2} \times \cdots \times \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x_n - \mu)^2} \\ L(\mu; \mathbf{x}) &= \bigg( \frac{1}{\sqrt{2\pi}} \bigg) ^n e^{-\frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2} \end{align*}\]com \(\Theta = {\mu: -\infty < \mu < \infty}\).
Aplicando \(ln\) na função de verossimilhança, obtém-se
\[\begin{align*} % remove a numeração de todas as equações desse ambiente l(\mu; \mathbf{x}) &= \ln L(\mu; \mathbf{x}) \\ &= \ln \bigg[ \bigg( \frac{1}{\sqrt{2\pi}} \bigg)^n e^{-\frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2} \bigg]\\ &= \ln \bigg[ \bigg( \frac{1}{\sqrt{2\pi}} \bigg)^n\bigg] + \ln \bigg [e^{-\frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2} \bigg]\\ &= n \bigg [ \bigg( \ln (1)- \ln (\sqrt{2\pi}) \bigg)\bigg] - \frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2\\ l(\mu; \mathbf{x}) &= -n\ln (\sqrt{2\pi}) - \frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2 \end{align*}\]Fazendo
\(l'(\mu;\mathbf{x}) = \frac{\partial l(\mu; \mathbf{x})}{\partial \mu}\), temos
\[\begin{align*} \frac{\partial l(\mu; \mathbf{x})}{\partial \mu} &= -\frac{2}{2} \sum_{i=1}^{n} (x_i - \mu) (-1) \\ &= \sum_{i=1}^{n} (x_i - \mu). \end{align*}\]Logo, a equação de verossimilhança é dada por
\[\begin{align} \sum_{i=1}^{n} (x_i - \hat{\mu}) &= 0 \\ \sum_{i=1}^{n} x_i &= n\mu \\ \frac{1}{n} \sum_{i=1}^{n} x_i &= \hat{\mu}. \end{align}\]Portanto, o estimador de máxima verossimilhança de \(\mu\) é dado por
\[\begin{equation} \hat{\mu} = \frac{1}{n} \sum_{i=1}^{n} x_i = \bar{X}. \end{equation}\]Ao calculando a segunda derivada da log-verossimilhança e avaliá-la em \(\mu = \hat{\mu}\)
\[\begin{align} \frac{\partial l(\mu; \mathbf{x})}{\partial \mu} &= \sum_{i=1}^{n} (x_i - \mu) \\ \frac{\partial^2 l(\mu; \mathbf{x})}{\partial \mu^2} &= -n. \end{align}\]verifica-se que satisfaz
\[\begin{equation} l''(\hat{\mu}; \mathbf{x}) = \left. \frac{\partial^2 \ln L(\mu; \mathbf{x})}{\partial \mu^2} \right|_{\mu = \hat{\mu}} < 0. \end{equation}\]Como a segunda derivada da log-verossimilhança é menor que zero, concluímos que \(\hat{\mu} = \bar{X}\) é um ponto de máximo para a log-verossimilhança.
Do livro Introdution to Linear Regression Analysis, de Montgomery, Peck, e Vining (2021), capítulo 2.12, Métodos de Estimação.
\(\qquad\)
Considere os dados \((y_i, x_i), i = 1, 2, . . . , n\). Se assumirmos que os erros no modelo de regressão são independentes, identicamente distribuídos (iid) e seguem distribuição normal \(N(0, \sigma^2)\), então as observações \(y_i\) nesta amostra são variáveis aleatórias distribuídas normalmente e independentemente, com média \(\beta_0 + \beta_1x_i\) e variância \(\sigma^2\). A função de verossimilhança é encontrada a partir da distribuição conjunta das observações. Se considerarmos esta distribuição conjunta com as observações dadas e os parâmetros \(\beta_0, \beta_1\) e \(\sigma^2\) constantes desconhecidas, temos a função de verossimilhança.
Dado um modelo de regressão linear simples, com observações independentes
\[\begin{equation} y_i = \beta_0 + \beta_1 x_i + \varepsilon_i, \quad i = 1, \dots, n, \end{equation}\]os estimadores de máxima verossimilhança para \(\beta_0, \beta_1\) e \(\sigma^2\) são dados por
\[\begin{align} \hat{\beta}_0 &= \bar{y} - \hat{\beta}_1 \bar{x} \\ \hat{\beta}_1 &= \frac{s_{xy}}{s^2_x} \\ \hat{\sigma}^2 &= \frac{1}{n} \sum_{i=1}^{n}(y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)^2 \end{align}\]onde \(\bar{x}\) e \(\bar{y}\) são as médias amostrais, \(s^2_x\) é a variância amostral de \(x\) e \(s_{xfy}\) é a covariância amostral de \(xy\).
Função de verossimilhança
\[\begin{align} L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= \prod_{i=1}^n \frac{1}{\sqrt{2\pi \sigma^2}} \exp\left(-\frac{(y_i - \beta_0 - \beta_1 x_i)^2}{2\sigma^2}\right) \\ L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= \frac{1}{\left(\sqrt{2\pi \sigma^2}\right)^n} \exp\left(-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2\right) \end{align}\]Os estimadores de máxima verossimilhança (EMV) são os valores \(\hat{\beta}_0\), \(\hat{\beta}_1\) e \(\hat{\sigma}^2\) que maximizam \(L(y_i, x_i; \beta_0, \beta_1, \sigma^2)\), ou equivalentemente, \(\ln L(.)\). Assim,
\[\begin{align} \ln L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= \ln \left\{\frac{1}{(2\pi \sigma^2)^{n/2}} \exp\left[-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2\right] \right\} \\ &= \ln\left[\frac{1}{\left(2\pi \sigma^2\right)^{n/2}}\right] + \ln\left\{\exp\left[-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2\right]\right\} \\ &= -\ln \left[(2\pi \sigma^2)^{n/2}\right] - \frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2 \\ \ln L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= -\frac{n}{2} \ln(2\pi) - \frac{n}{2} \ln(\sigma^2) - \frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2 \end{align}\]A derivada da função de log-verossimilhança em relação a \(\beta_0\) é
\[\begin{align} \frac{\partial \ln L}{\partial \beta_0} &= (-1) \left[-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i) \right] \cdot 2 \\ &= \frac{1}{\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i). \end{align}\]O EMV \(\beta_0\) deve satisfazer
\[\begin{align} \frac{\partial \ln L}{\partial \beta_0}\Big|_{\hat{\beta}_0, \hat{\beta}_1, \hat{\sigma}^2} &= 0 \\ \frac{1}{\sigma^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i) &= 0 \\ \sum_{i=1}^n y_i - n\hat{\beta}_0 - \hat{\beta}_1 \sum_{i=1}^n x_i &= 0 \\ n\hat{\beta}_0 &= \sum_{i=1}^n y_i - \hat{\beta}_1 \sum_{i=1}^n x_i \\ \hat{\beta}_0 &= -\hat{\beta}_1 \cdot \frac{1}{n}\sum_{i=1}^n x_i + \frac{1}{n}\sum_{i=1}^n y_i \\ \hat{\beta}_0 &= \bar{y} - \bar{x}\hat{\beta}_1 \end{align}\]Para \(\beta_1\), temos
\[\begin{align} \frac{\partial \ln L}{\partial \beta_1} &= \left[ - \frac{2}{2\hat{\sigma}^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i) \cdot (-x_i) \right] \\ & = \frac{1}{\hat{\sigma}^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i) x_i. \end{align}\]Igualando a zero:
\[\begin{align} \frac{\partial \ln L}{\partial \beta_1}\Big|_{\hat{\beta}_1, \hat{\beta}_0, \hat{\sigma}^2} &= 0 \\ \frac{1}{\hat{\sigma}^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)x_i &= 0 \\ \sum_{i=1}^n y_i x_i - \hat{\beta}_0 \sum_{i=1}^n x_i - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - (\bar{y} - \hat{\beta}_1 \bar{x}) \sum_{i=1}^n x_i - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - \bar{y} \sum_{i=1}^n x_i - \hat{\beta}_1 \bar{x} \sum_{i=1}^n x_i -\hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - \bar{y}n \bar{x} + \hat{\beta}_1 \bar{x} n \bar{x} - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - \bar{x} \sum_{i=1}^n y_i + n \hat{\beta_1} \bar{x}^2 - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i (x_i - \bar{x}) &= \hat{\beta}_1 \left(\sum_{i=1}^n x_i^2 - n\bar{x}^2\right) \\ \sum_{i=1}^n y_i (x_i - \bar{x}) &= \hat{\beta}_1\sum_{i=1}^n (x_i - \bar{x})^2 \\ \hat{\beta}_1 &= \frac{\sum_{i=1}^n y_i (x_i - \bar{x})}{\sum_{i=1}^n (x_i - \bar{x})^2} \end{align}\]A derivada da função de log-verossimilhança em relação a \(\sigma^2\)
\[\begin{align} \frac{\partial \ln L}{\partial \sigma^2}\Big|_{ \hat{\beta}_0, \hat{\beta}_1, \hat{\sigma}^2} &= -\frac{n}{2\sigma^2} + \frac{1}{2(\sigma^2)^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2 = 0 \\ \frac{n}{2\hat{\sigma}^2} &= \frac{1}{2\left(\hat{\sigma}^2\right)^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)^2 \\ \hat{\sigma^2} &= \frac{\sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)^2}{2} \end{align}\]No trabalho: “Efeito de doses de gesso na cultura do feijoeiro (Phaseolus vulgaris L.)”, Ragazzi (1979) utilizou um experimento inteiramente casualizado com 4 repetições, para estudar os efeitos de 7 doses de gesso (Tratamentos): O, 50, 100, 150, 200,250 e 300 kg/ha sobre diversas características do feijoeiro Banzatto e Kronka (1992).
Para a característica peso de 1.000 sementes, os resultados obtidos, em gramas, são apresentados abaixo:
Tratamento | Repeticao1 | Repeticao2 | Repeticao3 | Repeticao4 |
---|---|---|---|---|
0 | 134.8 | 139.7 | 147.6 | 132.3 |
50 | 161.7 | 157.7 | 150.3 | 144.7 |
100 | 160.7 | 172.7 | 163.4 | 161.3 |
150 | 169.8 | 168.2 | 160.7 | 161.0 |
200 | 165.7 | 160.0 | 158.2 | 151.0 |
250 | 171.8 | 157.3 | 150.4 | 160.4 |
300 | 154.5 | 160.4 | 148.8 | 154.0 |
Tratamento | Peso |
---|---|
0 | 138.600 |
50 | 153.600 |
100 | 164.525 |
150 | 164.925 |
200 | 158.725 |
250 | 159.975 |
300 | 154.425 |
plot(medias,
xlab = "Doses de gesso (kg/ha)",
ylab = "Peso de 1.000 sementes (g)",
type = 'p',
ylim = c(130,170),
pch = 19,
cex=1, col= "green3")
text(medias$Tratamento,
medias$Peso,
labels = round(medias$Peso, 2),
pos = 1, cex = 0.8)
Figure 1.1: Peso médio de sementes de feijão, por tratamento
É possível observar no gráfico que há uma tendência de resposta crescente até certo ponto, para depois decrescer.
O modelo mais simples para explicar a relação entre \(x\) e \(y\) é o modelo de regressão linear simples, que será testado a seguir.
Assumindo que \(\varepsilon_i \overset{\text{iid}}{\sim} \mathcal{N}(0, \sigma^2)\), será feita a estimação dos parâmetros de regressão linear por Máxima Verossimilhança.
Para testar a significância da regressão linear, é necessário testar a significância da estimativa \(\hat{\beta_1}\) e, para isso, testamos as hipóteses:
\[\begin{align} H_0: \beta_1 &= 0 \quad \text{(o tratamento não afeta o peso)} \\ H_1: \beta_1 &\neq 0 \quad \text{(o tratamento afeta o peso)} \end{align}\]Inicialmente é preciso obter os parâmetros do modelo de regressão. Utilizando o método da Máxima Verossimilhança, pode-se escrever uma função para estimar os coeficientes do ajuste linear como abaixo:
# Método da Máxima Verossimilhança
RegLinear <- function(data, var_indep, var_dep) {
# Extrair as variáveis
x <- data[[var_indep]]
y <- data[[var_dep]]
# Função de log-verossimilhança
log_verossimilhança <- function(par, x, y) {
beta0 <- par[1] # Intercepto
beta1 <- par[2] # Inclinação
sigma2 <- exp(par[3]) # Variância (garante positividade)
n <- length(y)
res <- y - (beta0 + beta1 * x) # Resíduos
ll <- -n / 2 * log(2 * pi * sigma2) - sum(res^2) / (2 * sigma2) # Log-verossimilhança
return(-ll) # Negativo porque vamos minimizar
}
# Valores iniciais para os parâmetros
par_iniciais <- c(mean(y), 0, log(var(y)))
# Otimização
resultado <- optim(
par = par_iniciais,
fn = log_verossimilhança,
x = x,
y = y,
method = "BFGS",
hessian = TRUE
)
# Resultados
par_estimados <- resultado$par
beta0_mle <- par_estimados[1]
beta1_mle <- par_estimados[2]
sigma2_mle <- exp(par_estimados[3])
# Retorna os resultados
list(
beta0 = beta0_mle,
beta1 = beta1_mle,
sigma2 = sigma2_mle,
log_likelihood = -resultado$value
)
}
RegLinear(data = medias, "Tratamento", "Peso")
## $beta0
## [1] 150.558
##
## $beta1
## [1] 0.03890571
##
## $sigma2
## [1] 54.42994
##
## $log_likelihood
## [1] -23.90946
A função lm()
no R
utiliza o método dos Mínimos Quadrados Ordinários para estimar os parâmetros de um modelo de regressão linear.
Em modelos lineares com erros normais, o método dos mínimos quadrados ordinários coincide com o método de máxima verossimilhança. Logo, o código escrito anteriormente irá gerar estimativas semelhantes à função lm()
.
reg_model <- lm(Peso ~Tratamento, data = medias)
summary(reg_model)
##
## Call:
## lm(formula = Peso ~ Tratamento, data = medias)
##
## Residuals:
## 1 2 3 4 5 6 7
## -11.9652 1.0911 10.0723 8.5286 0.3848 -0.3089 -7.8027
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 150.56518 5.93759 25.36 1.78e-06 ***
## Tratamento 0.03888 0.03294 1.18 0.291
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 8.714 on 5 degrees of freedom
## Multiple R-squared: 0.2179, Adjusted R-squared: 0.0615
## F-statistic: 1.393 on 1 and 5 DF, p-value: 0.291
Como \(p>0,05\), não rejeitamos \(H_0\). Logo, há evidências de que o tratamento não influencia o peso das sementes de feijão.
Quando \(\beta_1\) não é estatisticamente significativo, significa que não há evidências suficientes para concluir que \(y\) muda linearmente com \(x\), resultando em \(\hat{y} = \hat{\beta_0}\). Visualmente, o gráfico com os pontos \((x,y)\) mostrará a reta horizontal passando pelo valor médio de \(y\), indicando que não há relação entre as variáveis que possa ser descrita pelo modelo de regressão linear.
Figure 1.2: Peso médio de sementes de feijão, por tratamento com reta de regressão ajustada
Pelo coeficiente de determinação, obtido em summary(reg_model)
, pode-se observar que a porcentagem da variação nos dados que é explicada pelo modelo é de apenas 21.79% (ou que o ajuste não pode explicar aproximadamente 78% da variação dos dados), também indicando que o modelo não é o mais adequado para esse conjunto de dados.
Nesse caso, é necessário encontrar um modelo com melhor ajuste.
A Análise de Variância do experimento para o estudo da regressão irá testar as hipóteses:
\[\begin{align} \text{Regressão}& \ \text{polinomial} \\ H_0 &: \mu_0 = \mu_{50} = \mu_{100} = \mu_{150} = \mu_{200} = \mu_{250} = \mu_{300} \\ H_1 &: \mu_i \neq \mu_i' ,\quad i\neq i' \\ \\ \text{Regressão}& \ \text{linear} \\ H_0 &: \beta_1 = 0 \\ H_1 &: \beta_1 \neq 0 \\ \\ \text{Regressão}& \ \text{quadrática} \\ H_0 &: \beta_2 = 0 \\ H_1 &: \beta_2 \neq 0 \\ \\ \text{Regressão}& \ \text{cúbica} \\ H_0 &: \beta_3 = 0 \\ H_1 &: \beta_3 \neq 0 \\ \\ H_0 &: \sigma^2_{desvios} = 0 \quad \text{(desvios da regressão ou fator de ajustamento)}\\ H_1 &: \sigma^2_{desvios} > 0 \end{align}\]
Ao utilizar a função dic
do pacote ExpDes.pt
além dos testes citados, pode-se verificar homogeneidade de variância e normalidade dos resíduos (\(\hat{\varepsilon}_{ij} = Y_{ij} - \hat{m}_i\)), cujas hipóteses são:
\[\begin{align} \text{Teste de}& \ \text{normalidade dos resíduos} \\ H_0 &: \ \text{os resíduos seguem distribuição normal} \\ H_1 &: \ \text{os resíduos não seguem distribuição normal} \\ \\ \text{Teste de}& \ \text{homogeneidade de variância} \\ H_0 &: \ \text{variâncias são homogêneas} \\ H_1 &: \ \text{variâncias não são homogêneas} \end{align}\]
ExpDes.pt::dic(dados$Tratamento,
dados$Peso,
quali = FALSE,
hvar = "levene"
)
## ------------------------------------------------------------------------
## Quadro da analise de variancia
## ------------------------------------------------------------------------
## GL SQ QM Fc Pr>Fc
## Tratamento 6 1941.83 323.64 7.668 0.00018763
## Residuo 21 886.34 42.21
## Total 27 2828.17
## ------------------------------------------------------------------------
## CV = 4.15 %
##
## ------------------------------------------------------------------------
## Teste de normalidade dos residuos ( Shapiro-Wilk )
## Valor-p: 0.5471519
## De acordo com o teste de Shapiro-Wilk a 5% de significancia, os residuos podem ser considerados normais.
## ------------------------------------------------------------------------
##
## ------------------------------------------------------------------------
## Teste de homogeneidade de variancia
## valor-p: 0.8350179
## De acordo com o teste de levene a 5% de significancia, as variancias podem ser consideradas homogeneas.
## ------------------------------------------------------------------------
##
## Ajuste de modelos polinomiais de regressao
## ------------------------------------------------------------------------
##
## Modelo Linear
## =========================================
## Estimativa Erro.padrao tc valor.p
## -----------------------------------------
## b0 150.5652 2.2134 68.0255 0
## b1 0.0389 0.0123 3.1664 0.0046
## -----------------------------------------
##
## R2 do modelo linear
## --------
## 0.217915
## --------
##
## Analise de variancia do modelo linear
## =========================================================
## GL SQ QM Fc valor.p
## ---------------------------------------------------------
## Efeito linear 1 423.1544 423.1544 10.03 0.00465
## Desvios de Regressao 5 1,518.6780 303.7356 7.2 0.00046
## Residuos 21 886.3375 42.2066
## ---------------------------------------------------------
## ------------------------------------------------------------------------
##
## Modelo quadratico
## =========================================
## Estimativa Erro.padrao tc valor.p
## -----------------------------------------
## b0 140.7839 2.8354 49.6527 0
## b1 0.2736 0.0443 6.1812 0
## b2 -0.0008 0.0001 -5.5196 0.00002
## -----------------------------------------
##
## R2 do modelo quadratico
## --------
## 0.880095
## --------
##
## Analise de variancia do modelo quadratico
## ===========================================================
## GL SQ QM Fc valor.p
## -----------------------------------------------------------
## Efeito linear 1 423.1544 423.1544 10.03 0.00465
## Efeito quadratico 1 1,285.8430 1,285.8430 30.47 2e-05
## Desvios de Regressao 4 232.8346 58.2087 1.38 0.27505
## Residuos 21 886.3375 42.2066
## -----------------------------------------------------------
## ------------------------------------------------------------------------
##
## Modelo cubico
## =========================================
## Estimativa Erro.padrao tc valor.p
## -----------------------------------------
## b0 138.2423 3.1302 44.1645 0
## b1 0.4431 0.0989 4.4812 0.0002
## b2 -0.0023 0.0008 -2.8551 0.0095
## b3 0.000003 0 1.9166 0.0690
## -----------------------------------------
##
## R2 do modelo cubico
## --------
## 0.959938
## --------
##
## Analise de variancia do modelo cubico
## ===========================================================
## GL SQ QM Fc valor.p
## -----------------------------------------------------------
## Efeito linear 1 423.1544 423.1544 10.03 0.00465
## Efeito quadratico 1 1,285.8430 1,285.8430 30.47 2e-05
## Efeito cubico 1 155.0417 155.0417 3.67 0.069
## Desvios de Regressao 3 77.7930 25.9310 0.61 0.61327
## Residuos 21 886.3375 42.2066
## -----------------------------------------------------------
## ------------------------------------------------------------------------
Valores de \(F\) da tabela:
\(1 \times 21\) GL: {\(5\% =\) 4.32 ; \(1\% =\) 8.02}
\(3 \times 21\) GL: {\(5\% =\) 3.07 ; \(1\% =\) 4.87}
Em ordem de ocorrência dos resultados, pode-se observar que os tratamentos foram significativos a 5% de probabilidade do teste \(F\) (valor-p < 0,01), indicando que há evidências de diferenças em pelo menos um dos tratamentos.
O teste de Shapiro-Wilk para normalidade dos resíduos (valor-p = 0,547), aponta que os resíduos são normais, assim como o teste de Levene para homogeneidade das variâncias (valor-p = 0,835), indicando igualdade das variâncias.
A Análise de Variância para o estudo da regressão indica que os ajustes linear e quadrático são significativos , no entanto, deve-se, determinar a equação de regressão, que será a correspondente à regressão de mais alto grau que foi significativa, mesmo que outra de grau menor seja não significativa (Banzatto e Kronka (1992)).
Ainda, o coeficiente de determinação \(R^2\) é de 0,880095, ou seja, pelo ajuste quadrático, podemos esperar que aproximadamente 88% da variação do peso medio de sementes de feijoeiro seja explicado pela variação das doses de gesso (kg/ha).
Portanto, pela análise realizada, o ajuste quadrático é o mais indicado para este estudo.
Neste caso, a equação de regressão será:
\[\begin{align} \hat{Y} = 140,7839 + 0,2736 x - 0,0008 x^2. \end{align}\]
Ajustando ao contexto, pode-se escrever como:
\[\begin{align} \hat{massa} = 140,7839 + 0,2736 \times gesso - 0,0008 \times gesso^2. \end{align}\]
Para encontrar o valor máximo de gesso que elevará a o peso de feijão ao máximo, é nessário verificar se a função tem ponto de máximo, calculando a segunda derivada da função.
\[\begin{align} \frac{\partial{\hat{Y}}}{\partial{X}}& = 0,2736 - 2 \times 0,00078x \\ \frac{\partial^2{\hat{Y}}}{\partial{X^2}}& = -0,001565 \end{align}\]
O resultado da segunda derivada é negativo, portanto, a função tem ponto de máximo. Sendo assim, o ponto máximo será a raiz da equação da primeira derivada.
\[\begin{align} 0,2736 - 2 \times 0,00078X &= 0 \Rightarrow X = -0,2736/(-2\times 0,00078) \\ X &= 175,3846 \end{align}\]
Generalizando, o ponto de máximo para a regressão quadrática é dado por
\[\begin{align} X = - \frac{\hat{\beta_1}}{2\hat{\beta_2}^2}. \end{align}\]
O valor máximo da função, com X=175, é
\(\hat{Y} = 140,7839 + 0,2736 \times 175 - 0,0008 \times (175)^2 =\) 164.704261
Em resumo, pela análise de regressão quadrática, a dose de 175 kg/ha de gesso proporciona o peso médio máximo estimado de 1.000 sementes em 164,7 gramas.