1 O MÉTODO DA MÁXIMA VEROSSIMILHANÇA

Do livro Introdução à Inferência Estatística, de Heleno e Sandoval (2001), capítulo 3, Métodos de Estimação.

\(\qquad\)

Definição 1. Sejam \(x_1, . . . ,x_n\) uma amostra aleatória de tamanho \(n\) da variável aleatória \(X\) com função de densidade (ou de probabilidade) \(f(x|\theta)\), com \(\theta \in \Theta\), onde \(\Theta\) é o espaço paramétrico. A função de verossimilhança de \(\theta\) correspondente à amostra aleatória observada é dada por

\[\begin{equation} L(\theta;\mathbf{x}) = \prod_{i=1}^{n} f(x_i|\theta). \tag{1.1} \end{equation}\]

Definição 2. O estimador de máxima verossimilhança de \(\theta\) é o valor \(\hat{\theta} \in \Theta\) que maximiza a função de verossimilhança \(L(\theta; \mathbf{x})\).

O logaritmo natural da função de verossimilhança de \(\theta\) é denotado por

\[\begin{equation} l(\theta;\mathbf{x}) = \ln L(\theta;\mathbf{x}) \tag{1.2} \end{equation}\]

O valor de \(\theta\) que maximiza a função de verossimilhança \(L(\theta;\mathbf{x})\), também maximiza \(l(\theta;\mathbf{x})\) dada por (1.2).

No caso uniparamétrico, onde \(\Theta\) é um intervalo da reta e \(l(\theta;\mathbf{x})\) é derivável, o estimador de máxima verossilhança pode ser encontrado como raiz da equação de verossimilhança

\[\begin{equation} l'(\theta;\mathbf{x}) = \frac{\partial l(\theta; \mathbf{x})}{\partial \theta} = 0 \tag{1.3} \end{equation}\]

Em alguns exemplos simples, a solução da equação de verossimilhança pode ser obtida explicitamente. Em situações mais complicadas, a solução da equação (1.3) será, em geral, obtida por procedimentos numéricos.

Para se concluir que a solução da equação (1.3) é um ponto de máximo, é necessário verificar se

\[\begin{equation} l''(\hat{\theta}; \mathbf{x}) = \left. \frac{\partial^2 \ln L(\theta; \mathbf{x})}{\partial \theta^2} \right|_{\theta = \hat{\theta}} < 0. \tag{1.4} \end{equation}\]

Em situações em que \(\Theta\) é discreto ou em que o máximo de \(l(\theta; \mathbf{x})\) ocorre na fronteira de \(\Theta\), o estimador de máxima verossimilhança não pode ser obtido a partir da solução de (1.3). Em tais situações, o máximo é obtido a partir da inspeção da função de verossimilhança.

\(\quad\)

Exemplo. Sejam \(x_1, \dots ,x_n\) uma amostra aleatória da distribuição da variável aleatória \(X \sim N(\mu, 1)\).

\(\quad\)

Solução

\(\quad\)

Seja \(X \sim N(\mu,1)\), então

\[\begin{equation} f(x; \mu) = \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x - \mu)^2}, -\infty < x < \infty, \end{equation}\]

em que \(-\infty < \mu < \infty\).

Nesse caso, a função de verossimilhança é dada por

\[\begin{align*} L(\mu; \mathbf{x}) &= \prod_{i=1}^{n} f(x_i|\mu) \\ &= \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x - \mu)^2} \\ &= \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x_1 - \mu)^2} \times \cdots \times \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x_n - \mu)^2} \\ L(\mu; \mathbf{x}) &= \bigg( \frac{1}{\sqrt{2\pi}} \bigg) ^n e^{-\frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2} \end{align*}\]

com \(\Theta = {\mu: -\infty < \mu < \infty}\).

Aplicando \(ln\) na função de verossimilhança, obtém-se

\[\begin{align*} % remove a numeração de todas as equações desse ambiente l(\mu; \mathbf{x}) &= \ln L(\mu; \mathbf{x}) \\ &= \ln \bigg[ \bigg( \frac{1}{\sqrt{2\pi}} \bigg)^n e^{-\frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2} \bigg]\\ &= \ln \bigg[ \bigg( \frac{1}{\sqrt{2\pi}} \bigg)^n\bigg] + \ln \bigg [e^{-\frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2} \bigg]\\ &= n \bigg [ \bigg( \ln (1)- \ln (\sqrt{2\pi}) \bigg)\bigg] - \frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2\\ l(\mu; \mathbf{x}) &= -n\ln (\sqrt{2\pi}) - \frac{1}{2} \sum_{i=1}^{n} (x_i - \mu)^2 \end{align*}\]

Fazendo

\(l'(\mu;\mathbf{x}) = \frac{\partial l(\mu; \mathbf{x})}{\partial \mu}\), temos

\[\begin{align*} \frac{\partial l(\mu; \mathbf{x})}{\partial \mu} &= -\frac{2}{2} \sum_{i=1}^{n} (x_i - \mu) (-1) \\ &= \sum_{i=1}^{n} (x_i - \mu). \end{align*}\]

Logo, a equação de verossimilhança é dada por

\[\begin{align} \sum_{i=1}^{n} (x_i - \hat{\mu}) &= 0 \\ \sum_{i=1}^{n} x_i &= n\mu \\ \frac{1}{n} \sum_{i=1}^{n} x_i &= \hat{\mu}. \end{align}\]

Portanto, o estimador de máxima verossimilhança de \(\mu\) é dado por

\[\begin{equation} \hat{\mu} = \frac{1}{n} \sum_{i=1}^{n} x_i = \bar{X}. \end{equation}\]

Ao calculando a segunda derivada da log-verossimilhança e avaliá-la em \(\mu = \hat{\mu}\)

\[\begin{align} \frac{\partial l(\mu; \mathbf{x})}{\partial \mu} &= \sum_{i=1}^{n} (x_i - \mu) \\ \frac{\partial^2 l(\mu; \mathbf{x})}{\partial \mu^2} &= -n. \end{align}\]

verifica-se que satisfaz

\[\begin{equation} l''(\hat{\mu}; \mathbf{x}) = \left. \frac{\partial^2 \ln L(\mu; \mathbf{x})}{\partial \mu^2} \right|_{\mu = \hat{\mu}} < 0. \end{equation}\]

Como a segunda derivada da log-verossimilhança é menor que zero, concluímos que \(\hat{\mu} = \bar{X}\) é um ponto de máximo para a log-verossimilhança.

1.1 ESTIMAÇÃO DOS PARÂMETROS DE REGRESSÃO LINEAR SIMPLES POR MÁXIMA VEROSSIMILHANÇA

Do livro Introdution to Linear Regression Analysis, de Montgomery, Peck, e Vining (2021), capítulo 2.12, Métodos de Estimação.

\(\qquad\)

Considere os dados \((y_i, x_i), i = 1, 2, . . . , n\). Se assumirmos que os erros no modelo de regressão são independentes, identicamente distribuídos (iid) e seguem distribuição normal \(N(0, \sigma^2)\), então as observações \(y_i\) nesta amostra são variáveis aleatórias distribuídas normalmente e independentemente, com média \(\beta_0 + \beta_1x_i\) e variância \(\sigma^2\). A função de verossimilhança é encontrada a partir da distribuição conjunta das observações. Se considerarmos esta distribuição conjunta com as observações dadas e os parâmetros \(\beta_0, \beta_1\) e \(\sigma^2\) constantes desconhecidas, temos a função de verossimilhança.

Dado um modelo de regressão linear simples, com observações independentes

\[\begin{equation} y_i = \beta_0 + \beta_1 x_i + \varepsilon_i, \quad i = 1, \dots, n, \end{equation}\]

os estimadores de máxima verossimilhança para \(\beta_0, \beta_1\) e \(\sigma^2\) são dados por

\[\begin{align} \hat{\beta}_0 &= \bar{y} - \hat{\beta}_1 \bar{x} \\ \hat{\beta}_1 &= \frac{s_{xy}}{s^2_x} \\ \hat{\sigma}^2 &= \frac{1}{n} \sum_{i=1}^{n}(y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)^2 \end{align}\]

onde \(\bar{x}\) e \(\bar{y}\) são as médias amostrais, \(s^2_x\) é a variância amostral de \(x\) e \(s_{xfy}\) é a covariância amostral de \(xy\).

1.2 VERIFICAÇÃO

Função de verossimilhança

\[\begin{align} L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= \prod_{i=1}^n \frac{1}{\sqrt{2\pi \sigma^2}} \exp\left(-\frac{(y_i - \beta_0 - \beta_1 x_i)^2}{2\sigma^2}\right) \\ L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= \frac{1}{\left(\sqrt{2\pi \sigma^2}\right)^n} \exp\left(-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2\right) \end{align}\]

Os estimadores de máxima verossimilhança (EMV) são os valores \(\hat{\beta}_0\), \(\hat{\beta}_1\) e \(\hat{\sigma}^2\) que maximizam \(L(y_i, x_i; \beta_0, \beta_1, \sigma^2)\), ou equivalentemente, \(\ln L(.)\). Assim,

\[\begin{align} \ln L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= \ln \left\{\frac{1}{(2\pi \sigma^2)^{n/2}} \exp\left[-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2\right] \right\} \\ &= \ln\left[\frac{1}{\left(2\pi \sigma^2\right)^{n/2}}\right] + \ln\left\{\exp\left[-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2\right]\right\} \\ &= -\ln \left[(2\pi \sigma^2)^{n/2}\right] - \frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2 \\ \ln L(y_i, x_i; \beta_0, \beta_1, \sigma^2) &= -\frac{n}{2} \ln(2\pi) - \frac{n}{2} \ln(\sigma^2) - \frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2 \end{align}\]

A derivada da função de log-verossimilhança em relação a \(\beta_0\) é

\[\begin{align} \frac{\partial \ln L}{\partial \beta_0} &= (-1) \left[-\frac{1}{2\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i) \right] \cdot 2 \\ &= \frac{1}{\sigma^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i). \end{align}\]

O EMV \(\beta_0\) deve satisfazer

\[\begin{align} \frac{\partial \ln L}{\partial \beta_0}\Big|_{\hat{\beta}_0, \hat{\beta}_1, \hat{\sigma}^2} &= 0 \\ \frac{1}{\sigma^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i) &= 0 \\ \sum_{i=1}^n y_i - n\hat{\beta}_0 - \hat{\beta}_1 \sum_{i=1}^n x_i &= 0 \\ n\hat{\beta}_0 &= \sum_{i=1}^n y_i - \hat{\beta}_1 \sum_{i=1}^n x_i \\ \hat{\beta}_0 &= -\hat{\beta}_1 \cdot \frac{1}{n}\sum_{i=1}^n x_i + \frac{1}{n}\sum_{i=1}^n y_i \\ \hat{\beta}_0 &= \bar{y} - \bar{x}\hat{\beta}_1 \end{align}\]

Para \(\beta_1\), temos

\[\begin{align} \frac{\partial \ln L}{\partial \beta_1} &= \left[ - \frac{2}{2\hat{\sigma}^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i) \cdot (-x_i) \right] \\ & = \frac{1}{\hat{\sigma}^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i) x_i. \end{align}\]

Igualando a zero:

\[\begin{align} \frac{\partial \ln L}{\partial \beta_1}\Big|_{\hat{\beta}_1, \hat{\beta}_0, \hat{\sigma}^2} &= 0 \\ \frac{1}{\hat{\sigma}^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)x_i &= 0 \\ \sum_{i=1}^n y_i x_i - \hat{\beta}_0 \sum_{i=1}^n x_i - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - (\bar{y} - \hat{\beta}_1 \bar{x}) \sum_{i=1}^n x_i - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - \bar{y} \sum_{i=1}^n x_i - \hat{\beta}_1 \bar{x} \sum_{i=1}^n x_i -\hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - \bar{y}n \bar{x} + \hat{\beta}_1 \bar{x} n \bar{x} - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i x_i - \bar{x} \sum_{i=1}^n y_i + n \hat{\beta_1} \bar{x}^2 - \hat{\beta}_1 \sum_{i=1}^n x_i^2 &= 0 \\ \sum_{i=1}^n y_i (x_i - \bar{x}) &= \hat{\beta}_1 \left(\sum_{i=1}^n x_i^2 - n\bar{x}^2\right) \\ \sum_{i=1}^n y_i (x_i - \bar{x}) &= \hat{\beta}_1\sum_{i=1}^n (x_i - \bar{x})^2 \\ \hat{\beta}_1 &= \frac{\sum_{i=1}^n y_i (x_i - \bar{x})}{\sum_{i=1}^n (x_i - \bar{x})^2} \end{align}\]

A derivada da função de log-verossimilhança em relação a \(\sigma^2\)

\[\begin{align} \frac{\partial \ln L}{\partial \sigma^2}\Big|_{ \hat{\beta}_0, \hat{\beta}_1, \hat{\sigma}^2} &= -\frac{n}{2\sigma^2} + \frac{1}{2(\sigma^2)^2} \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2 = 0 \\ \frac{n}{2\hat{\sigma}^2} &= \frac{1}{2\left(\hat{\sigma}^2\right)^2} \sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)^2 \\ \hat{\sigma^2} &= \frac{\sum_{i=1}^n (y_i - \hat{\beta}_0 - \hat{\beta}_1 x_i)^2}{2} \end{align}\]

1.3 APLICAÇÃO

1.3.1 EXERCÍCIO 1

No trabalho: “Efeito de doses de gesso na cultura do feijoeiro (Phaseolus vulgaris L.)”, Ragazzi (1979) utilizou um experimento inteiramente casualizado com 4 repetições, para estudar os efeitos de 7 doses de gesso (Tratamentos): O, 50, 100, 150, 200,250 e 300 kg/ha sobre diversas características do feijoeiro Banzatto e Kronka (1992).

Para a característica peso de 1.000 sementes, os resultados obtidos, em gramas, são apresentados abaixo:

Table 1.1: Peso de 1000 sementes, em gramas
Tratamento Repeticao1 Repeticao2 Repeticao3 Repeticao4
0 134.8 139.7 147.6 132.3
50 161.7 157.7 150.3 144.7
100 160.7 172.7 163.4 161.3
150 169.8 168.2 160.7 161.0
200 165.7 160.0 158.2 151.0
250 171.8 157.3 150.4 160.4
300 154.5 160.4 148.8 154.0
Table 1.2: Peso médio de sementes de feijão, por tratamento
Tratamento Peso
0 138.600
50 153.600
100 164.525
150 164.925
200 158.725
250 159.975
300 154.425
plot(medias,     
     xlab = "Doses de gesso (kg/ha)", 
     ylab = "Peso de 1.000 sementes (g)",
     type = 'p', 
     ylim = c(130,170),
     pch = 19, 
     cex=1, col= "green3")
text(medias$Tratamento, 
     medias$Peso, 
     labels = round(medias$Peso, 2), 
     pos = 1, cex = 0.8)
Peso médio de sementes de feijão, por tratamento

Figure 1.1: Peso médio de sementes de feijão, por tratamento

É possível observar no gráfico que há uma tendência de resposta crescente até certo ponto, para depois decrescer.

O modelo mais simples para explicar a relação entre \(x\) e \(y\) é o modelo de regressão linear simples, que será testado a seguir.

1.4 REGRESSÃO LINEAR SIMPLES

Assumindo que \(\varepsilon_i \overset{\text{iid}}{\sim} \mathcal{N}(0, \sigma^2)\), será feita a estimação dos parâmetros de regressão linear por Máxima Verossimilhança.

Para testar a significância da regressão linear, é necessário testar a significância da estimativa \(\hat{\beta_1}\) e, para isso, testamos as hipóteses:

\[\begin{align} H_0: \beta_1 &= 0 \quad \text{(o tratamento não afeta o peso)} \\ H_1: \beta_1 &\neq 0 \quad \text{(o tratamento afeta o peso)} \end{align}\]

Inicialmente é preciso obter os parâmetros do modelo de regressão. Utilizando o método da Máxima Verossimilhança, pode-se escrever uma função para estimar os coeficientes do ajuste linear como abaixo:

# Método da Máxima Verossimilhança
RegLinear <- function(data, var_indep, var_dep) {
  # Extrair as variáveis
  x <- data[[var_indep]]
  y <- data[[var_dep]]
  
  # Função de log-verossimilhança
  log_verossimilhança <- function(par, x, y) {
    beta0 <- par[1]  # Intercepto
    beta1 <- par[2]  # Inclinação
    sigma2 <- exp(par[3])  # Variância (garante positividade)
    
    n <- length(y)
    res <- y - (beta0 + beta1 * x)  # Resíduos
    ll <- -n / 2 * log(2 * pi * sigma2) - sum(res^2) / (2 * sigma2)  # Log-verossimilhança
    return(-ll)  # Negativo porque vamos minimizar
  }
  
  # Valores iniciais para os parâmetros
  par_iniciais <- c(mean(y), 0, log(var(y)))
  
  # Otimização
  resultado <- optim(
    par = par_iniciais,
    fn = log_verossimilhança,
    x = x,
    y = y,
    method = "BFGS",
    hessian = TRUE
  )
  
  # Resultados
  par_estimados <- resultado$par
  beta0_mle <- par_estimados[1]
  beta1_mle <- par_estimados[2]
  sigma2_mle <- exp(par_estimados[3])
  
  # Retorna os resultados
  list(
    beta0 = beta0_mle,
    beta1 = beta1_mle,
    sigma2 = sigma2_mle,
    log_likelihood = -resultado$value
  )
}

RegLinear(data = medias, "Tratamento", "Peso")
## $beta0
## [1] 150.558
## 
## $beta1
## [1] 0.03890571
## 
## $sigma2
## [1] 54.42994
## 
## $log_likelihood
## [1] -23.90946

A função lm() no R utiliza o método dos Mínimos Quadrados Ordinários para estimar os parâmetros de um modelo de regressão linear.

Em modelos lineares com erros normais, o método dos mínimos quadrados ordinários coincide com o método de máxima verossimilhança. Logo, o código escrito anteriormente irá gerar estimativas semelhantes à função lm().

reg_model <- lm(Peso ~Tratamento, data = medias)
summary(reg_model)
## 
## Call:
## lm(formula = Peso ~ Tratamento, data = medias)
## 
## Residuals:
##        1        2        3        4        5        6        7 
## -11.9652   1.0911  10.0723   8.5286   0.3848  -0.3089  -7.8027 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 150.56518    5.93759   25.36 1.78e-06 ***
## Tratamento    0.03888    0.03294    1.18    0.291    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 8.714 on 5 degrees of freedom
## Multiple R-squared:  0.2179, Adjusted R-squared:  0.0615 
## F-statistic: 1.393 on 1 and 5 DF,  p-value: 0.291

Como \(p>0,05\), não rejeitamos \(H_0\). Logo, há evidências de que o tratamento não influencia o peso das sementes de feijão.

Quando \(\beta_1\) não é estatisticamente significativo, significa que não há evidências suficientes para concluir que \(y\) muda linearmente com \(x\), resultando em \(\hat{y} = \hat{\beta_0}\). Visualmente, o gráfico com os pontos \((x,y)\) mostrará a reta horizontal passando pelo valor médio de \(y\), indicando que não há relação entre as variáveis que possa ser descrita pelo modelo de regressão linear.

Peso médio de sementes de feijão, por tratamento com reta de regressão ajustada

Figure 1.2: Peso médio de sementes de feijão, por tratamento com reta de regressão ajustada

Pelo coeficiente de determinação, obtido em summary(reg_model), pode-se observar que a porcentagem da variação nos dados que é explicada pelo modelo é de apenas 21.79% (ou que o ajuste não pode explicar aproximadamente 78% da variação dos dados), também indicando que o modelo não é o mais adequado para esse conjunto de dados.

Nesse caso, é necessário encontrar um modelo com melhor ajuste.

2 ANÁLISE DE REGRESSÃO POR POLINÔMIOS ORTOGONAIS

A Análise de Variância do experimento para o estudo da regressão irá testar as hipóteses:

\[\begin{align} \text{Regressão}& \ \text{polinomial} \\ H_0 &: \mu_0 = \mu_{50} = \mu_{100} = \mu_{150} = \mu_{200} = \mu_{250} = \mu_{300} \\ H_1 &: \mu_i \neq \mu_i' ,\quad i\neq i' \\ \\ \text{Regressão}& \ \text{linear} \\ H_0 &: \beta_1 = 0 \\ H_1 &: \beta_1 \neq 0 \\ \\ \text{Regressão}& \ \text{quadrática} \\ H_0 &: \beta_2 = 0 \\ H_1 &: \beta_2 \neq 0 \\ \\ \text{Regressão}& \ \text{cúbica} \\ H_0 &: \beta_3 = 0 \\ H_1 &: \beta_3 \neq 0 \\ \\ H_0 &: \sigma^2_{desvios} = 0 \quad \text{(desvios da regressão ou fator de ajustamento)}\\ H_1 &: \sigma^2_{desvios} > 0 \end{align}\]

Ao utilizar a função dic do pacote ExpDes.pt além dos testes citados, pode-se verificar homogeneidade de variância e normalidade dos resíduos (\(\hat{\varepsilon}_{ij} = Y_{ij} - \hat{m}_i\)), cujas hipóteses são:

\[\begin{align} \text{Teste de}& \ \text{normalidade dos resíduos} \\ H_0 &: \ \text{os resíduos seguem distribuição normal} \\ H_1 &: \ \text{os resíduos não seguem distribuição normal} \\ \\ \text{Teste de}& \ \text{homogeneidade de variância} \\ H_0 &: \ \text{variâncias são homogêneas} \\ H_1 &: \ \text{variâncias não são homogêneas} \end{align}\]

ExpDes.pt::dic(dados$Tratamento,
               dados$Peso, 
               quali = FALSE,
               hvar = "levene"
               )
## ------------------------------------------------------------------------
## Quadro da analise de variancia
## ------------------------------------------------------------------------
##            GL      SQ     QM    Fc      Pr>Fc
## Tratamento  6 1941.83 323.64 7.668 0.00018763
## Residuo    21  886.34  42.21                 
## Total      27 2828.17                        
## ------------------------------------------------------------------------
## CV = 4.15 %
## 
## ------------------------------------------------------------------------
## Teste de normalidade dos residuos ( Shapiro-Wilk ) 
## Valor-p:  0.5471519 
## De acordo com o teste de Shapiro-Wilk a 5% de significancia, os residuos podem ser considerados normais.
## ------------------------------------------------------------------------
## 
## ------------------------------------------------------------------------
## Teste de homogeneidade de variancia 
## valor-p:  0.8350179 
## De acordo com o teste de levene a 5% de significancia, as variancias podem ser consideradas homogeneas.
## ------------------------------------------------------------------------
## 
## Ajuste de modelos polinomiais de regressao
## ------------------------------------------------------------------------
## 
## Modelo Linear
## =========================================
##    Estimativa Erro.padrao   tc    valor.p
## -----------------------------------------
## b0  150.5652    2.2134    68.0255    0   
## b1   0.0389     0.0123    3.1664  0.0046 
## -----------------------------------------
## 
## R2 do modelo linear
## --------
## 0.217915
## --------
## 
## Analise de variancia do modelo linear
## =========================================================
##                      GL     SQ        QM     Fc   valor.p
## ---------------------------------------------------------
## Efeito linear        1   423.1544  423.1544 10.03 0.00465
## Desvios de Regressao 5  1,518.6780 303.7356  7.2  0.00046
## Residuos             21  886.3375  42.2066               
## ---------------------------------------------------------
## ------------------------------------------------------------------------
## 
## Modelo quadratico
## =========================================
##    Estimativa Erro.padrao   tc    valor.p
## -----------------------------------------
## b0  140.7839    2.8354    49.6527    0   
## b1   0.2736     0.0443    6.1812     0   
## b2  -0.0008     0.0001    -5.5196 0.00002
## -----------------------------------------
## 
## R2 do modelo quadratico
## --------
## 0.880095
## --------
## 
## Analise de variancia do modelo quadratico
## ===========================================================
##                      GL     SQ         QM      Fc   valor.p
## -----------------------------------------------------------
## Efeito linear        1   423.1544   423.1544  10.03 0.00465
## Efeito quadratico    1  1,285.8430 1,285.8430 30.47  2e-05 
## Desvios de Regressao 4   232.8346   58.2087   1.38  0.27505
## Residuos             21  886.3375   42.2066                
## -----------------------------------------------------------
## ------------------------------------------------------------------------
## 
## Modelo cubico
## =========================================
##    Estimativa Erro.padrao   tc    valor.p
## -----------------------------------------
## b0  138.2423    3.1302    44.1645    0   
## b1   0.4431     0.0989    4.4812  0.0002 
## b2  -0.0023     0.0008    -2.8551 0.0095 
## b3  0.000003       0      1.9166  0.0690 
## -----------------------------------------
## 
## R2 do modelo cubico
## --------
## 0.959938
## --------
## 
## Analise de variancia do modelo cubico
## ===========================================================
##                      GL     SQ         QM      Fc   valor.p
## -----------------------------------------------------------
## Efeito linear        1   423.1544   423.1544  10.03 0.00465
## Efeito quadratico    1  1,285.8430 1,285.8430 30.47  2e-05 
## Efeito cubico        1   155.0417   155.0417  3.67   0.069 
## Desvios de Regressao 3   77.7930    25.9310   0.61  0.61327
## Residuos             21  886.3375   42.2066                
## -----------------------------------------------------------
## ------------------------------------------------------------------------

Valores de \(F\) da tabela:

Em ordem de ocorrência dos resultados, pode-se observar que os tratamentos foram significativos a 5% de probabilidade do teste \(F\) (valor-p < 0,01), indicando que há evidências de diferenças em pelo menos um dos tratamentos.

O teste de Shapiro-Wilk para normalidade dos resíduos (valor-p = 0,547), aponta que os resíduos são normais, assim como o teste de Levene para homogeneidade das variâncias (valor-p = 0,835), indicando igualdade das variâncias.

A Análise de Variância para o estudo da regressão indica que os ajustes linear e quadrático são significativos , no entanto, deve-se, determinar a equação de regressão, que será a correspondente à regressão de mais alto grau que foi significativa, mesmo que outra de grau menor seja não significativa (Banzatto e Kronka (1992)).

Ainda, o coeficiente de determinação \(R^2\) é de 0,880095, ou seja, pelo ajuste quadrático, podemos esperar que aproximadamente 88% da variação do peso medio de sementes de feijoeiro seja explicado pela variação das doses de gesso (kg/ha).

Portanto, pela análise realizada, o ajuste quadrático é o mais indicado para este estudo.

Neste caso, a equação de regressão será:

\[\begin{align} \hat{Y} = 140,7839 + 0,2736 x - 0,0008 x^2. \end{align}\]

Ajustando ao contexto, pode-se escrever como:

\[\begin{align} \hat{massa} = 140,7839 + 0,2736 \times gesso - 0,0008 \times gesso^2. \end{align}\]

Para encontrar o valor máximo de gesso que elevará a o peso de feijão ao máximo, é nessário verificar se a função tem ponto de máximo, calculando a segunda derivada da função.

\[\begin{align} \frac{\partial{\hat{Y}}}{\partial{X}}& = 0,2736 - 2 \times 0,00078x \\ \frac{\partial^2{\hat{Y}}}{\partial{X^2}}& = -0,001565 \end{align}\]

O resultado da segunda derivada é negativo, portanto, a função tem ponto de máximo. Sendo assim, o ponto máximo será a raiz da equação da primeira derivada.

\[\begin{align} 0,2736 - 2 \times 0,00078X &= 0 \Rightarrow X = -0,2736/(-2\times 0,00078) \\ X &= 175,3846 \end{align}\]

Generalizando, o ponto de máximo para a regressão quadrática é dado por

\[\begin{align} X = - \frac{\hat{\beta_1}}{2\hat{\beta_2}^2}. \end{align}\]

O valor máximo da função, com X=175, é

\(\hat{Y} = 140,7839 + 0,2736 \times 175 - 0,0008 \times (175)^2 =\) 164.704261

Em resumo, pela análise de regressão quadrática, a dose de 175 kg/ha de gesso proporciona o peso médio máximo estimado de 1.000 sementes em 164,7 gramas.

REFERÊNCIAS

Banzatto, David Ariovaldo, e Sérgio do Nascimento Kronka. 1992. Experimentação agrı́cola. FUNEP.
Heleno, Bolfarine, e Mônica Carneiro Sandoval. 2001. Introdução à inferência estatı́stica. Vol. 2. SBM.
Montgomery, Douglas C, Elizabeth A Peck, e G Geoffrey Vining. 2021. Introduction to linear regression analysis. John Wiley & Sons.