1. Introdução aos Modelos de Resposta Qualitativa

Começamos com uma questão central: o que fazemos quando a variável que desejamos explicar – a variável dependente (\(Y\)) – não é quantitativa ou de escala de intervalo, mas sim qualitativa? Em muitos cenários, o resultado que nos interessa é uma escolha ou um estado que pode ser representado por categorias, como “sim/não”, “presente/ausente”, ou “compra/não compra”.

Por exemplo, podemos estar interessados em modelar: * A decisão de uma pessoa participar ou não da força de trabalho. * A posse de uma casa própria (sim ou não). * A probabilidade de fumar (fumante ou não-fumante).

Para tais variáveis dependentes qualitativas, os modelos de regressão tradicionais não são diretamente aplicáveis sem adaptações, e é aqui que entram os modelos de resposta qualitativa. O Modelo de Probabilidade Linear é o mais simples deles.

2. O Modelo de Probabilidade Linear (MPL)

O Modelo de Probabilidade Linear é formulado como uma regressão linear comum, mas com uma particularidade crucial: a variável dependente (\(Y\)) é uma variável binária (também conhecida como dummy), assumindo apenas dois valores, geralmente 0 ou 1.

A equação do MPL é expressa como: \(Y_i = \beta_1 + \beta_2 X_i + u_i\)

Onde:


Interpretação dos Coeficientes: No MPL, o valor esperado da variável dependente, condicional a \(X_i\), é interpretado como a probabilidade de \(Y_i\) ser igual a 1:

\[ 'E(Y_i | X_i) = P_i = \beta_1 + \beta_2 X_i$ \] Aqui, \(P_i\) representa a probabilidade de o evento ocorrer (por exemplo, a probabilidade de uma família possuir uma casa) dado o valor de \(X_i\) (renda).

Exemplo Intuitivo de Aplicação:

Consideremos o exemplo da posse de casa própria em função da renda familiar. Se estimarmos o MPL e encontrarmos que \(\hat{\beta}_2 = 0,02\), isso significaria que, para cada aumento de $1.000 (milhares de dólares) na renda familiar, a probabilidade de uma família possuir casa própria aumenta em 0,02 (ou 2 pontos percentuais). Essa interpretação é bastante fácil de entender.

3. Problemas Fundamentais do MPL

Apesar da sua simplicidade e facilidade de interpretação, o MPL apresenta sérios problemas estatísticos que não podem ser ignorados, especialmente em amostras pequenas ou finitas.

3.1. Não-Normalidade dos Termos de Erro (\(u_i\))

  • Explicação do Problema: No Modelo Clássico de Regressão Linear Normal (MCRLN), pressupomos que o termo de erro (\(u_i\)) segue uma distribuição normal. No entanto, no MPL, como \(Y_i\) só pode assumir os valores 0 ou 1, o termo de erro \(u_i = Y_i - (\beta_1 + \beta_2 X_i)\) também só pode assumir dois valores: \((1 - \beta_1 - \beta_2 X_i)\) quando \(Y_i = 1\), ou \((-\beta_1 - \beta_2 X_i)\) quando \(Y_i = 0\). Isso significa que \(u_i\) segue uma distribuição de Bernoulli, não uma distribuição normal.
  • Consequências para a Inferência: A suposição de normalidade é crucial para a validade exata dos testes t e F em amostras pequenas. A violação da normalidade dos erros implica que os procedimentos usuais de teste de hipóteses (baseados nas distribuições t, F e qui-quadrado) podem não ser válidos em amostras pequenas ou finitas.
  • Importância de Não Ignorar: Ignorar a não-normalidade dos erros em amostras pequenas pode levar a conclusões estatísticas incorretas sobre a significância dos coeficientes, afetando a validade das inferências sobre os parâmetros populacionais. Embora para amostras grandes, os estimadores de MQO tendam a ser assintoticamente normais (devido ao Teorema do Limite Central), a rigorosidade em amostras pequenas é comprometida.

3.2. Heterocedasticidade dos Termos de Erro

  • Explicação do Problema: Uma das hipóteses fundamentais do MCRL é a homocedasticidade, ou seja, a variância dos termos de erro é constante para todas as observações (\(Var(u_i|X_i) = \sigma^2\)). No MPL, a variância do termo de erro é diretamente relacionada à probabilidade \(P_i\): \(Var(u_i | X_i) = P_i (1 - P_i) = (\beta_1 + \beta_2 X_i) (1 - \beta_1 - \beta_2 X_i)\) Como \(P_i\) varia com \(X_i\), a variância de \(u_i\) também varia, o que caracteriza a heterocedasticidade.
  • Consequências para a Inferência: A heterocedasticidade não destrói a não-tendenciosidade e a consistência dos estimadores de Mínimos Quadrados Ordinários (MQO). No entanto, os estimadores de MQO deixam de ser eficientes, mesmo assintoticamente. Mais criticamente, os erros padrão estimados dos coeficientes serão viesados, e, consequentemente, os testes t e F comuns e os intervalos de confiança tornar-se-ão inválidos e não confiáveis.
  • Importância de Não Ignorar: A presença de heterocedasticidade implica que nossas avaliações de significância estatística podem estar fundamentalmente erradas. Um coeficiente que parece significativo (com um t-valor alto) pode, na verdade, não ser, e vice-versa. Isso leva a inferências enganosas sobre o verdadeiro impacto das variáveis explanatórias. Ignorar isso compromete a credibilidade da pesquisa.

3.3. Probabilidades Previstas Fora do Intervalo $$

  • Explicação do Problema: Por ser um modelo linear, o MPL pode gerar probabilidades previstas (\(P_i = \beta_1 + \beta_2 X_i\)) que são menores que 0 ou maiores que 1.
  • Consequências Práticas: Uma probabilidade que é negativa ou maior que 1 é, por definição, ilógica. Isso significa que o modelo, embora simples, falha em capturar a natureza inerente das probabilidades, que devem estar sempre entre 0 e 1.
  • Importância de Não Ignorar: Quando as previsões caem fora do intervalo, o modelo perde sua validade como um modelo de probabilidade. Isso não é apenas um problema matemático, mas uma falha de plausibilidade conceitual, que torna as previsões sem sentido prático.

3.4. R-quadrado Questionável

  • Explicação do Problema: O coeficiente de determinação (\(R^2\)) no MPL, calculado da forma convencional, costuma ser muito baixo, frequentemente entre 0,2 e 0,6. Isso ocorre porque a variável dependente binária (\(Y_i\)) só pode assumir 0 ou 1, enquanto a probabilidade prevista (\(P_i\)) pode ser qualquer valor entre 0 e 1 (ou mesmo fora dele). É difícil para o modelo “explicar” toda a variância de uma variável binária.
  • Consequências para a Avaliação do Modelo: Um \(R^2\) baixo pode erroneamente levar à conclusão de que o modelo tem pouco poder explicativo, quando, para modelos de resposta qualitativa, o \(R^2\) não é uma medida adequada da qualidade do ajustamento.
  • Importância de Não Ignorar: Depender do \(R^2\) como medida principal de “qualidade do ajustamento” em modelos com variáveis dependentes qualitativas é desaconselhável, pois pode levar a uma subestimação da utilidade do modelo. O que realmente importa são os sinais esperados dos coeficientes e sua significância estatística/prática.

4. Testes de Hipóteses no Contexto do MPL

Mesmo com os problemas mencionados, a estimação do MPL por MQO é possível, e, em grandes amostras, os estimadores de MQO são consistentes e assintoticamente normais. Isso significa que, em grandes amostras, os testes t e F são aproximadamente válidos. No entanto, é imperativo ter cautela e estar ciente das limitações.

4.1. Princípio Geral dos Testes de Hipóteses

Lembrem-se que, na econometria, o objetivo principal é fazer inferências sobre os parâmetros populacionais verdadeiros (\(\beta\)), e não sobre as estimativas amostrais (\(\hat{\beta}\)). Portanto, ao formular uma hipótese nula (\(H_0\)), ela deve sempre se referir a um parâmetro populacional desconhecido, e não a uma estimativa já calculada a partir da amostra.

4.2. Teste de Significância Individual (Teste t)

  • Intuição: O teste t é utilizado para verificar se um único coeficiente de regressão é estatisticamente diferente de um valor hipotético específico (mais comumente, zero). A intuição é determinar se a variável explanatória à qual o coeficiente está associado tem um impacto significativo, isoladamente, na variável dependente, mantendo as outras variáveis constantes.

  • Para que serve? Ele nos ajuda a decidir se uma variável específica deve ser incluída no modelo, ou se seu efeito é tão pequeno que pode ser ignorado, ou se seu efeito é, por exemplo, diferente de zero, conforme a teoria econômica sugere.

  • Fórmula Completa: A estatística t para testar a hipótese \(H_0: \beta_j = \beta_j^*\) (onde \(\beta_j^*\) é o valor hipotético, frequentemente 0) é dada por: \(t = \frac{\hat{\beta}_j - \beta_j^*}{\text{ep}(\hat{\beta}_j)}\) Onde:

    • \(\hat{\beta}_j\): Estimativa de MQO do coeficiente \(j\).
    • \(\beta_j^*\): Valor do coeficiente sob a hipótese nula.
    • \(\text{ep}(\hat{\beta}_j)\): Erro padrão estimado de \(\hat{\beta}_j\).
  • Exemplo de Aplicação Prática no MPL: No exemplo da posse de casa própria em função da renda, gostaríamos de testar a hipótese de que a renda tem um efeito significativo na probabilidade de possuir uma casa. A hipótese nula seria \(H_0: \beta_2 = 0\), ou seja, a renda não afeta a probabilidade de posse de casa. A hipótese alternativa poderia ser \(H_1: \beta_2 \neq 0\) (teste bilateral) ou \(H_1: \beta_2 > 0\) (teste unilateral, se esperarmos um efeito positivo). Calculamos o valor t e o comparamos com um valor crítico da distribuição t (com \(n-k\) graus de liberdade, onde \(n\) é o número de observações e \(k\) é o número de parâmetros estimados) ou usamos o p-valor. Se o p-valor for menor que o nível de significância escolhido (por exemplo, 0,05), rejeitamos a hipótese nula.

  • Importância e Por que Não Ignorar: É fundamental para determinar a relevância estatística de cada regressor. Ignorá-lo significa que poderíamos estar usando variáveis que não têm influência real sobre a probabilidade do evento, levando a modelos superespecificados e menos parcimoniosos.

  • Ressalva para Amostras Finitas vs. Grandes: Como já discutido, devido à não-normalidade e heterocedasticidade dos termos de erro no MPL, os erros padrão de MQO são viesados, e, portanto, os testes t baseados nesses erros padrão são inválidos em amostras pequenas. No entanto, para amostras suficientemente grandes, os estimadores de MQO são assintoticamente normais, e os testes t usuais são aproximadamente válidos.

4.3. Teste de Significância Conjunta (Teste F)

  • Intuição: O teste F é usado para verificar se dois ou mais coeficientes de regressão são simultaneamente iguais a zero (ou a outros valores hipotéticos), ou seja, se um grupo de variáveis explicativas tem um efeito conjunto significativo sobre a variável dependente. A intuição é que, individualmente, algumas variáveis podem não parecer significativas (t-valores baixos), mas coletivamente, elas podem ter um poder explicativo importante.

  • Para que serve? É crucial para avaliar a significância geral do modelo de regressão, para comparar modelos aninhados (um é um caso restrito do outro), ou para decidir se um conjunto de variáveis deve ser incluído ou excluído do modelo.

  • Fórmula Completa (com base na Soma dos Quadrados dos Resíduos - SQR): Para testar a hipótese conjunta, por exemplo, \(H_0: \beta_2 = \beta_3 = 0\), o teste F é frequentemente calculado usando a SQR de um modelo restrito e um modelo irrestrito. \(F = \frac{(\text{SQR}_{restrita} - \text{SQR}_{irrestrita})/m}{(\text{SQR}_{irrestrita})/(n - k)}\) Onde:

    • \(\text{SQR}_{restrita}\): Soma dos quadrados dos resíduos do modelo com as restrições impostas (e.g., \(\beta_2=0, \beta_3=0\)).
    • \(\text{SQR}_{irrestrita}\): Soma dos quadrados dos resíduos do modelo sem as restrições.
    • \(m\): Número de restrições lineares impostas pela hipótese nula.
    • \(n\): Número de observações na amostra.
    • \(k\): Número de parâmetros estimados no modelo irrestrito (incluindo o intercepto).
  • Fórmula Completa (com base no \(R^2\)): Uma forma equivalente e frequentemente mais prática de calcular a estatística F (especialmente preferida por Wooldridge para sua aplicabilidade e facilidade de cálculo) é usando o \(R^2\) dos modelos restrito e irrestrito, assumindo a mesma variável dependente: \(F = \frac{(R^2_{irrestrito} - R^2_{restrito})/m}{(1 - R^2_{irrestrito})/(n - k)}\) Onde:

    • \(R^2_{irrestrito}\): \(R^2\) do modelo irrestrito.
    • \(R^2_{restrito}\): \(R^2\) do modelo restrito.
    • \(m\), \(n\), \(k\) são definidos como acima.
  • Exemplo de Aplicação Prática no MPL: Suponhamos que, além da renda, também incluímos a idade do chefe da família e o número de filhos como variáveis explicativas para a posse de casa. Podemos querer testar se a idade e o número de filhos, conjuntamente, têm um efeito significativo na probabilidade de possuir uma casa. A hipótese nula seria \(H_0: \beta_{idade} = 0 \text{ e } \beta_{filhos} = 0\). O teste F nos diria se, mesmo que individualmente um deles não fosse significativo, juntos eles contribuem para explicar a posse da casa.

  • Importância e Por que Não Ignorar: O teste F é vital para a avaliação da adequação geral do modelo e para tomar decisões sobre a inclusão ou exclusão de múltiplos regressores. Ignorá-lo poderia levar à aceitação de modelos que, em sua totalidade, não possuem poder explicativo significativo, ou, no outro extremo, à eliminação indevida de um conjunto de variáveis relevantes.

  • Ressalva para Amostras Finitas vs. Grandes: Assim como o teste t, os testes F no MPL também são inválidos em amostras pequenas devido à heterocedasticidade. Contudo, para amostras grandes, os estimadores de MQO são assintoticamente normais, permitindo que os testes F usuais sejam aproximadamente válidos.

5. Medidas Corretivas e Alternativas

Diante dos problemas do MPL, algumas abordagens podem ser consideradas:

O Modelo Logit

A alternativa ao MPL é utilizar uma Função de Distribuição Acumulada (FDA) para modelar a probabilidade condicional. Uma FDA, por sua natureza, produz valores entre 0 e 1. O modelo Logit utiliza a função logística cumulativa (FDA logística) para modelar a probabilidade de um evento ocorrer.

Intuição do Modelo Logit

  • A intuição por trás do modelo Logit é modelar o logaritmo da razão de chances (log-odds) como uma função linear dos regressores, em vez da probabilidade diretamente.

  • A razão de chances para um evento (\(Y=1\)) é definida como a probabilidade de o evento ocorrer dividida pela probabilidade de não ocorrer: \(P_i / (1 - P_i)\). O Logit transforma a probabilidade em uma escala contínua de \(-\infty\) a \(+\infty\).

  • Se \(P_i\) é a probabilidade de o evento ocorrer para a i-ésima observação, então a transformação Logit é: \[\text{Logit}(P_i) = \ln\left(\frac{P_i}{1 - P_i}\right) = \beta_1 + \beta_2 X_i\]

  • A probabilidade \(P_i\) pode ser recuperada aplicando a função logística inversa: \[P_i = \frac{1}{1 + e^{-(\beta_1 + \beta_2 X_i)}} = \frac{e^{\beta_1 + \beta_2 X_i}}{1 + e^{\beta_1 + \beta_2 X_i}}\]

  • Esta função, conhecida como curva sigmoide ou em forma de S, garante que as probabilidades preditas sempre estejam entre 0 e 1, resolvendo um dos principais problemas do MPL.

Estimação do Modelo Logit

  1. Dados Individuais (Não Agrupados): Quando temos dados em nível individual (cada observação \(Y_i\) é 0 ou 1), não devemos usar MQO diretamente. Nesses casos, a estimação é realizada através do método da Máxima Verossimilhança (MV).

1.2. Intuição da MV: O método da Máxima Verossimilhança busca encontrar os valores dos parâmetros (\(\beta_1, \beta_2\)) que maximizam a probabilidade (verossimilhança) de observar os dados amostrais que realmente temos. Ele escolhe os parâmetros que tornam os dados observados os mais “prováveis” possíveis.

1.3. Aplicação Prática: Programas estatísticos modernos (como EViews, STATA, LIMDEP, SHAZAM, MINITAB) possuem rotinas para estimar modelos Logit com dados individuais utilizando MV.

  1. Dados Agrupados (Replicados): Se os dados são agrupados (várias observações com o mesmo valor de \(X_i\) e contamos a proporção de \(Y_i=1\)), é possível transformar a variável dependente para usar um Mínimos Quadrados Ponderados (MQP). Essa abordagem leva em conta a heterocedasticidade inerente aos dados agrupados.

2.1 Interpretação dos Coeficientes Logit: A interpretação direta dos coeficientes \(\beta\) no modelo Logit não é tão intuitiva quanto no MQO, pois eles representam a variação no log-odds do evento para uma variação de uma unidade em \(X_i\). Uma interpretação mais significativa está em termos das razões de chances (odds ratios). Se você tomar o antilogaritmo de \(\hat{\beta}_k\) (ou seja, \(e^{\hat{\beta}_k}\)), você obterá a razão pela qual as chances do evento multiplicam-se para uma variação de uma unidade em \(X_k\), mantendo outras variáveis constantes. Por exemplo, se \(e^{\hat{\beta}_k} = 10.7897\), significa que as chances do evento aumentam em aproximadamente 10.79 vezes para cada unidade de aumento em \(X_k\).

Efeitos Marginais

Embora os coeficientes Logit não sejam diretamente interpretáveis como efeitos marginais na probabilidade (como no MPL), podemos calculá-los. O efeito marginal de uma mudança em \(X_i\) na probabilidade \(P_i\) varia dependendo do valor de \(X_i\) (devido à forma não linear da curva S). Os programas estatísticos podem calcular esses efeitos marginais para a média da amostra ou para valores específicos de \(X_i\).

Qualidade do Ajustamento no Modelo Logit

O \(R^2\) tradicional não é adequado para modelos Logit. Em vez disso, medidas como o McFadden \(R^2\) e o Count \(R^2\) são usadas.

  • McFadden \(R^2\): É definido como \(1 - (\text{Log-likelihood unconstrained} / \text{Log-likelihood constrained})\). Ele varia entre 0 e 1, mas seus valores geralmente são mais baixos que os do \(R^2\) do MQO.

  • Count \(R^2\): Calcula a proporção de previsões corretas do modelo. Se a probabilidade prevista for \(>0.5\), classifica-se como 1; se for \(<0.5\), classifica-se como 0. Então, conta-se o número de previsões corretas.

  • Limitação: No entanto, a qualidade do ajustamento é de importância secundária em modelos de regressão binária. Mais importante são os sinais esperados dos coeficientes e sua significância estatística ou prática.

O Modelo Probit

Assim como o modelo Logit usa a FDA logística, o modelo Probit utiliza a Função de Distribuição Acumulada Normal (FDA normal padrão) para modelar a probabilidade condicional.

Intuição do Modelo Probit

  • O modelo Probit é frequentemente explicado a partir de uma perspectiva de teoria da utilidade ou escolha racional. Assume-se que existe uma variável latente (não observável) \(I_i\) (um “índice de utilidade” ou “propensão”) que determina a escolha da variável dicotômica \(Y_i\). \[I_i = \beta_1 + \beta_2 X_i + u_i\]

  • Onde \(u_i \sim N(0, 1)\) (termo de erro normalmente distribuído e com variância unitária). Observamos \(Y_i=1\) se \(I_i > 0\) e \(Y_i=0\) se \(I_i \le 0\).

  • A probabilidade de \(Y_i=1\) é então dada por: \[P_i = P(Y_i=1|X_i) = P(I_i > 0|X_i) = P(u_i > -(\beta_1 + \beta_2 X_i)|X_i) = F(\beta_1 + \beta_2 X_i)\]

  • Onde \(F\) é a FDA normal padrão. Isso novamente garante que as probabilidades preditas estejam no intervalo.

Estimação do Modelo Probit

Similarmente ao Logit, a estimação de modelos Probit com dados individuais é realizada principalmente através do método de Máxima Verossimilhança (MV).

Comparação entre Logit e Probit

  • Na maioria das aplicações, os modelos Logit e Probit fornecem resultados bastante semelhantes. A principal diferença reside nas “caudas” de suas distribuições: a distribuição logística tem caudas ligeiramente mais pesadas que a normal padrão. Isso significa que no Logit, a probabilidade condicional aproxima-se de 0 ou 1 a um ritmo ligeiramente mais lento do que no Probit.

  • Não há razões convincentes para preferir um ao outro em todos os casos, embora muitos pesquisadores optem pelo Logit devido à sua relativa simplicidade matemática.

Testes de Hipóteses em Modelos Logit e Probit

A inferência estatística, que inclui a estimação e o teste de hipóteses, é um pilar da econometria. Em modelos Logit e Probit, os testes de hipóteses seguem lógicas similares às dos modelos lineares, mas com estatísticas e distribuições de teste adaptadas para a natureza não linear e a estimação por Máxima Verossimilhança.

  1. Teste de Significância de Coeficientes Individuais (Teste t ou z assintótico)
  • Intuição: Este teste busca verificar se o coeficiente de um regressor específico (\(\beta_k\)) é estatisticamente diferente de zero. Se \(\beta_k\) for zero, a variável explanatória \(X_k\) não tem impacto sobre o log-odds (no Logit) ou o índice de propensão (no Probit), e, consequentemente, não influencia a probabilidade de ocorrência do evento.
  • Para que Serve: Ele nos permite identificar quais variáveis explanatórias são importantes e quais não o são para explicar a variável dependente.

O que Estamos Testando:

  • Hipótese Nula (\(H_0\)): \(\beta_k = 0\) (a variável \(X_k\) não tem efeito).

  • Hipótese Alternativa (\(H_1\)): \(\beta_k \ne 0\) (a variável \(X_k\) tem efeito).

  • Por que Isso é Importante: Saber quais variáveis são estatisticamente significativas é crucial para a formulação de teorias e políticas. Um coeficiente não significativo pode indicar que a variável é irrelevante para o modelo ou que a amostra não oferece evidência suficiente de sua importância.

  • Por que não ignorar isso: Ignorar este teste pode levar à inclusão de variáveis desnecessárias no modelo, resultando em estimativas menos precisas dos coeficientes remanescentes (aumentando suas variâncias) e na perda de graus de liberdade. Além disso, a inclusão de variáveis irrelevantes pode introduzir o problema de multicolinearidade. Sem este teste, não podemos confiar que a variável em questão realmente contribui para o poder explicativo do modelo.

  • Aplicação Prática: Em modelos Logit/Probit estimados por MV, a estatística de teste para coeficientes individuais é tipicamente uma estatística z (para grandes amostras) ou uma estatística t (para amostras menores), calculada como a razão entre o coeficiente estimado e seu erro padrão.

\[ z = \frac{\hat{\beta}_k}{\text{ep}(\hat{\beta}_k)} \]

  • Para grandes amostras, essa estatística segue aproximadamente uma distribuição normal padrão. Se o valor absoluto do \(z\) calculado exceder um valor crítico (e.g., 1.96 para um nível de significância de 5%), rejeitamos a hipótese nula.
  1. Teste de Significância Geral do Modelo (Teste da Razão de Verossimilhança - RV)
  • Intuição: Este teste verifica se todos os coeficientes angulares (slope coefficients) do modelo (excluindo o intercepto) são simultaneamente iguais a zero. Em outras palavras, ele pergunta se o conjunto de variáveis explanatórias, em conjunto, tem poder explicativo significativo sobre a variável dependente. Se todos os coeficientes angulares forem zero, o modelo não adiciona valor explicativo além de uma constante (média). Para que Serve: É a medida principal da adequação geral do modelo Logit/Probit. Em vez do F-test do MQO (que se baseia em Somas de Quadrados), o teste de RV é mais apropriado para modelos estimados por MV.

O que Estamos Testando:

  • Hipótese Nula (\(H_0\)): \(\beta_2 = \beta_3 = \dots = \beta_k = 0\) (nenhuma das variáveis explanatórias tem efeito).

  • Hipótese Alternativa (\(H_1\)): Pelo menos um \(\beta_k \ne 0\) (o modelo tem algum poder explicativo).

  • Por que Isso é Importante: Um modelo pode ter alguns coeficientes individualmente significativos, mas se o teste geral não for significativo, isso levanta dúvidas sobre a utilidade do modelo como um todo. É a primeira verificação da “validade” global do seu modelo.

  • Por que não ignorar isso: Ignorar o teste de significância geral significa que você pode estar trabalhando com um modelo que, apesar de algumas variáveis “passarem no teste t”, coletivamente não oferece uma explicação substancial para o fenômeno. É como ter várias peças de um quebra-cabeça, mas sem saber se elas formam uma imagem coerente.

  • Para modelos Logit/Probit, onde o \(R^2\) é limitado, o teste RV é fundamental para avaliar o poder explicativo do modelo.

  • Aplicação Prática: O teste da Razão de Verossimilhança (RV), também conhecido como teste do Multiplicador de Lagrange (ML) ou teste de Wald (W), é baseado na comparação da função de verossimilhança logarítmica de um modelo irrestrito (completo) com a de um modelo restrito (apenas com o intercepto ou com as variáveis sob a hipótese nula).

A estatística do teste RV é dada por:

\[ \text{LR} = 2 (\text{FVLSR} - \text{FVLCR}) \]

  • Onde FVLSR é a função de verossimilhança logarítmica do modelo sem restrições (completo) e FVLCR é a função de verossimilhança logarítmica do modelo com restrições (sob a hipótese nula).

  • Para grandes amostras, essa estatística segue uma distribuição qui-quadrado (\(\chi^2\)) com graus de liberdade iguais ao número de restrições impostas (o número de coeficientes angulares sendo testados como zero). Se o valor de \(\chi^2\) calculado exceder o valor crítico da distribuição qui-quadrado para o nível de significância escolhido, rejeitamos a hipótese nula.

  • Teste de Wald (W) e Teste do Multiplicador de Lagrange (ML): Gujarati menciona que, assintoticamente (para grandes amostras), os testes de Wald, RV e ML são equivalentes e suas estatísticas de teste seguem a distribuição qui-quadrado.

  • Em modelos de regressão linear, o F-test já é suficiente, mas para modelos não lineares, esses testes são cruciais.