COINTEGRACIÓN Y CAUSALIDAD

UNIVERSIDAD DE EL SALVADOR

FACULTAD DE CIENCIAS ECONÓMICAS

ESCUELA DE ECONOMÍA

MÉTODOS PARA EL ANÁLISIS ECONÓMICO

image/svg+xml

TEMA:

COINTEGRACIÓN Y CAUSALIDAD

DOCENTE:

MSF. Carlos Ademir Pérez Alas.

Grupo teórico

GT-03

Integrantes: Carnet: Participación
Bonilla Amaya, Favio Andres BA22008 100%
Umanzor Bonilla, Dina Esmeralda UB22001 100%
Rodas Velasquez, Fernanda Elizabeth RV22043 100%

Ciudad Universitaria, 10 de enero de 2025

Prueba de Raíz Unitaria de Dickey & Fuller.

Propósito de la prueba

Evaluar la presencia de una raíz unitaria en un proceso de serie temporal. La existencia de una raíz unitaria implica que la serie no es estacionaria, lo que es crucial en análisis de series temporales, ya que muchos modelos estadísticos (como ARIMA) requieren que la serie sea estacionaria para generar predicciones fiables.

Hipótesis de la prueba. Existen 3 versiones de esta prueba dada las características de ella, a fin de considerar múltiples posibilidades:

Yt es una caminata aleatoria (no contiene termino constante): \[ ΔY=[(δY)](t−1)+ut \]

Yt es una caminata aleatoria con deriva (hay termino constante): \[ ΔY=[(β1+δY)](t−1)+ut \]

Yt es una caminata aleatoria con deriva alrededor de una tendencia determinística (termino constante y de tendencia): \[ ΔY=[(β1+β2δY)](t−1)+ut \]

Hipótesis nula y Hipótesis Alternativa:

Ho: δ=0 es decir, contiene raíz unitaria, la serie temporal es no estacionaria.

H1: δ<0 es decir, la serie temporal es estacionaria.

Sintaxis de implementación en R

La implementación en R se realiza mediante la librería urca() y la función ur.df(), y se realiza de la siguiente manera:

library(urca)
 ur.df(y ,
       type=  c("drift"),
       lags=0)

Donde:

-y: es un vector númerico o serie de tiempo

-type: Se refiere al tipo de prueba,(“none” ni una intersección ni una tendencia, “drift” una intersección, “trend” una intersección y una tendencia).

-lags: Número de rezagos de la variable endógena

Estadístico de prueba

El estadístico de prueba es el estadístico t sobre la variable dependiente rezagada. Si α>1 el coeficiente de la variable dependiente rezagada será positivo. Si α es igual a la unidad, (α−1) . En ambos casos xt será no estacionaria.

Cuando existe tendencia en una serie temporal en un modelo AR(1), el primer regresor tenderá a ser 1 o muy cercano a 1. Esto se debe a la propiedad de reversión a la media de un proceso estocástico estacionario, es decir, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tardarán las observaciones a volver al valor medio.

Criterio de decisión

Ho: α=0 , Si no puede rechazarse la hipótesis nula, significa que (p-value > 0.05), por tanto la serie es no estacionaria y tiene raíz 1 (I(1)). La serie es Random walk = no estacionaria.

H1: α≠0 , si se rechaza la nula (p-valor<0.05) la serie es estacionaria y tiene una raíz 0 (I(0)). La serie es White noise = estacionaria

Ejemplo Dickey-Fuller Simple

#Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.

set.seed(10)
x = rnorm(100)
w = rnorm(100)
for (i in 2:100) {
x[i] <- x[i - 1] + w[i]
}
#Graficando:

plot(x,type="l")

#Analizando raíz unitaria

library(urca)
## Warning: package 'urca' was built under R version 4.4.2
df = ur.df(x, type="none", lags = 0)
summary(df)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.31407 -0.86346  0.07963  0.66540  2.03542 
## 
## Coefficients:
##          Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.009083   0.031521  -0.288    0.774
## 
## Residual standard error: 0.9757 on 98 degrees of freedom
## Multiple R-squared:  0.0008466,  Adjusted R-squared:  -0.009349 
## F-statistic: 0.08304 on 1 and 98 DF,  p-value: 0.7738
## 
## 
## Value of test-statistic is: -0.2882 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Interpretación

El valor calculado “t-value” es de 0.288 (menor) en términos absolutos a lo valores del estadístico tau, se llega a la conclusión en favor de no rechazar hipótesis nula, por lo tanto, existe raíz unitaria y la serie no es estacionaria.

#Otra forma es haciendo uso de la función adf.test() de la librería tseries.

library(tseries)
## Warning: package 'tseries' was built under R version 4.4.2
## Registered S3 method overwritten by 'quantmod':
##   method            from
##   as.zoo.data.frame zoo
adf.test(x,k=0)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  x
## Dickey-Fuller = -1.9334, Lag order = 0, p-value = 0.6042
## alternative hypothesis: stationary

Interpretación

Dado al valor de p-value = 0.6042, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.

Ejemplo Dickey Fuller Aumentada

La prueba ADF consiste en la estimación del siguiente modelo: \[ Δxt=β0+β1t+δx(t−1)+αi∑(i=1)m▒Δx(t−i)+εt \]

Por tanto, el contraste quedaría:

Ho: δ=0 → , Existe raíz unitaria, xt no es estacionaria.

H1: δ≠0 → No existe raíz unitaria, xt es estacionaria.

Para hacer la estimación de dicho test, se usan las mismas funciones que para el Dickey-Fuller simple, pero especificando en el número de rezagos igual a 1.

adf = ur.df(x, type="none", lags = 1)
summary(adf)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.25453 -0.90101  0.02681  0.70255  1.97744 
## 
## Coefficients:
##            Estimate Std. Error t value Pr(>|t|)
## z.lag.1    -0.01413    0.03282  -0.430    0.668
## z.diff.lag  0.06424    0.10583   0.607    0.545
## 
## Residual standard error: 0.983 on 96 degrees of freedom
## Multiple R-squared:  0.00467,    Adjusted R-squared:  -0.01607 
## F-statistic: 0.2252 on 2 and 96 DF,  p-value: 0.7988
## 
## 
## Value of test-statistic is: -0.4304 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Interpretación

Se puede observar que en ambos casos, se encuentra evidencia en favor de no rechazar la hipótesis nula y esto da razón de la existencia de raíz unitaria en la serie, por lo tanto, esta es no estacionaria. Dado al valor de p-value = 0.7988, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.

Cointegracion en el enfoque de Soren Johansen.

Proposito de la prueba y su utilizacion.

La cointegración en el enfoque de Soren Johansen es un método usado en series temporales y busca evidenciar las relaciones a largo plazo de las variables económicas.

“El procedimiento multivariado de S. Johansen (1988 y 1991), profesor de estadística matemática de la Universidad de Copenhagen, se ha convertido en un método muy popular para probar la existencia de cointegración en la variables I(1) y I(0), en donde I(1) y I(0)indican integración de primer y cero orden, respectivamente. En la tecnología de S. Johansen, es necesario analizar las series previamente con el fin de conocer sí presentan o no raíces unitarias. Las series que presenten raíces unitarias se colocan en un vector autorregresivo a partir del cual se puede probar la existencia de una o más combinaciones lineales J(U) o vectores de cointegración, como también se les denomina.” (Mata (2014))

Hipotesis de la prueba.

La hipótesis nula en el contexto de la prueba de Johansen es que no hay cointegración en absoluto entre las series temporales analizadas, se presenta 2 hipótesis posibles, en donde:

H0:r=0H0:r=0, lo que quiere decir que no existe presencia de cointegracion entre las variables.

H1:r>0H1:r>0, lo que quiere decir que existe presencia de cointegracion entre las variables.

Implementacion en R.

La prueba de cointegración bajo el enfoque de Soren Johansen se realiza, dentro de R, mediante una función dentro del paquete llamado “urca” y en esta se nos presenta una sintaxis de la siguiente forma: \[ library(urca) ca.jo(x,type=c("eigen","trace"),ecdet=c("none","const","trend"),K=2,spec=c("longrun","transitory"),season=NULL,dumvar=NULL) \]

En donde cada elemento nos pide:

  • x = Matriz de datos que se someterá a la prueba

  • type = Método para determinar el número de vectores cointegrantes. Puede ser “eigen” o “trace”.

  • ecdet= Especifica si se deben incluir constantes y/o tendencias en el modelo. Puede ser “none” (ninguna), “const” (constante) o “trend” (tendencial).

  • K = Número máximo de vectores cointegrantes.

  • spec = Especifica la forma de la restricción. Puede ser “longrun” o “transitory”.

  • season = Si se deben incluir dummies estacionales, la frecuencia de los datos debe establecerse en consecuencia, es decir, ‘4’ para datos trimestrales.

  • dumvar = Variables dummy que indican intervalos estructurales.

Estadistico de prueba.

Este lo podemos obtener partiendo de la prueba de tendencia (trend) y la prueba de valores propios (eigen) en el análisis de Johansen.

Criterio de decision.

El criterio de decisión se basa en comparar el estadístico de prueba con los valores críticos de la distribución bajo la hipótesis nula y si el estadístico es mayor que el valor crítico, se rechaza la hipótesis nula, lo que sugiere la presencia de al menos un vector de cointegración.

Interpretacion si se rechaza o acepta.

Si el estadístico de prueba es mayor que el valor critico se tendrán las suficientes evidencias para no aceptar la hipotesis nula es decir que en la serie de tiempo existe cointegración.

Ejemplo.

library(urca)#libreria a usar

data(denmark)#se crea un solo objeto
sjd <- denmark[, c("LRM", "LRY", "IBO", "IDE")]
#Se ejecuta la prueba de eigenvalue
sjd.vecm <-
  ca.jo(
    sjd,
    ecdet = "const",
    type = "eigen",
    K = 2,
    spec = "longrun",
    season = 4
  )
summary(sjd.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1] 4.331654e-01 1.775836e-01 1.127905e-01 4.341130e-02 6.853773e-16
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  2.35  7.52  9.24 12.97
## r <= 2 |  6.34 13.75 15.67 20.20
## r <= 1 | 10.36 19.77 22.00 26.81
## r = 0  | 30.09 25.56 28.14 33.24
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##             LRM.l2     LRY.l2     IBO.l2     IDE.l2   constant
## LRM.l2    1.000000  1.0000000  1.0000000   1.000000  1.0000000
## LRY.l2   -1.032949 -1.3681031 -3.2266580  -1.883625 -0.6336946
## IBO.l2    5.206919  0.2429825  0.5382847  24.399487  1.6965828
## IDE.l2   -4.215879  6.8411103 -5.6473903 -14.298037 -1.8951589
## constant -6.059932 -4.2708474  7.8963696  -2.263224 -8.0330127
## 
## Weights W:
## (This is the loading matrix)
## 
##            LRM.l2      LRY.l2       IBO.l2        IDE.l2      constant
## LRM.d -0.21295494 -0.00481498  0.035011128  2.028908e-03  2.437019e-13
## LRY.d  0.11502204  0.01975028  0.049938460  1.108654e-03 -1.738409e-13
## IBO.d  0.02317724 -0.01059605  0.003480357 -1.573742e-03 -2.139321e-14
## IDE.d  0.02941109 -0.03022917 -0.002811506 -4.767627e-05 -1.148246e-14

Interpretacion: al realizar la prueba para la primera hipotesis r=0 se rechaza la hipotesis nula de cointegración debido a que el estadistico de prueba (30.09) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, r <= 1, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.

Solo existe un Vector de Cointegración.

# creamos un solo objeto
data(finland)
sjf <- finland
sjf.vecm <- ca.jo(
  sjf,
  ecdet = "none",
  type = "trace",
  K = 2,
  spec = "longrun",
  season = 4
)
summary(sjf.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: trace statistic , with linear trend 
## 
## Eigenvalues (lambda):
## [1] 0.30932660 0.22599561 0.07308056 0.02946699
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  3.11  6.50  8.18 11.65
## r <= 2 | 11.00 15.66 17.95 23.52
## r <= 1 | 37.65 28.71 31.52 37.22
## r = 0  | 76.13 45.23 48.28 55.43
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##            lrm1.l2    lny.l2    lnmr.l2    difp.l2
## lrm1.l2  1.0000000  1.000000  1.0000000   1.000000
## lny.l2  -0.9763252 -1.323191 -0.9199865   1.608739
## lnmr.l2 -7.0910749 -2.016033  0.2691516  -1.375342
## difp.l2 -7.0191097 22.740851 -1.8223931 -15.686927
## 
## Weights W:
## (This is the loading matrix)
## 
##            lrm1.l2       lny.l2      lnmr.l2      difp.l2
## lrm1.d 0.033342108 -0.020280528 -0.129947614 -0.002561906
## lny.d  0.022544782 -0.005717446  0.012949130 -0.006265406
## lnmr.d 0.053505000  0.046876449 -0.007367715  0.002173242
## difp.d 0.005554849 -0.017353903  0.014561151  0.001531004

Interpretacion: al realizar la prueba para las hipotesis r=0 y r=1 se rechaza la hipotesis nula de cointegración debido a que los estadisticos de prueba ( 76.13, 37.65) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.

La prueba de traza nos da evidencia que existen dos Vectores de Cointegración.

Causalidad en el sentido de Granger.

Cada una de las pruebas deberá incluir la siguiente estructura de presentación:

• Propósito de la prueba, es decir ¿Para qué se usa?

La prueba de causalidad de Granger busca determinar si una serie temporal puede ayudar a predecir otra. La idea central es que, si una variable X “causa” a otra variable Y en el sentido de Granger, entonces los cambios en X deberían ocurrir antes de los cambios en Y.

En términos prácticos, esto se evalúa mediante una regresión: si al incluir valores pasados (rezagos) de X en una regresión de Y junto con sus propios rezagos, la capacidad predictiva del modelo mejora significativamente, entonces se considera que X “causa” a Y en el sentido de Granger. Es importante notar que esta causalidad no implica una relación directa o causalidad verdadera, sino que se refiere a una relación predictiva basada en información temporal.

• Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)

\[ Hipótesis nula: H0:β2,1=β2,2=β2,3=0 \] “La serie temporal X no causa que Y se cause a sí misma”.

\[ Hipotesis alternativa:H1:β2,1,β2,2,β2,3≠0). \] “La serie temporal X hace que la serie temporal Y se cause a si misma con causa-Granger”.

• Sintaxis de implementación en R, explicando cada uno de los argumentos.

En R, podemos usar la función grangertest() del paquete lmtest para realizar una prueba de causalidad de Granger, que tiene la siguiente sintaxis: grangertest(X, Y, orden = 1)

Donde: X: Esta es la primera serie de tiempo. Y: El segundo conjunto de la serie temporal.

Paso 1: Carga de los datos El primer paso para realizar la prueba de causalidad de Granger es importar las series temporales que serán analizadas. Es necesario asegurarse de que los datos estén correctamente organizados y listos para el análisis.

Paso 2: Verificación de la estacionariedad Antes de realizar la prueba, es fundamental comprobar que las series temporales son estacionarias, ya que esta es una condición necesaria para aplicar la prueba de Granger. Para verificarlo, se utilizan dos pruebas clave:

La prueba aumentada de Dickey-Fuller (ADF), que identifica la presencia de raíces unitarias en las series temporales. La prueba KPSS, que evalúa si las series son estacionarias alrededor de una media o tendencia constante. Si las series no son estacionarias, es necesario transformarlas, generalmente aplicando diferenciación, hasta que cumplan con este requisito.

Paso 3: Aplicación de la prueba de Granger Una vez confirmada la estacionariedad de las series temporales, se procede a aplicar la prueba de causalidad de Granger. Esta prueba evalúa si los valores pasados de una serie (X) contribuyen significativamente a la predicción de otra serie (Y), más allá de lo que pueden explicar los valores pasados de la propia Y.

El resultado de esta prueba incluye un valor p asociado a la estadística F. Con base en este valor, se decide si se rechaza o no la hipótesis nula. La hipótesis nula establece que X no causa a Y en el sentido de Granger.

Evaluación de causalidad inversa Para completar el análisis, es necesario examinar si también existe causalidad en la dirección opuesta, es decir, si los valores pasados de Y ayudan a predecir a X. Esto se realiza repitiendo la prueba, pero invirtiendo el orden de las variables.

Este enfoque asegura una evaluación completa, considerando la posibilidad de relaciones bidireccionales entre las series analizadas.

• Estadístico de prueba (haga referencia en la salida que genera R)

En el contexto de la prueba de Dickey-Fuller, para que una serie temporal se considere estacionaria, se deben cumplir dos condiciones clave:

• Rechazar la hipótesis nula: La hipótesis nula en la prueba de Dickey-Fuller establece que la serie temporal tiene una raíz unitaria, lo que significa que no es estacionaria. Para que la serie sea estacionaria, se debe rechazar esta hipótesis nula.

• Que el estimador alfa sea negativo: El parámetro estimado (alfa) de la serie temporal, que representa la tendencia de la serie, debe ser negativo. Esto implica que la serie muestra un comportamiento en el que la media o la tendencia se estabiliza en el tiempo.

El procedimiento para verificar estas condiciones se realiza mediante un estadístico t de Student, el cual se utiliza para comparar el valor del estimador alfa con su distribución bajo la hipótesis nula.

• Estadístico t negativo: Para que se rechace la hipótesis nula, el estadístico t debe ser negativo. Además, debe ser más negativo (es decir, tener un valor menor) que el valor crítico de la distribución t correspondiente al nivel de significancia elegido.

Si el valor t calculado es más negativo que el valor crítico, se rechaza la hipótesis nula y se concluye que la serie temporal es estacionaria. Esto indica que no hay raíces unitarias y la serie tiene una media y varianza constantes a lo largo del tiempo. \[ t̂ α̂ =α̂ /SE(α̂ ) \] # • Criterio de decisión (haga referencia en la salida que genera R) La prueba de raíz unitaria se lleva a cabo bajo las siguientes hipótesis:

• Hipótesis nula (H₀):α = 0 (esto indica que la serie tiene una raíz unitaria y, por lo tanto, no es estacionaria).

• Hipótesis alternativa (H₁): α < 0 (esto sugiere que la serie no tiene raíz unitaria, es decir, es estacionaria).

Una vez calculado el estadístico de la prueba, este debe compararse con el valor crítico relevante de la distribución t para la prueba de Dickey-Fuller. La prueba no es simétrica, por lo que no se considera el valor absoluto. Si el estadístico t calculado es más negativo que el valor crítico (es decir, menor que el valor crítico), entonces se rechaza la hipótesis nula y se concluye que no hay raíz unitaria presente, lo que implica que la serie es estacionaria.

Condiciones para la estacionariedad: Para concluir que la serie es estacionaria, se debe cumplir la siguiente condición: \[ t̂ α̂ =α̂ /SE(α̂ )<0 \] Donde: •α̂: Es el estimador de α (el parámetro de la serie).

•SE(α̂ ): es el error estándar del estimador α̂.

Y, además, debe existir una probabilidad de rechazo menor a 0.05 para que el resultado sea estadísticamente significativo.

• Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.

Si se rechaza la hipótesis nula (H₀): Se concluye que la serie no tiene raíz unitaria y, por lo tanto, los residuales son estacionarios.

Si no se rechaza la hipótesis nula (H₀): Se concluye que existe una raíz unitaria, lo que significa que los residuales no son estacionarios.

Este procedimiento es clave para determinar la estabilidad temporal de una serie y su idoneidad para modelos que requieren estacionariedad, como los modelos ARIMA.

• Implementación de un ejemplo.

En este caso, vamos a formular una prueba de causalidad entre el número de pollos y el número de huevos, utilizando las siguientes hipótesis:

Hipótesis nula (H₀): “Conocer el número de pollos no es útil para predecir el número futuro de huevos.” Esto implica que no existe una relación de causalidad entre el número de pollos y el número de huevos.

Hipótesis alternativa (H₁): “Conocer el número de huevos es útil para predecir el número futuro de pollos.” Esto sugiere que el número de huevos tiene una influencia predictiva sobre el número de pollos.

• Carga de datos

El conjunto de datos ChickEgg está incluido en el paquete lmtest y contiene la información del número de pollos y huevos en los Estados Unidos entre los años 1930 y 1983. A continuación, te explico cómo puedes cargar y trabajar con estos datos en R.

1- Carga del paquete y los datos: Primero, asegúrate de cargar el paquete lmtest para poder acceder al conjunto de datos ChickEgg.

# Cargar el paquete lmtest
library(lmtest)

# Cargar el conjunto de datos ChickEgg
data("ChickEgg")

2- Exploración de los datos: Ahora, puedes explorar el conjunto de datos para ver cómo está estructurado:

# Ver las primeras filas del conjunto de datos
head(ChickEgg)
##      chicken  egg
## [1,]  468491 3581
## [2,]  449743 3532
## [3,]  436815 3327
## [4,]  444523 3255
## [5,]  433937 3156
## [6,]  389958 3081

El conjunto de datos contiene dos variables:

• Eggs: El número de huevos.

• Chickens: El número de pollos.

3- Análisis de causalidad de Granger: Para llevar a cabo la prueba de causalidad de Granger y evaluar si el número de huevos ayuda a predecir el número de pollos (o viceversa), utilizamos la función grangertest() del paquete lmtest. En este caso, vamos a probar si el número de huevos (Eggs) predice el número futuro de pollos (Chickens).

## Granger causality test
## 
## Model 1: chicken ~ Lags(chicken, 1:1) + Lags(egg, 1:1)
## Model 2: chicken ~ Lags(chicken, 1:1)
##   Res.Df Df      F Pr(>F)
## 1     50                 
## 2     51 -1 1.2071 0.2772

Esta prueba generará un valor p que indica si debemos rechazar o no la hipótesis nula. Si el valor p es menor que 0.05, podemos rechazar la hipótesis nula y concluir que el número de huevos tiene un poder predictivo sobre el número de pollos.

Interpretación del resultado:

• Si el valor p es menor que 0.05, se rechaza la hipótesis nula (H₀) y se concluye que el número de huevos es útil para predecir el número de pollos.

• Si el valor p es mayor que 0.05, no hay suficiente evidencia para rechazar la hipótesis nula, lo que sugiere que el número de pollos no tiene un impacto significativo en la predicción del número de huevos.

Este procedimiento te ayudará a determinar si existe una relación causal entre las dos variables en el conjunto de datos.