La regresión lineal es una técnica estadística utilizada para modelar la relación entre una variable dependiente y una o más variables independientes. A continuación, se detallan las ecuaciones y las interpretaciones de los coeficientes para la regresión lineal simple y múltiple.

Regresión Lineal Simple

La regresión lineal simple se utiliza cuando queremos predecir el valor de una variable dependiente basándonos en el valor de una única variable independiente. El objetivo es encontrar la línea recta que mejor se ajuste a los datos.

Ecuación de la Regresión Lineal Simple

La ecuación que describe la relación entre la variable dependiente (Y) y la variable independiente (X) es:

\[Y = \beta_0 + \beta_1X + \epsilon\]

Donde: * Y: Es la variable dependiente o la variable que se quiere predecir. * X: Es la variable independiente o la variable predictora. * \(\beta_0\): Es el intercepto, que representa el valor de Y cuando X es igual a 0. * \(\beta_1\): Es la pendiente de la línea, que representa el cambio en Y por cada unidad de cambio en X. * \(\epsilon\): Es el término de error, que representa la variación en Y que no es explicada por la relación lineal con X.

Para predecir el valor de Y, utilizamos la ecuación de la línea de regresión estimada:

\[\hat{Y} = b_0 + b_1X\]

Donde: * \(\hat{Y}\): Es el valor predicho de la variable dependiente. * \(b_0\): Es la estimación del intercepto \(\beta_0\). * \(b_1\): Es la estimación de la pendiente \(\beta_1\).


Interpretación de los Coeficientes

  • Intercepto (\(b_0\)): Representa el valor estimado de la variable dependiente Y cuando la variable independiente X es igual a cero. En algunos contextos, la interpretación del intercepto puede no tener sentido práctico si un valor de X=0 está fuera del rango de los datos observados.

  • Pendiente (\(b_1\)): Indica el cambio promedio estimado en la variable dependiente Y por cada aumento de una unidad en la variable independiente X.

    • Si \(b_1\) > 0, existe una relación positiva. A medida que X aumenta, Y tiende a aumentar.
    • Si \(b_1\) < 0, existe una relación negativa. A medida que X aumenta, Y tiende a disminuir.
    • Si \(b_1\) = 0, no hay una relación lineal entre X e Y.

Regresión Lineal Múltiple

La regresión lineal múltiple es una extensión de la regresión lineal simple que se utiliza cuando queremos predecir el valor de una variable dependiente basándonos en el valor de dos o más variables independientes.

Ecuación de la Regresión Lineal Múltiple

La ecuación para la regresión lineal múltiple con ‘k’ variables independientes es:

\[Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_kX_k + \epsilon\]

Donde: * Y: Es la variable dependiente. * \(X_1, X_2, ..., X_k\): Son las variables independientes. * \(\beta_0\): Es el intercepto, el valor de Y cuando todas las variables independientes son cero. * \(\beta_1, \beta_2, ..., \beta_k\): Son los coeficientes de regresión para cada variable independiente. * \(\epsilon\): Es el término de error.

La ecuación de regresión estimada para la predicción es:

\[\hat{Y} = b_0 + b_1X_1 + b_2X_2 + ... + b_kX_k\]

Donde: * \(\hat{Y}\): Es el valor predicho de Y. * \(b_0, b_1, b_2, ..., b_k\): Son las estimaciones de los coeficientes de regresión.


Interpretación de los Coeficientes

  • Intercepto (\(b_0\)): Representa el valor estimado de la variable dependiente Y cuando todas las variables independientes (\(X_1, X_2, ..., X_k\)) son iguales a cero. Al igual que en la regresión simple, su interpretación práctica depende de si tiene sentido que todas las variables predictoras sean cero.

  • Coeficientes de Regresión (\(b_1, b_2, ..., b_k\)): Cada coeficiente \(b_i\) representa el cambio promedio estimado en la variable dependiente Y por cada aumento de una unidad en la variable independiente correspondiente \(X_i\), manteniendo constantes todas las demás variables independientes. Esto es crucial en la regresión múltiple, ya que permite aislar el efecto de cada predictor.

    Por ejemplo, \(b_1\) es el cambio estimado en Y por cada unidad que aumenta \(X_1\), asumiendo que \(X_2, X_3, ..., X_k\) no cambian. La interpretación del signo del coeficiente (positivo o negativo) es la misma que en la regresión lineal simple.

library(MASS)
data(Boston)
Boston