La regresión lineal es una técnica estadÃstica utilizada para modelar la relación entre una variable dependiente y una o más variables independientes. A continuación, se detallan las ecuaciones y las interpretaciones de los coeficientes para la regresión lineal simple y múltiple.
La regresión lineal simple se utiliza cuando queremos predecir el valor de una variable dependiente basándonos en el valor de una única variable independiente. El objetivo es encontrar la lÃnea recta que mejor se ajuste a los datos.
La ecuación que describe la relación entre la variable dependiente (Y) y la variable independiente (X) es:
\[Y = \beta_0 + \beta_1X + \epsilon\]
Donde: * Y: Es la variable dependiente o la variable que se quiere predecir. * X: Es la variable independiente o la variable predictora. * \(\beta_0\): Es el intercepto, que representa el valor de Y cuando X es igual a 0. * \(\beta_1\): Es la pendiente de la lÃnea, que representa el cambio en Y por cada unidad de cambio en X. * \(\epsilon\): Es el término de error, que representa la variación en Y que no es explicada por la relación lineal con X.
Para predecir el valor de Y, utilizamos la ecuación de la lÃnea de regresión estimada:
\[\hat{Y} = b_0 + b_1X\]
Donde: * \(\hat{Y}\): Es el valor predicho de la variable dependiente. * \(b_0\): Es la estimación del intercepto \(\beta_0\). * \(b_1\): Es la estimación de la pendiente \(\beta_1\).
Intercepto (\(b_0\)): Representa el valor estimado de la variable dependiente Y cuando la variable independiente X es igual a cero. En algunos contextos, la interpretación del intercepto puede no tener sentido práctico si un valor de X=0 está fuera del rango de los datos observados.
Pendiente (\(b_1\)): Indica el cambio promedio estimado en la variable dependiente Y por cada aumento de una unidad en la variable independiente X.
La regresión lineal múltiple es una extensión de la regresión lineal simple que se utiliza cuando queremos predecir el valor de una variable dependiente basándonos en el valor de dos o más variables independientes.
La ecuación para la regresión lineal múltiple con ‘k’ variables independientes es:
\[Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_kX_k + \epsilon\]
Donde: * Y: Es la variable dependiente. * \(X_1, X_2, ..., X_k\): Son las variables independientes. * \(\beta_0\): Es el intercepto, el valor de Y cuando todas las variables independientes son cero. * \(\beta_1, \beta_2, ..., \beta_k\): Son los coeficientes de regresión para cada variable independiente. * \(\epsilon\): Es el término de error.
La ecuación de regresión estimada para la predicción es:
\[\hat{Y} = b_0 + b_1X_1 + b_2X_2 + ... + b_kX_k\]
Donde: * \(\hat{Y}\): Es el valor predicho de Y. * \(b_0, b_1, b_2, ..., b_k\): Son las estimaciones de los coeficientes de regresión.
Intercepto (\(b_0\)): Representa el valor estimado de la variable dependiente Y cuando todas las variables independientes (\(X_1, X_2, ..., X_k\)) son iguales a cero. Al igual que en la regresión simple, su interpretación práctica depende de si tiene sentido que todas las variables predictoras sean cero.
Coeficientes de Regresión (\(b_1, b_2, ..., b_k\)): Cada coeficiente \(b_i\) representa el cambio promedio estimado en la variable dependiente Y por cada aumento de una unidad en la variable independiente correspondiente \(X_i\), manteniendo constantes todas las demás variables independientes. Esto es crucial en la regresión múltiple, ya que permite aislar el efecto de cada predictor.
Por ejemplo, \(b_1\) es el cambio estimado en Y por cada unidad que aumenta \(X_1\), asumiendo que \(X_2, X_3, ..., X_k\) no cambian. La interpretación del signo del coeficiente (positivo o negativo) es la misma que en la regresión lineal simple.
library(MASS)
data(Boston)
Boston