Regresión lineal simple en su forma matricial

Matrices

Definición de matriz

Una matriz es un arreglo rectangular de elementos organizados en filas y columna. Un ejemplo de matriz es el siguiente:

\[ \begin{array}{c, c} \begin{array}{c} Fila~1 \\ Fila~2 \\ Fila~3 \\ \end{array} & \begin{bmatrix} 16000 & 23 \\ 33000 & 47 \\ 21000 & 35 \end{bmatrix} \\ & \begin{array}{ccc} Columna & Columna\\ 1 & 2 \end{array} \end{array} \]

Los elementos particulares de la matriz anterior son números que representan ingresos mensuales en dólares (columna 1) y edad (columna 2) de tres personas. Los elementos están ordenados por fila (persona) y columna (característica de la persona). La dimensión de la matriz anterior es \(3x2\), \(3\) filas y \(2\) columnas.

Note que dada la dimensión de una matriz, se especifica el número de filas primero y posteriormente el número de columnas. Se pueden usar símbolos para identificar los elementos de una matriz, cómo se muestra a continuación.

\[\begin{array}{c, c} \begin{array}{c} i=1\\ i=2 \\ \end{array} & \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_22 &a_{23} \\ \end{bmatrix} \\ & \begin{array}{ccc} j=1 & j=2 & j=3\\ \end{array} \end{array}\]

Se usará la notación general \(a_{ij}\) para identificar el elemento en la fila \(i\) y en la columna \(j\). En el ejemplo anterior: \(i=1,2\) y \(j=1,2,3\).

Se suele denotar a las matrices con letras mayúsculas y negritas, esto con el propósito de identificar que se refiere a una matriz. Por lo tanto se podría definir la matriz anterior como:

\[ A = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_22 &a_{23} \end{bmatrix} \]

Otra notación que se puede utilizar es la siguiente:

\[ A= \left[ a_{ij} \right]~~~ ~i=1,2;~ j=1,2,3 \]

De manera general una matriz con \(r~filas\) y \(c~columnas\) puede ser representada de la siguiente manera:

\[ A= \begin{bmatrix} a_{11} & a_{12} &...& a_{1c}\\ a_{21} & a_{22} &...& a_{2c}\\ a_{31} & a_{32} &...& a_{3c}\\ . & . &...& .\\ . & . &...& .\\ . & . &...& .\\ a_{r1} & a_{r2} &...& a_{rc} \end{bmatrix} \]

O con la siguiente notación

\[A=\left[ a_{ij}\right]~~~i=1,2,..,r~;~~ j=1,2,...,c \]

Matriz cuadrada

Una matriz se dice cuadrada si su número de filas es igual a su número de columnas. Ejemplo:

\[ A = \begin{bmatrix} 4 & 7 \\ 3 & 9 \\ \end{bmatrix} \]

Vectores

Una matriz que contiene solo una columna es conocido como vector columna o simplemente un ventor. Ejemplo:

\[ A = \begin{bmatrix} 4 \\ 7 \\ 10 \end{bmatrix} \]

El vector \(A\) es una matriz \(3X1\).

Una matriz que contiene solo una fila es conocido como vector fila o simplemente un ventor. Ejemplo:

\[ A = \begin{bmatrix} 4 & 7 & 10 \end{bmatrix} \]

Traspuesta de una matriz

La traspuesta de una matriz \(A\) es otra matriz, denotada \(A^{'}\) O \(A^T\), que se obtiene intercambiando las filas y las columnas de la matriz \(A\).

Sea \(A=\left[ a_{ij} \right]\), la matriz traspuesta de \(A\) es igual a:

\[A^{'} =\left[ a_{ji} \right] \]

Igualdad de matrices

Dos matrices \(A\) y \(B\) son iguales si poseen la misma dimensión \(mXn\) y si todos sus elementos son iguales uno a uno. Esto es, si \(A = \left[ a_{ij}\right]\) y \(B = \left[ b_{ij}\right]\)

Entonces \(A\) y \(B\) son iguales si:

\[a_{ij} = b_{ij}~;~i=1,2,..., r~;~j=1,2,...,c\] Por ejemplo, sean las matrices \(A\) y \(B\):

\[ A = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22}\\ \end{bmatrix}\\ \\ B = \begin{bmatrix} 17 & 2 \\ 14 & 5\\ \end{bmatrix} \]

Si \(A=B\) implica que:

\[\begin{align} a_{11} &= 17\\ \\ a_{12} &= 2\\ \\ a_{21} &= 14\\ \\ a_{22} &= 5 \end{align}\]

Adición y sustracción de matrices

Adicionar o sustraer dos matrices \(A\) y \(B\) requiere que tengan la misma dimensión \(mxn\). La suma de dos matrices se define de la siguiente manera:

\[\begin{align} Si~ A=\left[ a_{ij}\right]~~y~~ B=\left[ b_{ij}\right] \rightarrow \\ \\ A + B = \left[ a_{ij} + b_{ij}\right] \end{align}\]

La resta entre dos matrices \(A\) Y \(B\) se define de la siguiente manera:

\[\begin{align} Si~ A=\left[ a_{ij}\right]~y~ B=\left[ b_{ij}\right] \rightarrow\\ \\ A - B = \left[ a_{ij} - b_{ij}\right] \end{align}\]

Multiplicación de una matriz por un escalar \(k\)

En la multiplicación de una matriz \(A\) por un escalar \(k\), cada elemento \(a_{ij}\) debe ser multiplicado por el escalar \(k\). En general la multiplicación de una matriz \(A\) por un escalar \(k\) se calcula de la siguiente manera:

\[\begin{align} kA = Ak = \left[ ka_{ij} \right] \end{align}\]

Multiplicación de dos matrices

Sea la matriz \(A= \left[ a_{ij} \right]\) con dimensiones \(r~x~c\) y la matriz \(BA= \left[ b_{ij} \right]\) con dimensiones \(c~x~s\), el producto \(AB\) es una matriz de dimensiones \(r~x~s\) cuyos elementos de la fila \(i\) y la columna \(j\) son:

\[\begin{align} \sum_{k=1}^c a_{ik} b_{kj} \end{align}\]

Por lo tanto:

\[\begin{align} AB_{r~x~s} = \left[ \sum_{k=1}^c a_{ik} b_{kj} \right]~~; i=1,...,r~~;~~ j=1,...,s \end{align}\]

Por ejemplo, sea la matriz \(A\):

\[A= \begin{bmatrix} 2 & 5 \\ 4 & 1 \end{bmatrix}\]

Y la matriz \(B\):

\[B= \begin{bmatrix} 4 & 6 \\ 5 & 8 \end{bmatrix}\]

La matriz \(AB\) está dada por:

\[AB= \begin{bmatrix} (2*4)+(5*5) & (2*6)+(5*8) \\ (4*4)+(1*5) & (4*6)+(1*8) \end{bmatrix}\\ AB= \begin{bmatrix} 33 & 52 \\ 21 & 32 \end{bmatrix}\]

Algunos tipos importantes de matrices

Matriz simétrica

Sea \(A\) una matriz cuadrada. Si \(A= A^{'}\), entonces \(A\) es simétrica. Por ejemplo:

\[A= \begin{bmatrix} 1 & 4 & 6 \\ 4 & 2 & 5 \\ 6 & 5 & 3 \end{bmatrix}\]

De acuerdo con \(A\), \(A^{'}\) es:

\[A^{'}= \begin{bmatrix} 1 & 4 & 6 \\ 4 & 2 & 5 \\ 6 & 5 & 3 \end{bmatrix}\]

Por lo tanto \(A\) es simétrica.

Matriz diagonal

Una matriz diagonal es una matriz cuadrada, cuyos elementos por fuera de la diagonal son iguales a cero, esto es, si \(A\) es una matriz diagonal, entonces se cumple que:

\[\begin{align} a_{ij} \neq 0, ~ si~ i\neq j~; i=1,2,...,r~;~j=1,2,...,c \end{align}\]

\(A\) y \(B\) son ejemplos de matrices diagonales:

\[A= \begin{bmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{bmatrix};\\ \\ B= \begin{bmatrix} a_{11} & 0 & 0 \\ 0 & a_{22} & 0 \\ 0 & 0 & a_{33} \end{bmatrix} \]

Matriz identidad

La matriz identidad o la matriz unitaria, denotada con \(I\) Es una matriz diagonal cuyos elementos de la diagonal son todos iguales a \(1\). La matriz identidad cumple:

\[I =a_{ij}= \left\{ \begin{array}{lcc} 0 & si & i \neq j \\ \\1 & si & i =j \end{array} \right. ; i=1,2,...,r~;~j=1,2...,c\]

La matriz identidad \(I\) también cumple que:

\[\begin{align} AI = A \end{align}\]

Inversa de una matriz

La inversa de una matriz \(A\) cuadrada, es otra matrizdenotada \(A^{-1}\) que cumple:

\[\begin{align} A^{-1}A = AA^{-1} = I \end{align}\]

Si \(A\) es una matriz \(rxr\) es necesario que el rango de la matriz (correspondiente al número máximo de filas o columnas linealmente independientes) sea \(r\) para poder calcular su inversa, de lo contrario la matriz \(A\) se conoce como matriz singular.

La inversa de una matriz \(A_{2x2}\) se calcula de la siguiente manera:

\[ A = \begin{bmatrix} a & b \\ c & d \end{bmatrix}\\ \\ \\ A ^{-1} = \frac{1}{ad-bc} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix}\\ \]

\[ad-bc\] se conoce como determinante de la matriz \(A\)

Modelo de regresión lineal simple en su forma matricial

El modelo de regresión lineal se muestra en Ecuación 1:

\[\begin{align} y_i = \beta_0 + \beta_1x_i + \epsilon_i \end{align} \tag{1}\]

El modelo de Ecuación 1 implica que:

\[\begin{align} y_1 &= \beta_0 + \beta_1x_1 + \epsilon_1\\ \\ y_2 &= \beta_0 + \beta_1x_2 + \epsilon_2\\ \\ .\\ .\\ .\\ \\ y_n &= \beta_0 + \beta_1x_n + \epsilon_n \end{align}\]

Se definen los elementos del modelo en su forma matricial de la siguiente manera (Ecuación 2):

\[\underset{n\text{x}1}Y= \begin{bmatrix} Y_1 \\ Y_2 \\ Y_3 \\ .\\ .\\ .\\ Y_n \\ \end{bmatrix}~;~~\\ \underset{n\text{x}2}X= \begin{bmatrix} 1 & X_1 \\ 1 & X_2 \\ 1 & X_3\\ .\\ .\\ .\\ 1 & X_4 \\ \end{bmatrix} ~;~~\\ \underset{2\text{x}1}\beta= \begin{bmatrix} \beta_0 \\ \beta_1 \end{bmatrix} ~;~~\\ \underset{n\text{x}1}\epsilon= \begin{bmatrix} \epsilon_1 \\ \epsilon_2 \\ .\\ .\\ .\\ \epsilon_n \\ \end{bmatrix} \tag{2}\]

Con las definiciones de Ecuación 2, podemos redefinir la Ecuación 1, de la siguiente manera, Ecuación 3:

\[\begin{align} Y = X\beta + \epsilon \end{align} \tag{3}\]

Valor esperado \(E(Y)\) y varianza \(\sigma^2(\epsilon)\)

\(X\beta\) es el vector de valores esperados para las \(y_i\) observaciones ya que \(E(y_i) = \beta_0 + \beta_1x_i\); por lo tanto se puede definir \(E(Y)\) como se muestra en Ecuación 4:

\[\begin{align} \underset{n\text{x}1}{E(Y)} = \underset{n\text{x}1} {X\beta} \end{align} \tag{4}\]

Con respecto a los términos del error, el modelo de la Ecuación 1 asume que \(E(\epsilon_i)=0\), además, \(\sigma^2(\epsilon_i) = \sigma^2\). También supone que los \(\epsilon_i\) son variables aleatorias normales e independientes.

La condición $E(_i) =0 $ en términos matriciales se muestra en la Ecuación 5:

\[\begin{align} \underset{n\text{x}1}{E(\epsilon)} = \underset{n\text{x}1} {0} \end{align} \tag{5}\]

De la Ecuación 5 se deduce que:

\[\begin{bmatrix} E(\epsilon_1) \\ E(\epsilon_2) \\ .\\ .\\ .\\ E(\epsilon_n) \\ \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ .\\ .\\ .\\ 0 \\ \end{bmatrix}\]

La condición que los términos del error tienen varianza constante \(\sigma^2\) y que todas las covarianzas \(\sigma(\epsilon_i,\epsilon_j) = 0\) para \(i \neq j\) es expresada en términos matriciales a través de una matriz de varianza-covarianza de los términos del error, Ecuación 6:

\[\underset{n \text{x}n} {\sigma^2(\epsilon)} = \begin{bmatrix} \sigma^2 & 0 & 0 & ...& 0\\ 0 & \sigma^2 & 0 & ...& 0\\ 0 & 0 & \sigma^2 & ...& 0 \\ . & . & . & & .\\ . & . & . & & .\\ . & . & . & & .\\ 0 & 0 & 0 & . . .& \sigma^2 \end{bmatrix} \tag{6}\]

De esta manera \(\epsilon\) es un vector con variables aleatorias normales e independientes con \(E(\epsilon) = 0\) y \(\sigma^2(\epsilon) = \sigma^2I\)

Estimación de parámetros por mínimos cuadrados

Los coeficientes de regresión se estiman mediante la Ecuación 7:

\[\begin{align} \underset{2 \text{x}1} {\hat{\beta}} = \underset{2 \text{x}2} {(X^{'}X)^{-1}} \underset{2 \text{x}1}{X^{'}Y} \end{align} \tag{7}\]

Estimados \(\hat{Y}\) y residuales \(e\)

Los valores ajustados \(\hat{Y}\) se pueden calcular como se muestra en la Ecuación 8:

\[\begin{align} \underset{n \text{x}1} {\hat{Y}} = \underset{n \text{x}2} {X}~~ \underset{2 \text{x}1}{\hat{\beta}} \end{align} \tag{8}\]

Reemplazando la Ecuación 7 en Ecuación 8, encontramos que \(\hat{Y}\) se puede expresar como lo muestra la Ecuación 9

\[\begin{align} {\hat{Y}} = X(X^{'}X)^{-1} X^{'}Y \end{align} \tag{9}\]

Los residuales \(e\) se pueden calcular como se muestra en la Ecuación 10:

\[\begin{align} \underset{n \text{x}1} {e} = \underset{n \text{x}1} {Y} - \underset{n \text{x}1}{\hat{Y}} = \underset{n \text{x}1} {Y} - \underset{n \text{x}1} {X\beta} \end{align} \tag{10}\]

Ejemplo GINI vs Homicidios en su forma matricial

# Matriz X
X <- matrix(c(1,1,1,1,1,1,1,1,1,1,54.8,52,51,45.5,45.1,43,40.9,40.7,40.6,40.3), ncol=2, nrow=10)

# Matriz Y
Y <- matrix(c(27,31,19,14.02,6.96,4,3.97,4.31,11.19,5.71), ncol=1, nrow=10)

# Traspuesta de X
XT <- t(X)

# X Traspuesta por X
XTX <- XT%*%X

#Inversa de X traspuesta por X
invXTX <- solve(XTX)

#X traspuesta por Y
XTY <- XT %*% Y

# Betas estimados
BETAS <- invXTX %*% XTY
BETAS
          [,1]
[1,] -63.04125
[2,]   1.66903