El Rpbs presenta la la revisión de la estimación de los \(\beta\)
Se recuerda que para un modelo de regresión global, se tiene que:
\[y_i=\beta_0+\sum _k\beta_kx_{ik}+e_i\] La regresión geometricamente ponderada amplia el marco de regresión convencional y permite estimar parametros locales:
\[y_i=\beta_0(u_i,v_i)+\sum _k\beta_k(u_i,v_i)x_{ik}+e_i\] Donde \((u_i, v_i)\) referencia las coordenadas geográficas del i-ésimo punto y \(\beta_k(u_i,v_i)\) es una realización de la función continua \(\beta_k(u,v)\) en el punto \(i\)
Estimación de los parametros
\[\hat{\beta}(u_i,v_i)=[X^T W(u_i,v_i)X]^{-1}X^TW(u_i,v_i)y\] Siendo,
\(X\): la matriz de variables predictoras con una columna de 1s para el intercepto,
\(y\): es el vector de la variable respuesta
\(W(u_i,v_i)\): Matriz de tamaño nXn elementos fuera de la diagonal son cero y elementos en la diagonal denoan la ponderación geográfica de cada uno de los n datos observados para el punto de regresión \(i\) en la ubicación \((u_i, v_i)\)
Ahora veamos:
\[y_i=\beta_0(u_i,v_i)+\sum _k\beta_k(u_i,v_i)x_{ik}+e_i\] De la expresión anterior se tiene que:
\[y_1=\beta_0(u_1,v_1)+\beta_1(u_1,v_1)x_{11}+\beta_2(u_1,v_1)x_{12}+...+\beta_k(u_i,v_1)x_{1k}+e_1\] \[y_2=\beta_0(u_2,v_2)+\beta_1(u_2,v_2)x_{21}+\beta_2(u_2,v_2)x_{22}+...+\beta_k(u_2,v_2)x_{2k}+e_2\]
\[y_3=\beta_0(u_3,v_3)+\beta_1(u_3,v_3)x_{31}+\beta_2(u_3,v_3)x_{32}+...+\beta_k(u_3,v_3)x_{3k}+e_3\] .
.
.
\[y_n=\beta_0(u_n,v_n)+\beta_1(u_n,v_n)x_{n1}+\beta_2(u_n,v_n)x_{n2}+...+\beta_k(u_n,v_n)x_{nk}+e_n\] Veamos en terminos matriciales la regresión geograficamente ponderada
\[Y=(\beta \otimes X)1+\epsilon\] siendo,
\(\otimes:\) operador logico de multiplicación para cada elemento \(\beta\) se multiplica por el elemento correspondiente de \(X\)
Ejemplo: si hay n datos y k variables predictoras las matrices y \(X\) tienen dimensión \(n(k+1)\). Lo que implica que consiste de n conjuntos de parametros locales dados por:
\[\begin{equation} \beta_{n(k+1)}= \begin{bmatrix}\\ \beta_0(u_1,v_1) & \beta_1(u_1,v_1)&...&\beta_k(u_1,v_1) \\ .&.&.&.\\ .&.&.&.\\ .&.&.&.\\ \beta_0(u_n,v_n) & \beta_1(u_n,v_n) &...& \beta_k(u_n,v_n) \end{bmatrix} \end{equation}\]
entonces \[\begin{equation} X_{n(k+1)}=\begin{bmatrix}\\ 1x_{11} & ... &x_{1k} \\ .&.&.\\ .&.&.\\ .&.&.\\ 1x_{n1} & ... &x_{nk} \end{bmatrix} \end{equation}\]
entonces los elementos de cada fila de la matriz son estimados por:
\[\hat{\beta}(i)=[X^TW(i)X]^{-1}X^TW(i)Y\] donde \(i\) representa una fila de la matriz \(\beta\) y \(W (i)\) es la matriz de la ponderación espacial de tamaño nXn dada por:
\[\begin{equation} W_{n(k+1)}=\begin{bmatrix}\\ w_{i1} & 0 & ... & 0 \\ .&.&.&.\\ .&.&.&.\\ .&.&.&.\\ 0 & 0 & ... &w_{in} \end{bmatrix} \end{equation}\]
siendo, \(w_{in}\) es el peso dado a los n datos puntuales en la calibración del modelo para la ubicación i. Para construcir la matriz de ponderación hay tres aspectos claves: i)Tipo de distancia ii) función del nucleo (kernel) iii) ancho de banda