Interpolación espacial

El método tiene como objetivo estimar el valor que adquiere cualquier localización a partir de valores conocidos medidos en localizaciones puntuales distribuidas en el interior del área de estudio (Galbán, 2021).

El procedimiento se realiza cuando la distribución espacial de la variable es continua y no puede ser medida en las infinitas localizaciones, por lo tanto, la continuidad se logra a partir de la representación cartográfica de los resultados en una superficie estadística que se genera como modelo (Galbán, 2021).

La interpolación espacial es una temática central de la Geoestadística, término acuñado por Matheron (1962) a partir del inicio teórico-metodológico propuesto por Sichel (1947) y Krige (1951) en el campo de la ciencia aplicada y particularmente en cuanto a la búsqueda y exploración de yacimientos minerales (Galbán, 2021).

El concepto se encuentra compuesto por un “Geo” relacionado a las Ciencias de la Tierra y una “estadística” que alude a la aplicación de metodologías desarrolladas por este campo científico (Galbán, 2021).

Áreas de influencia

Desde un punto de vista ideal, las áreas de influencia para una serie de puntos distribuidos sobre el espacio geográfico son circulares. A medida que se hacen mayores en idénticos tamaños y se tocan, sus límites se ubican en la distancia media que existe entre cada par de puntos. De esta manera, la mediatriz de un segmento construida sobre la distancia lineal entre puntos permite generar un mosaico en el cual cada punto pasa a ser el centro de un espacio y toda localización interior se encuentra más cercano a su correspondiente centro que a cualquier otra (Galbán, 2021).

Esta configuración de un mosaico regional dividido en polígonos recibe diferentes nombres en honor a los principales científicos que estudiaron sus propiedades. A mediados del siglo XIX la Teselación de Dirichlet (1850) y a principios del siglo XX los Polígonos de (Galbán, 2021)Voronoi (1908) y Polígonos de Thiessen (1911), siendo este último reconocida como la primera aplicación a un caso geográfico (Galbán, 2021).

El procedimiento por el cual una distribución de puntos se transforma en una malla poligonal de áreas de influencia para cada punto, se reconoce en la tecnología SIG como Voronoi o Thiessen. Aquí serán denominados Polígonos de Voronoi-Thiessen, reconociendo su más reconocida formulación matemática y su incorporación geográfica. Representa el primer método de interpolación, con la simplicidad de ser construidos a partir del uso de distancias lineales (Galbán, 2021).

Polígonos regulares

Si las localizaciones son puntos centrales y se distribuyen en el espacio regional de forma regular, optimizando sus ubicaciones a través de una configuración de triángulos equiláteros, las áreas de influencia trazadas a través de la distancia media entre ellos tendrán forma hexagonal, tal como Christaller (1966) lo representa en la modelización ideal de la teoría de los lugares centrales (Galbán, 2021).

Los hexágonos son los polígonos regulares que permiten realizar el mejor ajuste en los cuales existe la mayor economía en los desplazamientos realizados desde su centro hacia los bordes, solo superado por el círculo, tal cual lo hemos visto en el punto anterior como figura geométrica de mayor compacidad (Galbán, 2021).

Polígonos de Voronoi-Thiessen

Las localizaciones que representan puntos centrales no tienen una distribución regular en el espacio geográfico, por lo tanto, sus áreas de influencia tendrán diferentes alcances espaciales tanto para una competencia espacial como para la cobertura óptima del alcance de bienes y servicios (Galbán, 2021).

Desde el punto de vista del comportamiento regido por la racionalidad en la minimización de esfuerzos, principio del esfuerzo mínimo postulado por Zipf (1949), se considera que las necesidades de la población serán satisfechas en la localización más cercana, la que permitirán minimizar esfuerzos y costos de desplazamiento. El resultado representa espacialmente un mosaico regional que se adapta a situaciones cercanas a la realidad (Galbán, 2021).

Los cálculos de los polígonos de Voronoi-Thiessen para distribuciones irregulares fueron realizados en el análisis de áreas de influencia en espacios regionales (Principi, 2013) y urbanos (Buzai, 2016) en zonificaciones a través de las áreas de influencia de cada centro y el cálculo de población de demanda potencial en su interior (Galbán, 2021).

La lógica analítica de construcción contempla un área de estudio con múltiples localizaciones puntuales entre las cuales se calculan las distancias lineales (euclidianas) entre las localizaciones puntuales. (Galbán, 2021)

\[P={p_1,p_2,…,p_n}\] \[D_ij=√((i_x-j_x )^2+(i_y-j_y^2 ))\]

Cada polígono se construye a partir de la mediatriz de un segmento, como línea recta perpendicular al segmento de distancia euclidiana trazado por su punto medio. Para el caso con dos localizaciones a y b aparecen dos semiplanos, uno que contiene todas las localizaciones cercanas a a y otro a b. \[h(a,b)\] \[h(b,a)\] De manera que el polígono quedaría definido por: \[Vor(p_i)=⋂_(j=1;j≠i)^nh( p_i p_j)\]

Una vez creados los polígonos en la situación ideal, la ubicación de los límites puede ser ajustada contemplando un valor de ponderación en cada localización como peso de importancia (Galbán, 2021).

Si las localizaciones puntuales son ciudades, el poder de atracción podría ser medido a partir del tamaño poblacional, por lo cual la influencia de cada centro será mayor y la superficie del polígono será más extensa cuanta mayor población tenga (Galbán, 2021).

Generalizando una fórmula utilizada por Fernández García (1995) en el campo de la Climatología Aplicada se obtiene la posibilidad de calcular un valor total (v) para el área de estudio a partir de mediciones puntuales realizadas en localizaciones puntuales que se transforman en centros de polígonos está dada por (Galbán, 2021): \[v=v_1*S_1/S+v_2*S_2/S+⋯+v_n*S_n/S\] donde v es el valor en la localización puntual, S_1a S_n la superficie que cada polígono tiene en el interior del área de estudio y S la superficie del área de estudio.

Para dos puntos vecinos a y b el límite de sus respectivas áreas de influencia estaría dado por la fórmula (siendo a>b) (Galbán, 2021): \[PR_ab=d_ab/(1+√(P_a/P_b ))\] donde, PR es el punto de ruptura (localización del límite) del área de influencia entre el punto a y b, d_ab es la distancia, P_a y P_b sus respectivas ab a b poblaciones. De esta manera, el límite se desplazará hacia la población menor. Esta posibilidad de resolución se la atribuye a Reilly y Huff (Bailey, 1981), quienes la formulan como una derivación del modelo de potencial (Galbán, 2021).

Kriging

El ingeniero en minas Danie G. Krige (1919-2013) propuso un método de interpolación que tomó su nombre (Kriging en inglés y de mayor popularización, krigeage en francés o krigeaje en español) y que también es llamado regresión en procesos gaussianos. Parte del principio que actualmente se conoce como ley de Tobler (Galbán, 2021).

El Kriging con todas sus variantes es uno de los métodos de interpolación probabilístico más utilizado, considerados como óptimos y los mejores predictores linealmente insesgados (Giraldo Henao, 2002) ya que la media aritmética de una muestra de interpolaciones realizadas con este método en un área es cero, y su varianza es mínima (Bosque Sendra, 1997).

La forma genérica de Kriging (Goovaerts, 1997): \[Z^* (u)=∑_(α=1)^(n(u))λ_a (u)[z(u_α )-m(u_α )]+m(u)\] donde Z*(u) es el valor estimado para cada ubicación u utilizando n(u) muestras; λα es el peso, o ponderación, que cada muestra Z(uα) toma; y m(uα) y m(u) son los valores esperados o medias aritméticas de las muestras disponibles y de la elevación en el área cubierta por el método de interpolación. Las diferentes variables de Kriging tienen como objetivo minimizar la varianza del error de estimación mediante la restricción (Galbán, 2021): \[E{Z^* (u)-z(u)}=0\] alcanzada a través de la asignación de pesos λα con base en la disimilaridad de los valores de las muestras Z(uα). La disimilaridad g(h) entre las muestras de elevación es establecida a través del semivariograma experimental definido como (Galbán, 2021): \[γ(h)=1/(2n(h)) ∑_(α=1)^(n(h))[z(u_α )-z(u_α+h)]^2 \] donde h es la distancia entre las muestras z(uα) y z(uα + h) y n es el número de muestras separadas por la distancia h.

De las variantes de Kriging que existen, una de las más empleadas es la denominada Kriging Ordinario (OK, Ordinary Kriging). El Kriging Ordinario asume que la media m(u) varía a través del área en estudio, pero es constante dentro de un área (o vecindad) local cubierta por el método de interpolación y, lo más importante, desconocida; por lo que es filtrada del método de interpolación estableciendo la suma total de los pesos de las muestras igual a 1 (Galbán, 2021): \[Z^* ok(u)=∑_(α=1)^(n(u))λ_α^OK (u)Z(u_α )+[1-∑_(α=1)^n(u)λ_α^OK (u) ]m(u)=∑_(α=1)^(n(u))λ_α^OK (u)Z(u_α )con ∑_(α=1)^(n(u))λ_α^OK (u)=1\]

La interpolación mediante Kriging además de sus inicios en el campo de la minería ha sido probada de manera satisfactoria en variadas temáticas, como es la generación de modelos digitales de la topografía (Paredes Hernández et al., 2012); investigaciones sobre contaminación del aire (Romero, Montes Galbán y Franco, 2007); estudios batimétricos sobre sedimentación de embalses (Romero Méndez y Montes Galbán, 2009).

Todas las aplicaciones tienen por finalidad lograr una superficie continua con la variable en estudio mediante la estimación de valores desconocidos a partir de los datos de muestra conocidos en un área determinada (Galbán, 2021).

Modelado Kernel

Uno de los conceptos centrales del análisis geográfico es el de densidad. El estudio de las distribuciones espaciales tiene como finalidad ve la frecuencia diferencial con que un hecho se produce en el área de estudio, por lo tanto, sus densidades varían y pueden brindar explicaciones a las configuraciones observadas (Galbán, 2021).

La densidad en unidades espaciales discretas se calcula a través de una relación entre el valor de la variable y la superficie (Galbán, 2021). \[D=v/S\]

donde D es la densidad, x es el valor de la variable y s las unidades de superficie. En el cálculo típico de la densidad de población, v se reemplaza por P.

Esta perspectiva tradicional se encuentra fuertemente vinculada a la rigidez que pueden tener las unidades espaciales de captación de datos, en las cuales se considera que el valor de la variable se distribuye de manera homogénea como premisa simplificada de la realidad.

Con el fin de superar esta aproximación en la representación espacial, son propuestas las funciones de estimación de densidad kernel (Rosenblatt, 1956; Parzen, 1962) como método de gran aptitud para estimar densidades continuas a partir de puntos localizados (x-y) con valores de atributos (v) de cualquier variable (Galbán, 2021).

Los estimadores kernel presentan una alternativa superadora para el cálculo de densidades a partir de un método de interpolación, representación continua a través del uso de funciones y una base raster en la que cada localización asume un valor específico de densidad (Galbán, 2021).

El procedimiento parte de la distribución espacial puntual con valores de atributos (medidos directamente en ellos o asignados a partir de agrupar los valores de un área al centroide), luego se representa cada punto en una tercera dimensión como centro de un volumen que se extiende hasta lo que se considera su alcance espacial, y finalmente se calculan los valores de densidad para cada localización para su mapeo en una representación cartográfica continua (Galbán, 2021).

La función adopta una perspectiva no-paramétrica y simétrica con centralidad en x. La estimación de la densidad se realiza considerando la siguiente fórmula (Galbán, 2021). \[f ̂_h (x)=1/nh ∑_(i=1)^nK((x-x_i)/h)\]

donde x es la localización donde se estima la densidad, x es el valor de la variable, k() es la función kernel centrada en x y h el ancho de banda, también considerado como parámetro de suavización. Esta función se presenta estandarizada cumpliendo la siguiente condición de probabilidad en el interior de su alcance espacial (Galbán, 2021). \[∫_(-∞)^∞K(x)dx=1\]

El procedimiento genera una pauta global de la distribución espacial de la densidad a partir del estimador kernel el cual determina la forma del volumen y el ancho de banda como extensión espacial de la función. En base a los valores utilizados el resultado debe encontrarse en un sector intermedio entre la máxima rugosidad y la máxima suavización (Galbán, 2021).

Existen diferentes tipos de funciones Kernel, entre ellas los más representativas son la uniforme, de forma rectangular, triangular, Epanechnikov, de forma parabólica, Cuartico, llamada de doble peso (biweight), de triple peso (triweight) y Gaussiana (Galbán, 2021). \[K(u)=1/2\] \[k(u)=(1-|u|)\] \[k(u)=3/4 (1-u^2 )\] \[k(u)=15/16 (1-u^2 )^2\] \[k(u)=35/32 (1-u^2 )^3\] \[k(u)=1/√2π e^(-1/2 u^2 )\]

Desde un punto de vista cartográfico se obtiene un mapa de densidades continuas que provee una perspectiva estructural a través de la visualización.

Según Bailey y Gatrell (1995) indican que el valor h puede ser obtenido automáticamente mediante un cálculo que optimice un balance entre la confiabilidad del estimador en compensación al detalle espacial captado (Galbán, 2021). \[h=0,68*n^(-0,2)\]

A pesar de que la definición puede ser estandarizada, siempre se recomienda un análisis exploratorio a partir de realizar varias pruebas con diferentes anchos de banda, es decir, que el nivel de compensación entre pautas globales y locales quedaría siempre controlado a partir de las consideraciones teóricas del investigador (Galbán, 2021).

ESTRUCTURAS ESPACIALES

Análisis de vecindad

La aplicación del método del vecino más próximo hace evidente la estructura espacial de un área de estudio a partir de las distancias entre localizaciones puntuales del área de estudio. Permite determinar asociaciones espaciales de cercanía y con ello realizar una aproximación al espacio funcional considerando que la interacción espacial de cada localización se producirá inicialmente con la localización más cercana (Galbán, 2021).

La técnica fue creada en el ámbito el análisis ecológico de poblaciones por Clark y Evans (1954) y tuvo una gran difusión en múltiples casos de aplicación en los cuales se cuenta con puntos distribuidos espacialmente en una región. En el ámbito geográfico la principal aplicación se orienta a la distribución espacial de ciudades en un espacio regional (Galbán, 2021).

El procedimiento se basa en el cálculo del promedio de las distancias medidas empíricamente, como realidad observada en relación con la distancia promedio teórica o esperada, si la distribución espacial de los puntos fuese aleatoria, obtenida con la aplicación de (Galbán, 2021). \[d ̅_0=(∑d_vp )/n\] \[d ̅_a=1/(2√(n/A))\]

donde d ̅_0 es la distancia media observada, d_vp la distancia entre los vecinos más próximos, n el número de puntos, d ̅_a es la distancia media aleatoria y A la superficie del área de estudio.

El índice de vecindad (I_v) se calcula dividiendo los dos resultados obtenidos (Galbán, 2021). \[I_v=d ̅_0/d ̅_a \]

Los valores del índice varían de la siguiente forma: Concentración máxima I =0 al ser d ̅_0=0 distribución espacial aleatoria I_v=1, ya que d ̅_0=d ̅_a y dispersión máxima I_v=2,15 (Galbán, 2021).

Ante la necesidad de comparar resultados entre áreas de estudio de diferente superficie y con diferentes cantidades de localización de puntos se debe avanzar en la realización de un test estadístico para comprobar o rechazar la hipótesis nula, la cual indica que la distribución espacial observada no difiere de la aleatoria, es decir, que el valor de I no se diferencia significativamente de 1, mientras que la v hipótesis alternativa que enuncia lo contrario (Galbán, 2021). \[H_0=(d ̅_0=d ̅_a)\] \[H_1=(d ̅_0≠d ̅_a)\] Se realiza el cálculo del estadístico con n-1 grados de libertad. \[z=(d ̅_0-d ̅_a)/(EE_d ̅ )\] \[EE_d ̅ =0,26136/√(n n/A)\]

donde n es el número de puntos, EE_d ̅ es el error estándar de la distancia media al vecino más próximo, A es la superficie del área. Véase que n/A es una medida de densidad de puntos por unidad de superficie en el área de estudio que se multiplica por n y el cálculo puede ser reemplazado por n^2/a (Galbán, 2021).

Con estas fórmulas puede calcularse el estadístico z como variable normal estandarizada con una probabilidad de 0,682 y 0,954 que el valor se encuentre entre ±1σ y ±2σ respectivamente y los valores críticos se cotejan con los valores de la distribución normal. Considerando el valor t de Student para α=0,05 de nivel de confianza se toma una decisión sobre la aceptación o rechazo de H0:

Podemos mencionar que más allá de la estructura evidenciada, también puede ser considerado como un análisis de encadenamiento de unidades espaciales (linkage) para lograr una regionalización basada en los vínculos de distancia (Galbán, 2021).

Análisis por cuadrantes

La aplicación del método de cuadrantes resulta de utilidad para verificar si la estructura espacial de un área de estudio a partir de concentraciones en la distribución de entidades puntuales se produce con un patrón propio que se encuentre alejado a la aleatoriedad (Galbán, 2021).

Si bien la técnica fue aplicada inicialmente en el ámbito de la ecología vegetal hacia la década de 1920 para el estudio de la distribución espacial de las comunidades vegetales, se incorpora con fuerza en los estudios geográficos cuatro décadas después en el contexto del paradigma cuantitativo inicialmente para el análisis urbano a escala regional. Thomas (1977) ha publicado la primera sistematización del método, sirviendo de base a los posteriores aportes didácticos. Para medirlo se utiliza el test X^2 (Chi-cuadrado) que permite realizar una clara comparación entre las frecuencias observadas empíricamente y las frecuencias esperadas. El método se desarrolla en Ostuni, Civit y Manchón (1982), Gámir Orueta, Ruiz Pérez y Seguí Pons (1995) y Santos Preciado y García Lázaro (2008).

El procedimiento de cálculo inicia con la superposición de una cuadrícula que cubra la totalidad del área de estudio. El tamaño de la celda tendrá clara influencia en el cálculo realizado, por tal motivo puede ser utilizada una medida estándar para calcular un valor óptimo del lado de celda (Galbán, 2021). \[l=√(2A/n)\]

donde l es el tamaño del lado de la celda, A la superficie del área y n la cantidad de entidades puntuales.

Con los componentes básicos se calcula un cociente de densidad de puntos por unidad de superficie. \[λ=n/c\]

donde lambda es la densidad de puntos obtenida relacionando la cantidad de localizaciones puntuales (n) y la cantidad de celdas (C).

Se calcula la distribución de frecuencias (f_0 ) contabilizando o cuántas celdas hay con 0, 1, 2, 3, …, n puntos en su interior y utilizando la función de probabilidad de Poisson, también llamada ley de probabilidades pequeñas, se construye la frecuencia teórica. \[P(k)=(exp^(-λ) λ^k)/k!\]

donde λ fue definida y k es el valor de la cantidad de puntos que puede tener una celda en su interior como cantidad de sucesos en el espacio, de 1 a n.

Se calculan las diferencias entre la frecuencia observada y las frecuencias teóricas y se elevan al cuadrado como paso previo para el 2 cálculo de X con la finalidad de verificar su significancia (Galbán, 2021). \[x^2=√((f_0-f_t)^2/f_t )\]

Por último, se verifica el apartamiento que el resultado tenga respecto del que proporciona la distribución aleatoria a partir de consultar 2 los valores críticos de X con c-2 grados de libertad, generalmente con un nivel de significación a = 0,05. Si el valor es superado se confirma que la distribución medida no es aleatoria con muy baja probabilidad de que se produzca de esa manera (Galbán, 2021).

Autocorrelación espacial

El concepto de autocorrelación espacial se basa en la afirmación que considera que en el espacio geográfico todo se encuentra relacionado con todo, pero los espacios más cercanos están más relacionados entre sí que con los más alejados. Esta consideración fue presentada por Tobler (1970) como la primera ley de la Geografía.

Si bien este principio funciona con claridad en variables físico-naturales, mientras que en el análisis socioespacial (variables sociales, demográficas, económicas, entre otras) este aspecto debe medirse en cada caso de estudio en particular debido a que los aspectos humanos pueden apartarse de esta ley con mayor facilidad (Galbán, 2021).

En un análisis de autocorrelación espacial no se intenta medir la asociación entre dos variables diferentes en un mismo espacio, sino la correlación que una misma variable tiene entre unidades espaciales contiguas, es decir, su propio comportamiento en una perspectiva horizontal.

Demuestra de qué manera influye la contigüidad espacial en cada variable analizada al poner atención en una unidad espacial considerada central y sus vecinas, a partir de lo cual pueden aparecer las siguientes situaciones: (1) Similitud: El valor de las unidades espaciales vecinas es próximo y por lo tanto se verifica una autocorrelación espacial positiva, (2) Disimilitud: El valor de las unidades espaciales vecinas es muy lejano, existiendo un comportamiento contrario verificado a través de una autocorrelación espacial negativa y (3) Aleatoriedad: No se comprueba autocorrelación espacial.

Una autocorrelación espacial positiva y negativa indican una tendencia al agrupamiento y la dispersión respectivamente. En este sentido, todo procedimiento de medición de la existencia de autocorrelación espacial intenta verificar que la distribución obtenida no se produce de forma aleatoria (Galbán, 2021).

El procedimiento básico de autocorrelación espacial corresponde a una perspectiva univariada, aunque también existe la posibilidad de realizar un cálculo bivariado en donde se utilizan los datos de dos variables, uno para la unidad espacial central y otro para sus vecinos.

Comprobación de la dependencia espacial Habiendo definido una variable de interés, y de la cual se dispone de valores en cada una de las unidades espaciales, un método sencillo presentado por Berry (1999) permite comprobar sus vínculos (Galbán, 2021).

Se debe calcular la diferencia (dif) entre el valor (v) que tiene una unidad espacial i y la de los vecinos j, luego el total de las diferencias (TD) (Galbán, 2021). \[dif_ij=v_i-v ̅_j\] \[TDif_ij=∑di f_ij\]

Calcular el promedio de los valores del área de estudio, las diferencias entre cada unidad espacial considerada como central y el total de las diferencias. \[v ̅=∑_(i=1)^nv_i/n\] \[dif_(ix ̅ )=v_i-v ̅\] \[TDif_(ix ̅ )=∑di f_(ix ̅ )\]

La comprobación de una dependencia espacial (DE) estaría dada por la comparación entre los resultados en la siguiente relación. \[DE→TDif_ij<TDif_(ix ̅ )\]

Si el total de las diferencias entre cada unidad espacial con el promedio de las unidades espaciales vecinas es menor que con el promedio del área de estudio se considera que la cercanía interviene en el resultado y en este caso se comprueba la existencia de dependencia espacial.

Índice I de Moran

Es el principal índice para medir la autocorrelación espacial. Su propósito es comparar los valores de cada localización con los valores presentados por las localizaciones contiguas en base a la siguiente fórmula (Galbán, 2021). \[I=(nΣ_c (x_i-x ̅)(x_j-x ̅))/JΣ(x-x ̅)^2 \]

donde I es el valor de autocorrelación, n es la cantidad de unidades espaciales, J la cantidad de límites, x el valor de la variable en la unidad espacial, es la media, x y x son los valores de unidades espaciales limítrofes (Galbán, 2021).

La significatividad del índice I se obtiene con la aplicación de un test de normalidad a partir de contrastar los valores del índice de Moran observado 0(I) y el que se produciría aleatoriamente, considerado como esperado E(I): \[E(I)=(-1)/(n-1)\]

Con la finalidad de obtener un puntaje normalizado en una hipótesis nula de normalidad se calcula el desvío estándar de la siguiente forma: \[σ_(I,n)=√((n^2 J+3J^2-nΣL^2)/(J^2 (n^2-1)))\]

Donde σ_I es el desvío estándar de I, n la cantidad de unidades espaciales, J la cantidad de límites y L la cantidad de límites que tiene una unidad espacial.

Con la finalidad de obtener un puntaje normalizado en una hipótesis nula de aleatoriedad se calcula el desvío estándar de la siguiente forma: \[σ_(I,n)=√((n[J(n^2+3+3n)+3J^2-nΣL^2 ]-k[J(n^2-n)+6J^2-2nΣL^2 ])/(J^2 (n-1)(n-2)(n-3)))\]

Donde se agrega k como curtosis de la variable x, como grado de concentración de los valores de una variable en un sector de la distribución de frecuencias (Galbán, 2021). \[k=(∑(x-x ̅)^4 )/(nσ^4 )\]

Donde los valores de diferencia respecto de la media se elevan a la cuarta potencia, es el desvío estándar y n la cantidad de valores.

Al obtenerse estos valores puede obtenerse un puntaje z de estandarización utilizando el desvío estándar para ambos casos (Galbán, 2021). \[z=(I-E(I))/σ_I\]

Un valor positivo muestra una tendencia hacia la agrupación y un valor negativo a la dispersión y una vez obtenido el valor estandarizado se compara el resultado con los valores críticos de una variable normal estandarizada z, de esta manera se podrán ver sus niveles de significancia con la finalidad de comprobar su apartamiento a la situación de aleatoriedad y rechazar una hipótesis nula de H0 de normalidad o H0 de aleatoriedad frente a H1 de no normalidad y H1 de no aleatoriedad (significatividad que comprueba la existencia de autocorrelación espacial).

Es posible profundizar el análisis de la identificación de patrones locales de asociación espacial a partir del cálculo LISA (Local Indicators of Spatial Association) (Anselin, 1995) como método que fragmenta el valor de autocorrelación global y verifica cuanto contribuye cada unidad espacial. LISA [7] en la localización espacial para la variable es una función de los valores observado en sus unidades espaciales limítrofes (Galbán, 2021) \[L_i=f(x_i,x_(J_i ))\]

Los límites para cada observación están tomados de la matriz w de contigüidad espacial. El avance en la metodología permite determinar cúmulos espaciales locales denominados hot-spots y cold-spots en agrupamientos de valores altos y bajos respectivamente de acuerdo con la aplicación: \[L_i=z_i ∑w_ij z_j \]

Las mediciones se realizan a partir de observaciones en datos estandarizados y para unidades espaciales contiguas definidas por los pesos de w_ij. De esta manera valores positivos y negativos estarían indicando relaciones espaciales similares y contrapuestas respectivamente (Galbán, 2021).