- Definiciones básicas de geoestadística.
- Variable regionalizada.
- Momentos.
- Estacionalidad fuerte y débil.
- Isotropía y anisotropía.
- Región de estudio, \( D \subset S \)
- Ubicaciones de datos espaciales (o puntos) \( s_1,\dots,s_n \), \( s_i \in D \), \( D \) un conjunto de índices.
- Observaciones \( Z(s_1), Z(s_2),\dots, Z(s_n) \)
- Covariables \( X(s_1), X(s_2),\dots, X(s_n) \)
- Modelo: \( \{Z(s), s \in D, D \subseteq \mathbb{R}^d\} \)
Este es un proceso estocástico; es decir, una colección de variables aleatorias, indexadas por puntos o regiones en \( D \).
Los valores \( Z \) o los valores \( s \) o ambos son aleatorios. Los valores \( X \) se suelen suponer no aleatorios
- Definición:Un campo aleatorio es una función \( Z = Z(z, s) \) que prescribe un verdadero número \( Z \) para cada par \( (z, s) \), donde hay una probabilidad en una probabilidad \( (\Omega, P) \) y \( s \in \mathbb{R}^d \) (en lo sucesivo, la dependencia de \( z \) a menudo se omite por el bien de simplificar la notación).
- Teorema (Kolmogorov): Un conjunto de distribuciones de probabilidad en \( R^d \), definido como \[ P(z_1,z_2,\dots,z_n) ([a_1, b_1],\dots, [a_n, b_n]) \] para \( n \geqslant 1 \) y simétricos con respecto a permutaciones del conjunto de puntos \( s_i, i = 1, \dots,n \), determina unívocamente la probabilidad de cualquier evento asociado con el campo aleatorio si:
\[ P_{(z_1,\dots,z_n)}([a_1, b_1],\dots, [a_n, b_n]) = P(Z(s_1) \in[a_1, b_1], · · ·, Z(s_n) \in[a_n, b_n]) \]
Un ejemplo importante son los campos aleatorios gaussianos, para los cuales las distribuciones dimensionales finitas están definidas por distribuciones gaussianas multidimensionales. Las densidades se dan para un conjunto genérico de puntos \( s_i, i = 1, \dots,n \) por
\[ f_z(\boldsymbol{u}) = \frac{1}{\sqrt{(2\pi)^n \det (\boldsymbol{C})}}\exp{\left( \frac{-(\boldsymbol{u}-\boldsymbol{m})\boldsymbol{C}^{-1}(\boldsymbol{u}-\boldsymbol{m})}{2}\right)} \]
donde \( (m(s_1),m(s_2),\dots,m(s_n)) \) es el espacio vectorial de variables dependientes y \( \boldsymbol{C}= \boldsymbol{C}_{(z_1,\dots,z_n)} \) es una matriz simétrica definida positiva.
Definición
El proceso estocastico \( \{Z(s)| s \in D, \underbrace{D}_{\substack{\text{Dominio} \\ \text{espacial}}} \subset \mathbb{R}^d\} \) que define la variable regionalizada \( Z(s) \). Este proceso es multivariado normal, si:
\[ \begin{bmatrix} Z(s_1)\\ \vdots\\ Z(s_n) \end{bmatrix} \sim N \left( \begin{bmatrix} \mu(s_1)\\ \vdots\\ \mu(s_n) \end{bmatrix}, \begin{bmatrix} Cov[Z(s_1),Z(s_1)]&\cdots &Cov[Z(s_1),Z(s_n)]\\ \vdots &\ddots &\vdots \\Cov[Z(s_n),Z(s_1)]&\cdots &Cov[Z(s_n),Z(s_n)] \end{bmatrix} \right) \]
En particular,
\( Z(s) \sim N(\mu(s), Var(s)) \) para cada \( s \in D \)
Ejemplos de campo aleatorio espacial \( \{Z(s)\mid s \in D, D \subset \mathbb{R}^2\} \)
- Z(s) = ruido blanco
- \( Z(s) \stackrel{i.i.d}{\sim} N(0, \sigma^2) \)
- Cualquier colección finita \( \{Z(s_1), \dots,Z(s_n)\} \sim N(0, \sigma^2 \boldsymbol{I}) \)
Ejemplos de campo aleatorio espacial \( \{Z(s)\mid s \in D, D \subset \mathbb{R}^2\} \)
- \( Z(s) \) = concentración de mineral en \( s \)
- \( \mu(s) = \mu \)
- \( Cov[Z(s_1), Z(s_2)] = exp(\frac{−|s_2 − s_1|^2}{\underbrace{R^2}_{Rango}}) \)
Ejemplos de campo aleatorio espacial \( \{Z(s) \mid s \in D, D \subset \mathbb{N}^2 \subset \mathbb{R}^2\} \)
- Campo espacial discreto: \( \{Z(i) \mid i = 1,2, \dots, k\} \), \( k \) regiones
- \( Z(i) \) = riesgo relativo de cancer de pulmón en la región \( i \).
- Covarianza: las regiones vecinas son más similares que aquellas muy alejadas.
\[ F_{s}(z)= P(Z(s)\leqslant z) \]
\[ F_{s_1,s_2}(z_1,z_2)= P(Z(s_1)\leqslant z_1, Z(s_2) \leqslant z_2) \]
En general, para \( \{Z(s)\mid s \in D, D \subset \mathbb{R}^d\} \) para \( d \geqslant 2 \), un proceso estocástico que definido por la variable \( Z(s) \) regionalizada, tenemos que:
Para cualquier \( n \) puntos \( s_1,\dots,s_n \), el vector aleatorio \( \boldsymbol{Z(s)}=[Z(s_1),Z(s_2),\dots,Z(s_n)]' \)
está definido por su función de distribución conjunta
\[ F(z_1,z_2,\dots,z_n)= P[Z(s_1)\leqslant z_1 , Z(s_2) \leqslant z_1 ,\dots,Z(s_n) \leqslant z_n] \]
Los momentos, caracterizan la función aleatoria, al considerar solamente algunos parámetros descriptivosde las distribuciones univariables y bivariables, que “resumen”“ la información más relevante.
Por ejemplo, los momentos las variables aleatoria espaciales \( Z(s_1) \) y \( Z(s_2) \) en la interpolación por kriging, que se estudiará más adelante.
El El valor esperado: de una variable aleatoria espacial \( Z(\boldsymbol{s}) \), se define como:
\[ \begin{align*} \mu_Z(\boldsymbol{s}) &= m(\boldsymbol{s})\\ &=E[Z(\boldsymbol{s})]\\ &= \int_{-\infty}^{+\infty} uf_{Z(s)}(u)du \end{align*} \]
donde
Definimos La varianza de una variable aleatoria espacial \( Z(\boldsymbol{s}) \) como
\[ \begin{align*} \sigma_Z^2(\boldsymbol{s})=&Var[Z(\boldsymbol{s})]\\ =&E[(Z(\boldsymbol{s})-m(\boldsymbol{s}))^2]\\ =&\int_{-\infty}^{+\infty} (u-m(s))^2f_{Z(s)}(u)du \end{align*} \]
La covarianza centrada entre dos variables aleatorias \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \)
\[ \begin{align*} Cov[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)]=&E[(Z(\boldsymbol{s}_1)-m(\boldsymbol{s}_2))(Z(\boldsymbol{s}_1)-m(\boldsymbol{s}_2))]\\ =&E[Z(\boldsymbol{s}_1)Z(\boldsymbol{s}_2)]-m(\boldsymbol{s}_1)m(\boldsymbol{s}_2)\\ \end{align*} \]
La covarianza da una visión elemental del vínculo o “interacción” que existe entre \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \).
La desigualdad de Cauchy-Schwarz relaciona la covarianza entre \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \) con las con las varianzas de \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \), con la relación:
\[ \mid Cov[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)] \mid \leqslant \sqrt{Var[Z(\boldsymbol{s}_1)]Var[Z(\boldsymbol{s}_2)]} \]
\[ Var[Z(\boldsymbol{x})] = Var[Z(\boldsymbol{x})]+ Var[Z(\boldsymbol{y})] − 2Cov[Z(\boldsymbol{x}), Z(\boldsymbol{y})] \]
La correlograma (coeficiente de correlación lineal) entre dos variables aleatorias \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \)
\[ \begin{align*} \rho(\boldsymbol{s}_1,\boldsymbol{s}_2)=&Cor[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)]\\ =&\frac{Cov[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)]}{\sqrt{Var[Z(\boldsymbol{s}_1)]Var[Z(\boldsymbol{s}_2)]}} \end{align*} \]
El semivariograma (\( \frac{1}{2}variograma \)) entre dos variables aleatorias \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \), se define por:
\[ \gamma(\boldsymbol{s}_1,\boldsymbol{s}_2)=\frac{1}{2}Var[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)] \]
El variograma o semivariograma permite analizar el comportamiento espacial de una variable sobre un área, obteniendo como resultado un variograma experimental que refleja la distancia máxima y la forma en que un punto tiene influencia sobre otro punto a diferentes distancias.
Definición
Un campo aleatorio se llama estacionario si para cualquier vector \( \boldsymbol{h} \in R^d \) y para cualquier conjunto de puntos \( \boldsymbol{s}_i, i = 1,\dots,n \)
\[ P(Z(\boldsymbol{s}_1 + \boldsymbol{h}) \in[a_1, b_1],\dots, Z(\boldsymbol{s}_n + \boldsymbol{h}) \in[a_n, b_n])=P(Z(\boldsymbol{s}_1) \in[a_1, b_1],\dots, Z(\boldsymbol{s}_n) \in[a_n, b_n]) \]
Definición
Si el proceso es \( \{Z(s): s \in D\} \) es fuertemente estacionario, luego la la función de distribución de probabilidad conjunta de \( (Z(s_1),Z(s_2), \dots,Z(s_n)) \) es invariable bajo traslación. Es decir:
\[ F_{Z(s_1+h),\dots, Z(s_n+h)}(z_1,z_2,\dots,z_n)=F_{Z(s_1),\dots, Z(s_n)}(z_1,\dots,z_n) \]
De forma análoga podemos escribirlo en términos de la probabilidad
\[ P[Z(s_1+h)\leqslant z_1 ,\dots,Z(s_n+h) \leqslant z_n]=P[Z(s_1)\leqslant z_1 ,\dots,Z(s_n) \leqslant z_n] \]
Observación
Sea \( \{Z(s): s \in D\} \) un proceso iid. La distribución condicional de \( Z(s_n + h) \) dados los valores de \( (Z(s_1),Z(s_2), \dots,Z(s_n)) \) es
\[ P[Z(s_n+ h) \leqslant b | Z(s_1),Z(s+2),\dots, \dots,Z(s_n)] = P[Z(s_n + h \leqslant b] \]
Entonces, el conocimiento de la vecindad de radio \( h \), no “afecta” para estimar(predecir) regiones que están más alejadas (\( radio >h \)). Un proceso de este tipo se conoce como “impredecible”.
Considere el proceso estocástico \( \{Z(s) \mid s=(x,y) \in D \subset \mathbb{R}^2\} \) donde \( Z(s) = A \), con \( A \sim U_1[3, 7]\times U_2[3, 7] \); para \( U_1, U_2 \) independientes (\( A \) se distribuye uniformemente en el rectangulo \( [3, 7]\times [3,7] \)). Este proceso es, por supuesto, fuertemente estacionario.
Prueba:
Debemos ver que \( F_{Z(s+h)}(z) = P(Z(s + h) \leqslant z)= P(Z(s) \leqslant z)=F_{Z(s)}(z) \). En efecto, la función de distribución de probabilidad de \( Z(s) \) es
Considere el proceso estocástico \( \{Z(s) \mid s=(x,y) \in D \subset \mathbb{R}^2\} \) donde \( Z(s) = dA \), donde \( A \sim U([3, 7]\times [3,7]) \) y \( d=||s+h|| \) (\( A \) se distribuye uniformemente en el rectangulo \( [3, 7]\times [3,7] \)). Este proceso espacial, no es fuertemente estacionario.
Prueba:
Definición
Un campo aleatorio \( \{Z(\boldsymbol{s})\mid s \in D \subset \mathbb{R}^d\} \) se denomina estacionario de segundo orden si la covarianza de campo existe y es solo una función de la diferencia entre las dos posiciones en las que se calcula el incremento.
Esto significa que existe un campo escalar real \( C \), tal que para \( \boldsymbol{s}_i,\boldsymbol{s}_j \in R^d \)
\[ Cov[Z(\boldsymbol{s}_i),Z(\boldsymbol{s}_j)]=C(\boldsymbol{s}_i,\boldsymbol{s}_j)=C(\boldsymbol{s}_i-\boldsymbol{s}_j) \]
Matricialmente, se tiene que:
\[ \begin{bmatrix} C(\boldsymbol{s}_1,\boldsymbol{s}_1)&C(\boldsymbol{s}_1,\boldsymbol{s}_2)&\cdots &C(\boldsymbol{s}_1,\boldsymbol{s}_n)\\ C(\boldsymbol{s}_2,\boldsymbol{s}_1)& C(\boldsymbol{s}_2,\boldsymbol{s}_2)& \cdots& C(\boldsymbol{s}_2,\boldsymbol{s}_n)\\ \vdots &\vdots &\ddots &\vdots \\ C(\boldsymbol{s}_n,\boldsymbol{s}_1)&C(\boldsymbol{s}_n,\boldsymbol{s}_2) & \cdots &C(\boldsymbol{s}_n,\boldsymbol{s}_n) \end{bmatrix} = \begin{bmatrix} C(\boldsymbol{s}_1-\boldsymbol{s}_1)&C(\boldsymbol{s}_1-\boldsymbol{s}_2)&\cdots &C(\boldsymbol{s}_1-\boldsymbol{s}_n)\\ C(\boldsymbol{s}_2-\boldsymbol{s}_1)& C(\boldsymbol{s}_2-\boldsymbol{s}_2)& \cdots& C(\boldsymbol{s}_2-\boldsymbol{s}_n)\\ \vdots &\vdots &\ddots &\vdots \\ C(\boldsymbol{s}_n-\boldsymbol{s}_1)&C(\boldsymbol{s}_n-\boldsymbol{s}_2) & \cdots &C(\boldsymbol{s}_n-\boldsymbol{s}_n) \end{bmatrix} \]
para \( \boldsymbol{s}_1,\boldsymbol{s}_2, \dots, \boldsymbol{s}_n \in D \)
Definición
El proceso \( \{Z(s) \mid s=(x,y) \in D \subset \mathbb{R}^2\} \) es débilmente estacionario, si
El momento cruzado \( E[Z(s_1)Z(s_2)] \) depende solo de \( s_1 - s_2 \), lo que implica que el proceso \( Z(s) \) es estacionario de segundo orden; es decir:
\[ Cov[Z(s_1), Z(s_2)] = C(s_1 , s_2) \]
para todo \( s_1, s_2, h \in D \)
Ruido blanco fuerte (RBF)
\( Z(s) \) es un ruido blanco fuerte, si las variables \( \{Z(s), s \in D\} \)
Ruido blanco débil (RBD)
\( Z(s) \) es un ruido blanco débil, si las variables \( \{Z(s), s \in D\} \) están centrados, no están correlacionados y la varianza es constante finita. Es decir,
Si el proceso \( \{Z(s), s \in D\} \) es fuertemente estacionario y tiene segundo momento finito, entonces \( Z(s) \) es débilmente estacionario.
Prueba
Si el proceso \( \{Z(s), s \in D\} \) es fuertemente estacionario, entonces cualquier par \( Z(s_p),Z(s_q) \in \{Z(s_{i_1}), Z(s_{i_2}), \dots, Z(s_{i_n})\} \) tienen la misma función de distribución y \( Z(s_p),Z(s_q) \) y \( Z(s_p+h),Z(s_q+h) \) tienen la misma función de distribución conjunta para todos \( s_p, s_q y h \).
Ahora, por hipótesis, el proceso \( \{Z(s), s \in D\} \) tiene segundo momento finito, esto implica que
Por lo tanto, el proceso es debilmente estacionario.
Sea \( \{Z(s), s \in D \subset \mathbb{R}^2\} \) ser un proceso estocástico definido por \[ Z(s)= \begin{cases} u(s), & ||s|| \text{ par} \\ \frac{1}{\sqrt{2}}(u(s)^2-1), & ||s|| \text{ impar} \end{cases} \] donde \( u(s) \stackrel{i.i.d}{\sim} N(0, 1) \). Este proceso es débilmente estacionario pero no es estrictamente estacionario.
Prueba
Tenemos que \[ E[Z(s)]= \begin{cases} E[u(s)]=0, & ||s|| \text{ par} \\ \frac{1}{\sqrt{2}}E[u(s)^2-1]=0, & ||s|| \text{ impar} \end{cases} \]
También, \[ Var[Z(s)]= \begin{cases} Var[u(s)]=1, & ||s|| \text{ par} \\ \frac{1}{2}Var[u(s-q)^2]=1, & ||s|| \text{ impar y } q \text{ es tal, que } ||s-q|| \text{ es par} \end{cases} \]
Nota: \( Var[X^2]=E[X^4]-E[X^2]^2=3\sigma^4-\sigma^4=2\sigma^4 \)
Además, como \( Z(s) \) y \( Z(s-q) \) son variables aleatorias independientes, tenemos que
\[ Cov[Z(s) , Z(s-q)] = 0, \quad \forall s,q \]
Por lo tanto, el proceso es débilmente estacionario.
De otro lado, notemos que \[ P(Z(s) \leqslant 0) = P(u(s) \leqslant 0) = 0.5 \quad \text{para } ||s|| \text{ par} \]
y también
\[ \begin{align*} P(Z(s) ≤ 0) =& P(\frac{1}{\sqrt{2}}(u(s)^2 - 1) \leqslant 0)\\ =& P(u(s-q)^2 \leqslant 1)\\ =& P(|u(s-q)| \leqslant 1)\\ =& P(-1 \leqslant u(s-q) \leqslant 1)\\ =& 0.6826 \quad \text{para } ||s-q|| \text{ impar} \end{align*} \]
Las variables no tienen igual distribución. Luego, el proceso no es fuertemente estacionario
Sea \( \{Z(s), s \in D \subset \mathbb{R}^2 \} \) es un proceso espacial estocástico gaussiano débilmente estacionario, entonces \( \{Z(s), s \in D \subset \mathbb{R}^2\} \) es fuertemente estacionario.
Prueba
Sea \( \{Z(s), s \in D \subset \mathbb{R}^d\} \) un proceso estocástico espacial gaussiano.
Definamos el vector \( \boldsymbol{b} = (b_1, b_2, ..., b_n)' \in \mathbb{R}^d \), entonces la función de densidad multidimensional del vector \( (Z(s_1), Z(s_2), \dots, Z(s_n)) \) es
\[ f_{Z(s_1),\dots, Z(s_n)}(\boldsymbol{b}) = \frac{1}{\sqrt{(2\pi)^n\det(\boldsymbol{\Sigma})}}\exp\left[-\frac{1}{2}(\boldsymbol{b}-\boldsymbol{\mu}')\boldsymbol{\Sigma}^{-1}(\boldsymbol{b}-\boldsymbol{\mu})\right] \]
donde \( \boldsymbol{\mu} = (E[Z(s_1)], \dots, E[Z(s_n)])' \) y \( \boldsymbol{\Sigma} = Cov[Z(s_i), Z(s_j)] \)
Notamos que una distribución gaussiana multivariante es completamente caracterizado por sus primeros dos momentos.
Sea \( \{Z(s), s \in D \subset \mathbb{R}^d\} \) un proceso estocástico espacial gaussiano.
Supongamos que el proceso es débilmente estacionario. Entonces,
Por lo tanto \[ f_{Z(s_1+h),\dots, Z(s_n+h)}(\boldsymbol{b}) = f_{Z(s_1),\dots, Z(s_n)}(\boldsymbol{b}) \]
De ello se desprende que la función de distribución de los vectores \( (Z(s_1+h),\dots, Z(s_n+h)) \) y \( (Z(s_1),\dots, Z(s_n)) \) son iguales para para cualquier conjunto finito de índices(puntos) \( \{s_1,\dots, s_n\} \subset \mathbb{R}^2 \) y cualquier \( h \in \mathbb{R}^2 \).
Esto implica que el proceso \( \{Z(s), s \in D \subset \mathbb{R}^2 \} \) es fuertemente estacionario.
Reciprocamente, si \( \{Z(s), s \in D \subset \mathbb{R}^2 \} \) es un proceso estocástico gaussiano fuertemente estacionario, entonces es débilmente estacionario; ya que su varianza es finita y por lo tanto la covarianza también.
Por lo tanto, podemos concluir que en el caso de proceso espacial estocástico gaussiano, las dos definiciones (fuerte y débil) de estacionariedad son equivalentes.
La estacionariedad se puede considerar como una propiedad de invarianza bajo la traslación de un grupo coordenadas.
Para un campo aleatorio, también podemos considerar la invarianza bajo rotaciones y reflexiones.
Definición:
Un campo aleatorio \( Z(s) \) es estrictamente(fuertemente) isotrópico si su distribución conjuntas son invariantes bajo todos los movimientos rígidos(rotación/reflexión).
Es decir, para cualquier matriz ortogonal \( \boldsymbol{H} \) y cualquier \( \boldsymbol{s} \in \mathbb{R}^d \)
\[ P[Z(\boldsymbol{H}\boldsymbol{s}_1+\boldsymbol{h})\leqslant z_1 ,\dots,Z(\boldsymbol{H}\boldsymbol{s}_n+\boldsymbol{h}) \leqslant z_n]=P[Z(\boldsymbol{s}_1)\leqslant z_1 ,\dots,Z(\boldsymbol{s}_n) \leqslant z_n] \]
para todos \( \boldsymbol{s}_1,\dots \boldsymbol{s}_n \in \mathbb{R}^d \) y \( z_1, \dots, z_n \in \mathbb{R} \).
Definicón Un campo aleatorio \( Z(s) \) en \( \mathbb{R}^d \), es débilmente isotrópico si su semivariograma cumple lo siguiente:
Es decir, si el semivariograma depende del vector \( \boldsymbol{h} \) sólo a través de su longitud \( ||\boldsymbol{h}|| \).
Observaciones:
Demuestre que un campo aleatorio gaussiano sobre \( \mathbb{R}^d \) es fuertemente isotrópico si y solo si es débilmente isotrópico.