Estadística Espacio Temporal

Definiciones básicas de geoestadística




logo

Maestría en Estadística Aplicada

Roberto Trespalacios

Temas

  • Definiciones básicas de geoestadística.
    • Variable regionalizada.
    • Momentos.
    • Estacionalidad fuerte y débil.
    • Isotropía y anisotropía.

Definiciones básicas de geoestadística

  • Sea el espacio \( S \), que por concreción suponemos que es euclidiano: \( S = \mathbb{R}^d \)
    donde \( d = 1, 2 \) o \( 3 \).
  • Región de estudio, \( D \subset S \)
  • Ubicaciones de datos espaciales (o puntos) \( s_1,\dots,s_n \), \( s_i \in D \), \( D \) un conjunto de índices.
  • Observaciones \( Z(s_1), Z(s_2),\dots, Z(s_n) \)
  • Covariables \( X(s_1), X(s_2),\dots, X(s_n) \)
  • Modelo: \( \{Z(s), s \in D, D \subseteq \mathbb{R}^d\} \)
  • Este es un proceso estocástico; es decir, una colección de variables aleatorias, indexadas por puntos o regiones en \( D \).

  • Los valores \( Z \) o los valores \( s \) o ambos son aleatorios. Los valores \( X \) se suelen suponer no aleatorios

Definición de campo aleatorio

  • Definición:Un campo aleatorio es una función \( Z = Z(z, s) \) que prescribe un verdadero número \( Z \) para cada par \( (z, s) \), donde hay una probabilidad en una probabilidad \( (\Omega, P) \) y \( s \in \mathbb{R}^d \) (en lo sucesivo, la dependencia de \( z \) a menudo se omite por el bien de simplificar la notación).


  • Teorema (Kolmogorov): Un conjunto de distribuciones de probabilidad en \( R^d \), definido como \[ P(z_1,z_2,\dots,z_n) ([a_1, b_1],\dots, [a_n, b_n]) \] para \( n \geqslant 1 \) y simétricos con respecto a permutaciones del conjunto de puntos \( s_i, i = 1, \dots,n \), determina unívocamente la probabilidad de cualquier evento asociado con el campo aleatorio si:

\[ P_{(z_1,\dots,z_n)}([a_1, b_1],\dots, [a_n, b_n]) = P(Z(s_1) \in[a_1, b_1], · · ·, Z(s_n) \in[a_n, b_n]) \]

Ejemplo: campos aleatorios gaussianos

Un ejemplo importante son los campos aleatorios gaussianos, para los cuales las distribuciones dimensionales finitas están definidas por distribuciones gaussianas multidimensionales. Las densidades se dan para un conjunto genérico de puntos \( s_i, i = 1, \dots,n \) por

\[ f_z(\boldsymbol{u}) = \frac{1}{\sqrt{(2\pi)^n \det (\boldsymbol{C})}}\exp{\left( \frac{-(\boldsymbol{u}-\boldsymbol{m})\boldsymbol{C}^{-1}(\boldsymbol{u}-\boldsymbol{m})}{2}\right)} \]

donde \( (m(s_1),m(s_2),\dots,m(s_n)) \) es el espacio vectorial de variables dependientes y \( \boldsymbol{C}= \boldsymbol{C}_{(z_1,\dots,z_n)} \) es una matriz simétrica definida positiva.

Campo aleatorio gaussiano

Definición

El proceso estocastico \( \{Z(s)| s \in D, \underbrace{D}_{\substack{\text{Dominio} \\ \text{espacial}}} \subset \mathbb{R}^d\} \) que define la variable regionalizada \( Z(s) \). Este proceso es multivariado normal, si:

\[ \begin{bmatrix} Z(s_1)\\ \vdots\\ Z(s_n) \end{bmatrix} \sim N \left( \begin{bmatrix} \mu(s_1)\\ \vdots\\ \mu(s_n) \end{bmatrix}, \begin{bmatrix} Cov[Z(s_1),Z(s_1)]&\cdots &Cov[Z(s_1),Z(s_n)]\\ \vdots &\ddots &\vdots \\Cov[Z(s_n),Z(s_1)]&\cdots &Cov[Z(s_n),Z(s_n)] \end{bmatrix} \right) \]

En particular,

\( Z(s) \sim N(\mu(s), Var(s)) \) para cada \( s \in D \)

Campo aleatorio gaussiano (ruido blanco)

Ejemplos de campo aleatorio espacial \( \{Z(s)\mid s \in D, D \subset \mathbb{R}^2\} \)

  • Z(s) = ruido blanco
    • \( Z(s) \stackrel{i.i.d}{\sim} N(0, \sigma^2) \)
    • Cualquier colección finita \( \{Z(s_1), \dots,Z(s_n)\} \sim N(0, \sigma^2 \boldsymbol{I}) \)

Campo aleatorio gaussiano (concentración de mineral)

Ejemplos de campo aleatorio espacial \( \{Z(s)\mid s \in D, D \subset \mathbb{R}^2\} \)

  • \( Z(s) \) = concentración de mineral en \( s \)
    • \( \mu(s) = \mu \)
    • \( Cov[Z(s_1), Z(s_2)] = exp(\frac{−|s_2 − s_1|^2}{\underbrace{R^2}_{Rango}}) \)

Campo aleatorio espacial discreto

Ejemplos de campo aleatorio espacial \( \{Z(s) \mid s \in D, D \subset \mathbb{N}^2 \subset \mathbb{R}^2\} \)

  • Campo espacial discreto: \( \{Z(i) \mid i = 1,2, \dots, k\} \), \( k \) regiones
    • \( Z(i) \) = riesgo relativo de cancer de pulmón en la región \( i \).
    • Covarianza: las regiones vecinas son más similares que aquellas muy alejadas.

Distribución de la variable \(Z(s)\)

  • Para ilustrar, usaremos la dimenisión correspondiente en particular donde \( d \leqslant 2 \).
  • En general, los datos disponibles permiten inferir estas distribuciones.
  • Es la razón por la cual la determinación de un modelo de distribución espacial suele basarse en dichas distribuciones.
    • Las distribuciones de orden superior (\( d>2 \)) del modelo, raramente proporciona información relevante para los análisis.

Distribución univariable \(Z(s)\) (\(d=1\))

  • \( F_{s} \) Corresponde a la función de distribución de la variable aleatoria \( Z(s) \), deonde \( s \) es la ubicación de la variable \( \{Z(s)\mid s \in D, D \subset \mathbb{R}\} \) .

\[ F_{s}(z)= P(Z(s)\leqslant z) \]

Distribución bivariable \(Z(\boldsymbol{s})\) (\(d=2\))

  • \( F_{s_1.s_2} \) Corresponde a la función de distribución de las variables aleatorias \( Z(s_1) \) y \( Z(s_1) \), donde \( s_1 , s_2 \) son las ubicación de la variables \( \{Z(\boldsymbol{s})\mid \boldsymbol{s} \in D, D \subset \mathbb{R}^2\} \) .

\[ F_{s_1,s_2}(z_1,z_2)= P(Z(s_1)\leqslant z_1, Z(s_2) \leqslant z_2) \]

Distribución multivariada \(Z(\boldsymbol{s})\) (\(d \geqslant 2\))

En general, para \( \{Z(s)\mid s \in D, D \subset \mathbb{R}^d\} \) para \( d \geqslant 2 \), un proceso estocástico que definido por la variable \( Z(s) \) regionalizada, tenemos que:

Para cualquier \( n \) puntos \( s_1,\dots,s_n \), el vector aleatorio \( \boldsymbol{Z(s)}=[Z(s_1),Z(s_2),\dots,Z(s_n)]' \)

está definido por su función de distribución conjunta

\[ F(z_1,z_2,\dots,z_n)= P[Z(s_1)\leqslant z_1 , Z(s_2) \leqslant z_1 ,\dots,Z(s_n) \leqslant z_n] \]

Momentos

  • Los momentos, caracterizan la función aleatoria, al considerar solamente algunos parámetros descriptivosde las distribuciones univariables y bivariables, que “resumen”“ la información más relevante.

  • Por ejemplo, los momentos las variables aleatoria espaciales \( Z(s_1) \) y \( Z(s_2) \) en la interpolación por kriging, que se estudiará más adelante.

Momento de primer orden (Valor esperado)

El El valor esperado: de una variable aleatoria espacial \( Z(\boldsymbol{s}) \), se define como:

\[ \begin{align*} \mu_Z(\boldsymbol{s}) &= m(\boldsymbol{s})\\ &=E[Z(\boldsymbol{s})]\\ &= \int_{-\infty}^{+\infty} uf_{Z(s)}(u)du \end{align*} \]

donde

  • \( \boldsymbol{s} \in D \), representa la ubicación del punto en una región.
  • \( m \) es la “media” alrededor de la cual se distribuyen los valores tomados por las realizaciones de la función de distribución aleatoria \( f_s(z) \).

Momentos de primer orden (Varianza)

Definimos La varianza de una variable aleatoria espacial \( Z(\boldsymbol{s}) \) como

\[ \begin{align*} \sigma_Z^2(\boldsymbol{s})=&Var[Z(\boldsymbol{s})]\\ =&E[(Z(\boldsymbol{s})-m(\boldsymbol{s}))^2]\\ =&\int_{-\infty}^{+\infty} (u-m(s))^2f_{Z(s)}(u)du \end{align*} \]

  • La varianza es una cantidad positiva \( \sigma_Z^2(\boldsymbol{s})>0 \).
  • Su raíz cuadrada se llama desviación estandar.
  • La varianza y la desviación estándar constituyen medidas de la dispersión de \( Z(\boldsymbol{s}) \) en torno a su valor medio \( m(\boldsymbol{s}) \) y cuantifican, de esta forma, su carácter “aleatorio”

Momentos de segundo orden (Covarianza)

La covarianza centrada entre dos variables aleatorias \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \)

\[ \begin{align*} Cov[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)]=&E[(Z(\boldsymbol{s}_1)-m(\boldsymbol{s}_2))(Z(\boldsymbol{s}_1)-m(\boldsymbol{s}_2))]\\ =&E[Z(\boldsymbol{s}_1)Z(\boldsymbol{s}_2)]-m(\boldsymbol{s}_1)m(\boldsymbol{s}_2)\\ \end{align*} \]

  • La covarianza da una visión elemental del vínculo o “interacción” que existe entre \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \).

  • La desigualdad de Cauchy-Schwarz relaciona la covarianza entre \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \) con las con las varianzas de \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \), con la relación:

\[ \mid Cov[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)] \mid \leqslant \sqrt{Var[Z(\boldsymbol{s}_1)]Var[Z(\boldsymbol{s}_2)]} \]

  • Observación: Si un campo aleatorio tiene momentos de segundo orden, tanto el variograma(se define enseguida) como la covarianza existen y se relacionan entre ellos mediante la ecuación

\[ Var[Z(\boldsymbol{x})] = Var[Z(\boldsymbol{x})]+ Var[Z(\boldsymbol{y})] − 2Cov[Z(\boldsymbol{x}), Z(\boldsymbol{y})] \]

Momentos de segundo orden (Correlograma)

La correlograma (coeficiente de correlación lineal) entre dos variables aleatorias \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \)

\[ \begin{align*} \rho(\boldsymbol{s}_1,\boldsymbol{s}_2)=&Cor[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)]\\ =&\frac{Cov[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)]}{\sqrt{Var[Z(\boldsymbol{s}_1)]Var[Z(\boldsymbol{s}_2)]}} \end{align*} \]

  • Al contrario de la covarianza, el correlograma es adimensional y toma sus valores en el intervalo [-1,1].
  • Un coeficiente \( \rho=0 \) indica que las variables \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \) no están correlacionadas en el espacio (condición necesaria para que sean independientes, más no suficiente)
  • Un coeficiente igual a 1 ó -1 indica que son proporcionales.

Momentos de segundo orden (Semivariograma)

El semivariograma (\( \frac{1}{2}variograma \)) entre dos variables aleatorias \( Z(\boldsymbol{s}_1) \) y \( Z(\boldsymbol{s}_2) \), se define por:

\[ \gamma(\boldsymbol{s}_1,\boldsymbol{s}_2)=\frac{1}{2}Var[Z(\boldsymbol{s}_1),Z(\boldsymbol{s}_2)] \]

  • El variograma o semivariograma permite analizar el comportamiento espacial de una variable sobre un área, obteniendo como resultado un variograma experimental que refleja la distancia máxima y la forma en que un punto tiene influencia sobre otro punto a diferentes distancias.

Campos aleatorios estacionarios

Definición

Un campo aleatorio se llama estacionario si para cualquier vector \( \boldsymbol{h} \in R^d \) y para cualquier conjunto de puntos \( \boldsymbol{s}_i, i = 1,\dots,n \)

\[ P(Z(\boldsymbol{s}_1 + \boldsymbol{h}) \in[a_1, b_1],\dots, Z(\boldsymbol{s}_n + \boldsymbol{h}) \in[a_n, b_n])=P(Z(\boldsymbol{s}_1) \in[a_1, b_1],\dots, Z(\boldsymbol{s}_n) \in[a_n, b_n]) \]

  • La propiedad de estacionariedad implica que las distribuciones dimensionales finitas de un campo estacionario son invariantes por traslación.
  • Como consecuencia, todos los momentos de sitio único \( E[Z(\boldsymbol{s})^k] \), \( k \geqslant 1 \) son constantes.
  • Si existen, ya sea la covarianza o el semivariograma, estos solo dependen de la diferencia entre los lugares en los que se evalúa \( Z \).

Proceso espacial fuertemente estacionario

Definición

Si el proceso es \( \{Z(s): s \in D\} \) es fuertemente estacionario, luego la la función de distribución de probabilidad conjunta de \( (Z(s_1),Z(s_2), \dots,Z(s_n)) \) es invariable bajo traslación. Es decir:

\[ F_{Z(s_1+h),\dots, Z(s_n+h)}(z_1,z_2,\dots,z_n)=F_{Z(s_1),\dots, Z(s_n)}(z_1,\dots,z_n) \]

De forma análoga podemos escribirlo en términos de la probabilidad

\[ P[Z(s_1+h)\leqslant z_1 ,\dots,Z(s_n+h) \leqslant z_n]=P[Z(s_1)\leqslant z_1 ,\dots,Z(s_n) \leqslant z_n] \]

Observación

Sea \( \{Z(s): s \in D\} \) un proceso iid. La distribución condicional de \( Z(s_n + h) \) dados los valores de \( (Z(s_1),Z(s_2), \dots,Z(s_n)) \) es

\[ P[Z(s_n+ h) \leqslant b | Z(s_1),Z(s+2),\dots, \dots,Z(s_n)] = P[Z(s_n + h \leqslant b] \]

Entonces, el conocimiento de la vecindad de radio \( h \), no “afecta” para estimar(predecir) regiones que están más alejadas (\( radio >h \)). Un proceso de este tipo se conoce como “impredecible”.

Ejemplo (proceso espacial fuertemente estacionario)

Considere el proceso estocástico \( \{Z(s) \mid s=(x,y) \in D \subset \mathbb{R}^2\} \) donde \( Z(s) = A \), con \( A \sim U_1[3, 7]\times U_2[3, 7] \); para \( U_1, U_2 \) independientes (\( A \) se distribuye uniformemente en el rectangulo \( [3, 7]\times [3,7] \)). Este proceso es, por supuesto, fuertemente estacionario.

Prueba:

Debemos ver que \( F_{Z(s+h)}(z) = P(Z(s + h) \leqslant z)= P(Z(s) \leqslant z)=F_{Z(s)}(z) \). En efecto, la función de distribución de probabilidad de \( Z(s) \) es

Ejemplo (proceso espacial no fuertemente estacionario)

Considere el proceso estocástico \( \{Z(s) \mid s=(x,y) \in D \subset \mathbb{R}^2\} \) donde \( Z(s) = dA \), donde \( A \sim U([3, 7]\times [3,7]) \) y \( d=||s+h|| \) (\( A \) se distribuye uniformemente en el rectangulo \( [3, 7]\times [3,7] \)). Este proceso espacial, no es fuertemente estacionario.

Prueba:

Campos aleatorios estacionarios de segundo orden

Definición

Un campo aleatorio \( \{Z(\boldsymbol{s})\mid s \in D \subset \mathbb{R}^d\} \) se denomina estacionario de segundo orden si la covarianza de campo existe y es solo una función de la diferencia entre las dos posiciones en las que se calcula el incremento.

  • Esto significa que existe un campo escalar real \( C \), tal que para \( \boldsymbol{s}_i,\boldsymbol{s}_j \in R^d \)

  • \[ Cov[Z(\boldsymbol{s}_i),Z(\boldsymbol{s}_j)]=C(\boldsymbol{s}_i,\boldsymbol{s}_j)=C(\boldsymbol{s}_i-\boldsymbol{s}_j) \]

Matricialmente, se tiene que:

\[ \begin{bmatrix} C(\boldsymbol{s}_1,\boldsymbol{s}_1)&C(\boldsymbol{s}_1,\boldsymbol{s}_2)&\cdots &C(\boldsymbol{s}_1,\boldsymbol{s}_n)\\ C(\boldsymbol{s}_2,\boldsymbol{s}_1)& C(\boldsymbol{s}_2,\boldsymbol{s}_2)& \cdots& C(\boldsymbol{s}_2,\boldsymbol{s}_n)\\ \vdots &\vdots &\ddots &\vdots \\ C(\boldsymbol{s}_n,\boldsymbol{s}_1)&C(\boldsymbol{s}_n,\boldsymbol{s}_2) & \cdots &C(\boldsymbol{s}_n,\boldsymbol{s}_n) \end{bmatrix} = \begin{bmatrix} C(\boldsymbol{s}_1-\boldsymbol{s}_1)&C(\boldsymbol{s}_1-\boldsymbol{s}_2)&\cdots &C(\boldsymbol{s}_1-\boldsymbol{s}_n)\\ C(\boldsymbol{s}_2-\boldsymbol{s}_1)& C(\boldsymbol{s}_2-\boldsymbol{s}_2)& \cdots& C(\boldsymbol{s}_2-\boldsymbol{s}_n)\\ \vdots &\vdots &\ddots &\vdots \\ C(\boldsymbol{s}_n-\boldsymbol{s}_1)&C(\boldsymbol{s}_n-\boldsymbol{s}_2) & \cdots &C(\boldsymbol{s}_n-\boldsymbol{s}_n) \end{bmatrix} \]

para \( \boldsymbol{s}_1,\boldsymbol{s}_2, \dots, \boldsymbol{s}_n \in D \)

Proceso espacial débilmente estacionario

Definición

El proceso \( \{Z(s) \mid s=(x,y) \in D \subset \mathbb{R}^2\} \) es débilmente estacionario, si

  • El segundo momento de \( Z(s) \) es finito para todo \( s \in D \subset \mathbb{R}^2 \), es decir \( E[Z(s)]^2< + \infty \) para todo \( s \).
  • El primer momento de \( Z(s) \) es cosntante \( E[Z(s)] = \mu \) para todo \( s \).
  • El momento cruzado \( E[Z(s_1)Z(s_2)] \) depende solo de \( s_1 - s_2 \), lo que implica que el proceso \( Z(s) \) es estacionario de segundo orden; es decir:

    \[ Cov[Z(s_1), Z(s_2)] = C(s_1 , s_2) \]

    para todo \( s_1, s_2, h \in D \)

Ejemplo (Ruido blanco)

Ruido blanco fuerte (RBF)

\( Z(s) \) es un ruido blanco fuerte, si las variables \( \{Z(s), s \in D\} \)

  • Son centradas, es decir \( E[Z(s)] = \mu \) para todo \( s \), independientes e idénticamente distribuido (iid).

Ruido blanco débil (RBD)

\( Z(s) \) es un ruido blanco débil, si las variables \( \{Z(s), s \in D\} \) están centrados, no están correlacionados y la varianza es constante finita. Es decir,

  • \( Var(Z(s)) = \sigma^2 < +\infty \).
  • \( Cov[Z(s_1), Z(s_2)] =0 \) para \( s_1 = s_2 \)

Relación entre estadionaridad fuerte y débil

Si el proceso \( \{Z(s), s \in D\} \) es fuertemente estacionario y tiene segundo momento finito, entonces \( Z(s) \) es débilmente estacionario.
Prueba

Si el proceso \( \{Z(s), s \in D\} \) es fuertemente estacionario, entonces cualquier par \( Z(s_p),Z(s_q) \in \{Z(s_{i_1}), Z(s_{i_2}), \dots, Z(s_{i_n})\} \) tienen la misma función de distribución y \( Z(s_p),Z(s_q) \) y \( Z(s_p+h),Z(s_q+h) \) tienen la misma función de distribución conjunta para todos \( s_p, s_q y h \).

Ahora, por hipótesis, el proceso \( \{Z(s), s \in D\} \) tiene segundo momento finito, esto implica que

  • \( E[Z(s)] = \mu \) para todo \( s \).
  • \( Cov[Z(s_p),Z(s_q)] = Cov[Z(s_p+h),Z(s_q+h)] \) para todo \( s_p, s_q y h \).

Por lo tanto, el proceso es debilmente estacionario.

  • Estacionariedad fuerte \( \Rightarrow \) estacionariedad débil
  • Estacionariedad débil \( \nRightarrow \) estacionariedad fuerte

Ejemplo: Estacionariedad débil \(\nRightarrow\) estacionariedad fuerte

Sea \( \{Z(s), s \in D \subset \mathbb{R}^2\} \) ser un proceso estocástico definido por \[ Z(s)= \begin{cases} u(s), & ||s|| \text{ par} \\ \frac{1}{\sqrt{2}}(u(s)^2-1), & ||s|| \text{ impar} \end{cases} \] donde \( u(s) \stackrel{i.i.d}{\sim} N(0, 1) \). Este proceso es débilmente estacionario pero no es estrictamente estacionario.

Prueba

Tenemos que \[ E[Z(s)]= \begin{cases} E[u(s)]=0, & ||s|| \text{ par} \\ \frac{1}{\sqrt{2}}E[u(s)^2-1]=0, & ||s|| \text{ impar} \end{cases} \]

También, \[ Var[Z(s)]= \begin{cases} Var[u(s)]=1, & ||s|| \text{ par} \\ \frac{1}{2}Var[u(s-q)^2]=1, & ||s|| \text{ impar y } q \text{ es tal, que } ||s-q|| \text{ es par} \end{cases} \]

Nota: \( Var[X^2]=E[X^4]-E[X^2]^2=3\sigma^4-\sigma^4=2\sigma^4 \)

Prueba: (continuación)

Además, como \( Z(s) \) y \( Z(s-q) \) son variables aleatorias independientes, tenemos que

\[ Cov[Z(s) , Z(s-q)] = 0, \quad \forall s,q \]

Por lo tanto, el proceso es débilmente estacionario.

De otro lado, notemos que \[ P(Z(s) \leqslant 0) = P(u(s) \leqslant 0) = 0.5 \quad \text{para } ||s|| \text{ par} \]

y también

\[ \begin{align*} P(Z(s) ≤ 0) =& P(\frac{1}{\sqrt{2}}(u(s)^2 - 1) \leqslant 0)\\ =& P(u(s-q)^2 \leqslant 1)\\ =& P(|u(s-q)| \leqslant 1)\\ =& P(-1 \leqslant u(s-q) \leqslant 1)\\ =& 0.6826 \quad \text{para } ||s-q|| \text{ impar} \end{align*} \]

Las variables no tienen igual distribución. Luego, el proceso no es fuertemente estacionario

Ejemplo de proceso débilmente estacionario que es fuertemente estacionario.

Sea \( \{Z(s), s \in D \subset \mathbb{R}^2 \} \) es un proceso espacial estocástico gaussiano débilmente estacionario, entonces \( \{Z(s), s \in D \subset \mathbb{R}^2\} \) es fuertemente estacionario.

Prueba

Sea \( \{Z(s), s \in D \subset \mathbb{R}^d\} \) un proceso estocástico espacial gaussiano.

Definamos el vector \( \boldsymbol{b} = (b_1, b_2, ..., b_n)' \in \mathbb{R}^d \), entonces la función de densidad multidimensional del vector \( (Z(s_1), Z(s_2), \dots, Z(s_n)) \) es

\[ f_{Z(s_1),\dots, Z(s_n)}(\boldsymbol{b}) = \frac{1}{\sqrt{(2\pi)^n\det(\boldsymbol{\Sigma})}}\exp\left[-\frac{1}{2}(\boldsymbol{b}-\boldsymbol{\mu}')\boldsymbol{\Sigma}^{-1}(\boldsymbol{b}-\boldsymbol{\mu})\right] \]

donde \( \boldsymbol{\mu} = (E[Z(s_1)], \dots, E[Z(s_n)])' \) y \( \boldsymbol{\Sigma} = Cov[Z(s_i), Z(s_j)] \)

Notamos que una distribución gaussiana multivariante es completamente caracterizado por sus primeros dos momentos.

Prueba(continuación)

Sea \( \{Z(s), s \in D \subset \mathbb{R}^d\} \) un proceso estocástico espacial gaussiano.

Supongamos que el proceso es débilmente estacionario. Entonces,

  • \( E[Z(s)] = \mu, \quad \forall s \)
  • \( Var[Z(s)] = \sigma_{ii}^2 < +\infty, \quad \forall s \)
  • \( Cov[Z(s_1+h), Z(s_2+h)] =Cov[Z(s_1), Z(s_2)], \quad \forall s_1, s_2, h \)

Por lo tanto \[ f_{Z(s_1+h),\dots, Z(s_n+h)}(\boldsymbol{b}) = f_{Z(s_1),\dots, Z(s_n)}(\boldsymbol{b}) \]

De ello se desprende que la función de distribución de los vectores \( (Z(s_1+h),\dots, Z(s_n+h)) \) y \( (Z(s_1),\dots, Z(s_n)) \) son iguales para para cualquier conjunto finito de índices(puntos) \( \{s_1,\dots, s_n\} \subset \mathbb{R}^2 \) y cualquier \( h \in \mathbb{R}^2 \).

Esto implica que el proceso \( \{Z(s), s \in D \subset \mathbb{R}^2 \} \) es fuertemente estacionario.

Prueba(continuación) Reciproco

Reciprocamente, si \( \{Z(s), s \in D \subset \mathbb{R}^2 \} \) es un proceso estocástico gaussiano fuertemente estacionario, entonces es débilmente estacionario; ya que su varianza es finita y por lo tanto la covarianza también.

Por lo tanto, podemos concluir que en el caso de proceso espacial estocástico gaussiano, las dos definiciones (fuerte y débil) de estacionariedad son equivalentes.

Isotropía (Isotrooía fuerte)

La estacionariedad se puede considerar como una propiedad de invarianza bajo la traslación de un grupo coordenadas.

Para un campo aleatorio, también podemos considerar la invarianza bajo rotaciones y reflexiones.

Definición:

Un campo aleatorio \( Z(s) \) es estrictamente(fuertemente) isotrópico si su distribución conjuntas son invariantes bajo todos los movimientos rígidos(rotación/reflexión).

Es decir, para cualquier matriz ortogonal \( \boldsymbol{H} \) y cualquier \( \boldsymbol{s} \in \mathbb{R}^d \)

\[ P[Z(\boldsymbol{H}\boldsymbol{s}_1+\boldsymbol{h})\leqslant z_1 ,\dots,Z(\boldsymbol{H}\boldsymbol{s}_n+\boldsymbol{h}) \leqslant z_n]=P[Z(\boldsymbol{s}_1)\leqslant z_1 ,\dots,Z(\boldsymbol{s}_n) \leqslant z_n] \]

para todos \( \boldsymbol{s}_1,\dots \boldsymbol{s}_n \in \mathbb{R}^d \) y \( z_1, \dots, z_n \in \mathbb{R} \).

Isotropia débil

Definicón Un campo aleatorio \( Z(s) \) en \( \mathbb{R}^d \), es débilmente isotrópico si su semivariograma cumple lo siguiente:

  • \( \gamma(\boldsymbol{s},\boldsymbol{s}+\boldsymbol{h}) = \gamma_0(||\boldsymbol{h}||) \)

Es decir, si el semivariograma depende del vector \( \boldsymbol{h} \) sólo a través de su longitud \( ||\boldsymbol{h}|| \).

Observaciones:

  • Notemos que \( \gamma(\boldsymbol{s},\boldsymbol{s}+\boldsymbol{h}) = \gamma_0(||\boldsymbol{h}||) = C(0) - C(||\boldsymbol{h}||)=\sigma^2-C(||\boldsymbol{h}||) \)
  • Tenga en cuenta que dada la definión, un campo aleatorio (estrictamente/débilmente) isótropo es siempre (estrictamente/débilmente) estacionario.
  • La condición de isotropía no es razón para distinguir una dirección de otra para el campo aleatorio en consideración.
  • Una extensión simple pero útil de campos aleatorios isotrópicos, son los campos aleatorios que se vuelven isotrópicos después de una transformación lineal de coordenadas.
  • Diremos que \( Z(s) \) tiene anisotropía geométrica, si existe una matriz invertible \( \boldsymbol{V} \), tal que \( Z(\boldsymbol{V} \boldsymbol{s}) \) es isotrópico.
  • Un proceso que es a la vez intrínsecamente estacionario e isotrópico se dice que es homogéneo.

Ejercicio

Demuestre que un campo aleatorio gaussiano sobre \( \mathbb{R}^d \) es fuertemente isotrópico si y solo si es débilmente isotrópico.