Motivação

Muitas são as maneiras de se analisar a relação entre séries temporais no domínio da frequência. Estudamos neste trabalho, as funções de coerência, coerência parcial e coerência parcial direcionada.

Aplicações

Aplicamos tais funções em dados de eletroencefalograma de um paciente em estado de repouso com frequência de amostragem 250Mhz para interpretar a relação entre diferentes regiões do cérebro.

— .class #id

Espectro

Definição:

Seja \(X_t\) série temporal discreta, fracamente estacionária, com função de covariância \(\gamma_{XX} = cov\{X(t+u),X(t)\}, t,u \in Z.\)

Supondo \(\sum_{u=-\infty}^{\infty}\left|\gamma_{XX}(u)\right|<\infty\) definimos a Função Densidade Espectral, ou simplesmente Espectro de X(t) como:

\[ f_{XX}(\omega) = \frac{1}{2\pi}\sum_{u=-\infty}^{\infty}\gamma_{XX}(u) e^{-i\omega u},-\pi < \omega < \pi . \]

Segue que \(f_{XX}(\omega)\) é real (porque \(\gamma_{XX}\) é par), \(2\pi\)–periódica e uniformemente contínua.


Periodograma

Definição:

Seja \(X_t\) série temporal discreta com espectro \(f_{XX}(\omega)\). Considere que temos observados \(\{X_0, ,..., X_{T-1}\}\). Calculemos então a quantidade:

\[ d_X^{(T)}(\omega)=\sum_{u=0}^{T-1}X(u) e^{-i\omega u}, \]

O periodograma de \(\{X_0, ..., X_{T-1}\}\) é definido como:

\[ I_{XX}^{(T)}(\omega) := \frac{1}{2\pi T}\left|d_X^{(T)}(\omega)\right|^2 = \frac{1}{2\pi T}\left|\sum_{u=0}^{T-1}X(u) e^{-i\omega u}\right|^2 \]


Periodograma Suavizado

Dessa forma, considere s(T) um inteiro tal que \(2\pi s(T)/T\) seja próximo de \(\omega\). Considere ainda uma janela de tamanho m. Um estimador suavisado para \(f_{XX}(\omega)\), é dado por

\[ f_{XX}^{(T)} (\omega) = m^{-1} \sum_{j=1}^m I_{XX}^{(T)}\left(\omega+\frac{2\pi j}{T}\right) \]

se \(\omega = 0, \pm 2\pi, \pm 4\pi,... \) ou se \(\omega = 0, \pm \pi, \pm 3\pi,... \) e T é par e

\[ f_{XX}^{(T)} (\omega) = m^{-1} \sum_{j=1}^m I_{XX}^{(T)}\left(\omega-\frac{\pi}{T}+\frac{2\pi j}{T}\right) \]

com \(\omega = \pm\pi, \pm 3\pi, ... \) e T é ímpar.

Esta estimativa de \(f_{XX}(\omega)\) é chamada de Periodograma Suavizado. A partir de tal suavização, consegue-se garantir a consistência do estimador do periodograma.


Espectro Cruzado

Dada a função de covariância cruzada, denotada por

\[ \gamma_{XY}(k)=cov(X_t,Y_{t+k}),k=0,\pm 1, \pm 2,\dots. \]

Definimos a Função Densidade Espectral Cruzada(Espectro Cruzado) - analogamente a Função Densidade Espectral - como a transformada de Fourier da função de covariância cruzada.

\[ f_{XY}(\omega)=\frac{1}{2\pi}\sum^{\infty}_{k=-\infty}{\gamma_{XY}(k)e^{-i\omega k}},-\pi < \omega <\pi \]

Por conta de \(\gamma_{XY}(k)\) não ser função par, temos que \(f_{XY}\) é uma função complexa da definição acima segue que

\[ f_{XY}(\omega) = f_{YX}(-\omega) = \overline{f_{XY}(-\omega)} \]


\[ I_{XY}^{(T)}(\omega) = (2\pi T)^{-1} d_X^{(T)}(\omega) \times \overline{d_Y^{(T)}(\omega)}. \]

Novamente, o periodograma usual apresenta propriedades insatisfatórias, não sendo um estimador consistente para \(f_{XY}\). Consideramos portanto o periodograma cruzado suavizado, dado por

\[ f_{XY}^{(T)}(\omega)= (2m+1)^{-1}\sum_{j=-m}^m I_{XY}^{(T)}\left(\frac{2\pi[s(T)+j]}{T}\right) \]


Função de Coerência

Finalmente definimos a função de coerência (coerência quadrática). A coerência mede o quadrado da relação entre duas componentes de um processo bivariado à frequência ω é análoga ao quadrado da correlação linear de Pearson, no domínio da frequência. Ela é dada por

\[ \kappa^2_{XY}(\omega) = \frac{\left|f_{XY}(\omega)\right|^2}{f_{XX}(\omega)f_{YY}(\omega)}. \]

Como temos que

\[ \left|f_{XY}(\omega)\right|^2 \leq f_{XX}(\omega).f_{YY}(\omega), \]

então

\[ 0 \leq \kappa^2_{XY}(\omega) \leq 1. \]


Estimação da Coerência

Assim como na estimação do espectro e do espectro cruzado, o uso de um estimador baseado no periodograma usual traria sérias conseqüências de instabilidade nas estimativas e de aumento na variância. Dessa forma, desde que as quantidades \(f_{XX}(t)\), \(f_{YY}(t)\) e \(f_{XY}(t)\) (respectivamente os periodogramas das séries \(X(t)\) e \(Y(t)\) e o periodograma cruzado entre as séries \(X(t)\) e \(Y(t)\) estejam bem definidas e sejam não nulos, então a razão

\[ \widehat{\kappa^2_{XY}(\omega)}=\frac{\left|f^{(T)}_{XY}(\omega)\right|^2}{f^{(T)}_{XX}(\omega)f^{(T)}_{YY}(\omega)} \]

é um estimador para \(\kappa_{XY}^2(\omega)\) na freqüência \(\omega\) .


Filtro de Regressão

Seja um vetor de dimensão (r+s). r, s \(\in\) Z, contendo duas séries multivariadas X(t) e Y(t), de dimensões r e s, respectivamente. Suponha que cada série satisfaz as condições usuais de estacionariedade e assuma

\[ E[\textbf{X}(t)]=\boldsymbol{\mu}_X, \\ E[\textbf{Y}(t)]=\boldsymbol{\mu}_Y, \\ Cov[\textbf{X}(t),\textbf{X}(t+u)]=\mathbf{c}_{XX}(u), \\ Cov[\textbf{X}(t),\textbf{Y}(t+u)]=\mathbf{c}_{XY}(u), \\ Cov[\textbf{Y}(t),\textbf{Y}(t+u)]=\mathbf{c}_{YY}(u). \]

Buscamos um filtro s X r dimensional a e um vetor b tal que a quantidade

\[ \mathbf{b} + \sum_u \mathbf{a}(t-u) \mathbf{X}(u), \]

seja um valor próximo de \(\mathbf{Y}(t)\).


Considere, para tanto, a seguinte quantidade:

\[ E\left\{\left[\mathbf{Y}(t) - \mathbf{b} -\sum_u \mathbf{a}(t-u)\mathbf{X}(u)\right]\left[\mathbf{Y}(t) - \mathbf{b} -\sum_u \mathbf{a}(t-u) \mathbf{X}'(u)\right]\right\}. \]

Podemos minimizá-la de modo a encontrar os estimadores de a e b que tornam a expressão acima próxima de zero.

Teorema:

Considere uma série temporal multivariada de dimensão (r+s) fracamente estacionária, suponha \(\mathbf{c}_{XX}(u)\) e \(\mathbf{c}_{YY}(u)\) absolutamente somáveis e suponha que \(f_{XX}\) não singular, com \(-\infty < \omega < \infty\). Então os valores de b e a(t) que minimizam a equação acima são dados por

\[ \mathbf{b} = \boldsymbol{\mu}_y - \left(\sum_u \mathbf{a}(u)\right)\boldsymbol{\mu}_x = \boldsymbol{\mu}_y -\mathbf{A}(0)\boldsymbol{\mu}_x \\ \mathbf{a}(u) = (2\pi)^{-1} \int_0^{2\pi}\mathbf{A}(\alpha)e^{iu\alpha} d\alpha, \\ \mathbf{A}(\omega) = \mathbf{f}_{YX}(\omega)\mathbf{f}_{XX}(\omega)^{-1}. \]


Consequentemente temos que a série de erros gerada pela aproximação de Y(t) por X(t) é dada por

\[ \boldsymbol{\epsilon}(t) = \mathbf{Y}(t) - \mathbf{b} \sum_u \mathbf{a}(t-u)\mathbf{X}(u),\\ \]

t=0,±1, ±2,… . A série \(\boldsymbol{\epsilon}(t)\) tem média zero e matriz de densidade espectral dada por

\[ \mathbf{f}_{\epsilon\epsilon} (\omega) = \mathbf{f}_{YY}(\omega) -\mathbf{f}_{YX}(\omega)\mathbf{f}_{XX}(\omega)^{-1}\mathbf{f}_{XY}(\omega) \]

Esta quantidade pode ser chamada de Espectro Residual.

Considerando o a-ésimo e o b-ésimo componentes de \(\epsilon(t)\), \(\epsilon_a(t)\) e \(\epsilon_b(t)\), seu espectro cruzado pode ser interpretado como o espectro parcial cruzado de \(Y_a(t)\) e \(Y_b(t)\), a-ésimo e o b-ésimo componentes de Y(t), após removidos os efeitos de X(t).

Podemos calcular o Espectro Cruzado Parcial da seguinte maneira:

\[ f_{Y_a Y_b, X}(\omega) = f_{Y_a, Y_b}(\omega) - \mathbf{f}_{Y_a, X}(\omega)\mathbf{f}_{XX}(\omega)^{-1} \mathbf{f}_{X,Y_b}(\omega) = f_{\epsilon_a, \epsilon_b}(\omega). \]


Função de Coerência Parcial

A coerência entre os elementos \(\epsilon_a(t)\) e \(\epsilon_b(t)\) é chamada de Coerência Parcial entre \(Y_a(t)\) e \(Y_b(t)\), após removido o efeito de X(t) e é dada por

\[ \mathbf{R}_{Y_a Y_b, X} (\omega) = \frac{f_{Y_a Y_b, X}(\omega)}{\left[f_{Y_a Y_a, X}(\omega) f_{Y_b Y_b, X}(\omega)\right]^{1/2}} \]

O estimador da coerência parcial é calculado considerando os estimadores suavizados dos espectros, isto é:

\[ \mathbf{R}_{Y_a Y_b, X}^{(T)} (\omega) = \frac{f_{\epsilon_a \epsilon_b}^{(T)}(\omega)}{\left[f_{\epsilon_a \epsilon_a}^{(T)}(\omega) f_{\epsilon_b \epsilon_b}^{(T)}(\omega)\right]^{1/2}} \]


Função de Coerência Parcial Direcionada

Segundo Baccalá e Sameshima(2001):
- Sabemos que as funções de coerência e coerência parcial apenas nos dão indícios de que há um comportamento de ’sincronia’ entre séries temporais.
- Neste contexto, Saito e Harashima (1981) descrevem a idéia de coerência direcionada como uma função que não apenas nos conta sobre a sincronia das séries em estudo mas também a conexão funcional entre as séries.
- Em outras palavras, a coerência direcionada dá importância a relações estruturais relativas, decompondo as interações entre séries em aspectos de “feedfoward” e “feedback” de maneira unívoca.


Considere a matriz de espectros cruzados:

\[ \mathbf{f}(\omega) = \left[ \begin{array}{c c c c} f_{11}(\omega) & f_{12}(\omega) & \dots & f_{1N}(\omega) \\ f_{21}(\omega) & f_{22}(\omega) & \dots & f_{2N}(\omega) \\ \vdots & \vdots & \ddots& \vdots \\ f_{N1}(\omega) & f_{N2}(\omega) & \dots & f_{NN}(\omega) \end{array} \right], \]

Podemos decompor esta matriz na forma

\[ \textbf{f}(\omega) = \textbf{H}(\omega)\boldsymbol{\Sigma} \textbf{H}^H(\omega), \]

onde \(H^H(.)\) representa a matriz transposta conjugada de H(.)* e \(\mathbf{\Sigma}\) é a matriz de covariância \({\sigma_{ij}, i, j = 1, ..., N}\). Para definirmos a matriz H, considere \(X_1(t),..., X_N(t)\) séries temporais conjuntamente estacionárias de tal maneira que tenhamos uma aproximação por meio de modelos auto-regressivos

\[ \left[\begin{array}{c} X_1(t) \\ \vdots \\ X_N(t) \end{array}\right] = \sum_{r=1}^p \textbf{A}_r \left[\begin{array}{c} X_1(t-r) \\ \vdots \\ X_N(t-r) \end{array}\right] + \left[\begin{array}{c} w_1 (t) \\ \vdots \\ w_N(t) \end{array}\right], \]

na qual \(w_1(t),...,w_N(t)\) sejam ruídos brancos.


A matriz \(H(\omega)\) é dada por

\[ H(\omega)=\bar{A}^{-1}(\omega)=(I-A(\omega))^{-1}, \\ A(\omega) = \sum_{r=1}^p A_r z^{-r}\Big|_{z=e^{-i2\pi\omega}} = \\ = \sum_{r=1}^p A_r e^{i2\pi\omega r}, \\ A_r = \left[\begin{array}{cccc} a_{11}(r) & a_{12}(r) & \dots & a_{1N}(r) \\ \vdots & \vdots & \ddots& \vdots \\ a_{N1}(r) & a_{N2}(r) & \dots & a_{NN}(r) \\ \end{array}\right], \]

onde \(a_{ij}(r)\) são os coeficientes que representam o efeito de interação linear de \(x_j(t-r)\) com \(x_i(t)\), \(i,j=1,\dots,N\).


Coerência Parcial Direcionada

O fator de coerência parcial direcionada entre duas séries temporais \(X_i(t)\) e \(X_j(t)\) é definido por

\[ \pi_{ij}(\omega) := \frac{\bar{A}_{ij}(\omega)}{\sqrt{\bar{\textbf{a}}^H_j(\omega)\boldsymbol{\Sigma}^{-1}\bar{\textbf{a}}_j(\omega)}}, \]

onde \(\bar{A}_{ij}(\omega)\) é o i,j-ésimo elemento de \(\bar{A}(\omega),i,j=1\dots,N\), dado por:

\[ \bar{A}_{ij}(\omega) = \left\{\begin{array}{cc} 1- \sum_{r=1}^p a_{ij} (r) e^{-i2\pi \omega r} & ,\text{se i=j}\\ -\sum_{r=1}^p a_{ij} (r) e^{-i2\pi \omega r} & ,\text{caso contrario} \end{array}\right. \]


Podemos então reescrever a função de coerência parcial como:

\[ \textbf{R}_{Y_i Y_j, X} (\omega) = \frac{\bar{\textbf{a}}^H_i(\omega)\boldsymbol{\Sigma}^{-1}\bar{\textbf{a}}_j(\omega)}{\sqrt{(\bar{\textbf{a}}^H_i(\omega)\boldsymbol{\Sigma}^{-1}\bar{\textbf{a}}_i(\omega))(\bar{\textbf{a}}^H_j(\omega)\boldsymbol{\Sigma}^{-1}\bar{\textbf{a}}_j(\omega))}}, \]

É imediato a partir desta definição acima fica

\[ \textbf{R}_{Y_i Y_j, X} (\omega) = \pi_i^H(\omega)\boldsymbol{\Sigma}^{-1}\pi_j(\omega), \]

onde \(\pi_i(\omega):=\left[\pi_{1i}(\omega),\dots,\pi_{Ni}(\omega)\right]'\).

Como o denominador depende de \(\Sigma\), a coerência parcial confunde efeitos de causalidade de Granger e causalidade instantânea de Granger. Para eliminar este efeito instantâneo, define-se a Coerência Parcial Direcionada como

\[ \pi_{ij}(\omega) := \frac{\bar{A}_{ij}(\omega)}{\sqrt{\bar{\textbf{a}}^H_j(\omega)\boldsymbol{\Sigma}^{-1}\bar{\textbf{a}}_j(\omega)}}, \]

a qual considera apenas causalidade “não-instantânea”de Granger, já que relacionamentos entre observações presentes de \(X_i(t)\) são descritos exclusivamente pelas correlações entre os processos \(w_i(t)\). Suprimindo \(\Sigma\), focamos nosso objeto de estudo na relação entre os valores passados das séries \(X_j(t)\) e o presente e futuro das séries \(X_i(t)\).


Aplicações

Dados de EEG:

  • Coletados em um paciente em estado de repouso com olhos fechados;
  • A freqüência de amostragem foi de 250Hz;
  • As séries de EEG estudadas têm tamanho aproximado de 200.000 observações;
  • As séries estudadas representam as diferenças de potencial entre o ponto de coleta do eletrodo e o ponto entitulado Pz, como apresentado na figura a seguir;
  • Foram coletadas informações de 32 canais, mas nos atentaremos à análise de 8 deles, em dois grupos distintos;
  • Analisamos a relação entre os canais F3, F4, C3 e C4 comparados dois a dois. Analogamente, foram analisados o grupo de informações coletadas nos eletrodos P3, P4, O1 e O2.
  • Sabemos, no entanto, por conta da alta freqüência de amostragem e da grande quantidade de dados, que podemos encontrar problemas de memória longa no estudo das séries de EEG;
  • Por conta disso, optamos por aplicar um filtro “passa-banda”, com a banda de filtragem de freqüências entre 1 e 100 Hz;
  • Bruscato(2000) sugere a construção dos estimadores de espectro com janelas móveis para evitar problemas como fuga de estacionariedade local por exemplo;
  • Dessa forma, construímos as estimativas da função de coerência parcial utilizando janelas ao longo da série.
  • De modo geral, podemos categorizar a freqüência em 5 faixas: > - Gama (freqüências maiores que 30Hz); > - Beta (13-30Hz); > - Alfa(8-12Hz); > - Theta(4-8Hz); > - Delta(freqüências menores que 4Hz).

Construímos portanto o vetor multivariado

\[ \mathbf{R}_{J,Y_a Y_b, X}^{(T)} (\omega) = \Big[\mathbf{R}_{Y_a Y_b, X}^{(T)} (\omega)\Big|_{t \in (J_0=1,J_1)},\ldots, \\ \mathbf{R}_{Y_a Y_b, X}^{(T)}(\omega)\Big|_{t\in (J_{k-1},J_k)}\ldots, \mathbf{R}_{Y_a Y_b, X}^{(T)}(\omega)\Big|_{t\in(J_{K-1},J_K=T)}\Big]_{\left[\frac{M}{2}\right] \times K} \]

onde M é o tamanho da janela, {(Jk-1;Jk),k=1,…,K} é um conjunto de intervalos encaixados igualmente espaçados tal que

\[ \bigcup_{k=1}^{K} (J_{k-1},J_k)=(1,T) \]

e K=\(\left[\frac{T}{M}\right]\) (menor inteiro maior ou igual a \(\frac{T}{M}\))

Coerencia Parcial

Assim como nos canais C4 e F3, identificamos aqui picos nas faixas de frequências Gama. Como antes, temos baixa atividade entre os canais frontais(relação inter-hemisférios).

Coerência Parcial entre F3 e F4

Coerência Parcial Direcionada

O fluxo de informações que sai dos canais Ocipitais, responsáveis pelo controle da visão mostra-se muito maior do que o recebimento de informação por esses canais.

Coerências Parciais Direcionais de O1 para P3 e de O3 para P3

Função de coerência

  • As funções de correlação e coerência usuais foram e são largamente utilizadas como ferramentas para a interpretação da relação entre variáveis;
  • Há muitas limitações quanto à interação entre variáveis;
  • Não é possível avaliar o sentido ao qual o fluxo de informações percorre;
  • Quando consideramos que outras variáveis podem influenciar na relação das variáveis estudadas, isto pode ocasionar em falsas conclusões sobre a relação entre as variáveis de interesse.

Função de Coerência Parcial Direcionada

  • É possivel entender não somente o comportamento de sincronia entre as séries, mas também os aspectos de influência da primeira série na segunda e vice-versa;
  • Apesar de não termos uma relação de causalidade comprovada quando aplicamos as funções DC e PDC, temos a sugestão de que essa relação de fato existe;
  • Podemos, a partir daí, construir testes de hipóteses e avaliar a relação entre as variáveis(veja Takahashi et al., 2006).

Bibliografia Resumida

Bibliografia Resumida

Bibliografia Resumida

##
Obrigado!

samejimal at ufba.br
UFBA
Instituto de Matemática
Departamento de Estatistica
Sala 260