Como consecuencia de la definición de la distribución multivariante se tiene que:
Si \(\vec{Z}\sim{N_p}(\vec{0},{I_p})\) \(\Rightarrow\) \(\vec{X} = S\vec{Z} + \vec{\mu} \sim N_p( \vec{\mu} , \Sigma)\) Donde: \(\cdot ~ \Sigma=SS'~~\) \(~~~~~~~~~~~~~\cdot \vec{Z} = S^{-1} (\vec{X}-\vec{\mu})\) (estandarización de una normal multidimensional)
\(\textbf{Demostración:}\) (Asumiendo independencia) La función generadora de momentos de $ = (z_i, … , z_n)^T $ es
\[\begin{align*} M_z(t) &= \mathbb{E}(e^{t^TZ}) \\ &= \mathbb{E}(e^{\sum^p_{i=1}t_{i}Z_{i}}) \\ *&= \prod^p_{i=1}\mathbb{E}(e^{t_{i}Z_{i}}) \\ &= \prod^p_{i=1}e^{\frac{1}{2}{t_{i}^{2}}} \\ **&= e^{\sum^p_{i=1}\frac{1}{2}t_{i}^{2}}\\ &=e^{\frac{1}{2}t^Tt} \end{align*}\]
Que es claramente la función generadora de momentos de un vector normal que distribuye \(N_p(\vec{0},{I_p})\)
Ahora sacamos la función generadora de momentos de la transformación del vector \(\vec{Z}\), es decir \(\vec{X} = S\vec{Z} + \vec{\mu}\)
\[\begin{align*} M_x(t) &= \mathbb{E}(e^{t^T(S\vec{Z} + \vec{\mu})}) \\ &= e^{t^T\mu}\mathbb{E}(e^{t^TS\vec{Z}}) \\ &= e^{t^T\mu}M_z(S^Tt) \\ &= e^{t^T\mu}e^{\frac{1}{2}(S^Tt)^T(S^Tt)}\\ &= e^{t^T\mu}e^{\frac{1}{2}(t^TSS^Tt)} \\ &= e^{t^T\mu}e^{\frac{1}{2}(t^T\Sigma t)} \end{align*}\]
Que es la definición de la función generadora de momentos para un vector normal que distribuye \(N_p( \vec{\mu} , \Sigma)\)
\(\therefore \vec{X} = S\vec{Z} + \vec{\mu} \sim N_p( \vec{\mu} , \Sigma)\)
\(\textbf{Nota 1 (*)}\)
Si \(\vec{X} = (x_i, ... , x_n)^T\) es un vector aleatorio y \(t = (t_i, ... , t_n)^T \in \mathbb{R}^n\)
La función generadora de momentos se define como
\[\begin{align*} M_x(t) = \mathbb{E}(e^{t^T\vec{X}}) \end{align*}\] y también, por la multiplicación de los vectores \[\begin{align*} M_x(t) = \mathbb{E}(e^{\sum^n_{i=1}t_{i}X_i}) \end{align*}\]
\(\textbf{Nota 2}\)
La función generadora de momentos de la distribución normal es
\[\begin{align*} M_x(t) = e^{\mu t + \frac{1}{2}\sigma^2t^2} \end{align*}\]
\(\textbf{Nota 3 (**)}\)
Si \[ X\sim N(0,1)\Rightarrow M_x(t) = \mathbb{E}(e^{tX}) = e^{\frac{1}{2}t^2} \]
Si \(\vec{X} \sim N_p(\vec{\mu},\Sigma)\), con \(\Sigma\) diagonal \(\Rightarrow (\vec{X}-\vec{\mu})^t \Sigma^{-1}(\vec{X}-\vec{\mu})\sim \chi^2(p)\)
\(\textbf{Demostracion:}\) Para está demostración usaremos la propiedad uno, que podemos usar dada la afirmación \(\vec{X} \sim N_p(\vec{\mu},\Sigma)\), y la equivalencia \(\Sigma=SS'\)
\[\begin{gather*} \text{Sea}~~ Q = (\vec{X}-\vec{\mu})^t \Sigma^{-1}(\vec{X}-\vec{\mu})\\ (\vec{X}-\vec{\mu})^t \Sigma^{-1}(\vec{X}-\vec{\mu})= (S\vec{Z}+\vec{\mu}-\vec{\mu})^t \Sigma^{-1}(S\vec{Z}+\vec{\mu}-\vec{\mu})\\ =(S\vec{Z})^t(SS^t)^{-1}(S\vec{Z})\\ \vec{Z}^tS^tS^{t^{-1}}S^{-1}S\vec{Z}=\vec{Z}^t\vec{Z}=\sum_{i=1}^{p}Z_{i}^2~~;~~Z_i\sim N(0,1)\\ \therefore \vec{X} \sim N_p(\vec{\mu},\Sigma)\implies Q=\sum_{i=1}^{p}Z_{i}^2~~;~~Z_i\sim N(0,1)\\ \end{gather*}\]
Sigue que \(Y=Z^2 \sim\) Gamma\((\frac{1}{2},\frac{1}{2})\) o equivalentemente que \(Z^2 \sim \chi^2_{(1)}\)
\[\begin{equation*} \therefore Q = (\vec{X}-\vec{\mu})^t \Sigma^{-1}(\vec{X}-\vec{\mu})=\sum_{i=1}^{p}Z_i^2\sim \chi^2_{(p)} \end{equation*}\]
Si \(\vec{X} \sim N_p(\vec{\mu},\Sigma)\) y \(\vec{Y}=B\vec{X}+\vec{c}\), donde \(B=B_{Kx1}\) rango \((B)\leq P\), con \(\vec{Y}, \vec{c} \in \mathbb{R}^k\)
\(\Rightarrow\)
\(\vec{Y}\sim N_k(B\vec{\mu}+\vec{c},B\Sigma B^t)\)
Primero \[\begin{equation} B\vec{X}= \begin{pmatrix} B_{11} &B_{12}&...&B_{1p}\\ B_{21} &B_{22}&...&B_{2p}\\ \vdots&\vdots&\vdots&\vdots\\ B_{k1} &B_{k2}&...&B_{kp}\\ \end{pmatrix} \begin{pmatrix} x_1\\ \vdots\\ x_p\\ \end{pmatrix} \end{equation}\]
\[\begin{equation} B\vec{X}= \begin{pmatrix} B_{11}x_1 + B_{12}x_2 + ... + B_{1p}x_p\\ \vdots\\ B_{k1}x_1 + B_{k2}x_2 + ... + B_{kp}x_p\\ \end{pmatrix} \end{equation}\]
Luego \[\begin{equation} B\vec{X}+\vec{c}= \begin{pmatrix} B_{11}x_1 + B_{12}x_2 + ... + B_{1p}x_p\\ \vdots\\ B_{k1}x_1 + B_{k2}x_2 + ... + B_{kp}x_p\\ \end{pmatrix} + \begin{pmatrix} c_{1}\\ \vdots\\ c_{k}\\ \end{pmatrix} \end{equation}\]
\[\begin{equation} \vec{Y} = B\vec{X}+\vec{c}= \begin{pmatrix} B_{11}x_1 + B_{12}x_2 + ... + B_{1p}x_p + c_1\\ \vdots\\ B_{k1}x_1 + B_{k2}x_2 + ... + B_{kp}x_p +c_k\\ \end{pmatrix} \end{equation}\]
Si cada componente del vector distribuye \(x\sim N(\mu,\sigma^2)\) y a,b $ aX+bN(a+b , a22) $
y como, por ejemplo, el primero componente se pude escribir \(B_{11}x_1 + B_{12}x_2 + ... + B_{1p}x_p + c_1 = \sum _{i=1} ^{p} B_{1i}x_i + c_1\)
entonces, este primer componente distribuye
\(\sum _{i=1} ^{p} B_{1i}x_i + c_1 \sim N(\sum _{i=1} ^p B_{1i}\mu_i + c_1, \sum _{i=1} ^{p} B_{1i}^2 \sigma^2_i)\) generalizando
\[\begin{equation} \vec{Y}= \begin{pmatrix} y_{1}\\ \vdots\\ y_{k}\\ \end{pmatrix} \sim N\begin{pmatrix} \sum _{i=1} ^{p} B_{1i}\mu_i + c_1, \sum _{i=1} ^{p} B_{1i}^2 \sigma^2_i\\ \vdots\\ \sum _{i=1} ^{p} B_{ki}\mu_i + c_k, \sum _{i=1} ^{p} B_{ki}^2 \sigma^2_i\\ \end{pmatrix} \end{equation}\]
Debemos llegar a que las medias se pueden escribir como el vector \(B\vec{\mu}+\vec{c}\) y las varianzas como la matriz de varianzas covarianzas \(B\Sigma B^t\)
vector de medias:
\[E(\vec{Y})=E(B\vec{X}+\vec{c})=BE(\vec{X})+\vec{c}=B\vec{\mu}+\vec{c}\]
Matriz de varianzas covarianzas: \[\begin{gather*} var(\vec{Y})=var(B\vec{X}+\vec{c})=var(B\vec{X}) \\=E[(B\vec{X}-E(B\vec{X}))(B\vec{X}-E(B\vec{X}))^T] \\=E[(B\vec{X}-BE(\vec{X}))(B\vec{X}-BE(\vec{X}))^T] \\=E[((B\vec{X}-BE(\vec{X}))((B\vec{X})^T-(BE(\vec{X})^T))] \\=E[((B\vec{X}-BE(\vec{X}))(\vec{X}^{T}B^{T}-E(\vec{X})^{T}B^{T})] \\=E[B(\vec{X}-E(\vec{X}))(\vec{X}-E(\vec{X}))^{T}B^{T}] \\=BE[(\vec{X}-E(\vec{X})(\vec{X}-E(\vec{X}))^{T}]B^T \\= B~Var(\vec{X})B^T \\= B\Sigma B^T \end{gather*}\]
Para una m.a.(n) \(\vec{X}_1,...,\vec{X}_n\), de \(\vec{X}\sim N_p(\vec{\mu},\Sigma)\), entonces el vector de medias\(\bar{\vec{X}}\sim N_p(\mu,\Sigma/n)\).
Para demostrar propiedad usaremos las siguientes propiedades de la función generadora de momentos:
\[\begin{gather*} M_{\sum \vec{x}_i/n}(t)=\Pi_{i=1}^{n}M_{\vec{x}_i}(t/n)~~;~si~\vec{x}_i\bot \vec{x}_j~~;~i\neq j \\ M_{ \vec{X}_i}(t)= M_{ \vec{Y}_i}(t) \implies F_{\vec{X}}(x)=F_{\vec{Y}}(y) \end{gather*}\]
Sea la función generadora de momentos de una variable \(\vec{X}_i\) \[\begin{equation*} M_{\vec{X}_i}(t)=exp[t^T(\mu+\frac{1}{2}\Sigma t)]~~~entonces \end{equation*}\]
\[\begin{gather*} M_{\sum \vec{x}_i/n}(t)=\Pi_{i=1}^{n}exp[t^T/n(\mu+\frac{1}{2}\Sigma t/n)]\\ M_{\sum \vec{x}_i/n}(t)=exp[n*\frac{t^T}{n}(\mu+\frac{1}{2}\Sigma t/n)]\\ M_{\sum \vec{x}_i/n}(t)=exp[t^T(\mu+\frac{1}{2}\Sigma t/n)] \end{gather*}\]
Esta última función corresponde a la función generadora de momento de una variable que distribuye \(N_p(\mu,\Sigma/n)\), por lo tanto:
\[\begin{equation*} \sum_{i=1}^{n}\vec{X}_i=\bar{\vec{X}}\sim N_p(\mu,\Sigma/n) \end{equation*}\]
Sea \(\vec{X}= \begin{pmatrix}X^{(1)}\\X^{(2)}\end{pmatrix}\sim N_p(\mu,\Sigma)\), donde \(x^{(1)}\) y \(x^{(2)}\) son particiones de dimensiones q y (p-q) se busca probar:
\(\vec{X}\sim N_p \left( \begin{pmatrix} \mu^{(1)}\\ \mu^{(2)} \end{pmatrix},\begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{bmatrix} \right)\) , \(\Sigma_{12}=\Sigma_{21}^t\)
Usando la propiedad 3, donde si \(\vec{X}\sim N_p(\mu,\Sigma)\) y $ =BX+C$, entonces \(\vec{Y}\sim N_q (B\mu+C,B\Sigma B')\), generamos la siguiente transformación lineal:
\[\vec{Y}=\begin{pmatrix} C\\ B \end{pmatrix}\vec{X}=\begin{pmatrix} X^{(1)}\\ X^{(2)} \end{pmatrix}\]
Donde C es una matriz de orden \(q\times p\) y B es una matriz de orden \((p-q)\times p\) tal que:
\[\begin{equation} c= \begin{pmatrix} 1 &0&0&...&0&...&0\\ 0 &1&0&...&0&...&0\\ 0 &0&1&...&0&...&0\\ \vdots& & & & & &\vdots\\ 0 &0&0&...&1&...&0\\ \end{pmatrix} ~~~ y~~~~ B=\begin{pmatrix} 0 &...&1&0&0&...&0\\ 0 &...&0&1&0&...&0\\ 0 &...&0&0&1&...&0\\ \vdots& & & & & &\vdots\\ 0&...&0&0&0&...&1 \end{pmatrix} \end{equation}\] De esta forma, por la propiedad 3: \[\begin{align} \begin{pmatrix} X^{(1)}\\ X^{(2)} \end{pmatrix}\sim N_{q+(p-q)}\left ( \begin{pmatrix} C\mu\\ B\mu \end{pmatrix},\begin{pmatrix} C\\B \end{pmatrix}\Sigma\begin{pmatrix} C&B \end{pmatrix}\right)\\ \begin{pmatrix} X^{(1)}\\ X^{(2)} \end{pmatrix}\sim N_{q+(p-q)}\left ( \begin{pmatrix} \mu^{(1)}\\ \mu^{(2)} \end{pmatrix},\begin{pmatrix} C\Sigma C'&C\Sigma B'\\ B\Sigma C'&B\Sigma B' \end{pmatrix}\right)\\ \star ~~ \begin{pmatrix} X^{(1)}\\ X^{(2)} \end{pmatrix}\sim N_{q+(p-q)}\left ( \begin{pmatrix} \mu^{(1)}\\ \mu^{(2)} \end{pmatrix},\begin{pmatrix} \Sigma_{11}&\Sigma_{12} \\ \Sigma_{21}&\Sigma_{22} \end{pmatrix}\right)~~\star \end{align}\] Para facilitar la comprensión de esta demostración se mostrará el siguiente ejemplo:
Sea \(\vec{X}\) un vector de dmensión 3, C una matriz de orden \(2\times 3\) y B una matriz de orden \(1\times 2\) definidas como:
\[\begin{equation} C=\begin{pmatrix} 1&0&0\\ 0&1&0 \end{pmatrix}~~~y~~~ B=\begin{pmatrix} 0&0&1 \end{pmatrix} \end{equation}\] \[\begin{equation} \vec{Y}=\begin{pmatrix} X^{(1)}\\X^{(2)} \end{pmatrix}=\begin{pmatrix} C\\B \end{pmatrix}\vec{X} =\begin{pmatrix} \begin{pmatrix} 1&0&0\\ 0&1&0 \end{pmatrix}\\ \begin{pmatrix} 0&0&1 \end{pmatrix} \end{pmatrix}\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix}=\begin{pmatrix} \begin{pmatrix} x_1\\x_2 \end{pmatrix}\\x_3 \end{pmatrix} \end{equation}\] Sea \(\Sigma=\begin{pmatrix} \sigma_{11}&\sigma_{12}&\sigma_{13}\\ \sigma_{21}&\sigma_{22}&\sigma_{23}\\ \sigma_{31}&\sigma_{32}&\sigma_{33} \end{pmatrix}\), la matriz \(\begin{pmatrix} C\Sigma C'&C\Sigma B'\\ B\Sigma C'&B\Sigma B' \end{pmatrix}\) se resolverá como:
\[\begin{equation} \begin{pmatrix} C\Sigma C'&C\Sigma B'\\ B\Sigma C'&B\Sigma B' \end{pmatrix}=\begin{pmatrix} \begin{pmatrix} \sigma_{11}&\sigma_{12}\\ \sigma_{21}&\sigma_{22} \end{pmatrix}& \begin{pmatrix} \sigma_{13}\\\sigma_{23} \end{pmatrix}\\ \begin{pmatrix} \sigma_{31}&\sigma_{32} \end{pmatrix}& \sigma_{33} \end{pmatrix}=\begin{pmatrix} \Sigma_{11}&\Sigma_{12}\\ \Sigma_{21}&\Sigma_{22} \end{pmatrix} \end{equation}\]
Podemos notar que en el ejemplo \(\Sigma_{12}=\Sigma_{21}^t\)
Finalmente, aplicando la propiedad 3, conlcuimos que la transformación lineal \(\vec{Y}= \begin{pmatrix} X^{(1)}\\X^{(2)} \end{pmatrix}\) tiene la siguiente distribución: \[\begin{equation} \vec{X}\sim N_p \left( \begin{pmatrix} \mu^{(1)}\\ \mu^{(2)} \end{pmatrix},\begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{bmatrix} \right) \end{equation}\] Que es lo que buscabamos probar.
\(X^{(1)}|X^{(2)}\sim N_q(\mu_{1|2},\Sigma_{1|2})\), con \(\mu_{1|2}=\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)})\) y \(\Sigma_{1|2}=\Sigma_{11}-\Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21}\)
Sea \(\vec{Y}=\begin{pmatrix}I_q&-B\\0&I_{p-q}\end{pmatrix}\begin{pmatrix}X^{(1)}\\X^{(2)}\end{pmatrix}=C\vec{X}\), con B una matriz de orden \(q\times(p-q)\),usando la propiedad 3, sabemos que \(\vec{Y}\sim N_q(C\mu_x,C\Sigma C')\), por lo que primero veremos los valores \(\vec{\mu_y}\) y \(\Sigma_y\) de esta transformación lineal:
\[\begin{equation*} \vec{\mu_y}=\begin{pmatrix} \mu^{(1)}-B\mu^{(2)}\\ \mu^{(2)} \end{pmatrix} \end{equation*}\]
\[\begin{align*} \Sigma_y=C\Sigma C'=\begin{pmatrix} I_{q}&-B\\0&I_{p-q} \end{pmatrix}\begin{pmatrix} \Sigma_{11}&\Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{pmatrix}\begin{pmatrix} I_q&0\\-B'&I_{p-q} \end{pmatrix}\\ \Sigma_y=\begin{pmatrix} \Sigma_{11}+B\Sigma_{22}B'-B\Sigma_{21}-\Sigma_{12}B'&\Sigma_{12}-B\Sigma_{22}\\(\Sigma_{12}-B\Sigma_{22})'&\Sigma_{22} \end{pmatrix} \end{align*}\]
Si le damos a B el valor \(B=\Sigma_{12}\Sigma_{22}^{-1}\) tendremos la siguiente matriz:
\[\begin{equation*} \vec{Y}=\begin{pmatrix} X^{(1)}-\Sigma_{12}\Sigma_{22}^{-1}X^{(2)}\\X^{(2)} \end{pmatrix}\sim N_q \left(\begin{pmatrix} \mu^{(1)}-\Sigma_{12}\Sigma_{22}^{-1}\mu^{(2)}\\ \mu^{(2)} \end{pmatrix},\begin{pmatrix} \Sigma_{11}-\Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21}&0\\0&\Sigma_{22} \end{pmatrix}\right) \end{equation*}\]
\[\begin{equation*} \vec{Y}=\begin{pmatrix} Y_1\\X^{(2)} \end{pmatrix}\sim N_q \left(\begin{pmatrix} \mu_{Y_1}\\ \mu^{(2)} \end{pmatrix},\begin{pmatrix} \Sigma_{y_1}&0\\0&\Sigma_{22} \end{pmatrix}\right) \end{equation*}\] Por lo que \(X^{(2)}\) y \(Y_1\) son variables normales independientes con las siguientes distribuciones marginales:
\[\begin{gather*} g(X^{(1)}|\mu,\Sigma,X^{(2)})=g(Y_1|\mu_{y_1},\Sigma_{Y_1})=\frac{1}{(2\pi)^{q/2}|\Sigma_{Y_1}|^{1/2}}e^{(-\frac{1}{2}(Y_1-\mu_{Y_1})\Sigma_{Y_1}(y_1-\mu_{Y_1})')}\\ f_2(X|\mu,\Sigma)=\frac{1}{(2\pi)^{(p-q)/2}|\Sigma_{22}|^{1/2}}e^{(-\frac{1}{2}(X^{(2)}-\mu^{(2)})\Sigma_{22}(X^{(2)}-\mu^{(2)})')} \end{gather*}\]
Así, podemos escribir la densidad conjunta de \(\begin{pmatrix}X^{(1)}\\X^{(2)}\end{pmatrix}'\) en función de \(f_2(X|\mu,\Sigma)\) y \(g(X^{(1)}|\mu,\Sigma,X^{(2)})\) como:
\[\begin{equation*} f(X^{(1)},f^{(2)}|\mu,\Sigma)=g(X^{(1)}|\mu,\Sigma,X^{(2)})f_2(X|\mu,\Sigma) \end{equation*}\]
pero
\[\begin{equation*} f(X^{(1)},f^{(2)}|\mu,\Sigma)=f_{1|2}(X^{(1)}|\mu,\Sigma,X^{(2)})f_2(X^{(2)}|\mu,\Sigma) \end{equation*}\]
También se cumple dado que \(f_{1|2}\) es la función de densidad condicional de \(X^{(1)}\) dado \(X^{(2)}=x^{(2)}\), así, la densidad condicional de la variable \(X^{(1)}|X^{(2)}=x^{(2)}\) es igual a \(g(X^{(1)}|\mu,\Sigma,X^{(2)})=g(Y_1|\mu_{y_1})\) , por lo que podemos establecer las siguientes equivalencias:
\[\begin{equation*} \star \Sigma_{1|2}=\Sigma_{11}-\Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21}=\Sigma_{Y_1} \end{equation*}\] \[\begin{gather*} X^{(1)}-\Sigma_{12}\Sigma_{22}^{-1}X^{(2)}- \mu^{(1)}-\Sigma_{12}\Sigma_{22}^{-1}\mu^{(2)}=X^{(1)}-\mu_{1|2}\\ \star \mu_{1|2}=\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)}) \end{gather*}\]
dado que la densidad de la variable \(X^{(1)}|X^{(2)}=x^{(2)}\) es igual a \(g(X^{(1)}|\mu,\Sigma,X^{(2)})=g(Y_1|\mu_{y_1})\), podemos establecer que la distribución de \(X^{(1)|X^{(2)}=X^{(2)}}\) es igual a la distribución de \(Y_1\)
por lo que concluimos que:
\[\begin{equation*} \star X^{(1)}|X^{(2)}\sim N_q(\mu_{1|2},\Sigma_{1|2}) \star \end{equation*}\] con \(\mu_{1|2}=\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)})\) y \(\Sigma_{1|2}=\Sigma_{11}-\Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21}\)
Sea \(X^{(1)}|X^{(2)}=x^{(2)}\) un vector igual a: \(X^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)})\), con lo cual formamos \(X_{1.2}=X^{(1)}-(\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)}))\), a continuación demostraremos las siguientes propiedades:
\(\textbf{Propiedad 5.3.1}\) \[\begin{equation*} cov(X^{(1)},X_{1.2})=\Sigma_{1|2} \end{equation*}\]
Sean \(\vec{X}\) e \(\vec{Y}\) dos matrices, entonces \(cov(\vec{X},\vec{Y}')=\mathbb{E}(\vec{X}\vec{Y}') - \mathbb{E}(\vec{X})\mathbb{E}(\vec{Y}')\), de esta forma:
\[cov(X^{(1)},X_{1.2})=\mathbb{E}(X^{(1)}\times(X^{(1)}-(\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)}))')\] \[-\mathbb{E}(X^{(1)})\mathbb{E}(X^{(1)}-(\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)}))')\] \[cov(X^{(1)},X_{1.2})=\mathbb{E}(X^{(1)}X^{(1)}´-\mu^{(1)}X^{(1)}-X^{(1)}X^{(2)}´\Sigma_{22}^{-1´}\Sigma_{12}´+\mu^{(2)}X^{(1)}\Sigma_{22}^{-1'}\Sigma_{12}')\] \[-\mu^{(1)}(\mu^{(1)}-\mu^{(1)}-\Sigma_{22}^{-1'}\Sigma_{12}'(\mu^{(2)}-\mu^{(2)}))\] \[cov(X^{(1)},X_{1.2})=\mathbb{E}(X^{(1)^2})-\mu^{(1)^2}-\mathbb{E}(X^{(1)}X^{(2)})\Sigma_{22}^{-1'}\Sigma_{12}'\] \[+\mu^{(2)}\mathbb{E}(X^{(1)})\Sigma_{22}^{-1'}\Sigma_{12}'-\mu^{(1)}*0\] \[cov(X^{(1)},X_{1.2})=\Sigma_{11}+\mu^{(1)^2}-\mu^{(1)^2}-\Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21} \] \[-\mu^{(1)}\mu^{(2)}\Sigma_{22}^{-1}\Sigma_{21} +\mu^{(1)}\mu^{(2)}\Sigma_{22}^{-1}\Sigma_{21}\]
\[\begin{equation*} cov(X^{(1)},X_{1.2})=\Sigma_{11}-\Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21} \end{equation*}\] \[\begin{equation} \star cov(X^{(1)},X_{1.2})=\Sigma_{1|2} \star \end{equation}\]
\[\begin{equation*} cov(X^{(2)},X_{1.2})=0 \end{equation*}\]
Sean \(\vec{X}\) e \(\vec{Y}\) dos matrices, entonces \(cov(\vec{X},\vec{Y}')=\mathbb{E}(\vec{X}\vec{Y}') - \mathbb{E}(\vec{X})\mathbb{E}(\vec{Y}')\), de esta forma:
\[\begin{gather*} cov(X^{(2)},X_{1.2})= \mathbb{E}(X^{(2)}\times(X^{(1)}-(\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)}))´)\\ -\mathbb{E}(X^{(2)}) \mathbb{E}(X^{(1)}-(\mu^{(1)}+\Sigma_{12}\Sigma_{22}^{-1}(X^{(2)}-\mu^{(2)}))´)\\ cov(X^{(2)},X_{1.2})=\mathbb{E}(X^{(2)}X^{(1)}´-\mu^{(1)}X^{(2)}-X^{(2)}X^{(2)}´\Sigma_{22}^{-1}´\Sigma_{12}´+\mu^{(2)}X^{(2)}\Sigma_{22}^{-1}´\Sigma_{12}´)\\ -\mu^{(2)}(\mu^{(1)}-\mu^{(1)}-\Sigma_{22}^{-1}´\Sigma_{12}´(\mu^{(2)}-\mu^{(2)}))\\ cov(X^{(1)},X_{1.2})=\mathbb{E}(X^{(2)}X^{(1)}´)-\mu^{(1)}\mu^{(2)}-\mathbb{E}(X^{(2)}X^{(2)}´)\Sigma_{22}^{-1}´\Sigma_{12}´\\ +\mu^{(2)}\mathbb{E}(X^{(2)})\Sigma_{22}^{-1}´\Sigma_{12}´-\mu^{(2)}*0\\ cov(X^{(1)},X_{1.2})=\Sigma_{21}+\mu^{(1)}\mu^{(2)}-\mu^{(1)}\mu^{(2)}-\Sigma_{22}\Sigma_{22}^{-1}\Sigma_{21} \\ -\mu^{(2)^2}\Sigma_{22}^{-1}\Sigma_{21} +\mu^{(2)^2}\Sigma_{22}^{-1}\Sigma_{21}\\ \end{gather*}\] \[\begin{equation*} cov(X^{(1)},X_{1.2})=\Sigma_{21}-\Sigma_{21} \end{equation*}\] \[\begin{equation} \star cov(X^{(1)},X_{1.2})=0 \star \end{equation}\]