En 1959 Abe Sklar introdujo la noción de cópulas a la teoría de la probabilidad.
Lo que vio Sklar fue que la relación de una función de distribución multidimensional con sus marginales unidimensionales viene dada mediante una función con ciertas características determinadas y a la que el matemático estadounidense Sklar llamó “cópula”, que une las marginales unidimensionales para producir la función de distribución conjunta.
Una cópula describe la estructura de dependencia de una variable aleatoria multivariante. Mediante las cópulas es posible transformar las variables aleatorias, a través de su distribución acumulada, en variables uniformemente distribuidas. La estructura de dependencia vendrá determinada por las relaciones establecidas entre las distribuciones uniformes.
El principal inconveniente cuando se quiere modelar datos bivariados dependientes utilizando modelos cópula, es que no hay ningún indicio de cuál es la forma paramétrica de la cópula. Por tanto, para proceder con un análisis paramétrico tradicional se debe sumir una forma funcional para la cópula.
Definición 1.
Una cópula \(C\) es una función de distribución multivariante cuyas distribuciones marginales se distribuyen uniformemente entre \([0, 1]\). En el caso bivariante, \(C(u,v) = P[U \leq u, V \leq v]\) es una función definida en \([0,1]^2 \Rightarrow [0,1]\) que verifica las siguientes tres propiedades:
\(C(u,v)\) es una función creciente para cada una de sus componentes
\(C(u,1) = u\) y \(C(1,v) = v\)
Para toda \(a \Leftarrow b\) y para toda \(c \Leftarrow d\)
\(C(a,c) + C(b,d) – C(a,d) – C(b,c) \geq 0\)
La relación entre cópulas y funciones de distribución de variables aleatorias está esencialmente establecida en el Teorema de Sklar que asegura no solamente que las cópulas son funciones de distribución conjuntas, sino que el recíproco también es cierto: las funciones de distribución conjuntas se pueden reescribir en términos de las marginales y una única subcópula, que a su vez puede extenderse a una cópula.
Teorema 1.
Sea \(H\) una función de distribución \(n\)-dimensional con marginales \(F_1, \ldots ,F_n\). Entonces, existe una cópula \(n\)-dimensional \(C\) tal que para toda \(X\) en \(R^n\),
\(H(x_1, \ldots ,x_n) = C(F_1(x_1), \ldots ,F_n(x_n))\)
Si \(F_1, \ldots ,F_n\) son todas continuas, entonces \(C\) es única, por tanto, está unívocamente determinado en \(ran(F_1)\) x \(\ldots\) x \(ran(F_n)\)
Las cópulas separan el comportamiento marginal (representado por las \(F_i\)) del conjunto, en contra de lo que ocurre en la representación usual de probabilidades conjuntas vía función de distribución. Por esta razón, las cópulas son denominadas funciones de dependencia.
Definición 2. (Función de distribución inversa)
Si \(F\) es una función de distribución, entonces su función inversa generalizada, es toda función \(F^{-1}\) definida en \([0,1]\) tal que:
Si \(t\) está en \(Im(F)\) y \(x\) está en \((-\infty,\infty)\), entonces \(F^{-1}(t) = x\) y \(F(x) = t\). Por tanto, para toda \(t\) en \(Im(F)\), \(F(F^{-1}(t)) = t\).
Si \(t\) no está en \(Im(F)\) entonces \(F^{-1}(t) = inf\) { \(\frac{x}{F(x)} \geq t\) } \(= sup\) { \(\frac{x}{F(x)} \leq t\) }.
Si \(F\) es estrictamente creciente tiene una única función inversa generalizada \(F^{-1}\).
Corolario 1. (Corolario del Teorema de Sklar)
Se define \(F,C,F_X,D_Y\) como en los enunciados anteriores, \(F_X^{-1}, F_Y^{-1}\) y como las respectivas funciones inversas generalizadas \(F_X\) y \(F_Y\). Entonces para todo \((u,v)\) en \([0,1]^2\) se verifica \(C(u,V) = F(F_X^{-1}(x),F_Y^{-1}(y))\).
Definición 3. (Densidad de una cópula)
Sabemos que, si existe, la densidad \(f\) de una función de distribución, \(F\), se define como:
\(f(x,y)=\frac{∂}{∂x∂y} F(x,y)\)
La expresión de la densidad de una cópula, simbolizada por \(c\), es:
\(c(u,v)=\frac{∂}{∂x∂y} C(u,v)\)
A partir de \(c(u,v)\), la densidad \(f\) de la función de distribución \(F\) puede obtenerse como:
\(f(x,y)=c(F_X (x),F_Y (y))f_X (x)f_Y (y)\)
Definición 4. (Distribución condicionada de una cópula)
Sea \(C1(u,v)\) la derivada de \(C(u,v)\) respecto de \(u\).
\(\frac{∂}{∂x} C(u,v)=C_1 (u,v)\)
Si la distribución conjunta de \(X\) e \(Y\) es \(C(F_X(x),F_Y(y))\), entonces la distribución condicionada \(Y|X = x\) es:
\(F_{Y|X=x} (y)=C_1 (F_X (x),F_Y (y))\)
Definición 5. (Survival cópula o cópula de supervivencia)
Sea \(S(x) = P(X > x)\). La función de supervivencia conjunta \(S(x,y) = p(X > x, Y > y)\) es:
\(S(x,y)=1-F_X (x)-F_Y (y)+F(x,y)\)
Al momento de seleccionar la cópula que mejor se ajusta a algún modelo presenta una doble vertiente: una univariante asociada a la especificación de las funciones de distribución \(F_X\) y \(G_Y\) (en adelante \(F\) y \(G\)) correspondientes a las marginales de \(X\) e \(Y\), y otra bivariante (en general multivariante), asociada a la determinación de aquella conjunta \(H_{XY}\) (en adelante \(H\)), de las infinitas que comparten dichas marginales, que mejor captura la relación entre ellas. En ocasiones, por las características del problema que se está estudiando se puede tener una idea preconcebida de la familia de cópulas que puede ser más apropiada para explicar la relación entre las variables que se manejan. Generalmente cuando se habla de los diferentes tipos de cópulas que existen, solemos referirnos intrínsecamente a diferentes tipos de familias. Todas las cópulas que pertenecen a una misma familia presentan una misma estructura (ecuación) que puede depender de uno o varios parámetros, de forma que, para cada uno de los valores del espacio paramétrico de definición, se obtendrá un miembro de esa familia.
El procedimiento para la correcta selección de la cópula deseada es el siguiente:
Determinación de las distribuciones marginales asociadas a cada una de las variables en función de las muestras de datos disponibles.
Propuesta de un conjunto inicial de familias de cópulas candidatas que, por sus características, se perfilan como adecuadas para reflejar la relación existente entre las variables.
Selección de una cópula por familia. En el caso paramétrico se trata de determinar valores asociados a los parámetros correspondientes a cada familia para lo cual, se suelen utilizar expresiones que permitan el cálculo de dichos parámetros a partir de la estimación muestral de alguna medida de asociación como el coeficiente de correlación de Spearman o la Tau de Kendall.
Elección de la cópula de entre todas las que representan a cada una de las familias candidatas.
Si bien existen los clásicos contrastes de bondad de ajuste que permiten evaluar el grado de parentesco con alguna distribución conocida, una buena aproximación podría venir dada por la versión continua de la función de distribución empírica de cada variable que, se calcula de la siguiente manera:
Dada la muestra \(x_1,x_2,…,x_n\) la función de distribución empírica discreta viene dada por:
\(\hat{F_n} = \frac{1}{n}\sum_{i=1}^{n} 1 _{[X_1 \leq x]}\)
Consideremos entonces \(a\) y \(b\) dos números reales tales que \(a \leq x_1,x_2,\ldots,x_n \leq b\). Ordenamos las \(x_i\) de menor a mayor y denotamos por \(z\) a las variables \(x\) ordenadas \(z_1,z_2,\ldots,z_n\). Además, se definen los puntos auxiliares \(z_0=a\) y \(z_{n+1}=b\). A partir de esta nueva muestra de \(n+2\) elementos se define la función de distribución empírica continua mediante rectas que unen los puntos medios de los segmentos que conforman la función de distribución empírica discreta.
El analista experto en cópulas conoce las propiedades que caracterizan a las diferentes familias existentes y que las pueden hacer más o menos apropiadas para reflejar algún tipo de relación que, a priori, puede presuponer que exista entre las variables. Así, por ejemplo, las familias elípticas resultan más convenientes para reflejar relaciones simétricas mientras que las definidas como cópulas de valor extremo enfatizan asimetrías que ganan fuerza entre los sucesos “cola” de las distribuciones. Debe ser el conocimiento del analista sobre la relación subyacente a los datos y el que tiene sobre las características de las familias de cópulas a su alcance, los factores principales que le lleven a descartar de antemano alguna de estas familias y seleccionar algunas otras como candidatas de partida útiles, pues gracias a su gran diversidad permite recoger relaciones de muy distintos tipos.
Aun cuando existen diversos métodos que pueden ser válidos diremos que, por lo general, la selección de una u otra cópula estará sujeta a la finalidad que persiga el estudio que se está llevando a cabo. En nuestro caso, en el que la idea consiste en utilizar estas funciones para realizar predicciones, parece conveniente decidirse por aquélla que mejores resultados proporcione, resultados que se medirán en términos de error.
Criterio según la calidad de las predicciones que proporciona una cópula.
Supongamos que estamos interesados en predecir el comportamiento de una variable Y en función de los valores conocidos de una variable \(X\). Para ello, disponemos de un histórico dado por una muestra bidimensional que relaciona ambas variables \((x_1,y_1),\ldots,(x_n,y_n)\).
Supongamos que \(H_x|Y\) es la función de distribución de la variable condicionada (desconocida). Sabemos que ésta se encuentra relacionada con las marginales de \(X\) e \(Y\) a través de la derivada de una cópula respecto de la primera de las variables \((U)\), \(C_1\), mediante la expresión \(H_{Y|X} (y)=C_1 (F(x),G(y))\). La obtención de predicciones de Y a partir de X se realizará mediante la simulación de la función \(H_{Y|X}\).
Así, nuestro estudio predictivo se puede plantear en las siguientes etapas:
Reservamos parte del histórico para validar la calidad de las predicciones que vamos a realizar. Dicha parte recibirá el nombre de conjunto de validación y no participará en el ajuste de las distribuciones marginales ni en el de la selección de la función cópula que mejor representa a una de las familias candidatas, sino que será utilizado con posterioridad para la evaluación de estas. Por lo general, se reserva una cuarta o quinta parte de los datos disponibles para validar los resultados. El resto del histórico se utilizará para realizar los ajustes y recibe el nombre de conjunto de entrenamiento.
Una cópula es una distribución de probabilidad multivariada para la cual la distribución de probabilidad marginal de cada variable es uniforme. Las cópulas sirven para describir la dependencia entre variables aleatorias.
Definicion
Sea \(C: [0,1]^d \rightarrow [0,1]\), decimos que \(C\) es una cópula de dimension d si:
\((i)\) \(C\) esta bien definida:
\(C(u_1,u_2,\ldots,u_{i-1},0,u_{i+1},\ldots,u_d) = 0\), para toda \(i = 1,\ldots,d\).
\((ii)\) \(C\) es marginalmente uniforme:
\(C(1,\ldots,1,u,1,\ldots,1) = u\).
\((iii)\) \(C\) es d-creciente:
\(\sum_{z∈(x_1,y_1)×(x_2,y_2)×\ldots×(x_d ,y_d)}^{} (−1)^{N(z)}C(z) \geq 0\)
Existen muchos tipos de funciones cópula, lo cual, provoca un problema al momento de clasificarlas dado que existen diversos criterios para hacerlo : en función de la dependencia o no de parámetros, de su soporte (continuo o discreto), del tipo de relación que reflejan (cóulas elípticas, de valor extremo, etc).
Es por ello que solo daremos algunos criterios y ejemlos de estas.
Todas las cópulas que responden a una misma ecuación paramétrica definen una familia de cópulas.
Son aquellas en cuya definición no participa ningún parámetro sino que, por su estructura empírica, se ajustande forma local a los datos.
La particularidad de las cópulas Arquimedianas está en que existe una función que las genera, lo que se denomina el generador de la cópula.
Definición
Sea \(\phi\) el conjunto de funciones \(\varphi\) : \(\left[0,1\right]\) \(\rightarrow\) \(\left[0,\infty\right]\) que son continuas, estrictamente decrecientes, convexas y para los cuales \(\varphi\) (0) = \(\infty\) y \(\varphi\)(1)=0 . Schweizer y Sklar demuestran que cada miembro de \(\phi\), genera una copula \(C\) a través de la expresión:
\(C(u,v)=\varphi^{-1}(\varphi(u)+\varphi(v))\) con \(0\) \(\leqslant\) \(u,v\) \(\leqslant\) \(1\). La función \(\varphi\) recibe el nombre de generador de la cópula.
La representación arquimediana de cópulas permite reducir el estudio de una cópula multivariante a una única función univariante.
Es la función de dependencia asociada a la distribución normal multidimensional. Sea \(\rho\) una matriz diagonal definida positiva con \(diag(p) = 1\) y \(\Theta_p\) la distribución normal bivariada standard y de matriz de correlación \(\rho\). La cópula normal se define como:
\(C(u_{1},u_{2}; \rho) = \phi_{\rho}(\phi^{-1}(u_{1}), \phi^{-1}(u_{2}))\)
La densidad de la cópula normal se escribe:
\(C(u_{1},u_{2}; \rho)\) = \(\frac{1}{\sqrt{ 1- \rho^{2}}}\) \(exp (\frac{x_{1}^{2}+x_{2}^{2}-\rho x_{1} x_{2}}{2(1-\rho^{2})} + \frac{x_{1}^{2}+x_{2}^{2}}{2})\)
con \(x_{1} = \phi^{-1}(u_{1})\) Se muestra esta relación utilizando la expresión de la densidad de la distribución normal \(\phi\) bivariada:
\(\varphi_{\rho}(x_{1},x_{2}) = \frac{1}{2\pi\sqrt{ 1- \rho^{2}}}\) \(exp (\frac{x_{1}^{2}+x_{2}^{2}-\rho x_{1} x_{2}}{2(1-\rho^{2})})\)
Luego usamos la siguiente propiedad relativa a la densidad de una cópula:
\(f(x_{1},x_{2}) = C(F_{1}(x_{1}),(F_{2}(x_{2}))). f_{1}(x_{1}).f_{2}(x_{2})\)
Para determinar la expresión de densidad de la cópula normal.
Una cópula \(C\) es una cópula de valor extremo si y sólo si existe una función real valorada \(A\), definida sobre el intervalo \(\left[0,1\right]\), que verifica la siguiente relación:
\(C(u,v)\) = \(exp(-log(u.v).A\frac{log(v)}{log(u.v)})\)
De manera equivalente
\(C(u,v) = exp(-log(u+v).A\frac{v}{log(u+v)})\)
La función \(A\) recibe el nombre de función de dependencia de Pickands y verifica las siguientes propiedades:
Es convexa en \(\left[0,1\right]\)
\(max (t,1-t) \leqslant A(t) \leqslant 1\) $t $
Las cópulas de valor extremo son los posibles límites (en caso de que existan) de cópulas asociadas a los máximos de muestras independientes e idénticamente distribuidas. Estas serán de gran utilidad para representar relaciones que ponen mayor énfasis entre los sucesos “cola”, (extremos) de las distribuciones marginales.
A partir de la estructura de dependencia de un proceso de Levy multidimensional este puede ser reducido a la medida de Levy y a la matriz de covarianza del componente Gaussiano. Como la medida de Levy es una medida en \(\mathbb{R}^d\) , es posible extenderlo a una cópula. Sin embargo, se debe de mantener en mente que la medida de Levy es posiblemente infinita con una singularidad en el origen.
Definicion
Sea \(C: \mathbb{R}^d \rightarrow \mathbb{R}=(-\infty,\infty]\), se dice que \(C\) es una Lévy Copula si:
\((i)\) \(C\) está boien definido.
\((ii)\) \(C_i(u)=u\), para toda i \(\in\){ \(1,\ldots,d\) }, \(u \in \mathbb{R}\). Donde la marginal \(C_i(u)\) esta definida como:
\(C_i(u)=\lim\limits_{C \to \infty} \sum_{(u_j)_{j \in (1,\ldots,d)|(i)}\in(-C,\infty)^{d-1}}^{} C(u_1,\ldots,u_d) \prod_{j \in (1,\ldots,d)|(i)}^{} sgn\) \(u_j\)
\((iii)\) \(C\) es d-creciente.
\((iv)\) \(C(u_1,\ldots,u_d) \ne \infty\), para \((u_1,\ldots,u_d) \ne (\infty, \ldots, \infty)\).
Como puede observarse, los puntos \((i)\), \((ii)\) y \((iii)\) son muy similares a los de la cópula regular.
Cópula Normal con \(dimensión = 5\) y parámetros \(dispstr ="ex"\) y \(\rho = 0\).
## Normal copula, dim. d = 5
## Dimension: 5
## Parameters:
## rho.1 = 0
## dispstr: ex
x = rCopula(n = 1000, copula = norm.cop)
plot(x,main = "Ejemplo de cópula Normal")
plot(x,main = "Ejemplo de cópula Normal")