25/3/2021

Distribuciones en actuaría

Para representar montos o la duración de la vida, se espera que \(X\) tenga una distribución en \(\mathbb{R}^+\), mientras que cuando \(X\) representa el número de reclamaciones, nos ocupamos de distribuciones sobre \(\mathbb{N}\). Las distribuciones de probabilidad discretas se caracterizan generalmente por la función de probabilidad de masa \(p _X\): \(p _X (x) = \mathbb{P }(X = x)\) para \(x ∈ \mathbb{N}\). En el caso continuo, definimos la distribución de probabilidad por su densidad \(f _X (x)\), siendo la versión infinitesimal de \(p _X\) tal que \(f _X (x) dx = \mathbb{P } (X ∈ [x, x + dx ])\). Cuando la variable aleatoria tiene partes tanto continuas como discretas, definimos la distribución \(F _X (x) = P (X ≤ x) = \sum_{n = 0}^{\left \lfloor{x}\right \rfloor } p X (n)\), para una distribución en \(\mathbb{N}\). Mientras que para una distribución continua, \(F _X (x) = \int_{−∞}^x f _X (y) dy\).

Distribuciones continuas

El sistema de Pearson y la familia exponencial son formas de clasificar y distinguir distribuciones. El sistema de Pearson considera las distribuciones continuas tales que la función de densidad \(f_ X\) verifica la siguiente ecuación diferencial:

\[ \frac{1}{f_X(x)} \frac{df_X(x)}{dx} = - \frac{a+x}{c_0+c_1x-c_2x^2}, \]

donde \(a\), \(c _0\), \(c _1\), \(c _2\) son constantes. Sea \(p (x) = c _0 + c _1\) \(x+ c_ 2 x^ 2\). La solución se define hasta una constante \(K\) que se deriva de la restricción \(\int_{\mathbb{R}} f _X (x) dx = 1\). El tipo \(0\) se obtiene con \(c _1 = c _2 = 0\) y resultando una normal con \(f _X (x) = Ke^{ - (2a + x) x / (2c_ 0)}\).

El tipo \(1\) es el caso donde la función polinomial \(c_ 0 + c _1 x +\) \(c_ 2 x^ 2\) tiene dos raíces reales distintas \(a_ 1\) y \(a_ 2\) tales que \(a _1 <0 <a_ 2\) con \(f_ X (x) = K ( x - a_ 1)^{m_1} (a_ 2 - x)^{m_2}\). Se reconoce la distribución beta.

El tipo \(2\) corresponde al caso donde \(m_ 1 = m_ 2 = m\).

El tipo \(3\) se obtiene cuando \(c_ 2 = 0\) lllevando a una función polinomial de primer orden \(c_ 0 + c_ 1 x\). En este caso, obtenemos la distribución gamma con \(f_ X (x) = K (c _0 + c _1 x)^ m e^{ x + c_ 1}\).

El tipo \(4\) corresponde al caso donde la función polinomial \(p (x) = c_ 0 + c _1 x + c _2 x^ 2\) no tiene raíces reales, en cuyo caso \(p (x) = C_ 0 + c_ 2 (x + C_ 1) ^2\) y se obtiene una relación con la distribución gaussiana inversa generalizada de Barndoff-Nielsen con \(f_ X (x) = K (C_ 0 + c _2 (x + C _1)^ 2) e^{k \tan^{-1} ((x + c 1) / \sqrt{c 0 / c 2})}\).

Obtenemos el tipo \(5\) cuando \(p (x) = (x + C_ 1)^ 2\). La densidad asociada es \(f_ X (x) = K (x + C _1)^{ −1 / c_ 2} e^{ k / (x + C_ 1)}\). Se obtienen dos casos especiales cuando \(k = 0\), \(c _2> 0\) para el tipo \(8\) y \(c_ 2 <0\) para el tipo \(9\).

El tipo \(6\) se obtiene cuando \(p\) tiene dos raíces reales \(a_ 1\), \(a _2\) del mismo signo para lo cual obtenemos \(f_ X (x) = K (x - a_ 1)^{m _1} (x - a _2)^{ m _2}\), una distribución Beta generalizada.

Finalmente, el tipo \(7\) se obtiene cuando \(a = c_ 1 = 0\), lo que lleva a \(f _X (x) = K (c _0 + c_2 x^ 2)^{ −1 / (2c _2)}\). Estas distribuciones se implementan en el paquete \(\texttt{PearsonDS}\).

https://juan-pablo-acua-gonzlez.shinyapps.io/Pearson/

La familia exponencial se puede escribir con la función de densidad como

\[f_X(x)= \exp\Bigg(\sum_{j=1}^d a_j(x)\alpha_j(\theta)+b(x)+\beta(\theta)\Bigg),\] donde \(\theta \in \mathbb{R}^d\) es el vector de parámetros \(d-\)dimensional y \(a_j, \alpha_, b\) y \(\beta\) son funciones. Recuperamos la distribución exponencial \(f _X (x) = λe^{ −λx}\) con \(d = 1, a (x) = x,\) \(α (x) = \sqrt{λ}, b (x) = 0\) y \(β (λ) = \log (λ)\), o la distribución normal, \(f _X (x) = e ^{- (x − μ) / (2σ)^2} / \sqrt{2πσ}\) con \(d = 2, a_ 1 (x) = x ^2, α_ 1 (μ, σ^2) = −1 / (2σ^2 ), a_ 2 (x) = x,\) \(α _2 (μ, σ ^2) = μ / σ ^2\) y \(β (μ, σ ^2) = −μ / (2σ ^2) - \log \sqrt{2πσ ^2}\).

La gaussiana inversa y la gamma son ejemplos particulares.

En \(\texttt{R}\), las distribuciones se implementa con: \(\texttt{dfoo}\) para la densidad, \(\texttt{pfoo}\) para la función de distribución, \(\texttt{qfoo}\) para cuantiles y \(\texttt{rfoo}\) para generar números aleatorios. Por ejemplo, la gamma cuenta con \(\texttt{dgamma}\), \(\texttt{pgamma}\), \(\texttt{qgamma}\) y \(\texttt{rgamma}\);

dgamma(1:2, shape=2, rate=3/2)
## [1] 0.5020429 0.2240418
pgamma(1:2, shape=2, rate=3/2)
## [1] 0.4421746 0.8008517
qgamma(1/2, shape=2, rate=3/2)
## [1] 1.118898

set.seed(1)
rgamma(5, shape=2, rate=3/2)
## [1] 0.553910 2.380504 2.308780 1.367208 2.590273

La lista completa de distribuciones en \(\texttt{R}\) se enumera en la vista: http://cran.r-project.org/web/views/Distributions.html. Dos paquetes se centran en distribuciones de pérdida: \(\texttt{actuar}\) que proporciona los momentos \(m_k= \mathbb{E} (e ^{tX})\), los valores esperados limitados \(\mathbb{E}((X\wedge x)^k)= \mathbb{E} (\min (X, l) ^k)\) y las funciones generadoras de momento \(M_X(t) = \mathbb{E} (X ^k)\) para muchas distribuciones en tres funciones (\(\texttt{mfoo}\), \(\texttt{levfoo}\) y \(\texttt{mgffoo}\)), y \(\texttt{Distributacalcul}\) que proporciona una selección más amplia de distribuciones y medidas de riesgo VaR y TVaR.

Las siguientes transformaciones se emplean para crear nuevas distribuciones:

  • Traslación \(X + c\)
  • Escala \(λX\)
  • Potencia \(X ^α\)
  • Inversa \(1 / X\)
  • Logaritmo \(\log (X)\)
  • Exponencial \(\exp (X)\)
  • La razón de momios \(X / (1 - X)\)

Podemos visualizar todas esas transformaciones (excepto la última) empleando la fórmula:

\[f_Y(y)=|\frac{d}{dy}(g^{-1}(y))|\cdot f_X(g^{-1}(y)),\]

donde \(Y=g(y)\), con \(g\) una transformación monótona. También podemos ejecutar simulaciones y visualizar densidades basadas en kerneles:

https://juan-pablo-acua-gonzlez.shinyapps.io/Pearson/

Al graficar las densidades empíricas, estimadas por la función \(\texttt{density()}\), se observa que la transformación exponencial tiene una distribución de cola pesada y solo se muestra la cola derecha en el gráfico.

Con estas transformaciones en mente, se puede enumerar el conjunto de distribuciones que se utilizan generalmente en actuaría.

La distribución uniforme con soporte finito, tiene densidad \(f _X (x) = 1_{[0,1]} (x)\). Se usa para la generación aleatoria no uniforme ya que la variable aleatoria \(F _X (U)^{ −1}\) con \(U\) una variable uniforme tiene la distribución de \(F _X\).

La distribución beta se define como

\[f_X(x)=\frac{x^{a-1}(1-x)^{b-1}}{\beta(a,b)}1_{[0,1]} (x) \,\ \text{y} \,\ F_X(x)=\frac{\beta(a,b,x)}{\beta(a,b)},\] donde \(β(.,.)\) es la función beta y \(β (.,.,.)\) es la función beta incompleta. Cuando \(a = b = 1\), volvemos a la distribución uniforme, es decir, \(f _X\) es constante. Cuando \(a, b <1\), la densidad \(f_ X\) tiene forma de \(U\), mientras que para \(a, b> 1\), la densidad es unimodal. Se obtiene una densidad monótona cuando \(a\) y \(b\) tienen signos opuestos.

Ambas distribuciones se implementan en \(\texttt{R}\):

?dunif
?dbeta

Mediante una escala apropiada y desplazando, es decir, \(c + (d - c) X\), se puede obtener una distribución en cualquier intervalo \([c, d]\). Finalmente, otra distribución importante, es la distribución triangular dada por

\[f_X(x)=\frac{2(x-a)}{(b-a)(c-a)} 1_{[a,b]} (x) + \frac{2(x-a)}{(b-a)(c-a)} 1_{[b,c]} (x) \] que como su nombre indica tiene una densidad de forma triangular. Cuando \(b = (a + c) / 2\), la distribución es la suma de dos variables uniformes en el intervalo \([a, b]\). La distribución triangular está disponible en la librería \(\texttt{triangle}\).

Las dos familias principales de distribuciones continuas positivas (no acotadas) son la familia gamma transformada y la familia beta transformada. Sea \(X\) con distribución gamma \(Gam.- α, 1\). La familia gamma transformada es la distribución de \(Y = X^{ 1 / τ} / λ\) para \(τ> 0\), que tiene las siguientes funciones de densidad y distribución

\[f_Y(y)=\frac{\lambda^{\tau \alpha}}{\Gamma(\alpha)}\tau y^{\alpha \tau -1}e^{-(\lambda y)^{\tau}} \,\ \text{y} \,\ F_Y(y)=\Gamma(\alpha,(\lambda y)^{\tau})/\Gamma(\alpha),\]

donde \(Γ (.,.)\) denota la función gamma incompleta.

La familia beta transformada se basa en la distribución beta del segundo tipo (o Tipo II), es decir, la distribución de \(X / (1 − X)\) cuando \(X\) sigue una distribución beta del tipo I. La distribución beta del Tipo II tiene una densidad \(f _X (x) =\frac{x^{\alpha -1}}{β (a, b)(1 + x)^{a + b}}\).

Renombrando \(a = α\) y \(b = τ\), la beta transformada es la distribución de \(Y = θX ^{1/γ}\) y tiene las siguientes funciones de densidad y distribución:

\[f_Y(y)=\frac{1}{\beta(\alpha, \tau)}\frac{\gamma(y/\theta)^{\tau}}{y(1+(y/\theta)^{\gamma})^{\alpha+\tau}} \,\ \text{y} \,\ F_Y(y)=\frac{\beta(\alpha, \tau, \frac{x}{1+x})}{\beta(\alpha, \tau)}.\] Ambas familias se encunetran disponibles en \(\texttt{actuar}\).

Distribuciones discretas

La familia de distribuciones Sundt \((a, b, 0)\) es el conjunto de distribuciones que verifican

\[\frac{\mathbb{P}(X=k+1)}{\mathbb{P}(X=k)}=a+\frac{b}{k},\] para \(k ∈ \mathbb{N}\) y \(a, b ≥ 0\) parámetros positivos. Esta ecuación de recurrencia puede verse como una ecuación discreta simplificada del sistema de Pearson. Se obiene la distribución binomial con \(a = −p / (1 - p)\) y \(b = p (n + 1) / (1 - p)\), la distribución Poisson con \(a = 0\) y \(b = λ\), y la distribución binomial negativa con \(a = 1 - p\) y \(b = (1 - p) (m - 1)\). Se obtiene una generalización de la familia \((a, b, 0)\) truncando los valores menores que \(n\).

Así, la familia \((a, b, n)\) verifica

\[p_X(k)=p_X(k-1)\Big(a+\frac{b}{k}\Big)1_{(k\geq n)}.\] Además, la familia exponencial discreta verifica que

\[p_X(k)=\exp \Bigg( \sum_{j=1} ^d a_j(k) \alpha_j(\theta)+b(k)+\beta(\theta)\Bigg).\] Por ejemplo, la distribución bernoulli con \(d = 1, a (x) = x\), \(α (p) = \log (p / (1 - p))\), \(b (x) = 0\) y \(β (p) = \log (1 - p)\), y la distribución poisson con \(d = 1\), \(a (x) = x\), \(α (λ) = λ\), \(b (x) = - \log (x!)\) y \(β (λ) = −λ\).

Las distribuciones discretas también se implementan con \(\texttt{actuar}\) con llamadas estándar. Para la poisson:

dpois(0:2, lambda=3)
## [1] 0.04978707 0.14936121 0.22404181
ppois(1:2, lambda=3); qpois(1/2, lambda=3)
## [1] 0.1991483 0.4231901
## [1] 3
rpois(5, lambda=3)
## [1] 4 3 4 8 2

Las transformaciones típicas para una variable aleatoria son: (i) Traslación \(X + m\) para un entero \(m\), (ii) Multiplicación por un escalar \(mX\), (iii) Inflación en cero \((1 - B) X\) donde \(B\) distribuye bernoulli y (iv) Modificación en cero \((1 - B) (X + 1)\) donde \(B\) distribuye bernoulli. Las funciones de probabilidad resultante para cada transformación \(Y\) son:

  • \(\mathbb{P}(Y = k) = \mathbb{P}(X = k − m)\) para \(k ≥ m\),
  • \(\mathbb{P}(Y = k) = \mathbb{P}(X = k/m)\) para \(k = 0, m, 2m, 3m, . . . ,\)
  • \(\mathbb{P}(Y = 0) = q + (1 − q)\mathbb{P}(X = 0)\) y \(\mathbb{P}(Y = k) = (1 − q)\mathbb{P}(Y = k)\) para \(k ≥ 1\).

La modificación en cero y la inflación en cero son útiles para agregar un parámetro a las distribuciones discretas estándar. La modificación en cero es el truncamiento en cero cuando la variable \(B\) es casi seguramente igual a \(0\).

Estas transformaciones también se incluyen en \(\texttt{actuar}\) con las cuatro funciones dedicadas: \(\texttt{dzmfoo}\), \(\texttt{pzmfoo}\), \(\texttt{qzmfoo}\) y \(\texttt{rzmfoo}\) para la modificación en cero, y análogamente \(\texttt{dztfoo}\), \(\texttt{pztfoo}\), \(\texttt{qztfoo}\) y \(\texttt{rztfoo}\) para el truncamiento.

https://juan-pablo-acua-gonzlez.shinyapps.io/Pearson/

Las principales distribuciones discretas son la binomial, la poisson y la bionomial negativa. El análogo discreto de la distribución Pareto es la distribución Zipf cuya función de probabilidad está dada por:

\[\mathbb{P}(X=k)=\frac{k^{\eta}}{\zeta(\eta)}.\] donde \(ζ (.)\) es la función zeta de Riemann.

Momentos

Para un valor dado de \(d\) con \(\mathbb{P}(X> d)> 0\), la variable de exceso de pérdida es \(Y^ P = X - d\), dado que \(X> d\). Su valor esperado,

\[e_X(d)=e(d)=\mathbb{E}(Y^P)=\mathbb{E}(X-d|X>d),\] se denomina función de exceso de pérdida, función de vida residual o expectativa de vida completa. Esta variable también podría denominarse variable desplazada y truncada a la izquierda. Está truncada porque no se observan los valores de \(X\) por debajo de \(d\). Se desplaza porque \(d\) se resta de los valores después de truncar. Cuando \(X\) es una variable de pago, la pérdida media en exceso es la cantidad esperada pagada, dado que ha habido un pago en exceso de un deducible de \(d\).

El \(k\)-ésimo momento de la variable de exceso de pérdida se determina a partir de

\[e^k(d)=\frac{\int_d^{\infty}(x-d)^kf(x)dx}{1-F(d)} \,\ \text{si la variable es continúa}\] \[=\frac{\sum_{x_j > d}(x-d)^kp(x)dx}{1-F(d)} \,\ \text{si la variable es discreta}.\] La variable desplazada y censurada a la izquierda es

\[Y^L=(X-d)_+= \begin{cases} 0, & X \leq d\\ X-d, & X > d \end{cases}\] Está censurada porque los valores por debajo de \(d\) no se ignoran, sino que se establecen en cero.

La distinción entre la variable de exceso de pérdida y la variable desplazada y censurada a la izquierda es una de por pago versus por pérdida. En la situación de pago por pago, la variable existe solo cuando se realiza un pago. La variable por pérdida toma el valor cero cuando una pérdida no produce pago. Los momentos se pueden calcular a partir de

\[\mathbb{E}[(X-d)^k_+]=\int_d^{\infty}(x-d)^kf(x)dx \,\ \text{si es continúa}\] \[=\sum_{x_j > d}(x-d)^kp(x)dx \,\ \text{si es discreta}.\] La variable de pérdida limitada es

\[Y=X\wedge u= \begin{cases} X, & X < u \\ u, & X \geq u \end{cases}\]

Esta variable también podría llamarse variable censurada de la derecha. Está censurada a la derecha porque los valores por encima de \(u\) se establecen igual a \(u\). Su valor esperado, \(\mathbb{E} (X ∧ u)\), se denomina valor esperado limitado y su fórmula es

\[\mathbb{E}[(X\wedge u)^k]=\int_{-\infty}^u x^kf(x)dx +u^k[1-F(u)] \,\ \text{si es continúa}\] \[=\sum_{x_j \leq u} x_j^kp(x_j)dx +u^k[1-F(u)] \,\ \text{si es discreta}.\] Una consecuencia importante de estas fórmulas es

\[\mathbb{E}(X) = e(d)S(d) + \mathbb{E}(X ∧ d).\]