Processing math: 100%

Modelación Actuarial

JPAG

23/3/2021

Modelación tradicional

  • Actuaría (Def. clásica): Determinación del impacto financiero actual de eventos contingentes futuros. Suele emplearse por compañías aseguradoras cuyo trabajo es distribuir el costo del riesgo de estos eventos contingentes futuros.

  • Tabular los resultados de eventos “similares” y calcular el resultado promedio.

    • Calcular el costo de proporcionar un beneficio por muerte a cada miembro de un grupo de mujeres de 45 años.

    • Estimar el costo de los daños que surgen de un accidente automovilístico para una conductora de 45 años que vive en Chicago.

Aseguradoras

  • Funciona bien siempre que haya “grupos” lo suficientemente grandes como para hacer estimaciones confiables de los resultados promedio.

  • Empresas que licitan por contratos que brindan beneficios futuros a cambio de dinero (es decir, primas) ahora.

  • La viabilidad de una compañía de seguros depende de su capacidad para estimar con precisión el costo de los beneficios futuros que promete brindar.

    • Usar datos de un grupo selecto de mujeres entre 40 y 50 años para estimar el costo de los beneficios por muerte a edad 45 o usar la información de ese grupo de edad para estimar el costo de los beneficios por muerte del grupo.

  • Usar la experiencia combinada de todas las mujeres adultas que viven en Chicago y Evanston (un suburbio al norte de Chicago) para estimar el costo de los daños para cada mujer que vive en cualquiera de las ciudades.

  • Inconvenientes

    • Se espera que la vida futura de un mujere de 25 años sea más larga que la de una mujer de 45 años.

    • El estilo de conducir y la necesidad de conducir son bastante diferentes en dos ciudades (Chicago y Evanston) y no sería prudente hacer una estimación asumiendo que el daño esperado es el mismo en cada ciudad.

Origen de la modelación predictiva

  • 1869, Paul v. Virginia: La Corte Suprema de E.U. dictaminó que “emitir una póliza de seguro no es una transacción comercial”, lo que otorga inmunidad antimonopolio ya que las tarifas en seguros estaban controladas por cárteles sujetas a la regulación de los estados individuales.

  • Se requiriron reportes de información detallada sobre pólizas y reclamaciones de acuerdo con los estándares establecidos por un plan estadístico aprobado.

  • 1944, U.S. v. Southeastern Underwriters Association: Se dictaminó que la ley federal antimonopolio se aplicaba bajo la autoridad de la Cláusula de Comercio en la Constitución de los Estados Unidos.

  • 1945: Se aprobó la Ley McCarran-Ferguson que otorga a las aseguradoras la exención de las leyes federales antimonopolio siempre que estén reguladas por los estados.

  • Sin embargo, las leyes antimonopolio federales se aplicaron en casos de boicot, coerción e intimidación.

  • Las compilaciones de la industria de estos datos estaban disponibles y las compañías de seguros pudieron usar los mismos sistemas para organizar sus propios datos.

  • No había ningún incentivo económico bajo los cárteles para un plan de clasificación de riesgo refinado, por lo que había muy pocas clasificaciones de riesgo.

  • Durante las siguientes décadas, las compañías de seguros compitieron utilizando datos para identificar las clases de seguros más rentables. Con el paso del tiempo, el “modelo predictivo” llevó a planes de clase más refinados.

  • 19601970: Las computadoras ingresaron al lugar de trabajo de las compañías de seguros. En la práctica actuarial se generaban informes a partir de los cuales se copiaban números en una hoja de trabajo, y usando primero calculadoras mecánicas y luego electrónicas, se calcularían las tasas de seguro.

  • 19701980: La práctica actuarial obtuvo acceso a computadoras centrales y el uso de paquetes de software estadístico como SAS.

  • 19801990: Se hace actuaría en computadoras personales con software de hoja de cálculo.

  • A medida que se introdujeron las computadoras en el entorno de trabajo actuarial, también se dispuso de una variedad de fuentes de datos. Estos datos incluyeron información crediticia, econométrica, series de tiempo, sistemas de información geográfica y datos censales.

  • La combinación de estos datos con los datos detallados del plan estadístico permitió a muchas aseguradoras continuar refinando sus clases de riesgo. El proceso de refinación continúa hasta el día de hoy.

Modelación predictiva en seguros

  • Gestión de productos. Cálculo de tarifas, obligaciones futuras e incertidumbre de las estimaciones.

  • Suscripción inicial. Buscar determinar el precio correcto para el riesgo correcto y evitar la selección adversa.

  • Renovación. El objetivo es retener clientes rentables.

  • Gestión de reclamaciones. Costos de reclamaciones, incluidos los gastos administrativos y la detección y prevención de fraudes. Comprender el exceso capas para reaseguro y retención.

Modelación predictiva y analítica del negocio

  • Ventas y marketing: Predecir el comportamiento y las necesidades, anticipar las reacciones a las promociones y reducir los costos de adquisición.

  • Análisis de compensación: Incentivar y recompensar el comportamiento apropiado del personal / agentes.

  • Análisis de productividad: Comprender la producción del personal y otras unidades de negocio, así como para buscar optimizar esa producción.

  • Pronóstico financiero: Predecir los resultados financieros de las empresas.

Origen de la modelación predictiva actuarial

  • Bailey aborda la elaboración de tarifas de clasificación, v.gr. para el seguro de automóviles.

  • Estimar los índices de pérdidas relativas, rij, para la clase de uso i y la clase de calificación de mérito j. Los dos modelos más comunes fueron el modelo aditivo rij=αi+betaj y el modelo multiplicativo rij=αiβj. Métodos numéricos iterativos para estimar los coeficientes {αi} y {βj}. La solución para el modelo aditivo es:

(1) Calcular las estimaciones iniciales

βj=inijrij, para cada j y nij representa la exposición medida en años de automóvil.

(2) Para cada i se tiene que

inij(rijαiβj)=0. Resolviendo la ecuación anterior se da una estimación para cada αi,

αi=inij(rijβj)inij.

(3) Similarmente se dan estimaciones actualizadas de βj

βi=inij(rijαj)inij. (4) Se repiten (2) y (3) utilizando las estimaciones actualizadas de {αi} y {βj} hasta tener convergencia.

  • 19601970: Los modelos fueron fáciles de programar en FORTRAN y BASIC y fueron rápidamente adoptados por muchas aseguradoras.

  • 1968: SPSS lanzó su primer paquete estadístico.

  • 1972: Minitab se lanzó por primera vez.

  • 1976: SAS lanzó la primera versión de su paquete estadístico.

  • Las primeras versiones de estos paquetes incluían funciones que podían ajustarse a modelos multivariados mediante el método de mínimos cuadrados:

(1) Por mínimos cuadrados:

B=i,jnij(rijαiβj)2.

Bαi=2jnij(rijαiβj)2=0 para toda i, y

Bβj=2jnij(rijαiβj)2=0 para toda j

GLM’s

  • El método de mínimos cuadrados es la máxima verosimilitud para un modelo con errores normalmente distribuidos.

  • Los GLM’s se ajustan a modelos multivariados por máxima verosimilitud para una clase general de distribuciones.

  • 1972: El artículo inicial de Nelder y Wedderburn se tituló “Modelos lineales generalizados”.

  • 1974: Los algoritmos de este artículo se implementaron rápidamente en con un paquete estadístico llamado GLIM (“Generalized Linear Interactive Modeling.”).

  • 1989: El libro de McCullagh y Nelder, Modelos lineales generalizados se convirtió en la fuente autorizada.

  • 19901999: Para cualquier modelo GLM dado hay un conjunto correspondiente de pesos {wij}, para el cual

iwij(rijμij)=0 para toda i y

jwij(rijμij)=0 para toda j.

  • 19802000: Modelos estadísticos para reservas. (Ahora se dispone del paquete libre ChainLadder).

  • Las ventajas prácticas de utilizar software como SAS y R incluyen:

    • Incluir variables continuas.
    • Incluir interacciones entre las variables.
    • Incluir herramientas de diagnóstico.