En la probabilidad y estadística actuarial, ciertas herramientas teóricas como la Desigualdad de Markov, la Desigualdad de Chebyshev, la Ley débil y fuerte de los grandes números, y el Teorema del límite central son fundamentales para comprender y modelar fenómenos aleatorios. Estas herramientas permiten establecer cotas y asegurar que, con suficientes observaciones, las estadísticas muestrales reflejarán con precisión los parámetros poblacionales. El uso de R para explorar estos conceptos facilita su aplicación práctica en la modelización de riesgos y la toma de decisiones en situaciones de incertidumbre.
En el ámbito de la teoría de la probabilidad, la Desigualdad de Márkov establece una cota superior para la probabilidad de que una función no negativa de una variable aleatoria sea mayor o igual que una constante positiva. Esta desigualdad recibe su nombre del matemático ruso Andréi Márkov, quien fue pionero en el estudio de procesos estocásticos.
La desigualdad de Márkov es una herramienta esencial que relaciona la probabilidad con la esperanza matemática, proporcionando cotas útiles—aunque a menudo no muy ajustadas—para la función de distribución de una variable aleatoria. A pesar de su simplicidad, esta desigualdad es fundamental en diversos campos de la estadística y probabilidad, especialmente cuando se trabaja con variables aleatorias con distribuciones desconocidas.
Sea \(X\) una variable aleatoria no negativa tal que \(\mathbb{E}[X]\) exista y sea finita, y sea \(a > 0\) una constante positiva. Entonces, la desigualdad de Márkov se enuncia de la siguiente manera:
\[ \mathbb{P}(X \geq a) \leq \frac{\mathbb{E}[X]}{a}, \]
donde \(\mathbb{E}[\cdot]\) denota la esperanza matemática de la variable aleatoria \(X\). Esta fórmula proporciona una cota superior para la probabilidad de que \(X\) tome valores mayores o iguales a \(a\).
Consideremos cualquier suceso \(A\) y definamos \(I_A\) como la variable aleatoria indicatriz de \(A\), es decir, \(I_A = 1\) si el suceso \(A\) ocurre, y \(I_A = 0\) en caso contrario. Entonces, tenemos:
\[ a I_{\{|X| \geq a\}} \leq |X|. \]
A partir de esto, se sigue que:
\[ \mathbb{E}\left( a I_{\{|X| \geq a\}} \right) \leq \mathbb{E}(|X|). \]
Nótese que el lado izquierdo de esta desigualdad es igual a:
\[ a \mathbb{E}\left( I_{\{|X| \geq a\}} \right) = a \mathbb{P}(|X| \geq a). \]
Por lo tanto, podemos concluir que:
\[ a \mathbb{P}(|X| \geq a) \leq \mathbb{E}(|X|). \]
Finalmente, dado que \(a > 0\), podemos dividir ambos lados de la desigualdad entre \(a\) para obtener la desigualdad de Márkov.
Existe una demostración más formal, basada en la teoría de la medida, que se presenta a continuación:
\[ \mathbb{P}(|X| \geq a) = \int_{a}^{\infty} f(x) \, dx \leq \int_{a}^{\infty} \frac{|x|}{a} f(x) \, dx \leq \frac{1}{a} \int_{-\infty}^{\infty} |x| f(x) \, dx = \frac{\mathbb{E}(|X|)}{a}. \]
En esta demostración, al introducir el factor \(\frac{|x|}{a}\), observamos que dado que estamos considerando la variable aleatoria solo para valores iguales o mayores a \(a\), se cumple que \(|X| \geq a\) y, por lo tanto:
\[ \frac{|X|}{a} \geq 1. \]
Al multiplicar \(f(x) \, dx\) por un valor mayor o igual a uno, la integral resultante es igual o mayor. La segunda desigualdad se obtiene al sumar:
\[ \int_{-\infty}^{a} |x| f(x) \, dx, \]
la cual es siempre positiva, dado que se integra el valor absoluto de \(x\), y \(f(x)\) es positiva por definición.
Supongamos que tenemos una variable aleatoria discreta \(X\) que representa el número de fallos en un proceso de producción. La variable \(X\) toma los valores \(0, 1, 2, 3, \ldots\), y se sabe que la esperanza matemática \(\mathbb{E}[X]\) es igual a \(2\). Queremos encontrar una cota superior para la probabilidad de que haya al menos 5 fallos en el proceso utilizando la desigualdad de Márkov.
Según la desigualdad de Márkov, tenemos:
\[ \mathbb{P}(X \geq a) \leq \frac{\mathbb{E}[X]}{a}, \]
donde \(a\) es un valor positivo. En este caso, queremos hallar una cota superior para \(\mathbb{P}(X \geq 5)\). Por lo tanto, tomamos \(a = 5\).
Sustituyendo los valores en la desigualdad de Márkov, obtenemos:
\[ \mathbb{P}(X \geq 5) \leq \frac{\mathbb{E}[X]}{5} = \frac{2}{5} = 0.4. \]
Esto significa que la probabilidad de que haya al menos 5 fallos en el proceso es, como máximo, 0.4 o 40%.
La desigualdad de Márkov nos proporciona una cota superior de 0.4 para la probabilidad de que el número de fallos sea 5 o más. Aunque esta cota puede no ser exacta, es útil cuando solo conocemos la esperanza matemática de la variable \(X\) y no tenemos más información sobre su distribución.
Este ejemplo muestra cómo se puede utilizar la desigualdad de Márkov para obtener estimaciones probabilísticas en situaciones prácticas, incluso cuando la variable aleatoria es discreta.
##
## Attaching package: 'plotly'
## The following object is masked from 'package:ggplot2':
##
## last_plot
## The following object is masked from 'package:stats':
##
## filter
## The following object is masked from 'package:graphics':
##
## layout
# Parámetros del ejemplo
esperanza_X <- 2 # Esperanza matemática de X
a <- 5 # Valor de a para la Desigualdad de Márkov
# Aplicación de la Desigualdad de Márkov
prob_menor_igual_a <- esperanza_X / a
# Crear un data frame para el gráfico
df <- data.frame(
X = 0:10, # Valores posibles de X (discreta)
P_X = dpois(0:10, lambda = esperanza_X) # Distribución Poisson como ejemplo
)
# Gráfico que muestra la probabilidad P(X >= a)
g<-ggplot(df, aes(x = X, y = P_X)) +
geom_bar(stat = "identity", fill = "skyblue", alpha = 0.7) +
geom_vline(xintercept = a, color = "red", linetype = "dashed") +
annotate("text", x = a + 0.5, y = max(df$P_X), label = paste("a =", a), color = "red", vjust = -1) +
labs(title = "Aplicación de la Desigualdad de Márkov",
subtitle = paste("Cota superior para P(X >= ", a, ") usando la Esperanza Matemática"),
x = "Número de fallos (X)", y = "Probabilidad") +
geom_area(data = subset(df, X >= a), aes(x = X, y = P_X), fill = "red", alpha = 0.3) +
theme_minimal()
ggplotly(g)
## [1] 0.4
esperanza_X <- 2
.a <- 5
.esperanza_X / a
.prob_menor_igual_a
.df
que
contiene dos columnas: X
(valores posibles de la variable
aleatoria) y P_X
(probabilidad correspondiente a cada
valor).ggplot2
para crear un gráfico de barras que
muestra las probabilidades de \(X\)
para diferentes valores.Contexto: Supongamos que una compañía de seguros está evaluando el riesgo de que los pagos por siniestros superen una cierta cantidad en un año. La compañía estima que el monto de cada siniestro sigue una distribución normal con una media de $5000 y una desviación estándar de $2000. La compañía quiere calcular una cota superior para la probabilidad de que el monto de un siniestro sea al menos $8000 utilizando la Desigualdad de Márkov.
Utilizando la Desigualdad de Márkov, calcula una cota superior para la probabilidad de que el monto de un siniestro sea mayor o igual a $8000. Además, compara esta cota con la probabilidad real calculada usando la distribución normal.
Parámetros del Problema:
Aplicación de la Desigualdad de Márkov:
La Desigualdad de Márkov establece que:
\[ \mathbb{P}(X \geq a) \leq \frac{\mathbb{E}[X]}{a} \]
En este caso, la esperanza matemática \(\mathbb{E}[X]\) es igual a la media \(\mu\). Entonces:
\[ \mathbb{P}(X \geq 8000) \leq \frac{\mu}{8000} = \frac{5000}{8000} = 0.625 \]
Cálculo de la Probabilidad Real:
Para calcular la probabilidad real de que el monto de un siniestro sea al menos $8000, utilizamos la función de distribución acumulativa de la distribución normal. La probabilidad real se calcula como:
\[ \mathbb{P}(X \geq 8000) = 1 - \text{pnorm}(8000, \text{mean} = 5000, \text{sd} = 2000) \]
Cálculo Manual:
Para calcular esta probabilidad manualmente, se requiere el uso de
software estadístico o una calculadora científica con funciones
estadísticas. En este caso, utilizando la función pnorm
en
R, obtenemos la probabilidad real. Código en R:
# Cargar la librería ggplot2
library(ggplot2)
# Parámetros del problema
mu <- 5000 # Media de la distribución normal
sigma <- 2000 # Desviación estándar de la distribución normal
a <- 8000 # Valor de a para la Desigualdad de Márkov
# Generar una secuencia de valores de X
x <- seq(0, 10000, length.out = 1000)
# Calcular la densidad de la distribución normal
densidad <- dnorm(x, mean = mu, sd = sigma)
# Crear un data frame para el gráfico
df <- data.frame(
x = x,
densidad = densidad
)
# Calcular la probabilidad real para X >= a
prob_real <- 1 - pnorm(a, mean = mu, sd = sigma)
# Gráfico que muestra la distribución normal y la cota superior
g<-ggplot(df, aes(x = x, y = densidad)) +
geom_line(color = "blue") +
geom_area(data = subset(df, x >= a), aes(x = x, y = densidad), fill = "red", alpha = 0.3) +
geom_vline(xintercept = a, color = "red", linetype = "dashed") +
annotate("text", x = a + 1000, y = max(df$densidad), label = paste("a =", a), color = "red", vjust = -1) +
labs(title = "Distribución Normal y Aplicación de la Desigualdad de Márkov",
subtitle = paste("Cota superior para P(X >= ", a, ") usando la Esperanza Matemática"),
x = "Monto del Siniestro", y = "Densidad") +
theme_minimal()
# Mostrar la probabilidad real para X >= a
prob_real
## [1] 0.0668072
Se definen la media (\(\mu\)) y la desviación estándar (\(\sigma\)) de la distribución normal, y el valor (\(a\)) para la aplicación de la Desigualdad de Márkov.
Se genera una secuencia de valores (\(x\)) que cubre un rango suficientemente amplio alrededor de la media. Se calcula la densidad de la distribución normal para estos valores.
Se calcula la probabilidad real de que \(X
\geq a\) usando la función pnorm
.
Se crea un gráfico con ggplot2
que muestra la
distribución normal. En el gráfico: - Se resalta el área correspondiente
a \(X \geq a\) en rojo. - Se añade una
línea discontinua en \(x = a\) y una
etiqueta para visualizar el valor específico.
La probabilidad real de que el monto del siniestro sea al menos $8000 se compara con la cota superior dada por la Desigualdad de Márkov (0.625 en este caso).
La Desigualdad de Chebyshev es un importante resultado en teoría de la probabilidad que proporciona una cota para la probabilidad de que una variable aleatoria con varianza finita se desvíe significativamente de su valor esperado. Esta desigualdad, nombrada en honor al matemático ruso Pafnuti Chebyshev, es útil en una amplia gama de aplicaciones estadísticas y matemáticas.
La desigualdad de Chebyshev se enuncia de la siguiente manera: sea \(X\) una variable aleatoria no negativa y \(f: \mathbb{R} \to \mathbb{R}_+\) una función creciente tal que \(\mathbb{E}[f(X)] < +\infty\). Entonces, para todo \(a \in \mathbb{R}\), se cumple la siguiente desigualdad:
\[ f(a) \cdot \mathbb{P}(X \geq a) \leq \mathbb{E}[f(X)] \]
Esta fórmula establece una relación entre la probabilidad de que \(X\) exceda un cierto valor \(a\) y el valor esperado de una función creciente de \(X\).
La Desigualdad de Chebyshev admite varios casos particulares que son útiles en diferentes contextos:
Caso General: Si \(X\) es una variable aleatoria con momento de orden \(k\) finito, se tiene que:
\[ \mathbb{P}(X \geq a) \leq \frac{\mathbb{E}[|X|^k]}{a^k} \]
donde \(a > 0\) y \(f(X) = |X|^k\).
Momento Centrado de Orden 2: Si \(X\) tiene un momento centrado de orden 2 finito, entonces:
\[ \mathbb{P}(|X - \mathbb{E}(X)| \geq a) \leq \frac{\mathrm{var}(X)}{a^2} \]
Aquí, \(Y = |X - \mathbb{E}(X)|\), \(f(Y) = Y^2\), y \(\mathbb{E}(Y^2) = \mathrm{var}(X)\).
Media y Varianza: Si \(X\) es una variable aleatoria con media \(\mu\) y varianza finita \(\sigma^2\), entonces, para todo \(a > 0\):
\[ \mathbb{P}(|X - \mu| > a\sigma) \leq \frac{1}{a^2} \]
Esta desigualdad es particularmente útil para establecer cotas en la probabilidad de grandes desviaciones en torno a la media.
Las desigualdades de Chebyshev son fundamentales en la teoría de la probabilidad y tienen numerosas aplicaciones en estadística, especialmente en la demostración de resultados como la Ley de los Grandes Números. Estas desigualdades permiten obtener cotas para la probabilidad de eventos extremos y son herramientas poderosas en el análisis de la dispersión de datos.
La demostración de la Desigualdad de Chebyshev se basa en la observación de que, dado que \(f\) es una función creciente, se cumple:
\[ f(a) \cdot 1_{\{X \geq a\}} \leq f(X) \]
donde \(1_{\{X \geq a\}}\) es la función indicadora que toma el valor 1 si \(X \geq a\) y 0 en caso contrario. Para una variable aleatoria continua \(X\), la esperanza se calcula como:
\[ \mathbb{E}[f(a) \cdot 1_{\{X \geq a\}}] = f(a) \int_a^\infty f(x) \, dx = f(a) \cdot \mathbb{P}(X \geq a) \]
Para el caso de variables discontinua, se realiza un razonamiento análogo. Aplicando la esperanza a ambos lados de la desigualdad original se llega al resultado deseado.
Para el caso en que \(X\) tiene media \(\mu\) y varianza \(\sigma^2\), se introduce la variable aleatoria auxiliar \(Y\) definida como:
\[ Y = \begin{cases} 0 & \text{si } |X - \mu| \leq a\sigma \\ 1 & \text{si } |X - \mu| > a\sigma \end{cases} \]
Se observa que:
\[ a\sigma Y \leq |X - \mu| \]
y, por lo tanto:
\[ a^2 \sigma^2 Y^2 \leq (X - \mu)^2 \]
Tomando la esperanza de ambos lados se obtiene:
\[ a^2 \sigma^2 \mathbb{E}[Y^2] \leq \mathbb{E}[(X - \mu)^2] = \sigma^2 \]
lo que implica:
\[ \mathbb{E}[Y^2] \leq \frac{1}{a^2} \]
Dado que \(Y\) sólo puede ser 0 o 1, se tiene:
\[ \mathbb{E}[Y^2] = \mathbb{P}(|X - \mu| > a\sigma) \]
Lo que completa la demostración de la desigualdad.
Imaginemos que una compañía de seguros está interesada en la cantidad de reclamaciones que recibe al año. La cantidad de reclamaciones \(X\) en un año tiene una media \(\mu = 120\) y una varianza \(\sigma^2 = 1440\) (lo que implica una desviación estándar de \(\sigma = 12\)).
Queremos calcular una cota para la probabilidad de que la cantidad de reclamaciones en un año se desvíe más de 20 reclamaciones de la media. En otras palabras, deseamos calcular \(\mathbb{P}(|X - \mu| > 20)\).
Para aplicar la Desigualdad de Chebyshev, utilizamos la fórmula:
\[ \mathbb{P}(|X - \mu| \geq a) \leq \frac{\sigma^2}{a^2} \]
Donde: - \(\mu = 120\) es la media - \(\sigma^2 = 1440\) es la varianza - \(a = 20\) es la desviación desde la media
Sustituyendo los valores en la fórmula:
\[ \mathbb{P}(|X - 120| \geq 20) \leq \frac{1440}{20^2} \]
\[ \mathbb{P}(|X - 120| \geq 20) \leq \frac{1440}{400} = 3.6 \]
Dado que una probabilidad no puede ser mayor que 1, la cota proporcionada por la Desigualdad de Chebyshev en este caso es excesiva. Esto indica que la cota proporcionada no es útil en este contexto específico, ya que es mayor que 1.
# Parámetros
mu <- 120
sigma <- sqrt(1440)
a <- 20
# Definir el rango de valores
x <- seq(mu - 3*sigma, mu + 3*sigma, length.out = 1000)
y <- dnorm(x, mean = mu, sd = sigma)
# Probabilidad real de que X se desvíe más de 20 de la media
prob_real <- 2 * (1 - pnorm(mu + a, mean = mu, sd = sigma))
# Cálculo de la cota superior usando Chebyshev
cota_chebyshev <- sigma^2 / a^2
# Gráfico
library(ggplot2)
df <- data.frame(x = x, y = y)
g<-ggplot(df, aes(x, y)) +
geom_line(color = "blue") +
geom_area(data = subset(df, abs(x - mu) >= a), aes(x = x, y = y), fill = "red", alpha = 0.5) +
geom_vline(xintercept = mu + a, linetype = "dashed", color = "red") +
geom_vline(xintercept = mu - a, linetype = "dashed", color = "red") +
labs(title = "Distribución Normal de Reclamaciones",
x = "Cantidad de Reclamaciones",
y = "Densidad") +
annotate("text", x = mu + a + 10, y = 0.02, label = paste("P(|X - 120| > 20) ≈", round(prob_real, 4)), color = "red") +
annotate("text", x = mu + a + 10, y = 0.025, label = paste("Cota Chebyshev =", round(cota_chebyshev, 4)), color = "blue")
ggplotly(g)
Explicación del Código
Parámetros del Problema
Se definen los parámetros de la distribución normal para el problema:
Generación de Datos
dnorm
.Cálculo de Probabilidad Real
pnorm
, que proporciona la función de distribución acumulada
de la normal.Generación del Gráfico
ggplot2
para visualizar la
distribución normal de las reclamaciones.Este ejemplo muestra cómo aplicar la Desigualdad de Chebyshev para obtener una cota de la probabilidad de eventos extremos en un contexto actuarial, aunque la cota proporcionada puede ser muy amplia y, por lo tanto, menos útil en la práctica en algunos casos.
En la teoría de la probabilidad, el término “ley de los grandes números” se refiere a varios teoremas que describen el comportamiento del promedio de una sucesión de variables aleatorias a medida que aumenta el número de ensayos. Estos teoremas establecen condiciones suficientes para garantizar que dicho promedio converge al promedio de las esperanzas de las variables aleatorias involucradas. Las distintas formulaciones de la ley de los grandes números especifican la convergencia en diferentes formas.
Las leyes de los grandes números explican por qué el promedio de una muestra al azar de una población de gran tamaño tiende a acercarse a la media de la población completa. Este concepto es fundamental en estadística y probabilidades, ya que proporciona una base teórica para la inferencia estadística y la interpretación de datos muestrales.
El teorema central del límite, que se extiende el entendimiento de la convergencia de las medias muestrales, describe la distribución de las diferencias estandarizadas entre la suma de variables aleatorias y su valor esperado. Según este teorema, independientemente de la distribución subyacente de las variables aleatorias, esta diferencia estandarizada converge a una variable aleatoria normal estándar.
Adicionalmente, el término “ley de los grandes números” también puede referirse al principio de que la probabilidad de que cualquier evento posible ocurra al menos una vez en una serie aumenta con el número de eventos en la serie. Por ejemplo, aunque la probabilidad de que un individuo gane la lotería sea baja, la probabilidad de que alguien gane la lotería aumenta considerablemente si se venden muchos boletos.
El matemático italiano Gerolamo Cardano (1501–1576) fue uno de los primeros en sugerir que la precisión de las estadísticas empíricas mejora con el número de intentos. Sin embargo, esta idea no fue formalmente establecida hasta más tarde. Una forma especial de la ley, aplicable a una variable aleatoria binaria, fue demostrada por Jacob Bernoulli en su obra Ars Conjectandi (1713), la cual lo llamó su “Teorema dorado”. Este teorema, conocido como el “teorema de Bernoulli”, es fundamental en la teoría de probabilidades, aunque no debe confundirse con el principio físico del mismo nombre relacionado con Daniel Bernoulli.
En 1837, S.D. Poisson describió la ley con mayor detalle bajo el nombre de “la loi des grands nombres” (la ley de los grandes números). Posteriormente, matemáticos como Chebyshev, Markov, Borel, Cantelli, Kolmogorov y Khinchin contribuyeron al refinamiento de la ley. Estos esfuerzos llevaron al desarrollo de dos formas prominentes de la ley: la ley “débil” y la ley “fuerte”. La ley débil se refiere a la convergencia en probabilidad, mientras que la ley fuerte, que implica la convergencia casi segura, es una generalización que incluye la débil.
Las leyes de los grandes números son esenciales no solo en la teoría de probabilidades sino también en aplicaciones prácticas como el análisis de riesgos y la toma de decisiones basada en datos. En el campo actuarial, por ejemplo, la ley de los grandes números es crucial para la estimación de reservas y la evaluación de riesgos a largo plazo, proporcionando una base para la modelización y la planificación financiera.
La ley débil de los grandes números establece que si \(X_1, X_2, X_3, \ldots\) es una sucesión infinita de variables aleatorias independientes que tienen el mismo valor esperado \(\mu\) y varianza \(\sigma^2\), entonces el promedio
\[ \overline{X}_n = \frac{X_1 + \cdots + X_n}{n} = \frac{1}{n} \sum_{i=1}^{n} X_i \]
converge en probabilidad a \(\mu\). En otras palabras, para cualquier número positivo \(\varepsilon\), se tiene
\[ \lim_{n \to \infty} \mathbb{P} \left( \left| \overline{X}_n - \mu \right| < \varepsilon \right) = 1. \]
Esto significa que a medida que el número de muestras \(n\) aumenta, la probabilidad de que el promedio de las muestras esté dentro de una distancia \(\varepsilon\) de la media \(\mu\) tiende a 1. En otras palabras, el promedio muestral se acercará a la media esperada a medida que se tomen más muestras.
Supongamos que tenemos una urna con 10 bolas, de las cuales 3 son rojas y 7 son azules. Vamos a realizar un experimento en el que repetimos el proceso de extraer una bola al azar, anotamos si es roja (1) o azul (0), y calculamos el promedio de bolas rojas extraídas en cada ensayo.
Vamos a realizar el experimento 1000 veces (n = 1000) y calcularemos el promedio de bolas rojas extraídas en cada ensayo.
# Parámetros
n <- 1000 # Número de experimentos
p_roja <- 0.3 # Proporción de bolas rojas en la población
# Generación de datos
set.seed(42) # Fijar semilla para reproducibilidad
resultados <- rbinom(n, size = 1, prob = p_roja)
# Cálculo del promedio de bolas rojas
promedio_rojas <- cumsum(resultados) / seq_along(resultados)
# Gráfico
library(ggplot2)
data <- data.frame(
Experimento = 1:n,
Promedio = promedio_rojas
)
g<-ggplot(data, aes(x = Experimento, y = Promedio)) +
geom_line(color = "blue") +
geom_hline(yintercept = p_roja, linetype = "dashed", color = "red") +
labs(title = "Promedio de Bolas Rojas Extraídas",
x = "Número de Experimentos",
y = "Promedio de Bolas Rojas") +
theme_minimal()
ggplotly(g)
Explicación del Código
Parámetros del Problema:
n = 1000
).p_roja = 0.3
).Generación de Datos:
rbinom
, que simula la extracción de una bola de una urna
con una probabilidad de 0.3 de ser roja.Cálculo del Promedio:
cumsum
y seq_along
.Generación del Gráfico:
Interpretación
Este gráfico muestra cómo el promedio de bolas rojas extraídas (en azul) se acerca a la proporción real de bolas rojas en la población (en rojo) a medida que el número de experimentos aumenta. Esto ilustra la ley débil de los grandes números, que afirma que el promedio de una sucesión de variables aleatorias independientes tiende a acercarse al valor esperado conforme aumenta el número de ensayos.
La ley fuerte de los grandes números es un teorema fundamental en la teoría de la probabilidad que afirma que, bajo ciertas condiciones, el promedio de una secuencia infinita de variables aleatorias independientes e idénticamente distribuidas converge al valor esperado con probabilidad 1. Específicamente, si \(X_1, X_2, X_3, \dots\) es una sucesión infinita de variables aleatorias independientes e idénticamente distribuidas, y estas variables cumplen con la condición de que \(\operatorname{E}[X_i] < \infty\) (es decir, tienen un valor esperado finito) y \(\operatorname{E}[X_i] = \mu\), entonces se cumple que:
\[ \operatorname{P} \left(\lim_{n \to \infty} \overline{X}_n = \mu \right) = 1, \]
donde \(\overline{X}_n\) es el promedio de las primeras \(n\) variables aleatorias, definido como:
\[ \overline{X}_n = \frac{1}{n} \sum_{i=1}^{n} X_i. \]
Esto significa que el promedio de estas variables aleatorias converge al valor esperado \(\mu\) casi seguramente, es decir, con probabilidad 1.
La ley fuerte de los grandes números justifica la interpretación intuitiva del valor esperado de una variable aleatoria como el “promedio a largo plazo al hacer un muestreo repetitivo”. En otras palabras, asegura que, en un número suficientemente grande de observaciones, el promedio de las observaciones estará muy cerca del valor esperado de la variable aleatoria. Esto es crucial en estadística y en la práctica de la inferencia estadística, ya que valida la consistencia de los estimadores basados en promedios muestrales.
Ejemplo: Lanzamientos de un Dado Justo
Consideremos un dado justo, que tiene 6 caras con valores del 1 al 6. La variable aleatoria \(X_i\) representa el resultado del \(i\)-ésimo lanzamiento del dado. En este caso, el valor esperado \(\mu\) de \(X_i\) se puede calcular como:
\[ \mu = \frac{1}{6} \sum_{k=1}^{6} k = 3.5. \]
Supongamos que realizamos una serie de lanzamientos del dado y queremos observar cómo el promedio de los resultados se aproxima al valor esperado de 3.5. Vamos a simular esto con un número grande de lanzamientos (por ejemplo, 1000 lanzamientos) y observar el comportamiento del promedio.
# Parámetros del problema
set.seed(123) # Para reproducibilidad
n <- 1000 # Número de lanzamientos
mu <- 3.5 # Valor esperado del dado
# Generación de datos
resultados <- sample(1:6, size = n, replace = TRUE)
# Cálculo del promedio acumulado
promedios_acumulados <- cumsum(resultados) / seq_along(resultados)
# Generación del gráfico
library(ggplot2)
data <- data.frame(Experimentos = seq_along(promedios_acumulados), Promedio = promedios_acumulados)
g<-ggplot(data, aes(x = Experimentos, y = Promedio)) +
geom_line(color = "blue") +
geom_hline(yintercept = mu, linetype = "dashed", color = "red") +
labs(title = "Promedio Acumulado de los Lanzamientos de un Dado",
x = "Número de Lanzamientos",
y = "Promedio Acumulado") +
theme_minimal()
ggplotly(g)
Interpretación
En el código proporcionado, se simulan 1000 lanzamientos de un dado justo, y se calcula el promedio acumulado de los resultados de estos lanzamientos.
Parámetros del Problema:
set.seed(123)
: Establece una semilla
para garantizar que los resultados sean reproducibles.n <- 1000
: Define el número de
lanzamientos del dado.mu <- 3.5
: Define el valor esperado
del dado (promedio teórico).Generación de Datos:
resultados <- sample(1:6, size = n, replace = TRUE)
:
Simula 1000 lanzamientos del dado, donde cada resultado es una muestra
aleatoria entre 1 y 6.Cálculo del Promedio Acumulado:
promedios_acumulados <- cumsum(resultados) / seq_along(resultados)
:
Calcula el promedio acumulado de los resultados hasta cada
lanzamiento.Generación del Gráfico:
ggplot(data, aes(x = Experimentos, y = Promedio)) +
:
Crea un gráfico de líneas con el promedio acumulado a lo largo del
número de lanzamientos.geom_line(color = "blue")
: Muestra el
promedio acumulado en color azul.geom_hline(yintercept = mu, linetype = "dashed", color = "red")
:
Añade una línea horizontal discontinua en el valor esperado del dado
(3.5) en color rojo.labs(title = "Promedio Acumulado de los Lanzamientos de un Dado", x = "Número de Lanzamientos", y = "Promedio Acumulado")
:
Etiqueta el gráfico con un título y etiquetas para los ejes.theme_minimal()
: Aplica un tema
minimalista al gráfico.Interpretación del Gráfico:
En el gráfico generado, se puede observar cómo el promedio acumulado de los resultados de los lanzamientos del dado (en azul) converge al valor esperado de 3.5 (en rojo) a medida que el número de lanzamientos aumenta. Este comportamiento ilustra la Ley Fuerte de los Grandes Números, que establece que el promedio de una sucesión de variables aleatorias independientes e idénticamente distribuidas se aproxima al valor esperado con probabilidad 1 cuando el número de observaciones es suficientemente grande. El gráfico muestra que, a medida que se realizan más lanzamientos, el promedio acumulado se estabiliza cerca del valor esperado, validando la teoría de que el promedio a largo plazo es una buena estimación del valor esperado.
El teorema central del límite, o teorema del límite central, establece que, bajo condiciones generales, si \(S_n\) es la suma de \(n\) variables aleatorias independientes con media y varianza finitas, entonces la función de distribución de \(S_n\) se aproxima a una distribución normal (también conocida como distribución gaussiana, curva de Gauss o campana de Gauss). Este teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande.
El nombre del teorema proviene de un documento científico escrito por George Pólya en 1920, titulado Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem [Sobre el «teorema del límite» (Grenzwertsatz) central del cálculo probabilístico y el problema de los momentos]. La denominación más fiel a la original sería teorema central del límite.
Este teorema ha evolucionado a lo largo del desarrollo de la teoría de la probabilidad. Las versiones anteriores del teorema se remontan a 1811, pero en su forma general moderna, este resultado fundamental en la teoría de la probabilidad se enunció con precisión en 1920, sirviendo de puente entre la teoría de la probabilidad clásica y la moderna.
Si \(X_1, X_2, \dots, X_n, \dots\) son muestras aleatorias extraídas de una población con media global \(\mu\) y varianza finita \(\sigma^2\), y si \(\overline{X}_n\) es la media muestral de las primeras \(n\) muestras, entonces la forma límite de la distribución,
\[ Z = \lim_{n \to \infty} \left(\frac{\overline{X}_n - \mu}{\sigma_{\overline{X}}}\right), \]
con \(\sigma_{\overline{X}} = \frac{\sigma}{\sqrt{n}}\), es una distribución normal estándar.
Por ejemplo, supongamos que se obtiene una muestra que contiene muchas observaciones, cada una generada aleatoriamente de manera que no depende de los valores de las demás observaciones, y que se calcula la media aritmética de los valores observados. Si este procedimiento se repite muchas veces, el teorema del límite central indica que la distribución de probabilidad de la media se aproximará a una distribución normal.
El teorema del límite central tiene diversas variantes. En su forma común, las variables aleatorias deben ser independientes e idénticamente distribuidas (i.i.d.). En sus variantes, la convergencia de la media a la distribución normal también se produce para distribuciones no idénticas o para observaciones no independientes, si se cumplen ciertas condiciones.
La versión más antigua de este teorema, según la cual la distribución normal puede utilizarse como aproximación a la distribución binomial, es el teorema de De Moivre-Laplace.
Sabemos que si \(X \sim N(\mu, \sigma^2)\), entonces su función de densidad está dada por:
\[ f(x) = \frac{1}{\sqrt{2 \pi \sigma^2}} e^{-\frac{(x - \mu)^2}{2 \sigma^2}} \]
para \(x \in \mathbb{R}\), donde \(\mu\) denota la media y \(\sigma^2\) la varianza de la variable aleatoria \(X\). En particular, cuando \(\mu = 0\) y \(\sigma^2 = 1\) obtenemos:
\[ f(x) = \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} \]
es decir, la distribución normal estándar, denotada por \(X \sim N(0,1)\).
Se define la variable aleatoria \(S_n\) como la suma de \(n\) variables aleatorias independientes e idénticamente distribuidas, cada una con una media \(\mu\) y varianza \(\sigma^2 < \infty\), es decir:
\[ S_n := X_1 + \cdots + X_n = \sum_{i=1}^{n} X_i \]
donde \(\operatorname{E}[X_i] = \mu\) y \(\operatorname{Var}[X_i] = \sigma^2\). Así, la media de \(S_n\) es \(n \mu\) y la varianza es \(n \sigma^2\), dado que son variables aleatorias independientes. Para hacer más fácil la comprensión del teorema y su posterior uso, se realiza una estandarización de \(S_n\) como:
\[ Z_n := \frac{S_n - n \mu}{\sigma \sqrt{n}} = \frac{\sum_{i=1}^{n} X_i - n \mu}{\sigma \sqrt{n}} \]
para que la media de la nueva variable sea igual a 0 y la desviación estándar sea igual a 1. Así, la variable \(Z_n\) convergerá en distribución a la distribución normal estándar \(N(0,1)\) cuando \(n\) tienda a infinito. Como consecuencia, si \(\Phi(z)\) es la función de distribución de \(N(0,1)\), para cada número real \(z\) entonces:
\[ \lim_{n \to \infty} \operatorname{P}(Z_n \leq z) = \Phi(z) = \int_{-\infty}^{z} \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} \, dx \]
donde \(\operatorname{P}\) indica probabilidad y \(\lim\) se refiere al límite matemático.
Sea \(\{X_{1}, \ldots, X_{n}\}\) una secuencia de muestras aleatorias, es decir, una secuencia de variables aleatorias independientes e idénticamente distribuidas (i.i.d.) extraídas de una distribución con valor esperado dado por \(\mu\) y varianza finita dada por \(\sigma^2\). Supongamos que estamos interesados en la media muestral:
\[ \bar{X}_{n} \equiv \frac{X_{1} + \cdots + X_{n}}{n} \]
de las primeras \(n\) muestras. Por la ley de los grandes números, los promedios muestrales convergen casi seguro (y por tanto también convergen en probabilidad) al valor esperado \(\mu\) cuando \(n \to \infty\).
El teorema clásico del límite central (CLT) describe el tamaño y la forma de distribución de las fluctuaciones estocásticas alrededor del número determinista \(\mu\) durante esta convergencia. Más concretamente, afirma que a medida que \(n\) se hace mayor, la distribución de la diferencia entre la media muestral \(\bar{X}_{n}\) y su límite \(\mu\), cuando se multiplica por el factor \(\sqrt{n}\) (es decir, \(\sqrt{n}(\bar{X}_{n} - \mu)\)), se aproxima a la distribución normal con media 0 y varianza \(\sigma^2\). Para \(n\) suficientemente grande, la distribución de \(\bar{X}_{n}\) se aproxima arbitrariamente a la distribución normal con media \(\mu\) y varianza \(\frac{\sigma^2}{n}\).
La utilidad del teorema es que la distribución de \(\sqrt{n}(\bar{X}_{n} - \mu)\) se aproxima a la normalidad independientemente de la forma de la distribución de cada \(X_{i}\). Formalmente, el teorema puede enunciarse de la siguiente manera:
Supongamos que \(\{X_{1}, \ldots, X_{n}, \ldots\}\) es una secuencia de variables aleatorias i.i.d. con \(\mathbb{E}[X_{i}] = \mu\) y \(\operatorname{Var}(X_{i}) = \sigma^2 < \infty\). Entonces, cuando \(n \to \infty\), las variables aleatorias \(\sqrt{n}(\bar{X}_{n} - \mu)\) convergen en distribución a una normal \(\mathcal{N}(0, \sigma^2)\):
\[ \sqrt{n}(\bar{X}_{n} - \mu) \xrightarrow{d} \mathcal{N}(0, \sigma^2). \]
En el caso de \(\sigma > 0\), converger en distribución significa que la función de distribución acumulativa de \(\sqrt{n}(\bar{X}_{n} - \mu)\) converge puntualmente a la cdf de la \(\mathcal{N}(0, \sigma^2)\) distribución: para cada número real \(z\),
\[ \lim_{n \to \infty} \mathbb{P} \left[\sqrt{n}(\bar{X}_{n} - \mu) \leq z \right] = \lim_{n \to \infty} \mathbb{P} \left[\frac{\sqrt{n}(\bar{X}_{n} - \mu)}{\sigma} \leq \frac{z}{\sigma} \right] = \Phi \left(\frac{z}{\sigma} \right), \]
donde \(\Phi(z)\) es la función de distribución acumulativa normal estándar evaluada en \(z\). La convergencia es uniforme en \(z\) en el sentido de que
\[ \lim_{n \to \infty} \sup_{z \in \mathbb{R}} \left|\mathbb{P} \left[\sqrt{n}(\bar{X}_{n} - \mu) \leq z \right] - \Phi \left(\frac{z}{\sigma} \right) \right| = 0, \]
donde \(\sup\) denota el límite superior mínimo (o supremum) del conjunto.
De manera formal y compacta el teorema enuncia:
Sean \(X_{1}, X_{2}, \ldots, X_{n}\) variables aleatorias independientes e idénticamente distribuidas con \(\mathbb{E}[X_{i}] = \mu\) y \(\operatorname{Var}(X_{i}) = \sigma^2 < \infty\). Se define
\[ Z_{n} := \frac{\sum_{i=1}^{n}X_{i} - n\mu}{\sigma \sqrt{n}}. \]
Entonces la función de distribución de \(Z_{n}\) converge hacia la función de distribución normal estándar cuando \(n \to \infty\), es decir,
\[ \lim_{n \to \infty} \mathbb{P} \left[ Z_{n} \leq z \right] = \Phi(z) = \int_{-\infty}^{z} \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} \, dx. \]
Es muy común encontrarlo con la variable estandarizada \(Z_{n}\) en función de la media muestral \(\bar{X}\), es decir,
\[ Z_{n} = \frac{\bar{X} - \mu}{\sigma / \sqrt{n}}, \]
puesto que son equivalentes (sólo se divide tanto numerador como denominador entre \(n\)).
Es importante remarcar que este teorema no dice nada acerca de la distribución de la variable aleatoria \(X_{i}\), excepto la existencia de media y varianza.
En el caso de \(n\) variables aleatorias \(X_{i}\) independientes e idénticamente distribuidas, cada una de ellas con varianza nula o infinita, la distribución de las variables
\[ S_{n} = \frac{X_{1} + \cdots + X_{n}}{n} \]
no converge en distribución hacia una normal.
A continuación se presentan los dos casos por separado.
Considérese el caso de variables que siguen una distribución de Cauchy:
\[ F_{X_{i}}(x) = \frac{1}{\pi} \arctan(x). \]
En este caso puede demostrarse que la distribución asintótica de \(S_{n}\) viene dada por otra distribución de Cauchy:
\[ F_{S_{n}}(x) = \frac{1}{\pi} \arctan \left(\frac{x}{n} \right). \]
Para otras distribuciones de varianza infinita no es fácil dar una expresión cerrada para su distribución de probabilidad, aunque su función característica sí tiene una forma sencilla, dada por el teorema de Lévy-Khintchine:
\[ \varphi_{S_{n}}(t) = \exp \left[ ist - c |t|^{\alpha} \left(1 + i \gamma \frac{t}{|t|} u(t, \alpha) \right) \right], \]
donde \(c \geq 0\), \(-1 \geq \gamma \geq 1\), \(0 < \alpha \leq 2\), y:
\[ u(t, \alpha) = \begin{cases} \tan \left( \frac{\pi \alpha}{2} \right) & \text{si } \alpha \neq 1 \\ \frac{2}{\pi} \ln |t| & \text{si } \alpha = 1 \end{cases}. \]
Las condiciones anteriores equivalen a que una distribución de probabilidad sea una distribución estable.
Este caso corresponde trivialmente a una función degenerada tipo delta de Dirac cuya función de distribución viene dada por:
\[ F_{X_{i}}(x) = \int_{-\infty}^{x} \delta(s - x_{0}) \, ds = \begin{cases} 0 & x < x_{0} \\ 1 & x \geq x_{0} \end{cases}. \]
En este caso resulta que la variable \(S_{n}\) trivialmente tiene la misma distribución que cada una de las variables independientes.
Consideremos el lanzamiento de un dado justo de seis caras. Queremos investigar cómo se comporta la suma de las caras obtenidas en una serie de lanzamientos. Específicamente, queremos observar cómo la distribución de la suma se aproxima a una distribución normal a medida que el número de lanzamientos aumenta.
Variable Aleatoria: Sea \(X_i\) la cara obtenida en el \(i\)-ésimo lanzamiento del dado. Entonces \(X_i\) puede tomar los valores 1, 2, 3, 4, 5, o 6, cada uno con una probabilidad igual de \(\frac{1}{6}\).
Media y Varianza: La media \(\mu\) y la varianza \(\sigma^2\) de un lanzamiento del dado son:
\[ \mu = \frac{1+2+3+4+5+6}{6} = 3.5 \]
\[ \sigma^2 = \frac{(1-3.5)^2 + (2-3.5)^2 + (3-3.5)^2 + (4-3.5)^2 + (5-3.5)^2 + (6-3.5)^2}{6} = 2.9167 \]
Distribución de la Suma: La suma de 30 lanzamientos del dado sigue una distribución que se aproxima a una normal con media \(30 \cdot 3.5 = 105\) y varianza \(30 \cdot 2.9167 = 87.5\).
Distribución de la Media Muestral: Al estandarizar la media muestral (restando la media esperada y dividiendo por la desviación estándar), obtenemos una variable que sigue aproximadamente una distribución normal estándar.
Para visualizar esto, imagina un histograma de las medias muestrales de las sumas obtenidas en las simulaciones. A medida que el número de lanzamientos aumenta, verás que el histograma se aproxima a la forma de una campana de Gauss (distribución normal).
Este ejemplo ilustra cómo, incluso con una distribución original que no es normal (en este caso, el dado justo), la suma de un número suficientemente grande de lanzamientos tiende a seguir una distribución normal, demostrando el Teorema del Límite Central.
# Cargar las librerías necesarias
library(ggplot2)
# Configuración inicial
set.seed(123) # Para reproducibilidad
n_simulations <- 1000 # Número de simulaciones
n_rolls <- 30 # Número de lanzamientos en cada simulación
# Simulación de lanzamientos de dado
results <- replicate(n_simulations, sum(sample(1:6, n_rolls, replace = TRUE)))
mean_results <- results / n_rolls # Cálculo de la media muestral
# Crear un data frame para ggplot2
data <- data.frame(mean_results)
# Graficar la distribución de la media muestral
g<-ggplot(data, aes(x = mean_results)) +
geom_histogram(aes(y = ..density..), bins = 30, fill = "lightgray", color = "black") +
stat_function(fun = dnorm,
args = list(mean = mean(mean_results), sd = sd(mean_results)),
color = "blue",
size = 1) +
labs(title = "Distribución de la Media Muestral",
x = "Media Muestral",
y = "Densidad") +
theme_minimal()
## Warning: Using `size` aesthetic for lines was deprecated in ggplot2 3.4.0.
## ℹ Please use `linewidth` instead.
## This warning is displayed once every 8 hours.
## Call `lifecycle::last_lifecycle_warnings()` to see where this warning was
## generated.
## Warning: The dot-dot notation (`..density..`) was deprecated in ggplot2 3.4.0.
## ℹ Please use `after_stat(density)` instead.
## ℹ The deprecated feature was likely used in the ggplot2 package.
## Please report the issue at <https://github.com/tidyverse/ggplot2/issues>.
## This warning is displayed once every 8 hours.
## Call `lifecycle::last_lifecycle_warnings()` to see where this warning was
## generated.
Una compañía de seguros está calculando la prima de seguro para un nuevo tipo de póliza de vida. Se sabe que la duración de la vida de los asegurados sigue una distribución normal con una esperanza de vida de 75 años y una desviación estándar de 10 años. La compañía desea calcular la prima anual que debe cobrar para asegurar que, con un 95% de certeza, podrá cubrir los pagos de los siniestros.
Cálculo del Valor Actuarial Esperado
La compañía necesita calcular el valor presente esperado de los pagos futuros por seguro para cada asegurado. ¿Cuál es el valor actuarial esperado de un pago en el año \(t\) considerando que la duración de la vida del asegurado sigue una distribución normal?
Prima de Seguro Anual
Utilizando el valor presente esperado calculado en el primer paso y considerando una tasa de interés anual del 5%, ¿cuál debe ser la prima anual que la compañía debe cobrar para garantizar, con un 95% de certeza, que podrá cubrir los pagos de los siniestros durante los 20 años?
Valor Actuarial Esperado
Prima Anual
Utilice la fórmula de valor presente de una anualidad para calcular la prima anual, considerando el valor presente esperado de los pagos futuros.
La fórmula general para el valor presente de una anualidad ordinaria es:
\[ PV = P \cdot \frac{1 - (1 + r)^{-n}}{r} \]
donde \(PV\) es el valor presente, \(P\) es la prima anual, \(r\) es la tasa de interés y \(n\) es el número de años.
Para calcular el valor presente esperado de los pagos futuros por seguro, necesitamos encontrar el valor esperado del pago en el año \(t\) dado que la duración de vida del asegurado sigue una distribución normal.
Suposiciones:
Valor Actuarial Esperado:
El valor actuarial esperado de un pago en el año \(t\) se puede calcular como el valor presente esperado descontado a la fecha actual. Dado que la duración de la vida sigue una distribución normal, el pago se hace si el asegurado está vivo en el año \(t\).
El valor presente de un pago realizado en el año \(t\) se calcula como:
\[ \text{Valor Presente} = \frac{P}{(1 + r)^t} \]
donde \(P\) es el pago futuro y \(r\) es la tasa de interés.
Dado que la duración de la vida es una variable aleatoria, el valor esperado del valor presente se obtiene considerando la probabilidad de que el asegurado viva hasta el año \(t\).
Para simplificar, usaremos la esperanza condicional y la fórmula general del valor presente esperado.
Para asegurar con un 95% de certeza que la compañía podrá cubrir los pagos de los siniestros, necesitamos calcular la prima anual.
Cálculo:
Encontrar el Valor Esperado del Pago:
Dado que el asegurado tiene una esperanza de vida de 75 años, y queremos calcular la prima anual para cubrir los pagos futuros durante 20 años, usamos la fórmula del valor presente de una anualidad ordinaria.
La fórmula general es:
\[ PV = P \cdot \frac{1 - (1 + r)^{-n}}{r} \]
donde:
Cálculo de la Prima Anual:
Para asegurar la cobertura, se necesita calcular \(P\) tal que el valor presente de las primas cubra el valor actuarial esperado de los pagos futuros. La fórmula ajustada es:
\[ P = \frac{PV \cdot r}{1 - (1 + r)^{-n}} \]
Donde \(PV\) es el valor presente esperado calculado previamente.
Ejemplo:
Supongamos que el valor actuarial esperado de los pagos futuros es \(PV = 100,000\) (un valor hipotético para ilustrar).
Usando \(r = 0.05\) y \(n = 20\) años:
\[ P = \frac{100,000 \cdot 0.05}{1 - (1 + 0.05)^{-20}} \approx \frac{5,000}{0.635} \approx 7,867 \]
Por lo tanto, la prima anual que la compañía debería cobrar para garantizar con un 95% de certeza que podrá cubrir los pagos futuros durante los 20 años sería aproximadamente $7,867.
Esta prima anual asegura que, al final del período, la compañía podrá cubrir los pagos de los siniestros esperados, considerando el valor presente descontado y la tasa de interés.
# Parámetros
mu <- 75
sigma <- 10
r <- 0.05
n <- 20
P <- 100000 # Valor futuro hipotético
# Valor presente esperado
library(ggplot2)
years <- 1:n
present_value <- sapply(years, function(t) {
exp(-r * t) * pnorm(mu - t, mean = 0, sd = sigma)
})
PV <- sum(present_value * P)
# Prima anual
annual_premium <- function(PV, r, n) {
PV * r / (1 - (1 + r)^-n)
}
# Cálculo de la prima anual
premium <- annual_premium(PV, r, n)
premium
## [1] 98930.96
# Rango de tasas de interés
interest_rates <- seq(0.01, 0.10, by = 0.01)
present_values <- sapply(interest_rates, function(r) {
PV <- sum(sapply(years, function(t) {
exp(-r * t) * pnorm(mu - t, mean = 0, sd = sigma)
}) * P)
annual_premium(PV, r, n)
})
# Crear un data frame para graficar
df <- data.frame(
Tasa_Interes = interest_rates,
Prima_Anual = present_values
)
# Graficar
g<-ggplot(df, aes(x = Tasa_Interes, y = Prima_Anual)) +
geom_line(color = "blue") +
labs(title = "Prima Anual vs Tasa de Interés",
x = "Tasa de Interés",
y = "Prima Anual") +
theme_minimal()
ggplotly(g)
Explicación del Código en R
1. Parámetros Iniciales -
mu
: Valor esperado de la distribución. -
sigma
: Desviación estándar de la
distribución. - r
: Tasa de interés anual.
- n
: Número de años. -
P
: Valor futuro hipotético.
2. Cálculo del Valor Presente Esperado - Se crea un
vector years
que contiene los años desde 1
hasta n
. - Se calcula el valor presente
esperado para cada año usando la función
pnorm
para la probabilidad acumulada y se
descuenta al valor presente con
exp(-r * t)
. - El valor presente total se
obtiene sumando el valor presente de todos los años y multiplicando por
P
.
3. Cálculo de la Prima Anual - Se define una función para calcular la prima anual usando la fórmula de anualidad ordinaria. - Se calcula la prima anual utilizando la fórmula y el valor presente obtenido previamente.
4. Variación de la Prima Anual con Diferentes Tasas de Interés - Se define un rango de tasas de interés. - Se calcula la prima anual para cada tasa de interés en el rango especificado, actualizando el valor presente con la tasa correspondiente.
5. Crear el Data Frame y Graficar - Se crea un data
frame que contiene las tasas de interés y las primas anuales
correspondientes. - Se utiliza ggplot2
para crear un gráfico de líneas que muestra cómo varía la prima anual
con la tasa de interés.
En este emocionante juego de azar, los jugadores se enfrentan a una prueba de suerte y estrategia. A continuación, se detallan las reglas para participar en el “Juego de la Ruína o Riqueza”:
¡Disfruta del juego y que la suerte esté de tu lado!
Pregunta: Supongamos que se realiza una simulación
del juego con un número fijo de rondas. ¿Cómo podrías modelar la
distribución de la suma de monedas que un jugador puede tener después de
un número fijo de rondas?
Concepto Relacionado: Distribución Binomial Negativa o
Distribución de Poisson.
Pregunta: Utilizando una simulación en R, ¿cómo
podrías estimar la probabilidad de que un jugador gane el juego (es
decir, que sea el último en quedarse con monedas)?
Concepto Relacionado: Simulación Monte Carlo y
Distribuciones Discretas.
Pregunta: Calcula la esperanza y varianza de la
cantidad de monedas que un jugador tiene al final del juego. ¿Cómo se
relaciona esto con el concepto de la ley de los grandes números?
Concepto Relacionado: Esperanza y Varianza, Ley Débil y
Fuerte de los Grandes Números.
Pregunta: ¿Cómo podrías aplicar la desigualdad de
Markov o la desigualdad de Chebyshev para estimar el límite superior de
la probabilidad de que un jugador tenga una cantidad de monedas
significativamente mayor o menor que el promedio esperado al final del
juego?
Concepto Relacionado: Desigualdad de Markov y
Desigualdad de Chebyshev.
Pregunta: Si consideras que cada ronda del juego es
un experimento independiente, ¿cómo podrías usar el teorema del límite
central para aproximar la distribución de la cantidad total de monedas
ganadas por un jugador después de un gran número de rondas?
Concepto Relacionado: Teorema del Límite Central.
Pregunta: ¿Cómo cambiaría la distribución de las
monedas en el pozo si el dado de colores tuviera diferentes
probabilidades de caer en verde o rojo? ¿Qué distribución podría modelar
estos cambios?
Concepto Relacionado: Distribución Hipergeométrica y
Distribución Binomial.
Pregunta: Si analizamos el juego desde el punto de
vista de cada ronda, ¿cómo podríamos modelar la distribución de las
ganancias y pérdidas de un jugador en una sola ronda? ¿Qué
distribuciones serían útiles?
Concepto Relacionado: Distribución Bernoulli y
Distribución Geométrica.
Pregunta: Utiliza R para simular múltiples partidas
del juego y analiza la distribución de los resultados finales para cada
jugador. ¿Qué insights puedes obtener sobre la tendencia general del
juego y cómo se relaciona con las distribuciones teóricas?
Concepto Relacionado: Simulación en R y Distribuciones
Teóricas.