Autores

Huera Zambrano Ignacio Mauricio
Larrea Cuadrado Pedro Lucas
Parrales Mendoza Daniel Gustavo
Salazar Flores Cristian Alexander
Solano Solano Javier Alejandro

Fecha: 07/05/2026

1. Introducción

La Ley de los Grandes Números (LGN) establece que, cuando aumenta el número de observaciones independientes e idénticamente distribuidas (i.i.d.), el promedio muestral converge hacia el valor esperado poblacional.

En términos probabilísticos:

\[ \bar{X}_n \to \mu \]

Esta propiedad constituye uno de los fundamentos principales de la estadística inferencial y de la simulación computacional.

En el presente trabajo se verifica empíricamente la LGN mediante simulaciones en R utilizando: - una variable aleatoria discreta Binomial, - y una variable aleatoria continua Normal.

Los ejercicios han sido adaptados siguiendo los principios teóricos de Walpole y Lind.

2. Objetivo General

Demostrar empíricamente la Ley de los Grandes Números mediante simulaciones probabilísticas en R, observando la convergencia de las medias muestrales hacia los parámetros poblacionales.

3. Metodología

La investigación emplea un enfoque cuantitativo experimental basado en simulación computacional.

Se realizaron simulaciones aumentando progresivamente el tamaño muestral en:

Justificación de la simulación

La simulación permite: - generar grandes cantidades de datos, - analizar fenómenos probabilísticos, - observar la convergencia estadística, - y reducir costos asociados a la recolección de datos reales.

Restricciones del muestreo real

En entornos reales existen limitaciones como: - presupuesto, - tiempo, - acceso a la población, - y posibles sesgos de selección.


4. Experimento Discreto — Distribución Binomial

Contexto

Según Walpole, la distribución Binomial modela procesos de éxito y fracaso.

En este caso se simula el número de créditos aprobados en grupos de 20 solicitantes.

Modelo probabilístico:

\[ X \sim Bin(20,0.35) \]

Esperanza matemática:

\[ E(X)=np=20(0.35)=7 \]

library(ggplot2)
library(gridExtra)

set.seed(123)

n_bin <- 20
p_bin <- 0.35

muestras <- c(10,50,100,1000,10000)

media_teorica_bin <- n_bin*p_bin

graficos_bin <- list()

for(i in 1:length(muestras)){

  n <- muestras[i]

  datos <- rbinom(n,
                   size = n_bin,
                   prob = p_bin)

  media_muestral <- mean(datos)

  df <- data.frame(x = datos)

  g <- ggplot(df, aes(x)) +

    geom_histogram(aes(y = after_stat(density)),
                   bins = 15,
                   fill = "skyblue",
                   color = "black") +

    stat_function(
      fun = function(x)
        dbinom(round(x),
               size = n_bin,
               prob = p_bin),
      color = "blue",
      linewidth = 1
    ) +

    geom_vline(
      xintercept = media_teorica_bin,
      color = "red",
      linewidth = 1.2
    ) +

    geom_vline(
      xintercept = media_muestral,
      color = "darkgreen",
      linetype = "dashed",
      linewidth = 1
    ) +

    labs(
      title = paste("Distribución Binomial n =", n),
      subtitle = paste("Media muestral =", round(media_muestral,3)),
      x = "Número de éxitos",
      y = "Densidad"
    ) +

    theme_minimal()

  graficos_bin[[i]] <- g
}

grid.arrange(grobs = graficos_bin, ncol = 2)

Interpretación del Experimento Discreto

En tamaños muestrales pequeños como n = 10 y n = 50 se observan fluctuaciones importantes respecto al valor esperado teórico.

Sin embargo, conforme aumenta el tamaño de la muestra, la media muestral comienza a estabilizarse alrededor de la esperanza matemática igual a 7.

En n = 1000 y n = 10000 las diferencias respecto al parámetro poblacional son mínimas, evidenciando el cumplimiento de la Ley de los Grandes Números.


5. Convergencia Acumulada — Binomial

Contexto

Se simula el número de clientes que aprueban una evaluación financiera en una institución bancaria.

Modelo probabilístico:

\[ X \sim Bin(20,0.35) \]

Espacio muestral:

\[ X=\{0,1,2,\dots,20\} \]

La distribución Binomial utilizada en este estudio se fundamenta en los planteamientos de Walpole (2012), quien describe este modelo probabilístico para experimentos aleatorios de éxito y fracaso con ensayos independientes y probabilidad constante.

Esperanza matemática teórica:

\[ E(X)=np=20(0.35)=7 \]

set.seed(123)

datos <- rbinom(10000,
                size = n_bin,
                prob = p_bin)

promedios <- cumsum(datos)/(1:10000)

plot(promedios,
     type = "l",
     col = "blue",
     lwd = 2,
     xlab = "Número de observaciones",
     ylab = "Promedio acumulado",
     main = "Ley de los Grandes Números - Binomial")

abline(h = media_teorica_bin,
       col = "red",
       lwd = 2)

legend("topright",
       legend = c("Promedio acumulado",
                  "Esperanza teórica"),
       col = c("blue","red"),
       lty = c(1,1),
       lwd = 2)

Interpretación de la Convergencia Binomial

Al inicio existen fluctuaciones considerables; sin embargo, conforme aumenta el número de observaciones, el promedio acumulado converge progresivamente hacia el valor esperado teórico igual a 7.


6. Convergencia Acumulada — Normal

Contexto

Se simula el tiempo de atención de clientes en una institución financiera.

Modelo probabilístico:

\[ X \sim N(50,8) \]

Espacio muestral:

\[ X \in (-\infty,+\infty) \]

La distribución Normal utilizada en este estudio se fundamenta en los planteamientos de Lind (2015), quien señala que este modelo probabilístico es ampliamente utilizado para representar fenómenos continuos relacionados con tiempos, mediciones y procesos administrativos.

Esperanza matemática teórica:

\[ E(X)=50 \]

set.seed(456)

media <- 50
desv <- 8

graficos_norm <- list()

for(i in 1:length(muestras)){

  n <- muestras[i]

  datos <- rnorm(n,
                 mean = media,
                 sd = desv)

  media_muestral <- mean(datos)

  df <- data.frame(x = datos)

  g <- ggplot(df, aes(x)) +

    geom_histogram(aes(y = after_stat(density)),
                   bins = 20,
                   fill = "lightgreen",
                   color = "black") +

    stat_function(
      fun = dnorm,
      args = list(mean = media,
                  sd = desv),
      color = "blue",
      linewidth = 1
    ) +

    geom_vline(
      xintercept = media,
      color = "red",
      linewidth = 1.2
    ) +

    geom_vline(
      xintercept = media_muestral,
      color = "darkgreen",
      linetype = "dashed",
      linewidth = 1
    ) +

    labs(
      title = paste("Distribución Normal n =", n),
      subtitle = paste("Media muestral =", round(media_muestral,3)),
      x = "Tiempo de atención",
      y = "Densidad"
    ) +

    theme_minimal()

  graficos_norm[[i]] <- g
}

grid.arrange(grobs = graficos_norm, ncol = 2)

Interpretación del Experimento Continuo

En muestras pequeñas existen fluctuaciones y dispersión considerable respecto al parámetro poblacional.

Conforme aumenta el tamaño muestral, el histograma adopta progresivamente la forma de la densidad normal teórica y la media converge hacia 50.


7. Convergencia Acumulada — Normal

set.seed(456)

datos_norm <- rnorm(10000,
                    mean = media,
                    sd = desv)

promedios_norm <- cumsum(datos_norm)/(1:10000)

plot(promedios_norm,
     type = "l",
     col = "darkgreen",
     lwd = 2,
     xlab = "Número de observaciones",
     ylab = "Promedio acumulado",
     main = "Ley de los Grandes Números - Normal")

abline(h = media,
       col = "red",
       lwd = 2)

legend("topright",
       legend = c("Promedio acumulado",
                  "Esperanza teórica"),
       col = c("darkgreen","red"),
       lty = c(1,1),
       lwd = 2)

Interpretación de la Convergencia Normal

El promedio acumulado presenta fuertes fluctuaciones al inicio; no obstante, conforme aumenta el número de observaciones, la convergencia hacia la media poblacional se vuelve claramente visible.


8. Conclusiones


9. Referencias

Walpole, R. Probabilidad y Estadística para Ingeniería y Ciencias.

Lind, D. Estadística Aplicada a los Negocios y la Economía.