1 PROBLEMA

1.1 Planteamiento

La simulación ayuda a entender y validar las propiedades de los estimadores estadísticos como son: insesgadez, eficiencia y la consistencia principalmente. El siguiente problema permite evidenciar las principales características de un grupo de estimadores propuestos para la estimación de un parámetro asociado a un modelo de probabilidad.

Sean \(X_1, X_2, X_3\) y \(X_4\), una muestra aleatoria de tamaño \(n=4\), cuya población la conforma una distribución exponencial con parámetro \(θ\) desconocido. Determine las características de cada uno de los siguientes estimadores propuestos:

\[\hat{θ_1} = \frac{X_1 + X_2}{6} + \frac{X_3 + X_4}{3}\] \[\hat{θ_2} = \frac{X_1 + 2X_2 + 3X_3 + 4X_4}{5}\] \[\hat{θ_3} = \frac{X_1 + X_2 + X_3 + X_4}{4}\] \[\hat{θ_4} = \frac{min(X_1, X_2, X_3, X_4) + max(X_1, X_2, X_3, X_4)}{2}\]

2 CONTEXTO Y METODOLOGÍA

La distribución exponencial es una distribución continua que algunas veces se utiliza para modelar el tiempo que transcurre antes de que ocurra un evento. La función de densidad de probabilidad de la distribución exponencial tiene un parámetro, que representa una constante positiva \(\lambda=4\) cuyo valor determina la localización y forma de la función [1], definida como:

\[ f(x) = \left\{ \begin{array}{ll} λe^{−λx}& \text{si } x > 0 \\ 0 & \text{si } x \leq 0 \end{array} \right.\]

La representación gráfica de una muestra \(X\) con \(n\) números aleatorios que siguen una distribución exponencial con parámetro \(\lambda\), se muestra en la siguiente gráfica:

library(dplyr)

lambda=4 # Definición del parámetro
n=1000   # Tamaño de la muestra
X <- rexp(n,rate=1/lambda)  # creación de variables aleatorias con distribución exponencial 
#et.seed(123)  # Establecer una semilla específica
# Graficar histograma
hist(X, breaks = 20, freq = FALSE,
     col = "gray", border = "darkgray",
     main = "",
     xlab = "Valor", ylab = "Densidad de probabilidad")

# Superponer función de densidad de probabilidad exponencial
curve(dexp(x, rate = 1/lambda), add = TRUE, col = "red", lwd = 2)

# Agregar texto con una flecha
text(4, 0.15, expression(lambda), col = "black", adj = 0, pos = 4)
arrows(4.3, 0.14,3, 0.12, col = "black", length = 0.1)
<center>***Figura 1.*** *Histograma de muestra aleatoria X con distribución exponencial*</center>

Figura 1. Histograma de muestra aleatoria X con distribución exponencial

2.0.1 Propiedad de Insesgadez

La propiedad de insesgadez en un estimador estadístico, se refiere a la capacidad para proporcionar estimaciones imparciales del parámetro poblacional de interés. En términos más concretos, un estimador se considera insesgado si, en promedio, no hay una tendencia sistemática a sobrestimar o subestimar el verdadero valor del parámetro. Formalmente, un estimador \(\hat{θ}\) de un parámetro \(θ\) se dice que es insesgado, si el valor esperado (o media) del estimador es igual al verdadero valor del parámetro:

\[E(\hat{θ}) = θ\]

2.0.2 Propiedad de Eficiencia

La eficiencia de un estimador estadístico es una medida de que tan preciso estima el parámetro de interés. En decir que, un estimador es más eficiente que otro si tiene una menor varianza, lo que significa que tiene menos dispersión alrededor del valor verdadero del parámetro (su sesgo es menor), lo que lo hace más deseable en términos de precisión y utilidad en la inferencia estadística. Si el estimador es insesgado, la eficiencia se puede determinar a partir de la varianza (V), de los contrario se puede establecer a partir del error cuadrático medio (ECM), los cuales se definen así:

\[V[\hat{θ1}] < V[\hat{θ3}]\] \[ ECM = \frac{1}{n} \sum_{i=1}^{n} ( \hat{\theta}_i - \theta )^2 \]

2.0.3 Propiedad de consistencia

Un estimador se considera consistente si converge al valor verdadero del parámetro que está tratando de estimar a medida que el tamaño de la muestra tiende a infinito y se define como:

\[\lim_{n \to \infty} E[\hat{θ}]=θ\]

Para el ejercicio actual, en el cual se requiere evaluar las características de los cuatro estimadores, se inicia seleccionando una muestra aleatoria de tamaño \(n=4\) con una distribución exponencial con parámetro \(\lambda=4\). El paso siguiente consiste en calcular los cuatro estimadores con base a la muestra seleccionada. Ahora bien, para probar la insesgadez, eficiencia y consistencia, se repite el proceso para 20, 50, 100 y 1000 muestras, conservando el mismo tamaño de muestral como se representa en la siguiente tabla:

library(dplyr)
library(DT)

set.seed(123)  # Establecer la semilla como 123 
sim=20
lambda=4
esperanza <- matrix(0, nrow = length(sim),ncol=4)
varianza <- matrix(0, nrow = length(sim),ncol=4)
ecm <- matrix(0, nrow = length(sim),ncol=4)
nombre_tabla <- paste0("Tabla_estimadores_S", sim)
num_simul <- paste0(sim,"S")
  
# Inicializar vectores T1, T2, T3 y T4 dentro del bucle interno
T1 <- numeric(sim)
T2 <- numeric(sim)
T3 <- numeric(sim)
T4 <- numeric(sim)

for(j in 1:sim) {  
    X <- rexp(4,rate=1/lambda)  # creación de variables aleatorias con distribución exponencial 
    
    T1[j] <- (X[1]+X[2])/6 + (X[3]+X[4])/3   # definición del estimador 1
    T2[j] <- (X[1]+2*X[2]+3*X[3]+4*X[4])/5   # definición del estimador 2
    T3[j] <- (X[1]+X[2]+X[3]+X[4])/4        # definición del estimador 3 
    T4[j] <- (min(X) + max(X))/2   # definición del estimador 4
   }

assign(nombre_tabla, cbind(T1, T2, T3, T4))  # creación de tabla con resultados


datatable(get(nombre_tabla), rownames = TRUE, filter="top", options = list(pageLength = 5, scrollX=T) ) %>% formatStyle(names(get(nombre_tabla)), backgroundColor = "lightgray")

3 RESULTADOS Y ANALISIS

3.1 Análisis para 20 simulaciones

En este caso donde emplean 20 muestras para el calculo de los estimadores, se determinó la esperanza de cada estimador, como muestra la Tabla 2. A partir de esta información se puede inferir que los estimadores \(\hat{θ1}\) y \(\hat{θ3}\), son los que se acercan más al valor del parámetro \(\lambda=4\), mientras que los estimadores \(\hat{θ4}\) y \(\hat{θ2}\) sobrestiman el valor, siendo este último el más sesgado, posiblemente por el tamaño de la muestra tan pequeño o por las características de las muestra seleccionadas aleatoriamente. Teniendo en cuenta que en este caso se presentan dos estimadores sesgados y otros dos próximos a la insesgadez, se calcula la varianza y el error cuadrático medio para evaluar la eficiencia de cada estimador (Tabla 2). A partir de los valores calculados, se puede observar que el estimador “insesgado” que presenta una menor variabilidad es el \(\hat{θ1}\), con una \(V=3.254\), y el estimador sesgado más eficiente es el \(\hat{θ4}\) con un \(ECM=10.01\).

library(dplyr)
library(DT)

set.seed(123)  # Establecer la semilla como 123 
sim=20
lambda=4
esperanza <- matrix(0, nrow = length(sim),ncol=4)
varianza <- matrix(0, nrow = length(sim),ncol=4)
ecm <- matrix(0, nrow = length(sim),ncol=4)
nombre_tabla <- paste0("Tabla_estimadores_S", sim)
num_simul <- paste0(sim,"S")
  
# Inicializar vectores T1, T2, T3 y T4 dentro del bucle interno
T1 <- numeric(sim)
T2 <- numeric(sim)
T3 <- numeric(sim)
T4 <- numeric(sim)

for(j in 1:sim) {  
    X <- rexp(4,rate=1/lambda)  # creación de variables aleatorias con distribución exponencial 
    
    T1[j] <- (X[1]+X[2])/6 + (X[3]+X[4])/3   # definición del estimador 1
    T2[j] <- (X[1]+2*X[2]+3*X[3]+4*X[4])/5   # definición del estimador 2
    T3[j] <- (X[1]+X[2]+X[3]+X[4])/4        # definición del estimador 3 
    T4[j] <- (min(X) + max(X))/2   # definición del estimador 4
   }

assign(nombre_tabla, cbind(T1, T2, T3, T4))  # creación de tabla con resultados


#datatable(get(nombre_tabla), rownames = TRUE, filter="top", options = list(pageLength = 10, scrollX=T) ) %>% formatStyle(names(get(nombre_tabla)), backgroundColor = "lightgray")
library(pander)
library(knitr)
library(kableExtra)

#Tabla_estimadores_S20

esperanza[1,1:4] <- colMeans(Tabla_estimadores_S20)
varianza[1,1:4] <- apply(Tabla_estimadores_S20,2, var)
ecm[1,1:4] <- apply(Tabla_estimadores_S20, 2, function(columna) mean((columna - lambda)^2))
Tabla <- rbind(Esperanza=esperanza,Varianza=varianza,ECM=ecm)
colnames(Tabla) <- c("$E(\\hat{\\theta1})$","$E(\\hat{\\theta2})$","$E(\\hat{\\theta3})$","$E(\\hat{\\theta4})$")
rownames(Tabla) <-c("Esperanza","Varianza","ECM")

panderOptions('table.alignment.default', 'center')
panderOptions('table.split.table', Inf)
#panderOptions('table.style', 'rmarkdown')
pander(Tabla, caption = "***Tabla 2.*** *Medidas de precisión de los estimadores estadísticos para veinte muestras*",style = "grid",table.font.size = "large")
Tabla 2. Medidas de precisión de los estimadores estadísticos para veinte muestras
  \(E(\hat{\theta1})\) \(E(\hat{\theta2})\) \(E(\hat{\theta3})\) \(E(\hat{\theta4})\)
Esperanza
  3.934
  7.911
  4.069
   4.85
Varianza
  3.254
  16.17
  3.917
  9.774
ECM
  3.095
  30.65
  3.726
  10.01

Como complemento al análisis anterior, se construyeron diagramas radiales para tener una interpretación gráfica de la distribución de los valores arrojados por cada uno de los estimadores en veinte simulaciones, como lo muestra la figura 2. En esta gráfica se puede observar en color rojo el valor del parámetro definido en este ejercicio (\(\lambda=4\)) y los puntos de color azul representan la distancia existente entre los valores de cada uno de los estimadores respecto al centro. Tenido en cuenta lo anterior, se puede inferir que el estimador más segado es \(\hat{θ4}\) mientras que el mejor estimador para esta cantidad de simulaciones es \(\hat{θ1}\), ya que su estimación se encuentra mas próxima al valor del parámetro y ademas tiene una menor variabilidad que los demás.

library(dplyr)
library(plotrix)
  
  # Definición de la función gráfica estilo diana (polar)
  
  generar_grafico_polar <- function(valor_T, lambda) {
      
      radio <- abs(valor_T - lambda)  # definición del radio que es igual a la distancia desde el centro hasta el punto, en este caso desde el parámetro hasta el estimador 
      theta <- seq(0, 2 * pi, length.out = length(radio)) # definición de los ángulos en radianes 
      angle.axis = -90  # definición de angulo para las etiquetas
      rpretty <- c(0,3,6,9,12)
      #rpretty <- pretty(range(abs(radio), 0, na.rm=TRUE),type = "int")  # extracción de los radios representativos para la gráfica
      rmax <- rpretty[length(rpretty)]  # Calculo del radio máximo
      
      plot.new()  # creación de un nuevo plot 
      plot.window(xlim = c(-rmax, rmax),ylim = c(-rmax, rmax),asp = 1)  # limite de las ventana 
      grid <- seq(0, 2 * pi, length = 360 / 5 + 1)  
      for(rad in rpretty){  # Se grafican las circunferencias y se pintan de gris las dos mas cercanas al valor del parámetro 
        if(rad > 0)
          lines(rad * cos(grid), rad * sin(grid), col = "gray",lwd = 2)
          polygon(rpretty[3] * cos(grid), rpretty[3] * sin(grid), col = "lightgray", border = "darkgray", lwd = 2)
          polygon(rpretty[2] * cos(grid), rpretty[2] * sin(grid), col = "gray", border = "black", lwd = 2)
      }
      rad <- seq(0, 2 * pi, length = 4 + 1)[-1]   # se definen las particiones del circulo 
      segments(0, 0, rmax * cos(rad), rmax * sin(rad), col = "gray")  # se grafican los segmentos
      
      
      text(rpretty[-1] * cos(angle.axis * pi / 180), rpretty[-1] * sin(angle.axis * pi / 180), rpretty[-1],cex = 0.7,font = 2)  # Se ponen las etiquetas 
      text(rpretty[-1] * cos(0 * pi / 180), rpretty[-1] * sin(0 * pi / 180), rpretty[-1],cex = 0.7,font = 2)
      
      points(radio * cos(theta),radio * sin(theta),col = "blue", pch = 19, cex = 0.5) # se grafican los valores de los estimadores 
      points(0,0,col = "red", pch = 19, cex = 0.8) # se grafican los valores de los estimadores 
      
      return(invisible(NULL))
  }
  
  num_filas <- 2  # definir numero de filas para el subplot
  num_columnas <- 2  # definir numero de columnas para el subplot
  par(mfrow = c(num_filas, num_columnas)) # Dividir el área de la gráfica en un subplot
  
  for (k in 1:4){
    
    valor_T <- Tabla_estimadores_S20[,k]
    generar_grafico_polar(valor_T , lambda)
    title(main = paste0("Estimador θ", k))
  }
<center>***Figura 2.*** *Diagramas radiales de cada estimador para 20 simualciones*</center>

Figura 2. Diagramas radiales de cada estimador para 20 simualciones

Asimismo, en la Figura 3 se muestra el diagrama de cajas y bigotes e histograma de cada estimador, confirmando lo inferido en la Tabla 2 y Figura 2. De este gráfico se observa que los valores de los cuatro estimadores muestran una distribución asimétrica, siendo \(\hat{θ3}\) y \(\hat{θ4}\) los que exhibe una leve tendencia a presentar una asimetría hacia la derecha. Por otro lado, se puede observar que efectivamente \(\hat{θ1}\) y \(\hat{θ3}\) son los que mejor representan la estimación del parámetro, pues su valor medio (punto azul) esta muy próximo al valor de \(\lambda=4\) (linea roja), mientras que \(\hat{θ2}\) y \(\hat{θ4}\) por la variabilidad de las estimaciones calculadas a partir de las muestras aleatorias, sesgaron los valores, sobrestimandolos. Asimismo, se puede observar la gran variabilidad que tiene \(\hat{θ2}\), si embrago es el que mayor simetría tiene pues la distancia entre \(Q_1\), \(Q_3\) y su mediana es similar.

par(mfrow = c(4, 2)) 

#Fila 1 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S20[,1], horizontal = TRUE, main = "Boxplot θ1", ylim = c(0, 20))
abline(v = 4, col = "red")
points(esperanza[1,1],1, col = "blue", pch = 19)

min_value <- min(Tabla_estimadores_S20[,1])
max_value <- max(Tabla_estimadores_S20[,1])
n <- length(Tabla_estimadores_S20[,1])
binwidth <- (max_value - min_value) / sqrt(n)
breaks <- seq(min_value - binwidth/2, max_value + binwidth/2, by = binwidth)
hist(Tabla_estimadores_S20[,1],breaks = breaks, main = "Histograma θ1", xlab=" ", ylab="Frecuencia",xlim = c(0, 20),ylim = c(0, 10))


#Fila  2 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S20[,2], horizontal = TRUE, main = "Boxplot θ2", ylim = c(0, 20))
abline(v = 4, col = "red")
points(esperanza[1,2],1, col = "blue", pch = 19)

min_value <- min(Tabla_estimadores_S20[,2])
max_value <- max(Tabla_estimadores_S20[,2])
n <- length(Tabla_estimadores_S20[,2])
binwidth <- (max_value - min_value) / sqrt(n)
hist(Tabla_estimadores_S20[,2], main = "Histograma θ2",xlab=" ",ylab ="Frecuencias",xlim = c(0, 20),ylim = c(0, 10))


#Fila  3 - Boxplot horizontal y histograma para el tercer conjunto de datos
boxplot(Tabla_estimadores_S20[,3], horizontal = TRUE, main = "Boxplot θ3", ylim = c(0, 20))
abline(v = 4, col = "red")
points(esperanza[1,3],1, col = "blue", pch = 19)

min_value <- min(Tabla_estimadores_S20[,3])
max_value <- max(Tabla_estimadores_S20[,3])
n <- length(Tabla_estimadores_S20[,3])
binwidth <- (max_value - min_value) / sqrt(n)
hist(Tabla_estimadores_S20[,3], main = "Histograma θ3",xlab=" ", ylab ="Frecuencias",xlim = c(0, 20),ylim = c(0, 10))


#Fila  4 - Boxplot horizontal y histograma para el cuarto conjunto de datos
boxplot(Tabla_estimadores_S20[,4], horizontal = TRUE, main = "Boxplot θ4", ylim = c(0, 20))
abline(v = 4, col = "red")
points(esperanza[1,4],1, col = "blue", pch = 19)

min_value <- min(Tabla_estimadores_S20[,4])
max_value <- max(Tabla_estimadores_S20[,4])
n <- length(Tabla_estimadores_S20[,4])
binwidth <- (max_value - min_value) / sqrt(n)
hist(Tabla_estimadores_S20[,4], main = "Histograma θ4",xlab="Estimaciones",ylab ="Frecuencias",xlim = c(0, 20),ylim = c(0, 10))
<center>***Figura 3.*** *Diagramas de cajas y bigotes e histrograma de cada estimador para 20 simualciones*</center>

Figura 3. Diagramas de cajas y bigotes e histrograma de cada estimador para 20 simualciones

3.2 Análisis para 50 simulaciones

Al analizar los resultados obtenidos para los cuatro estimadores a partir de 50 muestras (Tabla 3), se evidencian diferencias significativas en sus propiedades estadísticas. Comenzando con el sesgo, observamos que el estimador \(\hat{θ1}\) muestra un sesgo moderado, con una esperanza de alrededor de 3.757, lo que sugiere que tiende a subestimar ligeramente el verdadero valor del parámetro. Por otro lado, el estimador \(\hat{θ2}\) exhibe un sesgo más pronunciado, con una esperanza de 7.438, indicando una tendencia a sobreestimar el parámetro.

En cuanto a la precisión, la varianza proporciona una medida de dispersión de los valores estimados. Aquí, \(\hat{θ1}\) muestra una varianza de aproximadamente 3.899, lo que sugiere una dispersión moderada en torno a la media. Sin embargo, \(\hat{θ2}\) presenta una varianza mucho más alta, alrededor de 15.58, indicando una mayor variabilidad en sus estimaciones. Esto se refleja también en el Error Cuadrático Medio (ECM), donde \(\hat{θ2}\) exhibe un ECM significativamente más alto, alrededor de 27.09, en comparación con los otros estimadores.

A partir de estos resultados, podemos concluir que ninguno de los estimadores es ideal en todos los aspectos. Mientras que \(\hat{θ1}\) muestra un sesgo moderado y una precisión aceptable, \(\hat{θ2}\) es más sesgado y menos preciso. Por otro lado, el estimadores \(\hat{θ3}\) parece tener un sesgo más bajo y una precisión similar a la del estimador \(\hat{θ1}\), lo que lo convierte en una opción más atractivas en términos de equilibrio entre sesgo y precisión.

library(dplyr)
library(DT)
set.seed(456)  # Establecer la semilla como 456
sim=50
lambda=4
esperanza <- matrix(0, nrow = length(sim),ncol=4)
varianza <- matrix(0, nrow = length(sim),ncol=4)
ecm <- matrix(0, nrow = length(sim),ncol=4)
nombre_tabla <- paste0("Tabla_estimadores_S", sim)
num_simul <- paste0(sim,"S")
  
# Inicializar vectores T1, T2, T3 y T4 dentro del bucle interno
T1 <- numeric(sim)
T2 <- numeric(sim)
T3 <- numeric(sim)
T4 <- numeric(sim)

for(j in 1:sim) {  
    X <- rexp(4,rate=1/lambda)  # creación de variables aleatorias con distribución exponencial 
    
    T1[j] <- (X[1]+X[2])/6 + (X[3]+X[4])/3   # definición del estimador 1
    T2[j] <- (X[1]+2*X[2]+3*X[3]+4*X[4])/5   # definición del estimador 2
    T3[j] <- (X[1]+X[2]+X[3]+X[4])/4        # definición del estimador 3 
    T4[j] <- (min(X) + max(X))/2   # definición del estimador 4
   }

assign(nombre_tabla, cbind(T1, T2, T3, T4))  # creación de tabla con resultados


#datatable(get(nombre_tabla), rownames = TRUE, filter="top", options = list(pageLength = 10, scrollX=T) ) %>% formatStyle(names(get(nombre_tabla)), backgroundColor = "lightgray")
library(pander)
library(knitr)
library(kableExtra)

esperanza[1,1:4] <- colMeans(Tabla_estimadores_S50)
varianza[1,1:4] <- apply(Tabla_estimadores_S50,2, var)
ecm[1,1:4] <- apply(Tabla_estimadores_S50, 2, function(columna) mean((columna - lambda)^2))
Tabla <- rbind(Esperanza=esperanza,Varianza=varianza,ECM=ecm)
colnames(Tabla) <- c("$E(\\hat{\\theta1})$","$E(\\hat{\\theta2})$","$E(\\hat{\\theta3})$","$E(\\hat{\\theta4})$")
rownames(Tabla) <-c("Esperanza","Varianza","ECM")

panderOptions('table.alignment.default', 'center')
panderOptions('table.split.table', Inf)
#panderOptions('table.style', 'rmarkdown')
pander(Tabla, caption = "***Tabla 3.*** *Medidas de precisión de los estimadores estadísticos para cincuenta muestras*",style = "grid",table.font.size = "large")
Tabla 3. Medidas de precisión de los estimadores estadísticos para cincuenta muestras
  \(E(\hat{\theta1})\) \(E(\hat{\theta2})\) \(E(\hat{\theta3})\) \(E(\hat{\theta4})\)
Esperanza
  3.757
  7.438
  3.838
  4.363
Varianza
  3.899
  15.58
  4.006
  4.697
ECM
   3.88
  27.09
  3.952
  4.735

En función de la diferencia entre el valor generado por cada estimador y el parámetro (\(sesgo=E(\hat{θ})-θ\)), se construyen los diagramas radiales para cada caso, a partir de los cuales obtiene información adicional de interés sobre la calidad de las estimaciones. En la Figura 4 se observa que las estimaciones para esta cantidad de muestras tienden a concentrarse un poco más al rededor del parámetro en cada caso, sin embargo los estimadores \(\hat{θ2}\) y \(\hat{θ4}\) muestran una mayor dispersión de puntos alejados del centro, lo que indica una mayor variabilidad de los valores y por tanto menor precisión en la estimación. Por el contrario, los estimadores \(\hat{θ1}\) y \(\hat{θ3}\) muestran poca variabilidad, siendo este ultimo el de mayor precisión.

library(dplyr)
library(plotrix)
  
  # Definición de la función gráfica estilo diana (polar)
  
  generar_grafico_polar <- function(valor_T, lambda) {
      
      radio <- abs(valor_T - lambda)  # definición del radio que es igual a la distancia desde el centro hasta el punto, en este caso desde el parámetro hasta el estimador 
      theta <- seq(0, 2 * pi, length.out = length(radio)) # definición de los ángulos en radianes 
      angle.axis = -90  # definición de angulo para las etiquetas
      rpretty <- c(0,5,10,15,20)
      #rpretty <- pretty(range(abs(radio), 0, na.rm=TRUE),type = "int")  # extracción de los radios representativos para la gráfica
      rmax <- rpretty[length(rpretty)]  # Calculo del radio máximo
      
      plot.new()  # creación de un nuevo plot 
      plot.window(xlim = c(-rmax, rmax),ylim = c(-rmax, rmax),asp = 1)  # limite de las ventana 
      grid <- seq(0, 2 * pi, length = 360 / 5 + 1)  
      for(rad in rpretty){  # Se grafican las circunferencias y se pintan de gris las dos mas cercanas al valor del parámetro 
        if(rad > 0)
          lines(rad * cos(grid), rad * sin(grid), col = "gray",lwd = 2)
          polygon(rpretty[3] * cos(grid), rpretty[3] * sin(grid), col = "lightgray", border = "darkgray", lwd = 2)
          polygon(rpretty[2] * cos(grid), rpretty[2] * sin(grid), col = "gray", border = "black", lwd = 2)
      }
      rad <- seq(0, 2 * pi, length = 4 + 1)[-1]   # se definen las particiones del circulo 
      segments(0, 0, rmax * cos(rad), rmax * sin(rad), col = "gray")  # se grafican los segmentos
      
      
      text(rpretty[-1] * cos(angle.axis * pi / 180), rpretty[-1] * sin(angle.axis * pi / 180), rpretty[-1],cex = 0.7,font = 2)  # Se ponen las etiquetas 
      text(rpretty[-1] * cos(0 * pi / 180), rpretty[-1] * sin(0 * pi / 180), rpretty[-1],cex = 0.7,font = 2)
      
      points(radio * cos(theta),radio * sin(theta),col = "blue", pch = 19, cex = 0.5) # se grafican los valores de los estimadores 
      points(0,0,col = "red", pch = 19, cex = 0.8) # se grafican los valores de los estimadores 
      
      return(invisible(NULL))
  }
  
  num_filas <- 2  # definir numero de filas para el subplot
  num_columnas <- 2  # definir numero de columnas para el subplot
  par(mfrow = c(num_filas, num_columnas)) # Dividir el área de la gráfica en un subplot
  
  for (k in 1:4){
    
    valor_T <- Tabla_estimadores_S50[,k]
    generar_grafico_polar(valor_T , lambda)
    title(main = paste0("Estimador θ", k))
  }
<center>***Figura 4.*** *Diagramas radiales de cada estimador para 50 simualciones*</center>

Figura 4. Diagramas radiales de cada estimador para 50 simualciones

Complementando los análisis anteriores, en la figura 5 se visualiza como los cuatro estimadores muestran un cierta asimetría positiva (distribución sesgada a la derecha), siendo la del estimador \(\hat{θ2}\) la más marcada, contrastante con su diagrama de cajas y bigotes que además de mostrar diferencias notables entre los cuartiles \(Q_1\) y \(Q_3\) respecto a la mediana, es el que mayor rango intercuartílico tiene (\(IQR=3.734\)), sugiriendo la alta variabilidad de los valores estimados. Adicionalmente, se destaca la presencia de outliers en todos los estimadores que podrían deberse a características inesperadas en las muestras aleatorias o a su tamaño; sin embargo en el caso de \(\hat{θ1}\), \(\hat{θ3}\) y \(\hat{θ4}\) estos no parecen afectar fuertemente las estimaciones, pues sus valores esperados se encuentran muy próximos al valor real, mientras que en el estimador \(\hat{θ2}\) , estos podrían estar influenciando la precisión y eficiencia de sus estimaciones o también podría ser por la naturaleza propia del estimador.

par(mfrow = c(4, 2)) 

#Fila 1 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S50[,1], horizontal = TRUE, main = "Boxplot θ1", ylim = c(0, 25))
abline(v = 4, col = "red")
points(esperanza[1,1],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S50[,1], main = "Histograma θ1", xlab=" ", ylab="Frecuencia", xlim = c(0,25), ylim = c(0,30))

# Obtener el límite inferior y superior
#limite_inferior <- boxplot.stats(Tabla_estimadores_S50[,1])$stats[1]
#limite_superior <- boxplot.stats(Tabla_estimadores_S50[,1])$stats[5]
#idx<-Tabla_estimadores_S50[,1] > limite_inferior & Tabla_estimadores_S50[,1] < limite_superior # eliminación de los outliers
#sin_out<-Tabla_estimadores_S50[idx,1] 
#hist(sin_out, main = "Histograma θ1 sin outliers", xlab=" ", ylab="Frecuencia", xlim = c(0,15), ylim = c(0,15))


#Fila  2 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S50[,2], horizontal = TRUE, main = "Boxplot θ2", ylim = c(0, 25))
abline(v = 4, col = "red")
points(esperanza[1,2],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S50[,2], main = "Histograma θ2",xlab=" ",ylab ="Frecuencias", xlim = c(0,25), ylim = c(0,30))

#Obtener el límite inferior y superior
#limite_inferior <- boxplot.stats(Tabla_estimadores_S50[,2])$stats[1]
#limite_superior <- boxplot.stats(Tabla_estimadores_S50[,2])$stats[5]
#idx<-Tabla_estimadores_S50[,2] > limite_inferior & Tabla_estimadores_S50[,2] < limite_superior # eliminación de los outliers
#sin_out<-Tabla_estimadores_S50[idx,2] 
#hist(sin_out, main = "Histograma θ2 sin outliers", xlab=" ", ylab="Frecuencia", xlim = c(0,15), ylim = c(0,15)) 


#Fila  3 - Boxplot horizontal y histograma para el tercer conjunto de datos
boxplot(Tabla_estimadores_S50[,3], horizontal = TRUE, main = "Boxplot θ3", ylim = c(0, 25))
abline(v = 4, col = "red")
points(esperanza[1,3],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S50[,3], main = "Histograma θ3",xlab=" ", ylab ="Frecuencias", xlim = c(0,25), ylim = c(0,30))

#Obtener el límite inferior y superior
#limite_inferior <- boxplot.stats(Tabla_estimadores_S50[,3])$stats[1]
#limite_superior <- boxplot.stats(Tabla_estimadores_S50[,3])$stats[5]
#idx<-Tabla_estimadores_S50[,3] > limite_inferior & Tabla_estimadores_S50[,3] < limite_superior # eliminación de los outliers
#sin_out<-Tabla_estimadores_S50[idx,3] 
#hist(sin_out, main = "Histograma θ3 sin outliers", xlab=" ", ylab="Frecuencia", xlim = c(0,15), ylim = c(0,15))


#Fila  4 - Boxplot horizontal y histograma para el cuarto conjunto de datos
boxplot(Tabla_estimadores_S50[,4], horizontal = TRUE, main = "Boxplot θ4", ylim = c(0, 25))
abline(v = 4, col = "red")
points(esperanza[1,4],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S50[,4], main = "Histograma θ4",xlab="Estimaciones",ylab ="Frecuencias", xlim = c(0,25), ylim = c(0,30))
<center>***Figura 5.*** *Diagramas de cajas y bigotes e histrograma de cada estimador para 50 simualciones*</center>

Figura 5. Diagramas de cajas y bigotes e histrograma de cada estimador para 50 simualciones

#Obtener el límite inferior y superior
#limite_inferior <- boxplot.stats(Tabla_estimadores_S50[,4])$stats[1]
#limite_superior <- boxplot.stats(Tabla_estimadores_S50[,4])$stats[5]
#idx<-Tabla_estimadores_S50[,4] > limite_inferior & Tabla_estimadores_S50[,4] < limite_superior # eliminación de los outliers
#sin_out<-Tabla_estimadores_S50[idx,4] 
#hist(sin_out, main = "Histograma θ4 sin outliers", xlab=" ", ylab="Frecuencia", xlim = c(0,15), ylim = c(0,15))

3.3 Análisis para 100 simulaciones

Con base en los resultados obtenidos de los cuatro estimadores propuestos para las 100 muestras (Tabla 4), se observa que el estimador \(\hat{θ1}\) tiene un valor esperado de 4.118, lo que indica que tiende a sobrestimar ligeramente el verdadero valor del parámetro. Por otro lado, los estimadores \(\hat{θ2}\) y \(\hat{θ4}\) muestran una mayor tendencia a la sobrestimación, con esperanzas de 8.304 y 4.682 respectivamente, mientras que \(\hat{θ3}\) parece ser el más cercano a ser insesgado con una esperanza de 4.055. En términos de eficiencia, se infiere que \(\hat{θ2}\) presenta un error cuadrático medio más alto con 39.16, lo que indica una mayor dispersión de sus estimaciones alrededor de la verdadera media poblacional. Por el contrario, \(\hat{θ3}\) muestra la varianza más baja con 3.941, lo que sugiere una mejor capacidad para estimar el parámetro en comparación con los otros estimadores.

library(dplyr)
library(DT)
set.seed(789)  # Establecer la semilla como 789
sim=100
lambda=4
esperanza <- matrix(0, nrow = length(sim),ncol=4)
varianza <- matrix(0, nrow = length(sim),ncol=4)
ecm <- matrix(0, nrow = length(sim),ncol=4)
nombre_tabla <- paste0("Tabla_estimadores_S", sim)
num_simul <- paste0(sim,"S")
  
# Inicializar vectores T1, T2, T3 y T4 dentro del bucle interno
T1 <- numeric(sim)
T2 <- numeric(sim)
T3 <- numeric(sim)
T4 <- numeric(sim)

for(j in 1:sim) {  
    X <- rexp(4,rate=1/lambda)  # creación de variables aleatorias con distribución exponencial 
    
    T1[j] <- (X[1]+X[2])/6 + (X[3]+X[4])/3   # definición del estimador 1
    T2[j] <- (X[1]+2*X[2]+3*X[3]+4*X[4])/5   # definición del estimador 2
    T3[j] <- (X[1]+X[2]+X[3]+X[4])/4        # definición del estimador 3 
    T4[j] <- (min(X) + max(X))/2   # definición del estimador 4
   }

assign(nombre_tabla, cbind(T1, T2, T3, T4))  # creación de tabla con resultados


#datatable(get(nombre_tabla), rownames = TRUE, filter="top", options = list(pageLength = 10, scrollX=T) ) %>% formatStyle(names(get(nombre_tabla)), backgroundColor = "lightgray")
library(pander)
library(knitr)
library(kableExtra)

esperanza[1,1:4] <- colMeans(Tabla_estimadores_S100)
varianza[1,1:4] <- apply(Tabla_estimadores_S100,2, var)
ecm[1,1:4] <- apply(Tabla_estimadores_S100, 2, function(columna) mean((columna - lambda)^2))
Tabla <- rbind(Esperanza=esperanza,Varianza=varianza,ECM=ecm)
colnames(Tabla) <- c("$E(\\hat{\\theta1})$","$E(\\hat{\\theta2})$","$E(\\hat{\\theta3})$","$E(\\hat{\\theta4})$")
rownames(Tabla) <-c("Esperanza","Varianza","ECM")

panderOptions('table.alignment.default', 'center')
panderOptions('table.split.table', Inf)
#panderOptions('table.style', 'rmarkdown')
pander(Tabla, caption = "***Tabla 4.*** *Medidas de precisión de los estimadores estadísticos para cien simulaciones*",style = "grid",table.font.size = "large")
Tabla 4. Medidas de precisión de los estimadores estadísticos para cien simulaciones
  \(E(\hat{\theta1})\) \(E(\hat{\theta2})\) \(E(\hat{\theta3})\) \(E(\hat{\theta4})\)
Esperanza
  4.118
  8.304
  4.055
  4.682
Varianza
  4.512
  20.84
  3.941
  6.892
ECM
   4.48
  39.16
  3.904
  7.288

De acuerdo con el sesgo calculado para los valores obtenidos por cada estimador, se observa en los diagramas radiales (Figura 6), que para esta cantidad de muestras, las estimaciones tienden a agruparse más cerca del valor del parámetro en comparación con el caso de 50 simulaciones. A pesar de esta mejora, los estimadores \(\hat{θ2}\) y \(\hat{θ4}\) todavía exhiben una dispersión considerable de puntos, lo que sugiere una mayor variabilidad y, por ende, una menor precisión en la estimación. Por otro lado, los estimadores \(\hat{θ1}\) y \(\hat{θ3}\) muestran una menor variabilidad en sus estimaciones, lo que indica una mayor precisión, especialmente destacable en el caso de \(\hat{θ3}\), que presenta una dispersión mínima de valores alrededor del verdadero parámetro.

library(dplyr)
library(plotrix)
  
  # Definición de la función gráfica estilo diana (polar)
  
  generar_grafico_polar <- function(valor_T, lambda) {
      
      radio <- abs(valor_T - lambda)  # definición del radio que es igual a la distancia desde el centro hasta el punto, en este caso desde el parámetro hasta el estimador 
      theta <- seq(0, 2 * pi, length.out = length(radio)) # definición de los ángulos en radianes 
      angle.axis = -90  # definición de angulo para las etiquetas
      rpretty <- c(0,5,10,20,30)
      #rpretty <- pretty(range(abs(radio), 0, na.rm=TRUE),type = "int")  # extracción de los radios representativos para la gráfica
      rmax <- rpretty[length(rpretty)]  # Calculo del radio máximo
      
      plot.new()  # creación de un nuevo plot 
      plot.window(xlim = c(-rmax, rmax),ylim = c(-rmax, rmax),asp = 1)  # limite de las ventana 
      grid <- seq(0, 2 * pi, length = 360 / 5 + 1)  
      for(rad in rpretty){  # Se grafican las circunferencias y se pintan de gris las dos mas cercanas al valor del parámetro 
        if(rad > 0)
          lines(rad * cos(grid), rad * sin(grid), col = "gray",lwd = 2)
          polygon(rpretty[3] * cos(grid), rpretty[3] * sin(grid), col = "lightgray", border = "darkgray", lwd = 2)
          polygon(rpretty[2] * cos(grid), rpretty[2] * sin(grid), col = "gray", border = "black", lwd = 2)
      }
      rad <- seq(0, 2 * pi, length = 4 + 1)[-1]   # se definen las particiones del circulo 
      segments(0, 0, rmax * cos(rad), rmax * sin(rad), col = "gray")  # se grafican los segmentos
      
      
      text(rpretty[-1] * cos(angle.axis * pi / 180), rpretty[-1] * sin(angle.axis * pi / 180), rpretty[-1],cex = 0.7,font = 2)  # Se ponen las etiquetas 
      text(rpretty[-1] * cos(0 * pi / 180), rpretty[-1] * sin(0 * pi / 180), rpretty[-1],cex = 0.7,font = 2)
      
      points(radio * cos(theta),radio * sin(theta),col = "blue", pch = 19, cex = 0.5) # se grafican los valores de los estimadores 
      points(0,0,col = "red", pch = 19, cex = 0.8) # se grafican los valores de los estimadores 
      
      return(invisible(NULL))
  }
  
  num_filas <- 2  # definir numero de filas para el subplot
  num_columnas <- 2  # definir numero de columnas para el subplot
  par(mfrow = c(num_filas, num_columnas)) # Dividir el área de la gráfica en un subplot
  
  for (k in 1:4){
    
    valor_T <- Tabla_estimadores_S100[,k]
    generar_grafico_polar(valor_T , lambda)
    title(main = paste0("Estimador θ", k))
  }
<center>***Figura 6.*** *Diagramas radiales de cada estimador para 100 simualciones*</center>

Figura 6. Diagramas radiales de cada estimador para 100 simualciones

En complemento a los análisis previos, en la figura 7 se destaca la persistencia de una ligera asimetría positiva en los cuatro estimadores, indicando una distribución sesgada hacia la derecha. Este sesgo es un poco más pronunciado en el caso de \(\hat{θ4}\) lo cual se refleja en su diagrama de caja y bigotes, donde se evidencia una mayor diferencia entre los cuartiles \(Q_1\) y \(Q_3\) en relación con la mediana. Sin embargo, es importante señalar que \(\hat{θ2}\) exhibe el rango intercuartílico más amplio, seguido por \(\hat{θ4}\), con valores de \(IQR\) de 5.089 y 3.025, respectivamente. Esto sugiere una mayor variabilidad en las estimaciones para estos dos estimadores. Aunque todos los estimadores presentan valores atípicos, en el caso de \(\hat{θ1}\), \(\hat{θ3}\) y \(\hat{θ4}\) estos no parecen influir significativamente en las estimaciones, ya que sus valores esperados están muy cercanos al verdadero parámetro.

par(mfrow = c(4, 2)) 

#Fila 1 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S100[,1], horizontal = TRUE, main = "Boxplot θ1", ylim = c(0, 35))
abline(v = 4, col = "red")
points(esperanza[1,1],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S100[,1], main = "Histograma θ1", xlab=" ", ylab="Frecuencia", xlim = c(0,35), ylim = c(0,50))


#Fila  2 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S100[,2], horizontal = TRUE, main = "Boxplot θ2", ylim = c(0, 35))
abline(v = 4, col = "red")
points(esperanza[1,2],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S100[,2], main = "Histograma θ2",xlab=" ",ylab ="Frecuencias", xlim = c(0,35), ylim = c(0,50))

#Fila  3 - Boxplot horizontal y histograma para el tercer conjunto de datos
boxplot(Tabla_estimadores_S100[,3], horizontal = TRUE, main = "Boxplot θ3", ylim = c(0, 35))
abline(v = 4, col = "red")
points(esperanza[1,3],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S100[,3], main = "Histograma θ3",xlab=" ", ylab ="Frecuencias", xlim = c(0,35), ylim = c(0,50))

#Fila  4 - Boxplot horizontal y histograma para el cuarto conjunto de datos
boxplot(Tabla_estimadores_S100[,4], horizontal = TRUE, main = "Boxplot θ4", ylim = c(0, 35))
abline(v = 4, col = "red")
points(esperanza[1,4],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S100[,4], main = "Histograma θ4",xlab="Estimaciones",ylab ="Frecuencias", xlim = c(0,35), ylim = c(0,50))
<center>***Figura 7.*** *Diagramas de cajas y bigotes e histrograma de cada estimador para 100 simualciones*</center>

Figura 7. Diagramas de cajas y bigotes e histrograma de cada estimador para 100 simualciones

3.4 Análisis para 1000 simulaciones

Partiendo de la siguiente tabla, se observa que el estimador \(\hat{\theta}_1\) tiene la esperanza más cercana al valor verdadero de \(\theta\), con un valor esperado de 3.996, lo que sugiere una menor tendencia a sesgarse en comparación con los otros estimadores. Sin embargo, es fundamental considerar también la varianza, ya que un estimador puede ser insesgado pero poco eficiente si su varianza es alta. En este caso, \(\hat{\theta}_2\) exhibe la mayor esperanza y su varianza es significativamente más alta que la de los otros estimadores, lo que indica una menor eficiencia en términos de precisión. Por otro lado, el estimador \(\hat{\theta}_3\) muestra la menor varianza y el menor error cuadrático medio (ECM). En resumen, si bien el estimador \(\hat{\theta}_1\) es el más insesgado, el estimador \(\hat{\theta}_3\) es el más eficiente en términos de precisión, lo que lo convierte en una la mejor opción para estimar el parámetro \(\theta\) con mayor exactitud.

Por otro lado, teniendo en cuenta que la propiedad de un estimador se refiere a su capacidad para converger hacia el valor real del parámetro a medida que el tamaño de la muestra aumenta infinitamente, se analiza esta propiedad para los cuatro estimadores, a partir de los resultados obtenidos de las mil muestras. Se observa que los valores esperados de \(\hat{\theta}_1\), \(\hat{\theta}_2\), \(\hat{\theta}_3\) y \(\hat{\theta}_4\) son respectivamente 3.996, 8.013, 3.953 y 4.563. Si comparamos estos valores con el verdadero valor del parámetro, que es 4, notamos que los estimadores \(\hat{\theta}_1\) y \(\hat{\theta}_3\) están más cerca del valor real en comparación con \(\hat{\theta}_2\) y \(\hat{\theta}_4\). Esto sugiere que los dos primeros (\(\hat{\theta}_1\) y \(\hat{\theta}_3\)) son más consistentes en sus estimaciones. Además, considerando la varianza y el error cuadrático medio (ECM) de los estimadores, se observa que \(\hat{\theta}_3\) tiene la menor varianza (3.941) y el ECM más bajo (3.874), lo que indica una mayor precisión y convergencia hacia el valor real del parámetro a medida que aumenta el tamaño de la muestra. Por lo tanto, basándonos en estos resultados, podemos concluir que \(\hat{\theta}_3\) muestra una mayor consistencia en sus estimaciones en comparación con los otros estimadores en el contexto de 1000 muestras.

library(dplyr)
library(DT)
set.seed(101)  # Establecer la semilla como 101
sim=1000
lambda=4
esperanza <- matrix(0, nrow = length(sim),ncol=4)
varianza <- matrix(0, nrow = length(sim),ncol=4)
ecm <- matrix(0, nrow = length(sim),ncol=4)
nombre_tabla <- paste0("Tabla_estimadores_S", sim)
num_simul <- paste0(sim,"S")
  
# Inicializar vectores T1, T2, T3 y T4 dentro del bucle interno
T1 <- numeric(sim)
T2 <- numeric(sim)
T3 <- numeric(sim)
T4 <- numeric(sim)

for(j in 1:sim) {  
    X <- rexp(4,rate=1/lambda)  # creación de variables aleatorias con distribución exponencial 
    
    T1[j] <- (X[1]+X[2])/6 + (X[3]+X[4])/3   # definición del estimador 1
    T2[j] <- (X[1]+2*X[2]+3*X[3]+4*X[4])/5   # definición del estimador 2
    T3[j] <- (X[1]+X[2]+X[3]+X[4])/4        # definición del estimador 3 
    T4[j] <- (min(X) + max(X))/2   # definición del estimador 4
   }

assign(nombre_tabla, cbind(T1, T2, T3, T4))  # creación de tabla con resultados


#datatable(get(nombre_tabla), rownames = TRUE, filter="top", options = list(pageLength = 10, scrollX=T) ) %>% formatStyle(names(get(nombre_tabla)), backgroundColor = "lightgray")
library(pander)
library(knitr)
library(kableExtra)

esperanza[1,1:4] <- colMeans(Tabla_estimadores_S1000)
varianza[1,1:4] <- apply(Tabla_estimadores_S1000,2, var)
ecm[1,1:4] <- apply(Tabla_estimadores_S1000, 2, function(columna) mean((columna - lambda)^2))
Tabla <- rbind(Esperanza=esperanza,Varianza=varianza,ECM=ecm)
colnames(Tabla) <- c("$E(\\hat{\\theta1})$","$E(\\hat{\\theta2})$","$E(\\hat{\\theta3})$","$E(\\hat{\\theta4})$")
rownames(Tabla) <-c("Esperanza","Varianza","ECM")

panderOptions('table.alignment.default', 'center')
panderOptions('table.split.table', Inf)
#panderOptions('table.style', 'rmarkdown')
pander(Tabla, caption = "***Tabla 5.*** *Medidas de precisión de los estimadores estadísticos para mil simulaciones*",style = "grid",table.font.size = "large")
Tabla 5. Medidas de precisión de los estimadores estadísticos para mil simulaciones
  \(E(\hat{\theta1})\) \(E(\hat{\theta2})\) \(E(\hat{\theta3})\) \(E(\hat{\theta4})\)
Esperanza
  3.996
  8.013
  3.953
  4.563
Varianza
  4.502
  19.53
  3.876
  5.799
ECM
  4.498
  35.61
  3.874
   6.11

Al observar los diagramas radiales (Figura 8), se evidencia una notable tendencia de las estimaciones a agruparse más cerca del valor del parámetro con el aumento del número de muestras. Sin embargo, se aprecia que el estimador \(\hat{\theta}_2\) continúa mostrando una dispersión considerable en sus estimaciones, mientras que \(\hat{\theta}_4\) ha logrado reducir ligeramente su variabilidad, lo que se traduce en una mejora en su precisión. En contraste, tanto \(\hat{\theta}_1\) como \(\hat{\theta}_3\) muestran una menor variabilidad en sus estimaciones, siendo este último el que exhibe una dispersión mínima alrededor del verdadero parámetro, lo que indica una alta precisión en sus estimaciones.

library(dplyr)
library(plotrix)
  
  # Definición de la función gráfica estilo diana (polar)
  
  generar_grafico_polar <- function(valor_T, lambda) {
      
      radio <- abs(valor_T - lambda)  # definición del radio que es igual a la distancia desde el centro hasta el punto, en este caso desde el parámetro hasta el estimador 
      theta <- seq(0, 2 * pi, length.out = length(radio)) # definición de los ángulos en radianes 
      angle.axis = -90  # definición de angulo para las etiquetas
      rpretty <- c(0,4,8,16,24,32)
      #rpretty <- pretty(range(abs(radio), 0, na.rm=TRUE),type = "int")  # extracción de los radios representativos para la gráfica
      rmax <- rpretty[length(rpretty)]  # Calculo del radio máximo
      
      plot.new()  # creación de un nuevo plot 
      plot.window(xlim = c(-rmax, rmax),ylim = c(-rmax, rmax),asp = 1)  # limite de las ventana 
      grid <- seq(0, 2 * pi, length = 360 / 5 + 1)  
      for(rad in rpretty){  # Se grafican las circunferencias y se pintan de gris las dos mas cercanas al valor del parámetro 
        if(rad > 0)
          lines(rad * cos(grid), rad * sin(grid), col = "gray",lwd = 2)
          polygon(rpretty[3] * cos(grid), rpretty[3] * sin(grid), col = "lightgray", border = "darkgray", lwd = 2)
          polygon(rpretty[2] * cos(grid), rpretty[2] * sin(grid), col = "gray", border = "black", lwd = 2)
      }
      rad <- seq(0, 2 * pi, length = 4 + 1)[-1]   # se definen las particiones del circulo 
      segments(0, 0, rmax * cos(rad), rmax * sin(rad), col = "gray")  # se grafican los segmentos
      
      
      text(rpretty[-1] * cos(angle.axis * pi / 180), rpretty[-1] * sin(angle.axis * pi / 180), rpretty[-1],cex = 0.7,font = 2)  # Se ponen las etiquetas 
      text(rpretty[-1] * cos(0 * pi / 180), rpretty[-1] * sin(0 * pi / 180), rpretty[-1],cex = 0.7,font = 2)
      
      points(radio * cos(theta),radio * sin(theta),col = "blue", pch = 19, cex = 0.5) # se grafican los valores de los estimadores 
      points(0,0,col = "red", pch = 19, cex = 0.8) # se grafican los valores de los estimadores 
      
      return(invisible(NULL))
  }
  
  num_filas <- 2  # definir numero de filas para el subplot
  num_columnas <- 2  # definir numero de columnas para el subplot
  par(mfrow = c(num_filas, num_columnas)) # Dividir el área de la gráfica en un subplot
  
  for (k in 1:4){
    
    valor_T <- Tabla_estimadores_S1000[,k]
    generar_grafico_polar(valor_T , lambda)
    title(main = paste0("Estimador θ", k))
  }
<center>***Figura 8.*** *Diagramas radiales de cada estimador para 1000 simualciones*</center>

Figura 8. Diagramas radiales de cada estimador para 1000 simualciones

En la Figura 9, se puede observar la presencia continua de asimetrías positivas en los cuatro estimadores, lo que indica una distribución sesgada hacia la derecha. Este sesgo se hace más evidente en el caso de \(\hat{\theta}_2\), como se refleja en su diagrama de caja y bigotes, donde se destaca una mayor disparidad entre los cuartiles \(Q_1\) y \(Q_3\) en comparación con la mediana. Además, \(\hat{\theta}_2\) exhibe el rango intercuartílico más amplio, con un valor de \(IQR\) de 5.206, lo que sugiere una mayor variabilidad en sus estimaciones. Aunque todos los estimadores presentan valores atípicos, \(\hat{\theta}_1\), \(\hat{\theta}_3\), y \(\hat{\theta}_4\) continúan generando estimaciones cercanas al valor del parámetro, a excepción de \(\hat{\theta}_2\).

par(mfrow = c(4, 2)) 

#Fila 1 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S1000[,1], horizontal = TRUE, main = "Boxplot θ1", ylim = c(0, 30))
abline(v = 4, col = "red")
points(esperanza[1,1],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S1000[,1], main = "Histograma θ1", xlab=" ", ylab="Frecuencia", xlim = c(0,30), ylim = c(0,250))


#Fila  2 - Boxplot horizontal y histograma para el segundo conjunto de datos
boxplot(Tabla_estimadores_S1000[,2], horizontal = TRUE, main = "Boxplot θ2", ylim = c(0, 30))
abline(v = 4, col = "red")
points(esperanza[1,2],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S1000[,2], main = "Histograma θ2",xlab=" ",ylab ="Frecuencias", xlim = c(0,30), ylim = c(0,250))

#Fila  3 - Boxplot horizontal y histograma para el tercer conjunto de datos
boxplot(Tabla_estimadores_S1000[,3], horizontal = TRUE, main = "Boxplot θ3", ylim = c(0, 30))
abline(v = 4, col = "red")
points(esperanza[1,3],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S1000[,3], main = "Histograma θ3",xlab=" ", ylab ="Frecuencias", xlim = c(0,30), ylim = c(0,250))

#Fila  4 - Boxplot horizontal y histograma para el cuarto conjunto de datos
boxplot(Tabla_estimadores_S1000[,4], horizontal = TRUE, main = "Boxplot θ4", ylim = c(0, 30))
abline(v = 4, col = "red")
points(esperanza[1,4],1, col = "blue", pch = 19)
hist(Tabla_estimadores_S1000[,4], main = "Histograma θ4",xlab="Estimaciones",ylab ="Frecuencias", xlim = c(0,30), ylim = c(0,250))
<center>***Figura 9.*** *Diagramas de cajas y bigotes e histrograma de cada estimador para 1000 simualciones*</center>

Figura 9. Diagramas de cajas y bigotes e histrograma de cada estimador para 1000 simualciones

4 CONCLUSIONES

  • Los estimadores \(\hat{\theta}_1\) y \(\hat{\theta}_3\) tienden a aproximarse más al valor real del parámetro \(\lambda=4\), siendo estos los menos sesgados en comparación con \(\hat{\theta}_2\) y \(\hat{\theta}_4\). Esta diferencia en sesgo se hace más evidente a medida que aumenta el tamaño de la muestra, lo que sugiere que \(\hat{\theta}_1\) y \(\hat{\theta}_3\) son más estables y consistentes en sus estimaciones.

  • En cuanto a la eficiencia, se observa que \(\hat{\theta}_1\) y \(\hat{\theta}_3\) presentan una menor variabilidad en sus estimaciones, lo que se traduce en una mayor precisión. Por el contrario, \(\hat{\theta}_2\) y \(\hat{\theta}_4\) muestran una mayor dispersión de valores, lo que afecta su precisión y eficiencia en la estimación del parámetro.

  • Al analizar la consistencia de los estimadores, se observa que \(\hat{\theta}_3\) es el que muestra una mayor convergencia hacia el valor real del parámetro a medida que aumenta el tamaño de la muestra. Esto se evidencia en su menor variabilidad y menor error cuadrático medio en comparación con los otros. Por tanto se concluye que este es el estimador mas adecuado para estimar del parámetro \(\lambda\) en términos de insesgadez, eficiencia y consistencia, especialmente cuando se trabaja con un mayor número de muestras.

  • La presencia de outliers puede plantear interrogantes sobre la validez de los resultados obtenidos a partir del análisis estadístico. Es fundamental realizar una evaluación cuidadosa de estos para determinar si son el resultado de errores aleatorios o problemas en los datos, ya que estos pueden causar un impacto en la precisión y validez de las estimaciones.