La simulación ayuda a entender y validad las propiedades de los estimadores estadísticos como son. insesgadez, eficiencia y la consistencia principalmente. El siguiente problema permite evidenciar las principales características de un grupo deestimadores propuestos para la estimación de un parámetro asociado a un modelode probabilidad.
Sean y una muestra aleatoria de tamaño n = 4 cuya población la conforma una distribución exponencial con parámetro θ desconocido. Determine las características de cada uno de los siguientes estimadores propuestos:
Cada uno de los vectores X1,X2,X3 y X4, se les asignan valores alearotios entre 0 y 1 El tamaño de cada uno de los vectores es de 20 para este caso
Como el X4 necesita determinar el minimo y el maximo en cada uno de los vectores, se crea una matriz llamada datos Se crea un vector de tamaño 4 para almacenar el valor minimo. Esta vairable se llama dmin Igualemnte se procede con el valor maximo, dejandola en la variable dmax
Teniendo en cuenta que Lambda = 4, el valor estimado es cercano a 0.25
Finalmente se calculan los estimadores para cada una de las θ propuestas:
## θ1 θ2 θ3 θ4
## Min. :0.01042 Min. :0.1725 Min. :0.1008 Min. :0.1014
## 1st Qu.:0.18990 1st Qu.:0.3338 1st Qu.:0.1909 1st Qu.:0.2264
## Median :0.24401 Median :0.4658 Median :0.2519 Median :0.3194
## Mean :0.25858 Mean :0.5120 Mean :0.2525 Mean :0.3209
## 3rd Qu.:0.31109 3rd Qu.:0.6161 3rd Qu.:0.3107 3rd Qu.:0.3917
## Max. :0.66224 Max. :1.0513 Max. :0.4145 Max. :0.6148
Del anterior resultado, se puede apreciar que: tiene una varianza muy grande es sesgado ya que la media (Mean) debe estar cerca al valor parameteo de 0.5
Es decir, se podria eliminar de nuestro análisis a , pues tiene un sesgo muy grandes
## θ1 θ2 θ3 θ4
## Min. :0.02296 Min. :0.1444 Min. :0.08528 Min. :0.0961
## 1st Qu.:0.14929 1st Qu.:0.2807 1st Qu.:0.17069 1st Qu.:0.1760
## Median :0.23863 Median :0.5424 Median :0.27836 Median :0.2771
## Mean :0.26820 Mean :0.5418 Mean :0.27409 Mean :0.3069
## 3rd Qu.:0.33780 3rd Qu.:0.7369 3rd Qu.:0.34685 3rd Qu.:0.4175
## Max. :0.88527 Max. :1.0092 Max. :0.58204 Max. :0.7208
En esta iteración se encuentra que: aumenta en la insesgadez tambien comienza a distanciarse de la linea esperada
## θ1 θ2 θ3 θ4
## Min. :0.02469 Min. :0.08279 Min. :0.04516 Min. :0.04592
## 1st Qu.:0.13926 1st Qu.:0.30211 1st Qu.:0.15242 1st Qu.:0.16394
## Median :0.20998 Median :0.40757 Median :0.20559 Median :0.25385
## Mean :0.25000 Mean :0.49136 Mean :0.24369 Mean :0.27784
## 3rd Qu.:0.31117 3rd Qu.:0.64330 3rd Qu.:0.30273 3rd Qu.:0.35905
## Max. :0.92817 Max. :1.57024 Max. :0.77346 Max. :0.95716
Se mantiene la tendencia descrita hasta el momento
## θ1 θ2 θ3 θ4
## Min. :0.01165 Min. :0.03222 Min. :0.01766 Min. :0.01735
## 1st Qu.:0.13857 1st Qu.:0.30203 1st Qu.:0.15815 1st Qu.:0.18024
## Median :0.21384 Median :0.44109 Median :0.22456 Median :0.25187
## Mean :0.24955 Mean :0.49354 Mean :0.24756 Mean :0.28571
## 3rd Qu.:0.32915 3rd Qu.:0.61960 3rd Qu.:0.31499 3rd Qu.:0.36215
## Max. :1.05510 Max. :2.02621 Max. :0.89915 Max. :1.08624
Para poder determinar claramente cual de las ecuaciones cumple con las propiedades, se puede utilizar otro tipo de datos:
## Descriptive Statistics
## estimadores
## N: 1000
##
## θ1 θ2 θ3 θ4
## ----------------- --------- --------- --------- ---------
## Mean 0.25 0.49 0.25 0.29
## Std.Dev 0.15 0.27 0.12 0.15
## Min 0.01 0.03 0.02 0.02
## Q1 0.14 0.30 0.16 0.18
## Median 0.21 0.44 0.22 0.25
## Q3 0.33 0.62 0.32 0.36
## Max 1.06 2.03 0.90 1.09
## MAD 0.13 0.23 0.11 0.13
## IQR 0.19 0.32 0.16 0.18
## CV 0.62 0.56 0.50 0.54
## Skewness 1.39 1.45 1.10 1.24
## SE.Skewness 0.08 0.08 0.08 0.08
## Kurtosis 2.67 3.43 1.86 2.17
## N.Valid 1000.00 1000.00 1000.00 1000.00
## Pct.Valid 100.00 100.00 100.00 100.00
Al analizar este resultado se evidencia que: 1. tiene el valor más aproximado a la media 2. tiene la menor varianza de las ecuaciones presentadas
Por tanto, cumple con las propiedades de los estimadores mejor que las otras ecuaciones propuestas:
Sesgo: Con el aumento del tamaño de la muestra, se evidencia que el sesgo se reduce en todos los estimadores.
Eficiencia: Entre mas grande la muestra, la eficiencia mejora, porque la dispersión se reduce.