Notas de clase

Método Bootstrap

Andrés Cruz Ph.D(c)

03 marzo, 2022

El mĂ©todo Bootstrap, propuesto por efron (1979), fue creado con el fin de mejorar la tĂ©cnica de Jacknife. Este es un mĂ©todo considerado de uso intensivo de mĂ¡quina computacional, empleado en el remuestreo con sustituciĂ³n para obtener un gran nĂºmero de remuestras que sirven como base de estimaciĂ³n. Bootstrap permite efectuar aproximaciones a las propiedades de un estimador cuando no se cuenta con expresiones analĂ­ticas.

Los pasos fundamentales para el desarrollo del algoritmo Bootstrap se muestran a continuaciĂ³n.

Sea \(\theta\) un parĂ¡metro poblacional de interĂ©s y \(\hat{\theta}\) un estimador de \(\theta\). Entonces, la estimaciĂ³n Bootstrap de la distribuciĂ³n de \(\hat{\theta}\) se obtiene asĂ­:

  • De la poblaciĂ³n \(U\) se toma una muestra \(s=\{y_1,y_2,...,y_n\}\) segĂºn un diseño \(p(s)\) de tamaño (\(n\)) fijo con probabilidad de inclusiĂ³n \(\pi_k\).
  • Para cada replica Bootstrap, indexada por \(b=1,...,B\):
  1. Generar la muestra \(y^{*(b)}=\{y^*_1,y^*_2,...,y^*_n\}\) con reemplazo a partir de \(s\).

  2. Calcular la replica \(b\)-ésima de \(\hat{\theta}^{*(b)}\) a partir de la \(b\)-ésima muestra Bootstrap.

  • La estimaciĂ³n Bootstrap de \(F_{\hat{\theta}}(.)\) es la distribuciĂ³n empĂ­rica de las replicas \(\hat{\theta}^{*(1)}\),…,\(\hat{\theta}^{*(b)}\)

Por ejemplo, en el caso de la varianza, se estima \(V(\hat{\theta})\) por

\[ \hat{V}_{BS}(\hat{\theta})=\frac{1}{B-1}\displaystyle\sum_{b=1}^{B} (\hat{\theta}^{*(b)}-\hat{\theta^*})^2 \]

donde

\[ \hat{\theta^*}=\frac{1}{B}\displaystyle\sum_{b=1}^{B} \hat{\theta}^{*(b)}. \]