El mĂ©todo Bootstrap, propuesto por efron (1979), fue creado con el fin de mejorar la tĂ©cnica de Jacknife. Este es un mĂ©todo considerado de uso intensivo de mĂ¡quina computacional, empleado en el remuestreo con sustituciĂ³n para obtener un gran nĂºmero de remuestras que sirven como base de estimaciĂ³n. Bootstrap permite efectuar aproximaciones a las propiedades de un estimador cuando no se cuenta con expresiones analĂticas.
Los pasos fundamentales para el desarrollo del algoritmo Bootstrap se muestran a continuaciĂ³n.
Sea \(\theta\) un parĂ¡metro poblacional de interĂ©s y \(\hat{\theta}\) un estimador de \(\theta\). Entonces, la estimaciĂ³n Bootstrap de la distribuciĂ³n de \(\hat{\theta}\) se obtiene asĂ:
Generar la muestra \(y^{*(b)}=\{y^*_1,y^*_2,...,y^*_n\}\) con reemplazo a partir de \(s\).
Calcular la replica \(b\)-ésima de \(\hat{\theta}^{*(b)}\) a partir de la \(b\)-ésima muestra Bootstrap.
Por ejemplo, en el caso de la varianza, se estima \(V(\hat{\theta})\) por
\[ \hat{V}_{BS}(\hat{\theta})=\frac{1}{B-1}\displaystyle\sum_{b=1}^{B} (\hat{\theta}^{*(b)}-\hat{\theta^*})^2 \]
donde
\[ \hat{\theta^*}=\frac{1}{B}\displaystyle\sum_{b=1}^{B} \hat{\theta}^{*(b)}. \]