Sea \(X_1, X_2, \dots, X_n\) una muestra aleatoria proveniente de una población cuya función de densidad conjunta se denota por \(g(x_1, x_2, \dots, x_n; \theta)\), con \(\theta\) como parámetro desconocido. El Teorema de Factorización, también conocido como el Teorema de Neyman-Fisher, establece que un estadístico \(T = T(X_1, X_2, \dots, X_n)\) es suficiente para \(\theta\) si, y solo si, la función de densidad conjunta puede expresarse en la forma:
\[ g(x_1, x_2, \dots, x_n; \theta) = h(T(x_1, \dots, x_n); \theta) \cdot k(x_1, x_2, \dots, x_n) \]
donde: - \(h\) es una función que depende de los datos únicamente a través del estadístico \(T\) y del parámetro \(\theta\), - \(k\) es una función que no depende del parámetro \(\theta\).
Dicha factorización implica que toda la información relevante respecto a \(\theta\) contenida en la muestra está concentrada en el estadístico \(T\), lo cual constituye la noción de suficiencia estadística.
El teorema de factorización es una herramienta fundamental en inferencia estadística, ya que permite: - Identificar estadísticos suficientes que concentren toda la información de la muestra respecto al parámetro de interés, - Reducir la dimensionalidad de los datos, facilitando cálculos posteriores en métodos como la estimación por máxima verosimilitud o la construcción de intervalos de confianza.
En la práctica, se prefiere trabajar con estimadores suficientes, pues garantizan que no se está perdiendo información relevante contenida en la muestra.
Desde una perspectiva conceptual, un estadístico suficiente resume de manera completa la información que la muestra proporciona sobre el parámetro poblacional. Es decir, si se dispone de un estadístico suficiente, el conocimiento adicional de los datos muestrales no aporta más información sobre \(\theta\).
Matemáticamente, esta propiedad se formaliza mediante la descomposición de la función de densidad conjunta en una parte que depende de \(\theta\) únicamente a través del estadístico \(T\), y otra parte que es independiente de \(\theta\). Este criterio es necesario y suficiente para establecer la suficiencia de un estadístico.
Considérese una muestra aleatoria \(X_1, X_2, \dots, X_n \sim \text{Exp}(\theta)\), es decir, cada observación sigue una distribución exponencial con parámetro \(\theta > 0\), cuya función de densidad individual es:
\[ f(x; \theta) = \theta e^{-\theta x}, \quad x > 0 \]
La función de verosimilitud conjunta es:
\[ L(\theta) = \prod_{i=1}^n f(x_i; \theta) = \prod_{i=1}^n \theta e^{-\theta x_i} = \theta^n e^{-\theta \sum_{i=1}^n x_i} \]
Esta función puede reescribirse como:
\[ L(\theta) = h\left(\sum x_i; \theta\right) \cdot k(x_1, \dots, x_n) \]
donde: - \(h\left(\sum x_i; \theta\right) = \theta^n e^{-\theta \sum x_i}\), - \(k(x_1, \dots, x_n) = 1\) (es constante con respecto a \(\theta\)).
Por el teorema de factorización, concluimos que el estadístico:
\[ T = \sum_{i=1}^n X_i \]
es suficiente para \(\theta\).