La prueba de Shapiro-Wilk, propuesta en 1965, calcula un estadístico \(W\) que prueba si una muestra aleatoria, \(x_1,x_2,\dots,x_n\) de tamaño \(n\) proviene (específicamente) de una distribución normal.
Sean \(x_{(1)}<x_{(2)}<\dots<x_{(n)}\), el estadístico \(W\) se calcula de la siguiente manera:
\[W_{X}=\frac{\left( \sum_{i=1}^{n} a_{i}x_{(i)}\right) ^2}{ \sum_{i=1}^{n}(x_{i}-\bar{x})^2} \] donde \(\bar{x}=\frac{1}{n}\sum_{i=1}^{n}x_{i}\) y \(a_{i}\), \(i=1,2,\dots,n\), son ciertas constantes.
Se rechaza normalidad con un tamaño de prueba \(\alpha\) si \(W_{X} < k_{\alpha}\), donde \(k_{\alpha}\) denota el percentil \(100\alpha\%\) de la distribución de \(W_{X}\) bajo la hipótesis nula.
Se debe tener en cuenta que la distribución normal multivariante no pertenece a la realidad, sino que es un tipo ideal. En el siglo XIX, Max Weber definió un tipo ideal como una exageración de la mente, que no ocurre en el mundo, pero con la que se confrontan y comparan los acontecimientos del mundo, algunos se asemejan a este tipo ideal y otros se apartan de él.
Las pruebas de normalidad multivariante verifican la similitud de un conjunto dado de datos empíricos con la distribución normal multivariante de tipo ideal, siendo la hipótesis nula que el conjunto de datos es similar a la distribución normal multivariante; por lo tanto, un valor de p suficientemente pequeño indica una desviación de la normalidad multivariante. Las pruebas de normalidad multivariante son a menudo extensiones de las bien consideradas pruebas de Kolmogorov-Smirnov y Shapiro-Wilk para la normalidad univariante.
Sea \(X_1, X_2, \dots, X_n\) una m.a. p-variada de tamaño \(n > p \geq 1\). Sea \(N^{p} (\mu, \Sigma)\) la función de densidad normal p—variada con parámetros vector de medias \(\mu\) y matriz de varianzas y covarianzas \(\Sigma\).
Aquí se propone una prueba para el juego de hipótesis:
\(H_{0}: X_1, X_2, \dots, X_n\) es m.a. de \(N^{p} (\mu, \Sigma)\) contra \(H_{1} : X_1, X_2, \dots, X_n\) no es m.a. de \(N^{p} (\mu, \Sigma)\), donde \(\mu\) y \(\Sigma\) son desconocidos, con base en la siguiente caracterización de la distribución normal multivariada.
Proposición: \(X \sim N^{p} (\mu, \Sigma)\) si y sólo si \(Z = \Sigma^{-1/2} (X-\mu)\sim N^{p} (0,I)\), donde \(0\) es el vector de ceros de orden \(p\) e \(I\) es la matriz identidad de orden \(p \times p\). Sean \(\bar{X}\) y \(S\) el vector de medias y la matriz de covarianzas muestrales. Además, sea \(S^{-1/2}\) la matriz raiz cuadrada positiva definida simétrica de \(S^{-1}\), la matriz inversa de S.
Cuando \(X_1, X_2, \dots, X_n\) es una m.a. de \(N^{p} (\mu, \Sigma)\), se espera que los vectores aleatorios \[Z_{j}^* = S^{-1/2} (X_{j}-\bar{X}), \quad j = 1,2,...,n, \quad \quad (2)\] tengan distribución cercana a la \(N^{p} (0, I)\), por lo que se espera que las coordenadas de \(Z_{j}^*\); denotadas por \(Z_{1j},\dots, Z_{pj}\), serán aproximadamente independientes con distribución normal estándar univariada.
Para probar normalidad multivariada se propone el estadístico
\[W^*=\frac{1}{p}\sum_{i=1}^{p} W_{Z_{i}}\] donde \(W_{Z_{i}}\), es la estadística de Shapiro-Wilk evaluada en la i-ésima coordenada de las observaciones transformadas en (2).
Bajo \(H_0\), se espera que \(W*\) tome valores cerca de 1 ya que también se espera que cada \(W_{z_{i}}\), \(i = 1, ..., p\), tomará valores cercanos a uno.
Se rechaza \(H_0\) con un tamaño de prueba \(\alpha\) si \(W^* < C_{\alpha,n,p}\), donde \(C_{\alpha,n,p}\) es tal que:
\[\alpha=P\{W^*<C_{\alpha,n,p}|H_{0} \quad \text{es verdadera}\}\]
La distribución de \(W^*\) bajo \(H_{0}\) no depende de \((\mu, \Sigma)\) ya que es una función de las observaciones estandarizadas (Henze y Zirkler, 1990) y se puede obtener usando simulación de Monte Carlo.
Referencias: