En el módulos anterior se definió la matriz de covarianza junto con algunas de sus propiedades, se hizo su estimación, se determinó su distribución bajo el supuesto de normalidad y se empleó en la inferencia sobre los vectores de medias.
Este módulo está dedicado a presentar la distribución de la matriz de covarianza y la inferencia sobre ésta para una o varias poblaciones.
La matriz de covarianza está ligada a varias formas cuadráticas del tipo \({\bf x}^t \Sigma {\bf x}\). Por ejemplo: la distancia de Mahalanobis, la estadística \(T^2\) de Hotelling, algunas estadísticas para el análisis de varianza multivariado, entre otras. El elipsoide correspondiente a cada forma cuadrática tiene una representación que depende de la estructura de la matriz de covarianza.
En la siguiente figura se muestran algunos casos particulares de representaciones asociadas con la matriz de covarianza de un vector bivariado.
Dada una muestra aleatoria de vectores \(p\)–variados de una población normal multivariada de media \(\mu\) y matriz de covarianza \(\Sigma\), vimos en el módulo anterior que el estimador máximo verosímil \(\widehat{\Sigma}=S\). Esto es: \[ \widehat{\Sigma} = \dfrac{1}{n}\sum_{i=1}^n \left({\bf x}_{i}-{\bf x}\right)\left({\bf x}_{i}-{\bf x}\right)^t \] Además, que \(nS\) tiene distribución Wishart, \(nS =A \sim W_p(\Sigma,n-1)\). Cuando \(\Sigma = I_p\), se dice que la distribución está en su forma estándar.
Paralelamente a como se hace en el caso univariado, recordemos que: \[ \dfrac{(n-1)S^2}{\sigma^2} \sim \chi_{(n-1)}^2 \] tiene distribución chi-cuadrado, con \(n-1\) grados de libertad. Sabemos que que la distribución chi–cuadrado es un caso especial de la distribución gama. En forma semejante, en el caso \(p\)-variado se define la función de densidad conjunta de Wishart, la cual está ligada a la función gama multivariada.
\(E(A)= n\Sigma\).
Si \(B\) es una matriz de tamaño \(k \times p\), entonces \[ B A B^t \sim W_p(B\Sigma B^t,n-1) \]
Si \(A_1,\dots, A_n\) son matrices de tamaño \(p \times p\), independientes y con distribución Wishart. Es decir, \(A_i \sim W(\Sigma, n_i-1)\), entonces: \[ \sum_{i=1}^q A_i \sim W \left(\Sigma, \sum_{i=1}^q n_i-1 \right) \]
Cualquier partición \(A\) en \(q\) filas y \(p-q\) columnas tiene distribución Wishart. Por ejemplo: \[ \begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{pmatrix} \sim W_2\left(\begin{pmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{pmatrix}, n-1\right) \] Esta propiedad se puede hacer extensiva para cualquier partición adecuada de las matrices \(A\) y \(\Sigma\).
Mediante una muestra aleatoria de \(n\) observaciones vectoriales \({\bf x}_1,\dots, {\bf x}_n\), de una población \(N_p(\mu,\Sigma)\), con \(\Sigma\) definida positiva, se quieren contrastar las hipótesis: \[ H_0: \Sigma = \Sigma_0 \]
La supuesta matriz de covarianza \(\Sigma_0\), es una matriz sobre la cual se tiene un propósito específico respecto a sus valores, o puede ser una matriz resultante de experiencias anteriores. Es el caso de las figuras \(c\) y \(d\).
La razón de máxima verosimilitud, suministra el estadístico de prueba: \[ \lambda^{*} = (n-1) \left[\sum_{i=1}^p (\lambda_i-\ln \lambda_i)-p \right] \] donde los \(\lambda_1,\dots,\lambda_p\) son los valores propios de la matriz \(S \Sigma_0^{-1}\). Para un \(n\) lo suficientemente grande y bajo \(H_0\), \(\lambda^{*}\) se distribuye chi-cuadrado con \(\frac{1}{2}p(p+1)\) grados de libertad. \[ \lambda^{*} \sim \chi_{\left(\frac{1}{2}p(p+1)\right)}^2 \] Por lo tanto, se rechaza \(H_0\), cuando \[ \lambda^{*} \geq \chi_{\left(1-\alpha,\frac{1}{2}p(p+1)\right)}^2 \] Observa que los grados de libertad de la estadístico \(\chi^2\) son \(\frac{1}{2}p(p+1)\) y están ligados al número de parámetros distintos de la matriz de covarianza \(\Sigma\).
Se tomaron 20 sujetos y se midió los tiempos de reacción ante un estímulo en centésimas de segundo. Los estímulos consisten en preparar al individuo mediante tres intervalos de tiempo con duración diferente. Los datos se asumen asociados a una distribución normal trivariada. Se quiere verificar la siguiente hipótesis \(H_0: \Sigma=\Sigma_0\), donde: \[ \Sigma_0 = \begin{pmatrix} 4 & 3 & 2 \\ 3 & 6 & 5 \\ 2 & 5 & 10 \end{pmatrix} \] la cual ha sido sugerida por observaciones anteriores. De los datos muestrales, la matriz de covarianza estimada es: \[ S = \begin{pmatrix} 3.42 & 2.6 & 1.89 \\ 2.6 & 8 & 6.51 \\ 1.89 & 6.51 & 9.62 \end{pmatrix} \]
Solución:
Con ayuda de R construimos la prueba.
# Información
n <- 20
p <- 3
# Matriz de covarianza fija
Sigma0 <- matrix(c(4,3,2,3,6,5,2,5,10),ncol=3)
Sigma0
## [,1] [,2] [,3]
## [1,] 4 3 2
## [2,] 3 6 5
## [3,] 2 5 10
# Matriz de covarianza muestral
S <- matrix(c(3.42,2.6,1.89,2.6,8,6.51,1.89,6.51,9.62),ncol=3)
S
## [,1] [,2] [,3]
## [1,] 3.42 2.60 1.89
## [2,] 2.60 8.00 6.51
## [3,] 1.89 6.51 9.62
# Calculamos el estadístico de prueba
Propios <- eigen(S%*%solve(Sigma0))
val_prop <- Propios$values
lambda_0 <- (n-1)*(sum(val_prop-log(val_prop))-p)
lambda_0
## [1] 3.637404
# Calculamos el valor crítico
a <- 0.1
gl <- (1/2)*p*(p+1)
lambda_c <- qchisq(1-a,gl)
lambda_c
## [1] 10.64464
Como \(\lambda_0 < \lambda_c\), entonces no se rechaza \(H_0\). Se puede concluir con un \(90\%\) de confianza que la matriz de covarianza poblacional es similar a la matriz de covarianza propuesta en \(H_0\).
Una prueba de interés es la de independencia. Es decir, que las variables no están correlacionadas. Es el caso de la figura \(b\). En módulos anteriores, trabajamos el concepto de independencia entre vectores aleatorios, el cual implica que la respectiva covarianza entre dos variables es cero, y recíprocamente si la covarianza entre dos vectores es cero los vectores son independientes. Esta hipótesis sería: \[ H_0: \Sigma = \Sigma_0 \] donde \(\Sigma_0\) es una matriz diagonal. Para este caso particular, la razón de máxima verosimilitud encuentra que el estadístico de prueba es: \[ \lambda^{*} = -(n-1) \sum_{i=1}^p \lambda_i \] Para un \(n\) lo suficientemente grande y bajo \(H_0\), \(\lambda^{*}\) se distribuye chi-cuadrado con \(\frac{1}{2}p(p-1)\) grados de libertad. \[ \lambda^{*} \sim \chi_{\left(\frac{1}{2}p(p-1)\right)}^2 \] Por lo tanto, se rechaza \(H_0\), cuando \[ \lambda^{*} \geq \chi_{\left(1-\alpha,\frac{1}{2}p(p-1)\right)}^2 \]
Un caso particular aún más particular, es suponer que todas las variables tienen la misma varianza y no están correlacionadas. Es decir, son independientes y tienen la misma varianza. Es el caso de la figura \(a\). En este caso no ganamos nada por analizarlas conjuntamente, ya que no tienen información en común. Esta prueba equivale a suponer que la matriz \(\Sigma_0\) es un escalar, es decir \(\Sigma_0 =\sigma^2 I\), y se denomina de esfericidad, ya que entonces la distribución de las variables tiene curvas de nivel que son esferas: hay una total simetría en todas las direcciones en el espacio. Esta hipótesis sería: \[ H_0: \Sigma = \sigma^2 I \] donde \(\sigma^2\) es la varianza en común desconocida. Para este caso, la razón de máxima verosimilitud encuentra que el estadístico de prueba es: \[ \lambda^{*} = (n-1) \left( \ln \widehat{\sigma}^2-\ln |S|\right) \] donde \(\widehat{\sigma}^2=tr(S)/p\). Para un \(n\) lo suficientemente grande y bajo \(H_0\), \(\lambda^{*}\) se distribuye chi-cuadrado con \(\frac{1}{2}(p+2)(p-1)\) grados de libertad. \[ \lambda^{*} \sim \chi_{\left(\frac{1}{2}(p+2)(p-1)\right)}^2 \] Por lo tanto, se rechaza \(H_0\), cuando \[ \lambda^{*} \geq \chi_{\left(1-\alpha,\frac{1}{2}(p+2)(p-1)\right)}^2 \]
Retomando el ejemplo 2 del módulo anterior, sobre un proceso industrial que fabrica elementos cuyas características de calidad se miden por un vector de tres variables. Se toma una muestra de \(20\) elementos y se miden las tres características, encontrando que:
\[ S = \begin{pmatrix} 10 & 4 & -5 \\ 4 & 12 & -3 \\ -5 & -3 & 4 \end{pmatrix} \] Comprobar si es posible pensar que las variables son independientes, con varianzas iguales a las estimadas.
Solución:
# Información del problema
n <- 20
p <- 3
# Matriz de covarianza muestral
S <- matrix(c(10,4,-5,4,12,-3,-5,-3,4),ncol=3)
S
## [,1] [,2] [,3]
## [1,] 10 4 -5
## [2,] 4 12 -3
## [3,] -5 -3 4
Para esta prueba, suponemos que \(\Sigma_0\) tiene la siguiente forma: \[ \Sigma_0 = \begin{pmatrix} 10 & 0 & 0 \\ 0 & 12 & 0 \\ 0 & 0 & 4 \end{pmatrix} \]
# Matriz de covarianza fija
Sigma0 <- matrix(c(10,0,0,0,12,0,0,0,4),ncol=3)
# Calculamos el estadístico de prueba
Propios <- eigen(S%*%solve(Sigma0))
val_prop <- Propios$values
val_prop
## [1] 2.0845899 0.7098596 0.2055505
lambda_0 <- -(n-1)*sum(log(val_prop))
lambda_0
## [1] 22.61341
# Calculamos el valor crítico
a <- 0.05
gl <- (1/2)*p*(p-1)
lambda_c <- qchisq(1-a,gl)
lambda_c
## [1] 7.814728
Como \(\lambda_0 \geq \lambda_c\), entonces se rechaza \(H_0\). Se puede concluir con un \(95\%\) de confianza que las variables estudiadas no se pueden suponer independientes.
Se tiene dos variables, \(x_1\): número de horas trabajadas y \(x_2\): evaluación de se desempeño. Se quiere probar si el número de horas trabajadas esta involucrado con la evaluación que recibe por su desempeño, más aún, se quiere ver si ambas variables tienen igual dispersión. Para este estudio se toma una muestra de \(10\) observaciones y se consigue que:
\[ S = \begin{pmatrix} 0.8 & 0.03 \\ 0.03 & 1.2 \\ \end{pmatrix} \]
Comprobar lo solicitado es pensar que la matriz de covarianza tiene forma esférica.
Solución:
# Información del problema
n <- 10
p <- 2
# Matriz de covarianza muestral
S <- matrix(c(0.8,0.03,0.03,1.2),ncol=2)
S
## [,1] [,2]
## [1,] 0.80 0.03
## [2,] 0.03 1.20
# Calculamos el estadístico de prueba
sigma_est <- sum(diag(S))/p
lambda_0 <- (n-1)*(log(sigma_est)-log(det(S)))
lambda_0
## [1] 0.3758394
# Calculamos el valor crítico
a <- 0.05
gl <- (1/2)*(p+2)*(p-1)
lambda_c <- qchisq(1-a,gl)
lambda_c
## [1] 5.991465
Como \(\lambda_0 < \lambda_c\), entonces no se rechaza \(H_0\). Se puede concluir con un \(95\%\) de confianza que las variables número de horas trabajadas y evaluación de su desempeño, son independientes y tiene una varianza común.
En el caso multivariado, se trata de contrastar la hipótesis sobre la igualdad de las matrices de covarianzas asociadas a varias poblaciones normales multivariadas, mediante la información contenida en una muestra aleatoria de cada una de ellas.
Sea \({\bf x}_1,\dots,{\bf x}_q\), una muestra aleatoria de una población \(N_p(\mu_g,\Sigma_g)\), con \(g=1,\dots,q\). Es decir, se dispone de \(q\)- muestras independientes de poblaciones normales \(p\)-variadas. La hipótesis a probar: \[ H_0: \Sigma_1=\dots = \Sigma_q = \Sigma \] La razón de máxima verosimilitud, arroja un estadístico de prueba que no tiene una distribución común. Pero, gracias a los trabajos de Anderson (1984), obtiene la distribución asintótica para \(\lambda^{*}\) y obtiene que: \[ \lambda^{*} = v \ln|S_p|-\sum_{i=g}^q v_g \ln |S_g| \] donde:
Finalmente, Box (1985), logra demostrar que: \[ \rho = 1-\dfrac{2p^2+3p-1}{6(p+1)(q-1)}\left(\sum_{g=1}^q \dfrac{1}{v_g}-\dfrac{1}{v} \right) \] entonces: \[ \varphi = \rho \lambda^{*} \sim \chi_{\left(\frac{1}{2}p(p+1)(q-1)\right)}^2 \] Por lo tanto, para la prueba de hipótesis, se rechaza \(H_0\) cuando: \[ \varphi_0 \geq \varphi_c \] Particularmente, para el caso de dos poblaciones normales \(p\)–variadas e independientes, donde se considera el problema de contrastar la hipótesis: \[ H_0: \Sigma_1 = \Sigma_2 \] Las fórmulas anteriores, se reducen a : \[ \lambda^{*} = (n_1+n_2-2) \ln|S_p|-\left(v_1 \ln |S_1|+v_2\ln|S_2|\right) \] y \[ \rho = 1-\dfrac{2p^2+3p-1}{6(p+1)}\left( \dfrac{1}{v_1}+\dfrac{1}{v_2}-\dfrac{1}{v} \right) \] Entonces: \[ \varphi = \rho\lambda^{*} \sim \chi_{\left(\frac{1}{2}p(p+1)\right)}^2 \] se distribuye como chi-cuadrado con \(\frac{1}{2}p(p+1)\) grados de libertad.
La longitud del fémur dada en centímetros y el tiempo empleado para recorrer una distancia de 100 m. a “paso normal” fue medido en 26 personas que trabajan en oficinas, 23 trabajan como operadores de máquinas y 25 trabajan como conductores. Tomando \(\alpha=0.02\), se desea probar la hipótesis: \[ H_0 : \Sigma_1 =\Sigma_2 =\Sigma_3 \] Con los datos obtenidos, las estimaciones para cada una de las matrices de covarianza son: \[ S_1 = \begin{pmatrix} 12.65 & -16.45 \\ -16.45 & 73.04 \end{pmatrix}, \quad S_2 = \begin{pmatrix} 11.44 & -27.77 \\ -27.77 & 100.64 \end{pmatrix}, \quad S_3 = \begin{pmatrix} 14.46 & -31.26 \\ -31.26 & 101.03 \end{pmatrix} \]
Solución:
# Información del problema
p <- 2; q <- 3
n1 <- 26; n2 <- 23; n3 <- 25; N <- n1+n2+n3
v1 <- n1-1; v2 <- n2-1; v3 <- n3-1; v <- N-q
s1 <- matrix(c(12.65,-16.45,-16.45,73.04),ncol=2)
s2 <- matrix(c(11.44,-27.77,-27.77,100.64),ncol=2)
s3 <- matrix(c(14.46,-31.26,-31.26,101.03),ncol=2)
Calculamos los valores necesarios para conseguir el estadístico de prueba
# Sp
Sp <- (1/v)*(v1*s1+v2*s2+v3*s3)
Sp
## [,1] [,2]
## [1,] 12.8869 -24.96380
## [2,] -24.9638 91.05352
# lambda*
lambda <- v*log(det(Sp))-(v1*log(det(s1))+v2*log(det(s2))+v3*log(det(s3)))
round(lambda,2)
## [1] 6.93
# rho
rho <- 1-((2*p^2+3*p-1)/(6*(p+1)*(q-1)))*(((1/v1)+(1/v2)+(1/v3))-(1/v))
round(rho,2)
## [1] 0.96
# Calculamos ahora el estadístico de prueba
phi_0 <- lambda*rho
round(phi_0,2)
## [1] 6.65
# Calculamos el valor crítico
a <- 0.02
gl <- (1/2)*p*(p+1)*(q-1)
phi_c <- qchisq(1-a,gl)
round(phi_c,2)
## [1] 15.03
Como \(\varphi_0 < \varphi_c\), entonces no se rechaza \(H_0\). Con un \(98\%\) de confianza, se concluye que podemos suponer iguales las matrices de covarianza de las variables longitud del fémur y tiempo para recorrer 100 metros, para los tres tipos de actividad; es decir, las matrices de covarianza asociadas con las medidas sobre personas de estos tres grupos no difieren de manera significativa.
Para dos poblaciones también suele ser interesante revisar la prueba de independencia entre dos variables. Es decir, que las variables no están correlacionadas.
Sea \({\bf x}\sim N_p(\mu,\Sigma)\). Aprovechando la propiedad 4, podemos particionar \({\bf x}\) en dos subvectores \({\bf x}_{(1)}\) y \({\bf x}_{(2)}\) de manera que: \[ \begin{pmatrix} {\bf x}_{(1)} \\ {\bf x}_{(2)} \end{pmatrix} \sim N_{p_1+p_2} \left( \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix}, \begin{pmatrix} \Sigma_{11} & \Sigma_{12} \\ \Sigma_{21} & \Sigma_{22} \end{pmatrix} \right) \] El problema consiste en probar la hipótesis que \({\bf x}_{(1)}\) y \({\bf x}_{(1)}\) son independientes. Esto equivale a verificar que \(\Sigma_{12}={\bf 0}\).
El estimados de máxima verosimilitud, arroja que: \[ \lambda^{*} = \dfrac{n}{2} \sum_{i=1}^p \ln(1-\lambda_i) \] y \[ \rho= 1-\dfrac{p_1+p_2+3}{2n} \] donde \(\lambda_1,\dots,\lambda_p\) son los valores propios de la matriz \(S_{12}S_{22}^{-1}S_{21} S_{11}^{-1}\). Bajo la hipótesis nula \((H_0)\), se tiene que: \[\varphi=-2\rho \ln \lambda^{*} \sim \chi_{\left(1-\alpha,p_1p_2\right)}^2\] se distribuye chi-cuadrado con \(p_1p_2\) grados de libertad.
Un investigador en cultivos tomó 40 árboles de durazno, de edades semejantes, midió el diámetro del tronco principal \((x_1 \text{ en cm})\), el área foliar \((x_2 \text{ en cm}^2)\), tiempo para la maduración del fruto \((x_3 \text{ en días})\) y el peso en pulpa por fruto \((x_4 \text{ en gm})\). Estas medidas son el promedio de algunas mediciones preliminares, es el caso del peso por fruto el cual corresponde al promedio del peso de frutos tomados aleatoriamente de la parte inferior, media y superior de cada árbol. Con los datos recogidos (redondeados para facilitar cálculos) se estimó la matriz de covarianza. \[ S = \begin{pmatrix} 2 & 5 & 1 & 1 \\ 5 & 15 & 1 & 2 \\ 1 & 1 & 5 & 3 \\ 1 & 2 & 3 & 2 \end{pmatrix} \] Tomando \(\alpha=0.01\), se pretende verificar la hipótesis que la contextura del árbol está relacionada con la calidad del fruto que produce; más técnicamente, que estas variables fisiológicas están asociadas con las variables morfológicas o de estructura del árbol.
Solución:
Técnicamente, se desea probar si \({\bf x}_{(1)}=\{x_1,x_2\}\) es independiente de \({\bf x}_{(2)}=\{x_3,x_4\}\). Es decir: \[ H_0: \Sigma_{12}={\bf 0}. \]
Para este ejemplo se tiene que: \(p_1 = p_2\) y la particiones de la matriz de covarianza que necesitamos son: \[ S_{11} = \begin{pmatrix} 2 & 5 \\ 5 & 15 \end{pmatrix}, \quad S_{12} = \begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix}, \quad S_{21} = \begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix}, \quad \quad S_{22} = \begin{pmatrix} 5 & 3 \\ 3 & 2 \end{pmatrix} \]
# Información del problema
p1 <- 2; p2 <- 2
n <- 40
s11 <- matrix(c(2,5,5,15),ncol=2)
s12 <- matrix(c(1,1,1,2),ncol=2)
s21 <- matrix(c(1,1,1,2),ncol=2)
s22 <- matrix(c(5,3,3,2),ncol=2)
Calculamos los valores necesarios para conseguir el estadístico de prueba
# Construcción de matriz para los valores propios
ss <- s12%*%solve(s22)%*%s21%*%solve(s11)
Propios <- eigen(ss)
val_prop <- Propios$values
# lambda*
lambda <- (n/2)*(log(1-val_prop[1])+log(1-val_prop[2]))
round(lambda,2)
## [1] -32.19
# rho
rho <- 1-((1+p2+3)/(2*n))
round(rho,2)
## [1] 0.92
# Calculamos ahora el estadístico de prueba
phi_0 <- -2*rho*lambda
round(phi_0,2)
## [1] 59.55
# Calculamos el valor crítico
a <- 0.01
gl <- p1*p2
phi_c <- qchisq(1-a,gl)
round(phi_c,2)
## [1] 13.28
Como \(\varphi_0 \geq \varphi_c\), entonces se rechaza \(H_0\). Con el \(99\%\) de confianza se concluye que existe alguna clase de dependencia entre estos pares de variables. Es decir, la calidad del fruto está asociada con la estructura del árbol.
Se tiene la matriz de datos: \[ X = \begin{pmatrix} 6 & 9 \\ 10 & 6 \\ 8 & 3 \\ \end{pmatrix} \] Usando el nivel de significancia \(\alpha=0.01\), pruebe si es posible suponer que las variables son independientes.
Se tiene la matriz de datos: \[ X = \begin{pmatrix} 2 & 12 \\ 8 & 9 \\ 6 & 9 \\ 8 & 10 \\ \end{pmatrix} \] Usando el nivel de significancia \(\alpha=0.03\), pruebe si es posible suponer que las variables son independientes con igual matriz de covarianza (Esfericidad).
Se analizó la transpiración de 10 mujeres saludables y 10 hombres. Se midieron tres componentes: \(x_1\): tasa de sudoración, \(x_2\): contenido de sodio y \(x_3\): contenido de potasio. Los resultados se presentan continuación.
Mujer | \(x_1\) | \(x_2\) | \(x_3\) | Hombre | \(x_1\) | \(x_2\) | \(x_3\) |
---|---|---|---|---|---|---|---|
1 | 3.7 | 48.5 | 9.3 | 1 | 6.9 | 66.9 | 6.7 |
2 | 5.7 | 65.1 | 8 | 2 | 6.5 | 58.8 | 5.3 |
3 | 3.8 | 47.2 | 10.9 | 3 | 7.5 | 47.8 | 3.8 |
4 | 3.2 | 53.2 | 12 | 4 | 8.5 | 40.2 | 2.4 |
5 | 3.1 | 55.5 | 9.7 | 5 | 9.5 | 43.5 | 3.1 |
6 | 4.6 | 36.1 | 7.9 | 6 | 8.5 | 56.4 | 7.1 |
7 | 2.4 | 24.8 | 14 | 7 | 6.5 | 71.6 | 5.2 |
8 | 7.2 | 33.1 | 7.6 | 8 | 6.5 | 72.8 | 3.9 |
9 | 6.7 | 47.4 | 8.5 | 9 | 7.1 | 64.1 | 4.2 |
10 | 5.4 | 54.1 | 11.3 | 10 | 9.5 | 40.9 | 3.4 |
Usando el nivel de significancia \(\alpha=0.1\), pruebe si es posible suponer que la matriz de covarianza para hombres y mujeres es la misma.
\[ \]