La fluorescencia es la propiedad de algunos átomos y moléculas de absorber luz a una longitud de onda determinada (excitación) seguido por la emisión de luz de corta duración a una longitud de onda más larga.
La fluorescencia implica una fuente de luz externa para excitar la muestra a una longitud de onda en particular. Cuando se excita a la longitud de onda adecuada, la molécula pasa de un estado básico a otro excitado. A medida que la molécula vuelve al estado fundamental, se libera energía en forma de calor (pérdida de energía) y luz a una longitud de onda diferente de menor energía.
Recolección de los datos
Se recolectaron muestras de azúcar durante tres meses de operación en una planta azucarera ubicada en Escandinavia. Las muestras se tomaron cada ocho horas, lo que corresponde a tres mediciones diarias, para un total de 268 muestras a lo largo del periodo de estudio.
El azúcar se disolvió en agua en una proporción de 2.25 g por 15 ml, y la solución resultante se analizó utilizando un espectrofluorómetro PE LS50B.
Cada muestra fue excitada a siete longitudes de onda (230, 240, 255, 290, 305, 325 y 340 nm). Para cada una de estas excitaciones, el equipo registró la intensidad de emisión en 571 longitudes de onda. Los espectros de emisión se midieron en el rango de 275 a 560 nm, con intervalos de 0,5 nm.
Para el suavizado de las curvas se empleará suaviado splines, utilizando bases B-splines. Esta elección se justifica a partir de la visualización de los datos, donde se puede observar que los espectros de emisión no presentan un comportamiento periódico. En este contexto, los B-splines son una base adecuada.
2.1 a. Seleccione uno de los 7 procesos que hacen parte del estudio espectrométrico, y con las observaciones muestrales del proceso seleccionado:
2.1.1 1) Supuestos del FPCA
Para poder realizar FPCA, el operador de covarianza debe ser un operador de Hilbert–Schmidt, simétrico y definido positivo. Para que lo primero se cumpla, el proceso aleatorio del cual se obtienen las realizaciones debe ser cuadrado–integrable, \(\mathrm{E}[\lVert \chi \rVert^2]<\infty\). Las otras dos propiedades se tienen por la simetría y positividad del operador de covarianza \(c(s,t) = \operatorname{Cov}(\chi(s), \chi(t))\).
Otro supuesto que se hace es que la media sea constante. Para esto, se juzga el sistema de hipótesis \[
H_0: \mathrm{E}[\chi_1] = \cdots = \mathrm{E}[\chi_N]
\]
Esto se realiza mediante la función fchange() del paquete fChange, donde es posible aplicar la metodología propuesta por (Berkes et al. 2009).
Tabla 1: Estimaciones de los puntos de cambio en la media funcional
Punto de Cambio
p-valor
134
0.000
184
0.004
Los resultados proporcionan evidencia para rechazar la hipótesis nula de media funcional constante, \(H_0: \mathrm{E}[\chi_1] = \cdots = \mathrm{E}[\chi_N]\), a favor de la existencia de cambios en la media de las curvas espectrométricas. Se identifican dos puntos de cambio significativos, lo que sugiere la presencia de tres regímenes con distinta estructura de media funcional. En la Figura 1 se muestran las funciones media para cada segmento de curvas y en la se muestra el número de observaciones en cada uno.
Figura 1: Curvas observadas y funciones medias estimadas en cada segmento
Los resultados de Tabla 1 proporcionan evidencia para rechazar la hipótesis nula de media funcional constante, a favor de la existencia de cambios en la media de las curvas espectrométricas. Se identifican dos puntos de cambio significativos, lo que sugiere la presencia de tres conjuntos de observaciones con distinta estructura de media funcional.
Por lo tanto, a cada observación se le resta la media estimada correspondiente al segmento al que pertenece, con el fin de obtener las curvas centradas. Este proceso se ilustra en la Figura 2.
(a) Curvas del primer grupo centradas por su media
Figura 2: Curvas espectrométricas centradas por grupo
A continuación se realiza el análisis de componentes principales para cada uno de los grupos.
Luego de haber centrado los procesos, se encuentran las estimaciones de las funciones propias asociadas al operador de covarianza del proceso funcional para cada grupo.
Las tres primeras funciones propias se pueden visualizar en la Figura 3.
[1] "done"
Figura 3: Gráfico de las tres primeras funciones propias estimadas del primer grupo
Con la función plot.pca.fd es posible interpretarlas de una forma más sencilla, pues se muestra cómo cada componente principal afecta a la media del proceso. Esto se muestra en la Figura 4, Figura 5 y Figura 6.
Figura 4: Efecto de las primera componente principal sobre la media del proceso del primer grupo
Figura 5: Efecto de la segunda componente principal sobre la media del proceso del primer grupo
Figura 6: Efecto de la tercera componente principal sobre la media del proceso del primer grupo
[1] "done"
Figura 7: Gráfico de las tres primeras funciones propias estimadas del segundo grupo
Figura 8: Efecto de las primera componente principal sobre la media del proceso del segundo grupo
Figura 9: Efecto de la segunda componente principal sobre la media del proceso del segundo grupo
Figura 10: Efecto de la tercera componente principal sobre la media del proceso del segundo grupo
[1] "done"
Figura 11: Gráfico de las tres primeras funciones propias estimadas del tercer grupo
Figura 12: Efecto de las primera componente principal sobre la media del proceso del tercer grupo
Figura 13: Efecto de la segunda componente principal sobre la media del proceso del tercer grupo
Figura 14: Efecto de la tercera componente principal sobre la media del proceso del tercer grupo
En el caso de la primera función propia, esta está mostrando un aumento constante en la media. Debido a su alto porcentaje de variabilidad explicada, se podría decir que la mayor fuente de variación es la cantidad de luz que se emite (magnitud). Además, se puede ver que hay más varibilidad cuando las muestras se someten a longitudes de onda entre los 350nm y 500nm aproximadamente.
La segunda función propia muestra un contraste entre la exposición a las longitudes de onda menores a 380nm aproximadamente y la exposición a las longitudes de onda mayores a 380nm, mostrando una variación mayor en los intervalos [310, 370] y [400, 470] nm.
Por último, la tercera función propia tienen un patrón cuadrático y presenta mayor variabilidad hacia las longitudes de onda medias.
2.1.3 3) Varianza explicada
eL porcentaje de variabilidad se muestra a través de un scree plot en la Figura 15.
Figura 15: Scree plot de las tres primeras componentes principales para los tres grupos
De esta forma, es posible ver que para los tres grupos, las dos primeras componentes principales ya explican más del 90% de variabilidad total.
2.1.4 4) Descomposición Karhunen-Loève
La descomposición de Karhunen-Loève consiste en expresar cada observación funcional como \[
X(t) = \mu(t) + \sum_{k=1}^\infty \xi_k \nu_k (t)
\] donde \(\nu_k\) corresponde a la \(k\)–ésima función propia y \(\xi_k\) es el \(k\)–ésimo score, \(\xi_k=\langle X, \nu_k \rangle\).
En este caso, la base óptima corresponde al conjunto de las dos primeras funciones propias pues ellas explican más del 90% de la variabilidad, aproximadamente. Por lo tanto, para cada observación funcional, se tiene su aproximación \[
X_{i,g}(t) \approx \hat \mu_g(t) + \sum_{k=1}^{K_g}\hat {\xi}_{ikg} \hat \nu _ {kg}(t)
\] con \(i = 1,\ldots,268\), \(g=1,2,3\) y \(K_g=2\).
A continuación, se expresan las tres primeras observaciones muestrales con la descomposición de Karhunen-Loève. En la @ se pueden ver las observaciones junto con su aproximación.
Figura 19: Gráficos de las realizaciones del primer score para el primer grupo
Figura 20: Gráficos de las realizaciones del primer score para el segundo grupo
Figura 21: Gráficos de las realizaciones del primer score para del tercer grupo
Es posible ver que los scores tienen una distribución asimétrica y también presenta algunos outliers por valores muy altos.
2.1.6 6) Gráficos de Dispersión de los Scores
A continuación, se muestra el gráfico de dispersión de las dos primeras componentes principales, que explican el 96.33 de la variabilidad, aproximadamente.
Figura 22: Score plot de las dos primeras componentes principales para el primer grupo
Figura 23: Score plot de las dos primeras componentes principales para el segundo grupo
Figura 24: Score plot de las dos primeras componentes principales para el tercer grupo
Es posible ver que la mayoría de puntos se concentran alrededor de los valores negativos cercanos al cero para el primer score y alrededor del cero para el segundo score. Asimismo, debido al gran porcentaje de variabilidad que explica la primera componente se puede ver que la dispersión es mayor a lo largo de su eje.
2.1.7 7) Función de Covarianza y Funciones Propias
En la ?@fig-covarianza-funciones se presenta la estimación de la función de covarianza y las funciones propias.
Figura 25: Gráfico de la función de covarianza estimada y las funciones propias estimadas (primer grupo)
Figura 26: Gráfico de la función de covarianza estimada y las funciones propias estimadas (segundo grupo)
Figura 27: Gráfico de la función de covarianza estimada y las funciones propias estimadas (tercer grupo)
Como es posible visualizar, en los tres casos la forma de la primera función propia es similar a las que se pueden ver en la función de covarianza debido a su alto porcentaje de variabilidad explicada.
2.1.8 8) Teorema de Mercer
Por el teorema de Mercer se tiene que el kernel \(\psi(s,t)\) usado en el operador integral \(\Psi (x)(t)\) se puede representar en términos de los valores propios y funciones propias del operador. En este caso, se tiene el operador de covarianza \(\mathcal{C}_\chi(x)(t))\) con la función de covarianza como Kernel. Luego,
En la ?@fig-covarianza-mercer se puede ver la función de covarianza junto con su aproximación y en la ?@fig-covarianza-mercer-diff se ven sus residuales.
Figura 28: Gráfico de la función de covarianza y su aproximación por el teorema de Mercer (primer grupo)
Figura 29: Gráfico de la función de covarianza y su aproximación por el teorema de Mercer (primer grupo)
Figura 30: Gráfico de la función de covarianza y su aproximación por el teorema de Mercer (segundo grupo)
Figura 31: Gráfico de la función de covarianza y su aproximación por el teorema de Mercer (segundo grupo)
Figura 32: Gráfico de la función de covarianza y su aproximación por el teorema de Mercer (tercer grupo)
Figura 33: Gráfico de la función de covarianza y su aproximación por el teorema de Mercer (tercer grupo)
3 Con el proceso seleccionado en el punto anterior:
3.1 Construya una carta de control usando FPCA
Una carta de control es una herramienta que permite monitorear si un proceso se mantiene bajo control o si presenta cambios anómalos a lo largo del tiempo.
Para construir una carta de control a partir del análisis de componentes principales:
Se utiliza una carta\(T^2\) para monitorear la variabilidad explicada por las componentes principales (scores).
Para el caso funcional, sea \(\chi\) una función aleatoria definida en \(L^2\), la cual puede representarse mediante la descomposición de Karhunen–Loève como:
\(\phi_k\): son las funciones propias ortonormales del operador de covarianza asociado a \(\chi\).
\(\xi_k = \langle \chi, \phi_k \rangle\): son los scores, que son las proyecciones de la función \(\chi\) sobre las funciones propias.
Para realizar FPCA, se utiliza una aproximación truncada de esta expansión. Dado que el operador de covarianza posee infinitos valores y funciones propias, se selecciona un número finito \(K\) de componentes principales, de manera que se capture una proporción suficientemente alta de la varianza total.
Además, se complementa con una carta\(Q\) o SPE, que permite detectar variabilidad no capturada por las componentes principales, es decir, aquello que queda fuera de las direcciones de máxima varianza.
En la Fase I se realiza el FPCA a partir de una muestra en control.
Se realiza el FPCA.
Se calculan los estadísticos \(T_j^2\) y \(Q_j\).
El nivel de significancia conjunto para las cartas de control \(T^2\) y \(Q\) se fija como \(\alpha\). Dado que se utilizan dos estadísticas de monitoreo, el nivel de significancia individual para cada carta se define como:
\[
\alpha' = 1 - (1 - \alpha)^{1/p},
\]
donde \(p = 2\) corresponde al número de cartas de control. De esta manera, se garantiza que el nivel de significancia global sea \(\alpha\). Nosotros fijaremos \(\alpha = 0.05\) como nivel de significancia conjunto.
Por otra parte, dado que la distribución exacta de los estadísticos \(T^2\) y \(Q\) no es conocida, los límites de control se estiman mediante un procedimiento de bootstrap. En particular, se considera el máximo de estos estadísticos en cada réplica bootstrap, y a partir de esta distribución empírica se calculan los cuantiles correspondientes de \(T^2\) y \(Q\), los cuales se utilizan para definir los limites.
\[
T^2 > \text{UCL}_{T^2}
\quad \text{o} \quad
Q > \text{UCL}_{Q}.
\] Para la construcción de las cartas de control, se divide el conjunto de datos en dos subconjuntos: el \(80\%\) de las observaciones se utiliza en la Fase I, mientras que el \(20\%\) restante se reserva para la Fase II.
Una vez identificados los puntos de cambio, la construcción de las cartas de control se realizará mediante la partición del conjunto de datos, agrupando aquellas observaciones que comparten una misma estructura de media.
Código
T2_Q.CL <-function(data, argvals, Lambda, Basis, ncomp, alpha, B, seed){ N <-dim(data)[2] all_T2 <-vector("list", B) all_Q <-vector("list", B) fdParobj <-fdPar(fdobj = Basis, Lfdobj =2, lambda = Lambda) dt <-diff(argvals)set.seed(seed)for (b inseq_len(B)) {# Remuestreo idx <-sample(1:N, size = N, replace =TRUE) samples <- data[, idx, drop =FALSE]# Suavizado y PCA smoothlist <-smooth.basis(argvals, samples, fdParobj) fdObj_c <-center.fd(smoothlist$fd) pcaObj <-pca.fd(fdObj_c, nharm = ncomp, centerfns =FALSE)# Extraer scores y valores propios Scores <- pcaObj$scores Eigenval <- pcaObj$values[1:ncomp]# T2 all_T2[[b]] <-rowSums((Scores %*%diag(1/Eigenval)) * Scores)# Q Xfd <-eval.fd(argvals, fdObj_c) Phi <-eval.fd(argvals, pcaObj$harmonics) Xhat <- Phi %*%t(Scores) all_Q[[b]] <-apply((Xfd - Xhat)^2, 2, function(v){sum((v[-1] + v[-length(v)]) /2* dt) }) }# Límites de control CL_T2 <-quantile(unlist(all_T2), 1- alpha) CL_Q <-quantile(unlist(all_Q), 1- alpha)# Modelo con datos originales smoothlist_f <-smooth.basis(argvals, data, fdParobj) fdObj_c_f <-center.fd(smoothlist_f$fd) pcaObj_f <-pca.fd(fdObj_c_f, nharm = ncomp, centerfns =FALSE) Scores_f <- pcaObj_f$scores Eigenval_f <- pcaObj_f$values[1:ncomp]# T2 final T2_final <-rowSums((Scores_f %*%diag(1/Eigenval_f)) * Scores_f)# Q final Xfd_f <-eval.fd(argvals, fdObj_c_f) Phi_f <-eval.fd(argvals, pcaObj_f$harmonics) Xhat_f <- Phi_f %*%t(Scores_f) Q_final <-apply((Xfd_f - Xhat_f)^2, 2, function(v){sum((v[-1] + v[-length(v)]) /2* dt) })return(list(CL_T2 =as.numeric(CL_T2),CL_Q =as.numeric(CL_Q),T2 = T2_final,Q = Q_final ))}clean_phaseI_T2Q <-function(data, p, argvals, Lambdas, Basis, ncomp =2,alpha =0.025, B =500, seed =123,r,cp){set.seed(seed) data_variable <- data[ , , p][,cp] n_total <-dim(data_variable)[2]# Selección de Fase I idx_phase1 <-1:floor(r * n_total) data_phase1 <- data_variable[, idx_phase1, drop =FALSE] indices <- idx_phase1 removed_indices <-c() Lambda <- Lambdas[p]repeat { res <-T2_Q.CL(data = data_phase1,argvals = argvals,Lambda = Lambda,Basis = Basis,ncomp = ncomp,alpha = alpha,B = B,seed = seed )# Identificar fuera de control outliers <-which(res$T2 > res$CL_T2 | res$Q > res$CL_Q)if(length(outliers) ==0) break# Guardar cuáles estamos quitando removed_indices <-c(removed_indices, indices[outliers])# Actualizar datos y los índices que quedan data_phase1 <- data_phase1[, -outliers, drop =FALSE] indices <- indices[-outliers]if(length(indices) <= ncomp) break }return(list(cleaned_data = data_phase1,final_result = res,removed_indices = removed_indices,n_removed =length(removed_indices),indices = indices ))}
Se considerará una partición del conjunto de datos de la siguiente manera: la Fase I estará conformada por el grupo tres, correspondiente a las últimas observaciones que comparten una misma media. En este caso, la separación se realizará utilizando el 80% de los datos para la Fase I y el 20% restante para la Fase II. Los límites de control serán estimados mediante bootstrap.
Del último conjunto de datos, conformado por las últimas 84 observaciones que presentan la misma media, se seleccionó el 80%, correspondiente a 67 observaciones, para la Fase I. Dentro de este conjunto, 43 observaciones se utilizaron para la estimación de los límites de control, mientras que las 17 observaciones restantes se destinaron a la Fase II, con el propósito de realizar el monitoreo del proceso.
A partir de la Fase I, los límites de control obtenidos fueron 5.910113 para el estadístico \(T^2\) y 297.9885 para el estadístico \(Q\).
Figura 34: Cartas de control funcional (T² y Q) Fase 1 - Opción 2
Observaciones fuera de control considerando únicamente los índices válidos
Observación real
Valor T²
Valor Q
Fuera por T²
Fuera por Q
254
1.311
450.092
No
Sí
255
0.502
424.033
No
Sí
259
2.871
317.485
No
Sí
266
0.644
475.134
No
Sí
268
26.473
1589.664
Sí
Sí
3.2 Construya una carta de control usando La distancia Funcional de Mahalanobis
Sea \(\chi\) una función aleatoria definida en \(L^2\), asumimos \[
\mu_\chi(t) = E[\chi(t)],
\] y \(\mathcal{C}_X\) el operador de covarianza \[
\mathcal{C}_\chi(\eta) = E\big[(X - \mu_X) \otimes (X - \mu_X)(\eta)\big].
\]
Sean \(\lambda_1, \lambda_2, \ldots\) los valores propios del operador y \(\psi_1, \psi_2, \ldots\) las funciones propias, que forman una base ortonormal de \(L^2\).
Usando la expansión de Karhunen–Loève de la función aleatoria \(X\): \[
\chi = \mu_\chi + \sum_{k=1}^{\infty} \xi_k \psi_k,
\] donde \[
\xi_k = \langle \chi - \mu_X, \psi_k \rangle,
\] los cuales son los scores de componentes principales, variables aleatorias no correlacionadas con media cero y varianza \(\lambda_k\).
El operador de covarianza se expresa como: \[
\mathcal{C}_\chi(x,y) = \sum_{j=1}^{\infty} \lambda_j \psi_j(x)\psi_j(y),
\] usando el teorema de Mercer.
Para una función \(y\), el operador inverso se escribe como: \[
\mathcal{C}_\chi^{-1}(y)
= \sum_{k=1}^{\infty} \frac{1}{\lambda_k} \langle y, \psi_k \rangle \psi_k.
\]
Se define la distancia funcional de Mahalanobis entre \(\chi\) y \(\mu_\chi\) como: \[
d_{FM}^2 = \left\langle \mathcal{C}_\chi^{-1/2}(\chi - \mu_\chi), \mathcal{C}_\chi^{-1/2}(\chi - \mu_\chi) \right\rangle.
\]
Expandiendo: \[
\mathcal{C}_\chi^{-1/2}(\chi - \mu_\chi)
= \sum_{k=1}^{\infty} \frac{1}{\sqrt{\lambda_k}} \xi_k \psi_k,
\] por lo que \[
d_{FM}^2 = \sum_{k=1}^{\infty} \frac{\xi_k^2}{\lambda_k}.
\]
Esta versión funcional de la distancia de Mahalanobis es una semi-distancia, ya que debido al truncamiento del operador de covarianza puede ocurrir que elementos distintos tengan distancia cero.
Para la construcción de las cartas de control se seguirá un procedimiento análogo al utilizado previamente en el contexto de FPCA, dividiendo el análisis en dos etapas: una fase de calibración (Fase I) y una fase de monitoreo (Fase II).
En la fase I se seleccionará un subconjunto de observaciones que se asume proviene de un proceso bajo control, es decir, datos que comparten la misma estructura de media. En este caso, se considerará nuevamente que el periodo estable corresponde a las observaciones finales, por lo que se tomará el 80% de los datos más recientes para conformar la Fase I, mientras que el 20% restante se destinará a la Fase II.
Esta partición permitirá estimar los límites de control a partir de un conjunto de referencia estable y, posteriormente, evaluar el comportamiento de las observaciones restantes. Manteniendo el mismo enfoque basado en bootstrap y en la distancia funcional de Mahalanobis.
Código
DFM.CL <-function(data, argvals, Lambda, Basis, ncomp, alpha, B, seed){ N <-dim(data)[2] all_DFM <-vector("list", B) fdParobj <-fdPar(fdobj = Basis, Lfdobj =2, lambda = Lambda)set.seed(seed)for (b inseq_len(B)) {# Remuestreo bootstrap idx <-sample(1:N, size = N, replace =TRUE) samples <- data[, idx, drop =FALSE]# Suavizado y FPCA smoothlist <-smooth.basis(argvals, samples, fdParobj) fdObj_c <-center.fd(smoothlist$fd) pcaObj <-pca.fd(fdObj_c, nharm = ncomp, centerfns =FALSE)# Scores y valores propios Scores <- pcaObj$scores Eigenval <- pcaObj$values[1:ncomp]# Distancia funcional de Mahalanobis all_DFM[[b]] <-sqrt(rowSums( (Scores^2) /matrix( Eigenval,nrow =nrow(Scores),ncol =length(Eigenval),byrow =TRUE ) ) ) } CL_DFM <-quantile(unlist(all_DFM), 1- alpha)# Modelo final con los datos originales smoothlist_f <-smooth.basis(argvals, data, fdParobj) fdObj_c_f <-center.fd(smoothlist_f$fd) pcaObj_f <-pca.fd(fdObj_c_f, nharm = ncomp, centerfns =FALSE) Scores_f <- pcaObj_f$scores Eigenval_f <- pcaObj_f$values[1:ncomp]# DFM final DFM_final <-sqrt(rowSums( (Scores_f^2) /matrix( Eigenval_f,nrow =nrow(Scores_f),ncol =length(Eigenval_f),byrow =TRUE ) ) )return(list(CL_DFM =as.numeric(CL_DFM),DFM = DFM_final ))}clean_phaseI_DFM <-function(data, p, argvals,Lambdas, Basis, ncomp =2, alpha =0.025, B =500, seed =123, r, cp) {set.seed(seed) data_variable <- data[, , p][, cp] n_total <-dim(data_variable)[2]# Selección aleatoria de Fase I idx_phase1 <-1:floor(r * n_total) data_phase1 <- data_variable[, idx_phase1, drop =FALSE]# Guardar índices originales indices <- idx_phase1 removed_indices <-c() Lambda <- Lambdas[p]repeat {# Estimar límite de control y DFM res <-DFM.CL(data = data_phase1,argvals = argvals,Lambda = Lambda,Basis = Basis,ncomp = ncomp,alpha = alpha,B = B,seed = seed )# Identificar observaciones fuera de control outliers <-which(res$DFM > res$CL_DFM)# Si no hay outliers, detenerif (length(outliers) ==0) break# Guardar índices eliminados removed_indices <-c( removed_indices, indices[outliers] )# Eliminar observaciones fuera de control data_phase1 <- data_phase1[, -outliers, drop =FALSE] indices <- indices[-outliers]# Evitar que queden muy pocas observacionesif (length(indices) <= ncomp) break }return(list(cleaned_data = data_phase1,final_result = res,removed_indices = removed_indices,n_removed =length(removed_indices),indices = indices ))}CL_DFM=clean_phaseI_DFM (data=wvl, p=2, argvals=t, Lambdas=Lambdas, Basis=Basis,B =500,alpha=0.05,r=0.8,cp=185:268)
Del último conjunto de datos, conformado por las últimas 84 observaciones que presentan la misma media, se seleccionó el 80%, correspondiente a 67 observaciones, para la Fase I. Dentro de este conjunto, 41 observaciones se utilizaron para la estimación de los límites de control, mientras que las 17 observaciones restantes se destinaron a la Fase II, con el propósito de realizar el monitoreo del proceso.
A partir de la Fase I, el límite de control obtenido fue 2.177862
Figura 35: Carta de control funcional DFM Fase 1
Figura 36: Carta de control funcional DFM Fase 2
Observaciones fuera de control según la DFM
Observación real
Valor DFM
267
2.357
268
5.145
4 MFPCA
4.1 Considere todo los 7 procesos espectrométricos del proceso de producción de azúcar:
4.1.1 Cuáles son los supuestos que requiere el MFPCA
Dado que el MFPCA se basa en la descomposición de Karhunen–Loève, se tiene que:
admite una representación finita de Karhunen–Loève si y solo si cada uno de los procesos univariantes
\(X^{(j)}, \quad j = 1, \dots, p\) admite una representación finita de Karhunen–Loève.
Esto implica que cada proceso univariante pertenece a un espacio de Hilbert, en particular al espacio de funciones aleatorias cuadrado integrables \(L^2(\mathcal{T})\), y que el operador de covarianza asociado es de tipo Hilbert–Schmidt, autoadjunto (simétrico) y definido positivo.
4.1.2 Verique que estos supuestos se cumplen
4.2 Encuentre las estimaciones de las tres primeras funciones propias multivariadas, grafíquelas y presente una explicación de ellas.
Para determinar las componentes principales funcionales multivariadas, se seguirá el enfoque propuesto por (Happ y Greven 2018), el cual permite realizar MFPCA incluso cuando los dominios de los procesos funcionales son diferentes.
En el presente caso, los dominios son iguales; no obstante, este enfoque resulta conveniente, ya que garantiza propiedades deseables del operador de covarianza del proceso funcional multivariado, tales como ser de tipo Hilbert–Schmidt, autoadjunto y definido positivo.
Dadas muestras \(\mathbf{\chi_1}, \dots, \mathbf{\chi_N}\) de \(\mathbf{\chi}\), el procedimiento de estimación propuesto para MFPCA consta de cuatro pasos:
Para cada elemento \(\chi^{(j)}\) se estima un FPCA univariante basado en las observaciones \(\chi^{(j)}_1, \dots, \chi^{(j)}_N\). Esto produce funciones propias estimadas \(\hat{\phi}^{(j)}_m\) y scores \(\hat{\xi}^{(j)}_{i,m}\), \(i = 1, \dots, N\), \(m = 1, \dots, M_j\),para soluciones de truncamiento elegidas adecuadamente \(M_j\).
Definir la matriz \(\Xi \in \mathbb{R}^{N \times M_+}\), donde cada fila \(\Xi_i\) contiene todos los scores estimados para una observación: \(\Xi_i = \big(\hat{\xi}^{(1)}_{i,1}, \dots, \hat{\xi}^{(1)}_{i,M_1}, \dots, \hat{\xi}^{(p)}_{i,1}, \dots, \hat{\xi}^{(p)}_{i,M_p}\big).\) Un estimador \(\hat{Z} \in \mathbb{R}^{M_+ \times M_+}\) de la matriz de bloques \(Z\) se obtiene como \(\hat{Z} = (N - 1)^{-1} \Xi^\top \Xi.\)
Realizar un análisis espectral de matrices para \(\hat{Z}\), obteniendo valores propios \(\hat{\nu}_m\) y vectores propios ortonormales \(\hat{\mathbf{c}}_m\), \(m = 1, \dots, M_+\).
Los estimadores elemento a elemento de las funciones propias multivariantes asociadas a \(\hat{\nu}_m\) están dados por: \(\hat{\psi}^{(j)}_m(t_j) = \sum_{n=1}^{M_j} [\hat{\mathbf{c}}_m]^{(j)}_n \, \hat{\phi}^{(j)}_n(t_j), t_j \in \mathcal{T}_j,\) y los scores multivariantes pueden calcularse como:
# inicializar matriz grande (2 PCs por proceso)cor_big <-matrix(NA, nrow =2*n, ncol =2*n)# nombreslabels <-unlist(lapply(1:n, function(i) paste0("P", i, "_PC", 1:2)))rownames(cor_big) <- labelscolnames(cor_big) <- labels
Código
for(i in1:n){for(j in1:n){# matriz 2x2 entre proceso i y j block <-cor_matrix(pca_list[[i]], pca_list[[j]])# posiciones en la matriz grande rows <- ((i-1)*2+1):(i*2) cols <- ((j-1)*2+1):(j*2) cor_big[rows, cols] <-round(block,2) }}
Código
cor_long <-melt(cor_big)ggplot(cor_long, aes(Var1, Var2, fill = value)) +geom_tile() +scale_fill_gradient2(low ="blue", high ="red", mid ="white",midpoint =0, limits =c(-1,1)) +theme_minimal() +theme(axis.text.x =element_text(angle =45, hjust =1)) +labs(x ="", y ="", fill ="Correlación")
Código
cor_scores_multi <-cor(MFPCAObj14$scores)cor_long <-melt(cor_scores_multi)ggplot(cor_long, aes(Var1, Var2, fill = value)) +geom_tile() +geom_text(aes(label =round(value, 2)), size =3) +scale_fill_gradient2(low ="blue", high ="red", mid ="white",midpoint =0, limits =c(-1,1)) +theme_minimal() +labs(x ="Componentes", y ="Componentes", fill ="Correlación") +theme(axis.text.x =element_text(angle =45, hjust =1))
4.8 Presente una matriz con los graficos de dispersión de las realizaciones de los scores que conjuntamente explican el 90 % de la variación del proceso. Explique el comportamiento de los scores
Código
df <-data.frame(PC1 = MFPCAObj2$scores[,1],PC2 = MFPCAObj2$scores[,2])ggplot(df, aes(x = PC1, y = PC2)) +geom_point(alpha =0.6, size =2, color ="steelblue") +theme_minimal() +labs(title ="Dispersión de los scores (PC1 vs PC2)",x ="Componente principal 1",y ="Componente principal 2" ) +geom_hline(yintercept =0, linetype ="dashed", color ="gray") +geom_vline(xintercept =0, linetype ="dashed", color ="gray")
4.9 Exprese las tres primeras observaciones muestrales usando la descomposición de de Karhunen-Loève
En el caso multivariado, se tiene la descomposición de Karhunen–Loève, de forma que para el vector de curvas aleatorias, $ L^2( _1 ) L^2( _p) $, se tiene que
\[
\mathbf{X}(\mathbf{t}) = \boldsymbol{\mu}(\mathbf{t}) + \sum_{k=1}^\infty \xi_k \boldsymbol{\psi}_k (\mathbf{t})
\] con \(\mathbf{t} = (t_1,\ldots,t_p)^t\). En este caso, se tiene un vector de funciones de tamaño \(p=7\), donde el dominio es el mismo para cada proceso, \(\mathcal{T_1}=\cdots=\mathcal{T_7} = [275, 560]\). De esta forma, se aproxima cada una de las observaciones muestrales de la siguiente manera:
En la sección 4 del artículo de (Happ y Greven 2018) se presentan varias simulaciones para medir el desempeño de su propuesta. Se tienen tres escenarios:
Observaciones densas de un proceso funcional bivariado en un mismo intervalo unidimensional.
Datos funcionales trivariados en distintos intervalos unidimensionales con diferentes niveles de dispersión de observaciones.
Datos funcionales bivariados en dominios de distinta dimensionalidad (imágenes y funciones).
En cada caso, se tienen 100 datasets con \(N=250\) observaciones: \[
\mathbf{x}_i(\mathbf{t}) = \sum_{m=1}^{M} \rho_{im}\psi_m(\mathbf{t}) + \boldsymbol{\varepsilon}_i(\mathbf{t}), \qquad \boldsymbol{\varepsilon}_i(\mathbf{t}) \overset{\mathrm{iid}}{\sim} \mathrm{N}_p(0, \sigma^2 \mathbf{I})
\] con \(\mathbf{t} \in \mathcal{T}\) e \(i=1,\ldots, N = 250\).
Además se tienen otras configuraciones:
Se tienen datos con y sin error de medición.
Los scores \(\rho_{im}\) son muestras independientes de una distribución normal con media 0 y varianza \(\nu_m\).
Los valores propios son drececientes lineal y exponencialmente. Esto es:
donde \(\nu_m\) es el valor propio verdadero y \(\hat{\nu}_m\) es el valor propio estimado. Valores pequeños de esta medida indican una buena estimación del valor propio correspondiente. Por otro lado, la precisión en la estimación de las autofunciones se evalúa mediante \[
\text{Err}(\hat{\psi}_m) =
||| \psi_m - \hat{\psi}_m |||^2,
\]
donde \(\psi_m\) corresponde a la función propia verdadera y \(\hat{\psi}_m\) a su estimación. Debido a que las funciones propias están definidas salvo un cambio de signo, se ajusta la orientación de la función propia estimada cuando \[
\langle\langle \psi_m, \hat{\psi}_m \rangle\rangle < 0.
\]
En ese caso, se reemplaza \(\hat{\psi}_m\) por \(-\hat{\psi}_m\), evitando considerar como error una diferencia que solo se debe a la orientación de la componente. Además de evaluar autovalores y autofunciones, las autoras analizan la calidad de reconstrucción de las observaciones originales. Para ello utilizan el error medio relativo cuadrático, definido como
En la primera configuración se tienen en cuenta las primeras \(M=8\) funciones de la base de Fourier en el intervalo \([0,1]\) para ambos procesos funcionales que forman el proceso bivariado de forma que \(\mathcal{T_1}=\mathcal{T_2}=[0,1]\).
Las obsevaciones se muestrean de un grid equidistante de \(S_1=S_2=100\) puntos y se usan \(M_1=M_2=8\) componentes principales funcionales univariadas para estimar las \(M=8\) componentes principales funcionales multivariadas. El método propuesto por los autores se compara con el método implementado en fda, que se denotará como \(\mathrm{MFPCA_{RS}}\), donde se realiza un suavizamiento previo con \(K=15\) splines cúbicos. La función pca.fd(), a diferencia de MFPCA(), devuelve la estimación de dos scores por observación bivariada y función propia estimada, de forma que se suman para poder compararlos con la nueva metodología.
La simulación se realiza mediante la función simMultiFunData() del paquete funData.
A continuación, se define el número de observaciones a simular, el error, el dominio sobre el cual se generan las observaciones y el número de componentes principales univariadas a estimar. Además, se muestra un ejemplo de un dataset generado con valores propios que decaen exponencialmente en sin y con error de medición en la Figura 37 y Figura 38. De igual forma, en la Figura 39 se muestran las funciones propias simuladas.
Figura 37: Ejemplo de un dataset simulado bajo la primera configuración sin error de medición
Figura 38: Ejemplo de un dataset simulado bajo la primera configuración con error de medición
Figura 39: Ejemplo de las funciones propias simuladas bajo la primera configuración
A continuación, se realiza la simulación de esta primera configuración \(B=100\) veces con ambos tipos de decaimiento de los valores propios (exponencial y lineal) y errores de medida (\(\sigma^2=0\) y \(\sigma^2=0.25\)).
Código
S1_exp_s0 <-Sim_Setting1(eValType ="exponential", s2 =0, seed =1, N = N, M =8, argvals = argvalsSetting1, argvalsfd = argvalsfd,uniExpansions = uniExpansions, B =100)S1_exp_s <-Sim_Setting1(eValType ="exponential", s2 = s2, seed =1, N = N, M =8, argvals = argvalsSetting1, argvalsfd = argvalsfd,uniExpansions = uniExpansions, B =100)S1_lin_s0 <-Sim_Setting1(eValType ="linear", s2 =0, seed =1, N = N, M =8, argvals = argvalsSetting1, argvalsfd = argvalsfd,uniExpansions = uniExpansions,B =100)S1_lin_s <-Sim_Setting1(eValType ="linear", s2 = s2, seed =1, N = N, M =8, argvals = argvalsSetting1, uniExpansions = uniExpansions, argvalsfd = argvalsfd,B =100)
(a) Error relativo de las estimaciones de los valores propios
(b) Error relativo de las estimaciones de las funciones propias
Figura 40: Resultados de la replicación de las simulaciones en el primer escenario
Tabla 4: MRSE promedio en porcentaje para las simulaciones con la primera configuración
Configuración
Método
\(\sigma^2 = 0\), \(\nu_m^{exp}\)
\(\sigma^2 = 0\), \(\nu_m^{lin}\)
\(\sigma^2 = 0.25\), \(\nu_m^{exp}\)
\(\sigma^2 = 0.25\), \(\nu_m^{lin}\)
1
MFPCA
1e-04
1e-04
0.2165
0.1246
1
MFPCARS
0e+00
0e+00
0.2150
0.1238
Como se puede ver, la propuesta presentada en el paper compite bastante con método de Ramsay y Silverman que se encuentra implementado en el paquete fda, dando resultados bastante similares. En el caso de los valores propios con decaimiento exponencial, en los casos en los que no hay error de medición se tienen los resultados más parejos, mientras que cuando se incorpora el error de medición, las estimaciones de los últimios valores propios tienen un mayor error relativo. En el caso de las funciones propias, las estimaciones tienen errores muy similares.
Por otro lado, el MRSE nos permite verificar que el error de las reconstrucciones mediante la descomposición de Karhúnen–Loéve truncada es similar, con diferencia hasta el tercer decimal.
5.1.2 Segunda escenario
Para la segunda configuración, se evalúa el rendimiento de la nueva propuesta para datos dispersos con las primeras \(M=8\) funciones en la base de Fourier. Se realiza la comparación sin dispersión (Full data), dispersión media (Medium sparsity) y dispersión alta (High sparsity). A diferencia de la configuración anterior, se consideran realizaciones de un proceso funcional trivariado con distintos dominios (\(\mathcal{T}_1=[-1,-0.5]\), \(\mathcal{T}_2=[0,1]\), \(\mathcal{T}_3=[1.5,2]\)) y número de puntos discretizados distintos (\(S_1=S3=50\) y \(S_2=100\)). Además, para cada opción de sparsity se tienen las siguientes aclaraciones:
Full data: no hay faltantes.
Medium sparsity: 50% a 70% de faltantes.
Full sparsity: 70% a 90% de faltantes (modificación por estabilidad numérica).
El MFPCA se calcula dependiendo de la dispersión. Para las simulaciones de datos completos y dispersión media se usan \(M_1=M_2=M_3=8\) componentes principales funcionales univariadas. Con dispersión alta, se usan \(M_1=M_3=3\) y \(M_2=5\) por estabilidad.
A continuación, en la Figura 41 y la Figura 42 se muestra un ejemplo de un dataset simulado con un decaimiento exponencial de los valores propios. Al igual que en el caso anterior, se hace uso de la función simMultiFunData(). Además, en la Figura 43 se muestran las funciones propias simuladas.
Y se realizan las respectivas simulaciones \(B=100\) veces, con ambos tipos de decaimiento de los valores propios, errores de medición y también los distintos niveles de sparsity.
(a) Error relativo de las estimaciones de los valores propios
(b) Error relativo de las estimaciones de las funciones propias
Figura 44: Resultados de la replicación de las simulaciones en el segundo escenario
Tabla 5: MRSE promedio en porcentaje para las simulaciones en el segundo escenario
Método
\(\sigma^2 = 0\), \(\nu_m^{exp}\)
\(\sigma^2 = 0\), \(\nu_m^{lin}\)
\(\sigma^2 = 0.25\), \(\nu_m^{exp}\)
\(\sigma^2 = 0.25\), \(\nu_m^{lin}\)
Full data
0.0062
0.0083
21.4450
12.3222
Medium sparsity
0.3253
0.2987
23.3041
13.5365
High sparsity
2.5808
2.0033
27.9791
16.9083
Como es posible ver en la Figura 44, para el escenario con los valores propios decayendo exponencialmente, hay mayor dificultar para estimar tanto los valores y funciones propias en el caso en el que hay una alta dispersión, teniendo los mayores errores relativos. Esto también ocurre en el caso de los valores propios con decaimiento lineal, pero se presentan menos dificultades en el proceso de estimación. Se puede ver que tanto en el escenario de los datos completos como de dipsersión media, se obtienen resultados muy similares. En general, el método mantiene un buen desempeño con datos completos y con dispersión moderada. Cuando la dispersión es alta, el error de reconstrucción aumenta, pero las primeras componentes principales siguen siendo estimadas de manera razonable. Esto es relevante porque en aplicaciones reales los datos funcionales suelen estar incompletos o ser observados de forma irregular.
Con respecto a la reconstrucción de las curvas, en la Tabla 5 es posible ver que el proceso de estimación tiene un mejor comportamiento cuando no se tiene error de medición, pues los valores error cuadrático medio relativo son bajos. No obstante, cuando se agrega error de medición, el método presenta mayor dificultad. Es posible evidenciar esto de una mejor forma en el escenario de los valores propios con decaimiento exponencial.
5.2 2) Sección 4.2
Para la tercera configuración se cuenta con imágenes y funciones. Por un lado, se tienen observaciones que fueron generadas de \(M=25\) componentes principales, donde las imágenes propias, \(\psi_m^{(1)}\), fueron formadas mediante productos tensoriales de funciones pertenecientes a la base de Fourier en el intervalo \(\mathcal{T}_1=[0,1]\times [0, 0.5]\). Por otro lado, las funciones propias asociadas a la segunda componente del vector de funciones se obtiene mediante polinomios de Legendre en \(\mathcal{T}_2=[-1,1]\). La idea es construir una base ortonormal en \(L^2(\mathcal{T}_1) \times L^2(\mathcal{T}_2)\) como combinaciones ponderadas de dichas bases, con un peso aleatorio \(\alpha\in(0,1)\) que se restringe a \(\alpha\in(0.2,0.8)\) para evitar pesos extremos. \[
\psi_m^{(1)}(s,t)
=
\sqrt{\alpha}\,
f_{m_1}^{(1,1)}(s)\cdot f_{m_2}^{(1,2)}(t),
\qquad
(s,t)\in \mathcal{T}_1 := [0,1]\times[0,0.5],
\]
Para esta tercera simulación, se comparan el MFPCA calculado con el algoritmo FCP–TPA y otro método basado en B–splines en el cual se calcula el MFPCA con \(M_1=20\) imágenes propias y \(M_2=15\) funciones propias univariadas. En el caso de la estimación general de las imágenes y funciones propias, se realizó mediante productos tensoriales de \(K_1=10\times12\) funciones de bases de B–splines y \(K_2=15\) funciones, respectivamente.
A continuación se muestran una observación provenientes del dataset simulado, junto con las funciones propias que generan dichas observaciones mediante la descompsición de Karhúnen-Loève y los valores propios con decaimiento exponencial.
En la Figura 49 se pueden ver los resultados obtenidos para esta tercer configuración.
(a) Error relativo de las estimaciones de los valores propios
(b) Error relativo de las estimaciones de las funciones propias
Figura 49: Resultados de la replicación de las simulaciones en el tercer escenario
Para la comparación de ambos métodos, se toman las primeras 12 componentes principales. Como se puede ver, en ambos escenarios (un decaimiento exponencial y lineal de los valores propios), el método de B–splines estima mucho mejor los valores e imágenes/funciones propias. En la presencia de error, los dos tienen resultados similares, pero el método de expansiones univariadas de B–splines se comporta mejor. Además, es posible ver que los últimos valores propios e imágenes/funciones propias son más difíciles de estimar con ambos enfoques.
5.3 3) Sección 5: Aplicación
En la quinta sección del paper se presenta una aplicación a un dataset que contiene curvas e imágenes relacionadas a un estudio ADNI (Alzheimer’s Disease Neuroimaging Initiative) que busca identificar biomarcadores que ayuden a la precisión de los diagnósticos de Alzheimer en una etapa temprana. Cada persona perteneciente al estudio tiene dos tipos de información:
Una trayectoria longitudinal de ADAS-Cog, que es una prueba neuropsicológica usada para seguir la progresión del Alzheimer. Valores más altos indican mayor deterioro cognitivo.
Una imagen cerebral FDG-PET al inicio del estudio, que representa mediciones del metabolismo de glucosa en el cerebro. Menor metabolismo, llamado hipometabolismo, suele asociarse con menor actividad neuronal.
Luego, por cada individuo se tiene asociado un vector \(\mathbf{X}_i=(X_i^{(1)}, X_i^{(2)})^t\) en el que la primera componente representa una trayetoria ADAS-Cog y la segunda una imágen cerebral FDG-PET.
Al intentar replicar el ejercicio realizado en el paper, se tuvo acceso a los datos de \(N=236\) participantes que tenían una imágen cerebral FDG-PET en la visita basal (una imagen cerebral al inicio del estudio) y almenos tres mediciones de ADAS-Cog durante el seguimiento. Debido a que las trayectorias no necesariamente estaban completas para todos los tiempos y todos los individuos, se tienen datos irregulares o sparse. Esto se muestra en la Figura 50.
Figura 50: Trayectorias ADAS-Cog para los participantes del estudio. En el eje x se presenta el número de datos disponibles por cada visita.
Por otro lado, también se muestra un ejemplo de una de las imágenes cerebrales FDG-PET.
Figura 51: Ejemplo de una de las imágenes cerebrales FDG-PET
Para realizar el análisis de estos datos, primero se crean los objetos funcionales con los cuales se trabajará.
Además, es importante ser conscientes de que los tipos de datos son bastante diferentes con respecto a la escala y dominio. Por lo tanto, es importante es tomar ponderaciones o una de las dos partes podría dominar artificialmente el análisis. Para ello, se usa el producto escalar ponderado \[
\langle\langle f,g\rangle\rangle_w =
\sum_{j=1}^{p}
w_j
\int_{T_j} f^{(j)}(t_j)g^{(j)}(t_j)\,dt_j
\] para dos funciones \(f,g \in \mathcal{H}\). Los autores realizan la ponderación de la siguiente forma: \[
w_j =
\left(
\int_{T_j}
\widehat{C}_{jj}(t_j,t_j)\,dt_j
\right)^{-1}
\] con \(j=1,2\), que correspondería a la variabilidad de cada uno de los elementos (trayectorias e imágenes cerebrales). Por lo tanto, los elementos reescalados \(\widetilde{X}^{(j)} = w_j^{1/2}X^{(j)}\) tienen varianza 1. A continuación se muestran los pesos:
De esta forma, se aplica la metodología propuesta en el paper. En el caso de las trayectorias, se realiza FPCA con \(M_1=3\) componentes principales que explican el 99% de la varianza. Para las imágenes, se usan productos tensoriales de \(20 \times 15\) B–splines.
Como se puede ver las dos primeras componentes ya explican más del 80% de la variabilidad ponderada, mientras que las cuatro primeras explican un poco más del 90%. Si nos concentramos en la primera componente que corresponde a un cambio en la media, entonces esta representa personas cuya función cognitiva empeora durante el seguimiento. Además, las personas asociadas positivamente con este componente tienden a mostrar menor actividad cerebral en regiones relacionadas con Alzheimer ya desde la visita basal.
Las imágenes de la primera función propia estimada \(\hat{\psi}_1\) se puede ver en la Figura 52. Es posible apreciar que la primera función propia presenta valores negativos en la componente ADAS-Cog durante todo el seguimiento. Esto quiere decir que sujetos con scores positivos se asocian con un menor deterioro cognitivo relativo (trayectorias ADAS-Cog por debajo de la media), mientras que sujetos con scores negativos se asocian con mayor deterioro cognitivo relativo (trayectorias por encima de la media). En cuanto a la componente FDG-PET, las regiones significativas positivas implican que los sujetos con scores negativos presentan menor señal FDG-PET relativa en dichas regiones.
(a) Componente ADAS-Cog
(b) Componente FDG-PET con regiones significativas al 95%
(c) Componente FDG-PET con regiones significativas al 90%
Figura 52: Estimación de la primera función propia \(\hat{\psi}_1\): componente ADAS-Cog y componente FDG-PET.
Por otro lado, en la Figura 53 es posible ver que los participantes con diagnóstico AD (personas con Alzheimer diagnosticado) tienen scores más negativos, es decir, un deterioro cognitivo mayor. Por otro lado, las personas sanas (Normal) tienden a tener scores positivos, es decir, un menor deterioro cognitivo. Por último, aquellos participantes con deterioro cognitivo leve (MCI) se ubica en una posición intermedia.
Figura 53: Boxplot de los scores estimados de la primera componente MFPCA según diagnóstico
En el caso de la estimación de la segunda función propia \(\hat{\psi}_2\) presente en la Figura 54, hay que tener en cuenta que las bandas de confianza de \(\hat{\psi}_1^{(1)}\) contienen al cero al 95% (y también 90%) de confianza. Es decir que no hay suficiente evidencia estadística para concluir que esta componente esté asociada con cambios importantes en ADAS-Cog (deterioro cognitivo). Por otro lado, en la segunda componente \(\hat{\psi}_1^{(2)}\) se puede ver que gran parte de la imágen propia tiene regiones significativas bastante extensas, sugiriendo que la segunda función propia está dominada principalmente por variación en las imágenes cerebrales FDG-PET.
(a) Componente ADAS-Cog
(b) Componente FDG-PET con regiones significativas al 95%
(c) Componente FDG-PET con regiones significativas al 90%
Figura 54: Estimación de la segunda función propia \(\hat{\psi}_2\): componente ADAS-Cog y componente FDG-PET.
Además, se presentan los scores estimados por género, asociados a la segunda componente principal en la Figura 55. De estos resultados es interesante ver la separación entre ambos grupos (Mujeres y Hombres) pues la mayoría de mujeres suele tener un score negativo, mientras que los hombres suelen tener scores positivos. En el paper, esto se asocia a las diferencias de registro o tamaño cerebral de los participantes en el estudio que se encuentra correlacionada con el género.
Figura 55: Boxplot de los scores de la segunda componente MFPCA según género
Referencias
Berkes, István, Robertas Gabrys, Lajos Horváth, y Piotr Kokoszka. 2009. «Detecting Changes in the Mean of Functional Observations». Journal of the Royal Statistical Society: Series B (Statistical Methodology) 71 (5): 927-46. https://doi.org/10.1111/j.1467-9868.2009.00713.x.
Happ, Clara, y Sonja Greven. 2018. «Multivariate Functional Principal Component Analysis for Data Observed on Different (Dimensional) Domains». Journal of the American Statistical Association 113 (522): 649-59. https://doi.org/10.1080/01621459.2016.1273115.