class: center, middle, inverse, title-slide # Fundamentos Teóricos y Análisis de Senderos ## Taller de Modelos de Ecuaciones Estructurales (SEM) con R ### Enver G. Tarazona Vargas ### 2021-06-15 --- class: duke-softblue, middle, center # Introducción --- # Generalidades .Large[ Los modelos de ecuaciones estructurales (SEM) son técnicas de regresión multivariada que han crecido enormemente en popularidad durante las últimas dos décadas. Este aumento refleja al menos tres fenómenos relacionados: 1. la creciente sofisticación de la capacitación cuantitativa en las ciencias sociales; 2. la disponibilidad de grandes conjuntos de datos multivariados; y 3. la potencia computacional para estimar modelos complejos y altamente parametrizados. ] --- # Variable .Large[ .full-width[.content-box-red[Es una característica que interesa observar o medir en las unidades estadísticas y que puede asumir al menos dos valores diferentes.]] Una variable suele ser denotada por una letra mayúscula, por ejemplo: `\(X\)`, `\(Y\)` o `\(Z\)`. **Clasificación:** - Cualitativas (categóricas) - Cuantitativas (métricas) - Discretas - Continuas ] --- # Variable Estadística .Large[ .full-width[.content-box-red[Es cualquier función que asigna números a los elementos de una población. Tales números miden alguna característica de los elementos de la población.]] Por ejemplo, - La variable `\(X =\)` Edad, asigna a una persona el número de años de vida. - La variable `\(Y =\)` Altitud, le asigna a un lugar el número de metros sobre el nivel del mar, etc. ] --- # Variable Estadística .Large[ - Los números se asignan de acuerdo con una escala y representan la medición de una determinada característica en cada unidad estadística. - En una población se pueden definir muchas variables estadísticas. **Rango de la variable estadística:** Es el conjunto formado por todos los valores que puede asumir la variable estadística. ] --- # Escalas de Medición .Large[ **Medición** Es el proceso de observación de una característica de interés (variable), sobre una unidad estadística. **Escala de medición** Es una regla (función) que asigna números a las mediciones realizadas en las unidades estadísticas. Los números asignados por las escalas deben informar lo más precisamente posible acerca de las características de cada unidad observada. ] --- # Escalas de Medición .center[  ] --- # Variables Observadas (Manifiestas) .Large[ - Son variables medidas, manipuladas u observadas directamente. - Por ejemplo: - Respuesta a un ítem del tipo: "Me siento exhausto al final de un día de trabajo" con opciones "1- nada" a "5-mucho". - Número de pensamientos suicidas. - Participación en actividades sociales. - Número de veces a la semana que le dices a tu pareja que lo amas. - Peso. - Rendimiento medio mensual. - Clasificación en uma prueba de evaluación ] --- # Variables Latentes, Factores o Constructos .Large[ - Las variables latentes son variables que no son medidas u observadas directametne. - Se asume que existen. - Presencia inferida a partir de variables observadas (manifiestas). - Registra la covariación entre variables observadas. - Por ejemplo: - Compromiso afectivo - Estado depresivo - Satisfacción de un cliente - Lealtad de un cliente - Imagen de una marca ] --- # Variables en SEM .Large[ - Las variables latentes y observadas pueden ser métricas o categóricas. - De acuerdo a su rol pueden ser clasificadas como: - **Independientes o exógenas**: La causa de la variación de estas variables reside fuera del modelo (no son influenciadas por ninguna variable en el modelo.) - **Dependientes o endógenas**: La causa de la variación de las variables reside dentro del modelo (son explicadas por variables presentes en el modelo) ] --- # Un poco de historia .pull-left[ .Large[ - Spearman (1904) - Wright (1934) - Lazarsfeld (1950) - Lord (1952) - Jöreskog (1973) - Muthén (1987) - Muthén (1998) ]] .pull-right[.Large[ - Análisis Factorial - Path Analysis - Clases Latentes - Item Response Theory - Modelo LISREL - Modelo LISCOMP - Mplus ]] --- # Modelos con Variables Latentes: Clasificación .center[  .caption[ **Casos particulares de LVM** ]  .caption[ **Modelamiento de la Estructura de la Covarianza** ] ] --- # ¿Qué son los SEM? .Large[ - Familia de modelos usados para evaluar la validez de modelos teóricos que definen relaciones causales e hipotéticas entre variables observadas y (a menudo) latentes. - Las relaciones son representadas por parámetros que indican la magnitud del efecto que las variables (independientes) tienen sobre otras variables (dependientes) - Son una extensión de modelos lineales generalizados que considera, de forma explícita, los errores de medida asociadas con las variables en estudio. ] --- # ¿Qué son los SEM? .Large[ .full-width[.content-box-red[En general, el objetivo de SEM es comprender patrones estructurales en las asociaciones entre variables]] ] .large[ - Por ejemplo, ¿son suficientes 20 items en un test de depresión para medir un constructo subyacente (hipotético)? - SEM permite a los investigadores probar hipótesis sobre variables observadas, así como variables latentes que no se miden directamente. Esto abre la puerta para desarrollar la validez de construcción de una variable latente (por ejemplo, la depresión), o para probar hipótesis sobre cómo los constructos se relacionan entre sí (por ejemplo, la relación entre ansiedad y depresión). ] --- # SEM: Componentes Principales .center[ .Large[ .full-width[.content-box-neutral[Modelo Estructural]] ¿Cómo inferir relaciones causales complejas entre las variables que no son observadas directamente? .full-width[.content-box-neutral[Modelo de Medición]] ¿Qué es lo que la medida observada está realmente midiendo? ] ] --- # Modelo Estructural .Large[ - Representa las relaciones entre constructos, ya sean observados o latentes. Esto es lo más parecido a las técnicas de regresión estándar, donde se cree que una variable causa (o al menos está asociada a) otra. - Por ejemplo, la edad a menudo predice el nivel de rendimiento en las pruebas de memoria de trabajo. Por lo tanto: $$ `\begin{align*} \textrm{Edad} &\rightarrow \textrm{Memoria_de_Trabajo} \\ \end{align*}` $$ ] ??? - Memoria de Trabajo: La memoria de trabajo es un sistema cognitivo con una capacidad limitada que se encarga de mantener temporalmente la información disponible para su procesamiento. La memoria de trabajo es importante para el razonamiento y la orientación de la toma de decisiones y el comportamiento. La memoria de trabajo a menudo se usa como sinónimo de memoria de corto plazo, pero algunos teóricos consideran que las dos formas de memoria son distintas, asumiendo que la memoria de trabajo permite la manipulación de información almacenada, mientras que la memoria de corto plazo solo se refiere al almacenamiento de información a corto plazo La memoria de trabajo es un concepto teórico central para la psicología cognitiva, la neuropsicología y la neurociencia. --- # Modelo Estructural .Large[ - Un psicólogo del desarrollo podría notar rápidamente que la edad no es la causa en sí misma. Más bien, la causa próxima podría ser el aumento de la integración funcional de las redes cerebrales, o algún otro resultado del envejecimiento. - Podríamos pensar esto en términos de edad que tenga un efecto indirecto en la memoria de trabajo a través de una o más variables intermedias (mediadoras) ] --- # Modelo Estructural .center[  .caption[ **Fig. 3:** Modelo Estructural ] ] --- # Modelo de Medición .Large[ - Especifica cómo las variables observadas se relacionan entre sí para formar variables latentes subyacentes. - Las variables observadas se consideran *indicadores* (es decir, medidas indirectas) de una variable latente. Y las variables latentes típicamente representan constructos hipotéticos en SEM. - Por ejemplo, el narcisismo es un constructo que describe la tendencia a ser grandioso, vengativo, auto-mejorado y potencialmente vulnerable al rechazo. ] --- # Modelo de Medición .Large[ - La investigación sobre el narcisismo (por ejemplo, Pincus y Lukowitsky, 2010) sugiere que probablemente tenga múltiples facetas, como la grandiosidad frente a la vulnerabilidad. Entonces, tal vez sea un constructo hipotético compuesto de subcomponentes latentes separables. - El rol de un modelo de medición es probar si la estructura latente subyacente de los indicadores coincide con la teoría del investigador. - Por ejemplo, un item en un test psicométrico destinado a capturar la grandiosidad puede no correlacionarse con otros items que pretenden también medir la grandiosidad. Por lo tanto, es probable que sea un mal indicador de ese constructo latente. ] --- # Modelo de Medición .center[
] --- # Causalidad en SEM .Large[ - Existe la concepción **errada** de que un modelo ajustado correctamente a los datos demuestra, estadísticamente, la causalidad propuesta en el modelo. - La estimación de los parámetros son similares a la de los parámetros de otros modelos lineales en el sentido de que no demuestran la existencia de las relaciones causales entre las variables. - Las relaciones causales entre las variables son **supuestos del modelo**. - La significancia estadística del modelo puede ser usada solamente para demostrar la falsedad del modelo, **nunca para demostrar la veracidad de las relaciones causales**. ] --- class: duke-softblue, middle, center # Variables y Covariables en SEM --- # Notación .Large[ - El uso de un 'sombrero' sobre la variable denota un estimador o un valor estimado. Por ejemplo, `\(\hat{Y}\)` indican los valores predichos de `\(Y\)` en un modelo estadístico. - Las medias muestrales son denotadas como `\(\bar{x}\)`. - La varianza muestral como `\(s^2_x\)` y la desviación estándar muestral `\(s_x\)`. - Las matrices son presentadas en negrita y en mayúsculas, `\(\mathbf{X}\)`. - Los vectores son presentado en negrita y en minúsculas, `\(\mathbf{x}\)`. ] --- # Notación .Large[ - La transpuesta de una matriz invierte una matriz a lo largo de su diagonal (transposición de filas y columnas). Se denota con el operador `\(\mathbf{X}'\)` y en `R` se usa la función `t()`. - Las matrices están compuestas de filas y columnas. Las filas son la primera dimensión, y las columnas la segunda. Así, una matriz compuesta de `\(n\)` observaciones y `\(p\)` variables: `$$\underset{n \times p}{\mathbf{X}}$$` En `R`, para seleccionar el elemento de la fila `i` en la columna `j` de la matriz `X`: `X[i,j]`. ] --- # Notación .Large[ - Un vector fila es un arreglo de números con *una* fila y `\(m\)` columnas (1 x `\(m\)`). $$ `\begin{equation} \mathbf{x} = \begin{bmatrix} x_1 & x_2 & \cdots & x_m \end{bmatrix} \end{equation}` $$ - Un vector columna es una colección de números con varias filas y *una* columna ( `\(m\)` x 1). `$$\begin{equation} \mathbf{x} =\begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_m \end{bmatrix} \end{equation}$$` ] --- # Notación .Large[ - Así, la transpuesta de un vector columna es un vector fila, y viceversa: `$$\begin{equation} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_m \end{bmatrix}' = \begin{bmatrix} x_1 & x_2 & \cdots & x_m \end{bmatrix} \end{equation}$$` - Variables aleatorias (i.e., variables cuyos valores son generados por un modelo probabilístico) son denotadas por mayúsculas (e.g., `\(X\)`). Realizaciones de variables aleatorias (i.e., valores que puede tomar la variable aleatoria) son presentadas en minúsculas (e.g., `\(x\)`). ] --- # Ejemplo: Boston Housing .Large[ Usaremos los datos de precios de vivienda del censo de Boston de 1970 para revisar conceptos importantes de correlación y regresión. Este es un buen conjunto de datos para regresión porque hay muchas variables interdependientes: crimen, contaminantes, antigüedad de las propiedades, etc. ] ```r library(mlbench); library(dplyr) data(BostonHousing2) BostonSmall <- BostonHousing2 %>% dplyr::select( cmedv, #mediana del valor de la casa en USD 1000s crim, #crímenes per capita por ciudad nox, #concentración de monóxido de nitrógeno lstat #proporción de status bajo ) n <- nrow(BostonSmall) #número de observaciones k <- ncol(BostonSmall) #número de variables #Mostrar relaciones entre variables flowViz::splom(BostonSmall) ``` <!-- --> --- # Ejemplo: Boston Housing <!-- --> --- # Matriz de Varianza-Covarianza .Large[ Podemos usar la función `cov()` en R para obtener la matriz de varianza-covarianza: ] ```r from_r <- cov(BostonSmall) from_r ``` ``` ## cmedv crim nox lstat ## cmedv 84.3123539 -30.7695718 -0.45677938 -48.5769737 ## crim -30.7695718 73.9865782 0.41959389 27.9861679 ## nox -0.4567794 0.4195939 0.01342764 0.4889462 ## lstat -48.5769737 27.9861679 0.48894617 50.9947595 ``` --- # Matriz de Varianza-Covarianza Y mirar debajo del código para verificar que entendemos el concepto y la fórmula: `$$s_{XY} = \frac{\sum{(X-\bar{X})(Y-\bar{Y})}}{n-1}$$` ```r mycov <- function(x, y) { stopifnot(length(x)==length(y)) sum((x - mean(x))*(y - mean(y)))/(length(x) - 1) } cmat <- matrix(NA, nrow=k, ncol=k) indices <- which(is.na(cmat), arr.ind=TRUE) cmat[indices] <- apply(indices, 1, function(v) { mycov(BostonSmall[, v[1] ], BostonSmall[, v[2] ]) }) cmat ``` ``` ## [,1] [,2] [,3] [,4] ## [1,] 84.3123539 -30.7695718 -0.45677938 -48.5769737 ## [2,] -30.7695718 73.9865782 0.41959389 27.9861679 ## [3,] -0.4567794 0.4195939 0.01342764 0.4889462 ## [4,] -48.5769737 27.9861679 0.48894617 50.9947595 ``` --- # Matriz de Varianza-Covarianza O también usar álgebra matricial: `$$\mathbf{S_{XX}} = 1/(n-1)\mathbf{D'D}$$` donde `\(\mathbf{D}\)` es una matriz que está en forma de desviaciones (i.e., cada variable está centrada en 0). ```r bmat <- as.matrix(BostonSmall) #convertir a matriz n <- nrow(bmat) #número de observaciones #1) Calcular la media para cada variable y crear una matriz M <- matrix(data=1, nrow=n, ncol=1) %*% colMeans(bmat) #2) Calcular las desviaciones de cada dato con la media D <- bmat - M #3) La matriz de varianza covarianza será: D'D/n-1 C <- t(D) %*% D / (n-1) C ``` ``` ## cmedv crim nox lstat ## cmedv 84.3123539 -30.7695718 -0.45677938 -48.5769737 ## crim -30.7695718 73.9865782 0.41959389 27.9861679 ## nox -0.4567794 0.4195939 0.01342764 0.4889462 ## lstat -48.5769737 27.9861679 0.48894617 50.9947595 ``` --- # Matriz de Varianza-Covarianza .Large[ - Covarianzas positivas indican que valores superiores a la media de una variable tienden a estar asociados con valores superiores a la media de otra (asociación directa.) - Covarianzas negativas indican que valores superiores a la media de una variable tienden a estar asociados con valores inferiores a la media de otra (asociación inversa.) - La magnitud de la covarianza es determinada por la magnitud de las variables. - Covarianzas entre variables de magnitudes diferentes no son directamente comparables. ] --- # Correlación de Pearson La correlación (de Pearson) de `\(x\)` y `\(y\)` es la covarianza que ha sido estandarizada por las desviaciones estándar de ambas variables. `$$r_{XY}= \frac{s_{XY}}{s_{X} s_{Y}}$$` ```r # Definir una matriz de correlaciones en blanco rmat <- array(NA, dim=dim(cmat)) # Las varianzas de cada variables están en la diagonal # de la matriz de covarianzas variances <- diag(cmat) rmat[indices] <- apply(indices, 1, function(v) { cmat[v[1],v[2]] / sqrt(variances[ v[1] ] * variances[ v[2] ]) }) rmat ``` ``` ## [,1] [,2] [,3] [,4] ## [1,] 1.0000000 -0.3895824 -0.4293002 -0.7408360 ## [2,] -0.3895824 1.0000000 0.4209717 0.4556215 ## [3,] -0.4293002 0.4209717 1.0000000 0.5908789 ## [4,] -0.7408360 0.4556215 0.5908789 1.0000000 ``` --- # Correlación de Pearson .large[ Y es fácil generar la matríz de correlación en `R` directamente usando la función `cor()`: ] ```r cor(BostonSmall, method="pearson") ``` ``` ## cmedv crim nox lstat ## cmedv 1.0000000 -0.3895824 -0.4293002 -0.7408360 ## crim -0.3895824 1.0000000 0.4209717 0.4556215 ## nox -0.4293002 0.4209717 1.0000000 0.5908789 ## lstat -0.7408360 0.4556215 0.5908789 1.0000000 ``` --- # Correlación de Pearson .large[ Existe también una función muy práctica `cov2cor()` que permite convertir una matriz de covarianzas a correlaciones: ] ```r cov2cor(cmat) ``` ``` ## [,1] [,2] [,3] [,4] ## [1,] 1.0000000 -0.3895824 -0.4293002 -0.7408360 ## [2,] -0.3895824 1.0000000 0.4209717 0.4556215 ## [3,] -0.4293002 0.4209717 1.0000000 0.5908789 ## [4,] -0.7408360 0.4556215 0.5908789 1.0000000 ``` --- # Correlación de Pearson .large[ Reordenando la última ecuación, podemos convertir las correlaciones a covarianzas: `$$s_{XY}= r_{XY} s_X s_Y$$` en la librería `lavaan` la función `cor2cov()` realiza dicho cálculo a partir de la matriz de covarianzas y un vector con desviaciones estándar. ```r cormat <- cor(BostonSmall) sds <- apply(BostonSmall, 2, sd) lavaan::cor2cov(cormat, sds) ``` ``` ## cmedv crim nox lstat ## cmedv 84.3123539 -30.7695718 -0.45677938 -48.5769737 ## crim -30.7695718 73.9865782 0.41959389 27.9861679 ## nox -0.4567794 0.4195939 0.01342764 0.4889462 ## lstat -48.5769737 27.9861679 0.48894617 50.9947595 ``` ] --- # Correlación de Pearson .Large[ - Los coeficientes de correlación varian entre -1 y 1, por eso son comparables para interpretar la asociación de variables con diferentes unidades. - Una correlación positiva indica que las variables están relacionadas en el mismo sentido. - Una correlación negativa indica que las variables están relacionadas en sentido opuesto. - Coeficientes nulos indican que las variables no están correlacionadas de forma lineal (lo cuál no implica que no puedan estar asociados de forma no lineal) ] --- # Factores que afectan a las correlaciones .Large[ - Linealidad: menos lineal, menor `\(r\)` - Variabilidad: menor `\(s\)`, menor `\(r\)` - Distribución de puntajes: por ejemplo, sesgos opuestos, `\(r\)` más pequeños - Fiabilidad: menor precisión de medición en cualquier variable, menor `\(r\)` - *Outliers*: Observaciones que siguen un mecanismo distinto. - Valores perdidos (no aleatorios) ] --- # Correlaciones y Covarianzas en SEM .Large[ - Las covarianzas (y correlaciones) entre variables manifiestas son los "datos" que permiten evaluar la plausibilidad de un SEM en estudio. - Factores que afectan la calidad de las covarianzas o correlaciones podrán afectar también la calidad del ajuste del modelo a los datos y de las estimaciones de los parámetros del modelo. - El tipo de correlación en SEM es también dependiente de la escala de medida de las variables. - Siendo rigurosos la correlación de Person es una medida de asociación de tipo lineal para variables medidas en una escala métrica (al menos intervalo.) ] --- # Correlaciones y Covarianzas en SEM .Large[ - Cuando la escala de las variables no puede ser asumida como de tipo métrica es aconsejable recurrir a otros coeficientes. - Si las variables son medidas en una escala ordinal, más provienen de variables latentes contínuas con distribución normal bivariada, debe utilizarse, preferentemente, el **coeficiente de correlación policórica** (Jöreskog y Sörbom, 1996.) - Si una de las variables fuera por lo menos intervalar y la otra ordinal, debe usarse, preferentemente, el **coeficiente de correlación poliserial**. - Finalmente, para el caso de variables nominales dicotómicas, puede usarse el **coeficiente de correlación tetracórica**. ] --- # Correlaciones y Covarianzas en SEM .Large[ - Estudios de simulación sugieren que los coeficientes de correlación policórica y poliserial son, comparativamente a los de Pearson, Spearman y `\(\tau\)` de Kendall, los que mejor reproducen la esetructura correlacional de las variables cuando están medidas en una escala ordinal (Babakus, Ferguson, & Jöreskog, 1987.) - Sin embargo, existe cierta controversia sobre la real utidad de estos coeficientes como alternativa al coeficiente de correlación de Pearson. ] --- # Correlaciones y Covarianzas en SEM .Large[ - El uso de correlaciones policóricas y poliseriales con muestras pequeñas y muchas variables puede no garantizar mejores resultados que los obtenidos con la correlación de Pearson. - Por ejemplo, Arbuckle(2009) argumenta que los supuestos de normalidad bivariada y de muestras mayores a 2000 observaciones para la estimación correcta de las correlaciones policóricas y tetracóricas (Yuan & Bentler, 1994) son irreales en la mayoría de escenarios prácticos de los SEM. ] --- # ¿Correlaciones o covarianzas? .Large[ - Los SEM pueden estimarse usando matrices de correlación o de covarianzas. - El análisis de las matrices de covarianzas procura mantener las diferencias entre las magnitudes de medida de las diferentes variables y las respectivas magnitudes de las varianzas. - El análisis de las matrices de correlaciones procura eliminar los efectos de las diferentes magnitudes de medida y de la varianza de las variables originales ] --- # ¿Correlaciones o covarianzas? .Large[ - A pesar de que usualmente se sugiere usar datos estandarizados (correlaciones), esto puede conducir a resultados erróneos (Kline, 2004, p. 22): - En análisis multigrupos, cuando los grupos presentan diferentes matrices de covarianzas. - En análisis de modelos longitudinales, donde las varianzas de las medidas no permanencen constantes. - En análisis en los que las magnitudes de las medidas tienen un significado que es necesario contabilizar en las asociaciones de las variables (por ejemplo, salario mensual vs. años de escolaridad.) ] --- # Modelamiento de la estructura de la covarianza .Large[ .full-width[.content-box-neutral[El objetivo general de los SEM es probar hipótesis sobre la estructura de las matrices de covarianza. ]] - Por ejemplo, - ¿están relacionadas dos variables porque una causa (o al menos predice) la otra? - ¿Se correlacionan dos variables porque son indicadores de una construcción subyacente? ] --- # Modelamiento de la estructura de la covarianza .Large[ Considere una matriz de correlación de items relacionados con el bienestar subjetivo, el desapego y el narcisismo ] .center[ <img src="img/cormat.png" width="500"> ] --- # Modelamiento de la estructura de la covarianza .Large[ La "bondad" de un modelo se puede pensar en términos de qué tan bien predice (captura) la matriz de covarianza completa de los datos usando menos parámetros. En una matriz de covarianza, tenemos `$$f =\frac{p (p - 1)}{2} + p =\frac{p (p + 1)}{2}$$` parámetros libres. Es decir, tenemos que estimar cada celda en la matriz de covarianza. ] --- # Modelamiento de la estructura de la covarianza .Large[ En el caso del conjunto de datos anterior con 9 variables, tenemos $$ f = \frac{9 \cdot 10} {2} = 45 $$ parámetros: 36 covarianzas, y 9 varianzas (diagonal). SEM busca capturar la matriz de covarianza completa `\(\mathbf{S}\)` usando una matriz de covarianza impuesta por el modelo `\(\hat{\Sigma}\)`. ] --- # Modelamiento de la estructura de la covarianza .Large[ Si esto se puede hacer con menos de 45 parámetros, sugiere que hay una estructura subyacente en la matriz de covarianza que es más parsimoniosa que una no estructurada. Esto se relaciona con los grados de libertad en el modelo, lo cuál motiva el tema de identificación del modelo. ] --- # Evaluación de un modelo de estructura de covarianza Podemos probar qué tan bien un modelo candidato captura la matriz de covarianza de 9 x 9 de estos datos utilizando menos de 45 parámetros. .center[ <img src="img/pathmodel.png" width="500"> ] Hemos representado la matriz de covarianza completa usando 22 parámetros. --- class: duke-softblue, middle, center # Análisis de Trayectorias (Path Analysis) --- # Propósito de SEM .Large[ .full-width[.content-box-red[Conceptualmente, el objetivo de los SEM es probar si un modelo de covarianza entre variables, motivado por la teoría, proporciona una buena aproximación de los datos.]] - De modo más específico: Estamos tratando de probar qué tan bien un modelo parsimonioso (compuesto por los componentes de medición o estructurales) reproduce la matriz de covarianza observada. ] --- # Propósito de SEM .Large[ - Formalmente, estamos buscando desarrollar un modelo cuya *matriz de covarianza impuesta por el modelo * se aproxime a la *matriz de covarianza muestral (observada)*. `$$\mathbf{S} \approx \mathbf{\Sigma}$$` - En el caso de que tengamos grados de libertad positivos (modelo sobreidentificado), `\(\mathbf{\Sigma}\)` es una aproximación de `\(\mathbf{S}\)`. - Es decir, en SEM generalmente tenemos más ecuaciones que incógnitas, lo que significa que muchos parámetros podrían producir una matriz de covarianza impuesta por el modelo que se acerca a la matriz de covarianza de la muestra. ] --- # Propósito de SEM .Large[ - Esta es una *característica*, no un error: esperamos identificar un modelo parsimonioso cuyos parámetros se ajusten mejor a los datos. - Por lo tanto, siempre habrá algún error de aproximación. Uno puede pensar en esto como la extensión multivariada de los residuos en el caso de regresión lineal: `\(Y - \hat{Y}\)`. - Una fuente de error en SEM es qué tan bien podemos estimar los parámetros de la población utilizando nuestra muestra. `$$Error_\textrm{estimación} = \mathbf{S} - \mathbf{\Sigma}$$` para ello existen varias medidas de distancia. ] --- # Propósito de SEM .Large[ - El objetivo es minimizar la discrepancia general mediante la búsqueda de parámetros que maximicen la función de verosimilitud: `$$\mathcal{L}(\mathbf{S}|\hat{\mathbf{\theta}},\textrm{modelo})$$` - Más descriptivamente, estamos tratando de maximizar la verosimilitud de la matriz de covarianza observada dado un conjunto de valores de parámetros `\(\mathbf{\hat{\theta}}\)` y un modelo específico. - Si identificamos mejores estimaciones de parámetros, la verosimilitud de la muestra *aumenta*, lo que indica que nos estamos acercando a la matriz de covarianza observada. ] --- # Diagramas Estructurales: Notación .center[  ] --- # Tipos de Parámetros .Large[ 1. **Libres:** Son desconocidos y necesitan estimarse. 2. **Fijos:** Son constantes y a menudo especificados por el investigador, típicamente 0 o 1. 3. **Restringidos:** Son desconocidos pero restringidos a ser iguales a algún o varios parámetros; es decir, especifican una relación requerida entre dos variables. Por ejemplo: * x = 2y. * Las cargas de dos factores son iguales. * Un parámetro debe estar dentro de un cierto rango (por ejemplo, -2 a 2). ] --- # Tipos de Parámetros .Large[ 3.1. **Restricción de Igualdad:** Cuando dos parámetros libres están obligados a ser iguales, en efecto, solo se estima un parámetro libre. - Por ejemplo, si postulamos que la asociación entre el autoodio y la tristeza de la pareja en una interacción debería ser igual para ambos miembros de una pareja (*p1* y *p2*), entonces podemos estimar solo un parámetro ( `\(b\)` en el modelo de trayectorias mostrado a continuación). ] --- # Tipos de Parámetros
--- # Relaciones entre variables ## Efectos directos .pull-left[ .large[ - Los efectos directos representan la relación entre un predictor y una variable dependiente (variable endógena) que no está mediada por ninguna otra variable (Bollen, 1987). - Esto podría significar *ignorar* posibles variables mediadoras (es decir, no están incluidas en el modelo) o incluirlas. ]] .pull-right[
] --- # Relaciones entre variables ## Efectos directos .pull-left[ .large[ - En el análisis de mediación causal, el efecto directo representa el efecto de una variable independiente (e.g., tratamiento) en un resultado (v.g., depresión) que contiene un candidato mediador constante que ocurriría bajo el nivel correspondiente del tratamiento. ]] .pull-right[
] --- # Relaciones entre variables ## Efectos indirectos .Large[ - Los efectos indirectos representan el efecto de un predictor sobre una variable respuesta través de una o más variables intermedias (mediadoras). - Por lo tanto, la idea es que la variable respuesta esté relacionado con un predictor porque el predictor influye en una variable mediadora, que a su vez influye en el resultado. ] --- # Relaciones entre variables ## Efectos indirectos ### Mediador Simple
--- # Relaciones entre variables ## Efectos indirectos ### Mediadores Múltiples .pull-left[ .large[ - En un modelo de mediación múltiple, se considera el efecto directo `\(e\)` de un predictor `\(X\)` en una variable respuesta `\(Y\)` después de tener en cuenta todas las variables mediadoras (aquí, `\(M1\)` y `\(M2\)`). ]] .pull-right[
] --- # Relaciones entre variables ## Efectos indirectos ### Efecto indirecto específico .Large[ - La mediación múltiple también expone el nuevo concepto de efectos indirectos específicos, que resume la asociación entre un predictor, `\(X\)` y el resultado `\(Y\)` a través de una o más vías de intervención *específicas*. - Por ejemplo, en el modelo anterior, podríamos medir cuánto de la relación entre `\(X\)` y `\(Y\)` se transmite a través de `\(X \rightarrow M1 \rightarrow Y\)`, que sería `\(a \cdot d\)`. ] --- # Relaciones entre variables ## Efectos indirectos ### Efecto indirecto total .large[ El efecto indirecto total es la suma de todas las rutas indirectas entre `\(X\)` y `\(Y\)` (es decir, excluyendo la ruta `\(X \rightarrow Y\)`). ] ### Prueba de efectos indirectos .large[ Cuando pensamos en la *magnitud* de un efecto indirecto, es mejor conceptualizarlo como un *producto* de las vías entre el predictor y la respuesta. Por lo tanto, el efecto indirecto específico de `\(X\)` en `\(Y\)` a través de la ruta `\(X \rightarrow M1 \rightarrow M2 \rightarrow Y\)` es el producto de las estimaciones de parámetros correspondientes `\(a \cdot b \cdot c\)`. ] --- # Relaciones entre variables ## Efectos total .large[ El efecto total de `\(X\)` en `\(Y\)` es la suma del efecto directo y los efectos *totales* indirectos. ] ## Causa común .large[ Dos variables pueden estar relacionadas entre sí porque fueron causadas por una tercera variable común. Por ejemplo, `\(Y_1\)` y `\(Y_2\)` pueden estar relacionados porque ambos fueron influenciados por `\(X\)`. ] --- # Relaciones entre variables ## Causa común
--- # Relaciones entre variables ## Resultado común
--- # Diagramas de Trayectorias (senderos) .center[  ] --- # Diagramas de Trayectorias (senderos) .center[  ] --- # Ejemplo: Regresión Lineal (univariada) .center[  ] --- # Ejemplo: Regresión Lineal (multivariada) .center[  ] --- # Ejemplo: Path Analysis (Análisis de Trayectorias) .center[  ]