ID_Juez | Tipo | Item_1 | Item_2 | Item_3 | Item_4 | Item_5 | Item_6 | Item_7 | Item_8 | Item_9 | Item_10 | Item_11 | Item_12 | Item_13 | Item_14 | Item_15 | Item_16 | Item_17 | Item_18 | Item_19 | Item_20 | Item_21 | Item_22 | Item_23 | Item_24 | Item_25 | Item_26 | Item_27 | Item_28 | Item_29 | Item_30 | Item_31 | Item_32 | Item_33 | Item_34 | Item_35 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
juez_1 | pertenencia | 5 | 5 | 5 | 3 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 |
juez_1 | utilidad | 5 | 3 | 3 | 3 | 5 | 5 | 5 | 5 | 3 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 |
juez_2 | pertenencia | 5 | 5 | 4 | 2 | 4 | 2 | 4 | 4 | 3 | 2 | 2 | 2 | 4 | 4 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 4 | 5 | 5 | 5 | 5 | 5 | 2 | 2 | 2 | 5 | 4 | 4 |
juez_2 | utilidad | 4 | 5 | 4 | 3 | 4 | 2 | 4 | 4 | 4 | 3 | 3 | 3 | 4 | 4 | 5 | 5 | 3 | 5 | 5 | 5 | 5 | 5 | 5 | 3 | 4 | 3 | 5 | 5 | 5 | 4 | 4 | 4 | 4 | 5 | 5 |
juez_3 | pertenencia | 5 | 2 | 5 | 1 | 2 | 2 | 3 | 5 | 5 | 5 | 2 | 4 | 5 | 5 | 4 | 1 | 2 | 1 | 1 | 3 | 5 | 3 | 1 | 1 | 2 | 2 | 5 | 5 | 3 | 2 | 1 | 1 | 4 | 1 | 1 |
juez_3 | utilidad | 3 | 1 | 4 | 1 | 1 | 1 | 2 | 4 | 5 | 4 | 1 | 3 | 5 | 5 | 4 | 1 | 2 | 1 | 1 | 3 | 5 | 3 | 1 | 1 | 1 | 1 | 4 | 3 | 2 | 1 | 1 | 1 | 1 | 1 | 1 |
juez_4 | pertenencia | 5 | 4 | 2 | 2 | 5 | 5 | 4 | 2 | 3 | 5 | 5 | 5 | 4 | 4 | 3 | 5 | 4 | 5 | 3 | 5 | 1 | 2 | 4 | 4 | 5 | 4 | 5 | 5 | 5 | 3 | 2 | 2 | 4 | 4 | 3 |
juez_4 | utilidad | 5 | 4 | 2 | 3 | 4 | 4 | 3 | 3 | 4 | 5 | 2 | 3 | 5 | 4 | 4 | 4 | 4 | 5 | 4 | 5 | 5 | 5 | 4 | 4 | 3 | 3 | 3 | 3 | 4 | 3 | 2 | 3 | 3 | 3 | 4 |
juez_5 | pertenencia | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 2 | 5 | 5 | 5 | 5 | 0 | 5 | 5 | 5 | 5 | 5 |
juez_5 | utilidad | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 |
juez_6 | pertenencia | 4 | 2 | 1 | 3 | 3 | 4 | 3 | 3 | 4 | 5 | 5 | 4 | 4 | 4 | 3 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 4 | 4 | 5 | 4 | 4 |
juez_6 | utilidad | 4 | 3 | 2 | 1 | 3 | 5 | 2 | 5 | 5 | 3 | 3 | 2 | 5 | 5 | 4 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 4 | 3 | 3 | 4 | 4 | 3 | 5 | 4 | NA | 4 | 4 |
juez_7 | pertenencia | 5 | 5 | 5 | 4 | 5 | 4 | 4 | 4 | 3 | 5 | 5 | 5 | 4 | 4 | 4 | 5 | 3 | 5 | 5 | 5 | 5 | 4 | 4 | 3 | 5 | 3 | 5 | 5 | 4 | 3 | 3 | 3 | 4 | 2 | 4 |
juez_7 | utilidad | 5 | 5 | 5 | 4 | 5 | 4 | 4 | 3 | 3 | 5 | 5 | 5 | 4 | 3 | 4 | 5 | 3 | 5 | 5 | 5 | 5 | 4 | 3 | 3 | 5 | 5 | 5 | 5 | 3 | 3 | 3 | 3 | 4 | 3 | 4 |
juez_8 | pertenencia | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 4 | 4 | 4 | 5 | 1 | 1 | 3 | 3 | 5 | 5 | 5 | 5 | 2 | 2 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 |
juez_8 | utilidad | 3 | 5 | 4 | 4 | 5 | 5 | 4 | 4 | 5 | 5 | 4 | 4 | 4 | 2 | 3 | 4 | 4 | 5 | 5 | 5 | 4 | 1 | 3 | 5 | 1 | 3 | 5 | 2 | 5 | 2 | 2 | 2 | 4 | 3 | 4 |
juez_9 | pertenencia | 5 | 5 | 5 | 2 | 2 | 5 | 1 | 1 | 5 | 5 | 4 | 4 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 1 | NA | NA | NA | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 2 | 2 |
juez_9 | utilidad | 5 | 5 | 2 | 2 | 4 | 5 | 1 | 4 | 5 | 2 | 2 | 2 | 4 | 4 | 4 | 4 | 2 | 2 | 4 | 5 | 5 | 5 | 5 | 4 | 1 | 4 | 5 | 4 | 2 | 1 | 4 | 4 | 5 | 2 | 4 |
juez_10 | pertenencia | 5 | 3 | 4 | 4 | 5 | 5 | 5 | 5 | 3 | 5 | 3 | 3 | 5 | 4 | 4 | 5 | 3 | 5 | 4 | 5 | 1 | 5 | 4 | 4 | 5 | 3 | 5 | 4 | 4 | 2 | 2 | 4 | 4 | 5 | 5 |
juez_10 | utilidad | 5 | 3 | 2 | 4 | 5 | 5 | 5 | 5 | 3 | 5 | 3 | 3 | 5 | 4 | 4 | 5 | 3 | 5 | 2 | 5 | 3 | 5 | 4 | 1 | 5 | 1 | 5 | 4 | 2 | 2 | 2 | 4 | 2 | 5 | 5 |
Gúia de Análisis sobre la Escala de Motivación hacia el Emprendimiento y su potencial predictivo del éxito emprendedor
El presente documento pretende servir como una guía de los análisis realizados en la investigación sobre el desarrollo de una nueva escala reducida para medir la motivación hacia el emprendimiento, y su capacidad predictiva sobre el éxito de personas emprendedoras. Investigación en la que colaboran la Dra. Flor Ángela Marulanda Valencia, la Dra. Milagros Dones Tacero, y el Dr. Alejandro Martínez-Mingo.
La investigación se basa en un trabajo previo realizado por la Dra. Flor Ángela Marulanda Valencia (Marulanda et al., 2014) [corregir si este no es el trabajo clave de Ángela] en el que se exploran distitnas teorías motivacionales en el estudio del emprendimiento. El objetivo es desarrollar una escala corta para evaluar la motivación hacia el emprendimiento, y para ello se han seguido los siguientes pasos: selección de la escala inicial, evaluación interjueces de la utilidad y adecuación de cada item al constructo global y a su dimensión específica, eliminación de ítems percibidos como inadecuados por parte de los jueces expertos, aplicación de la escala reducida a un grupo de estudiante y emprendedores colombianos, análisis exploratorio de los resultados con el fin de encontrar una nueva estructura para la escala reducida. En una segunda fase de análisis, se traza el objetivo de determinar la capacidad predictiva de dicha escala sobre el éxito en personas emprendedoras, y para ello se ha utilizado el tiempo emprendiendo como medida de éxito. En la Tabla 1 se puede ver la escala original de partida (cita de la escala) con sus dimensiones principales.
Dimensión | Variable |
---|---|
Motivaciones de tipo personal | Cumplir con un sueño o meta personal |
Alcanzar nuevos retos personales | |
Vivir una experiencia que me permita crecimiento personal | |
La mejora del entorno de trabajo personal (ambiente laboral) | |
Tener mayor flexibilidad en el uso del tiempo | |
Tener autonomía e independencia en mi trabajo | |
Tener un medio de subsistencia | |
Obtener altos ingresos económicos | |
Construir un negocio familiar | |
Motivaciones relacionadas con el conocimiento | Explotar comercialmente el conocimiento y la experiencia personal |
Explotar comercialmente una innovación generada a partir de resultados de investigación | |
Explotar comercialmente una innovación generada a partir del conocimiento y la tecnología provistos por otros | |
Motivaciones relacionadas con la potencialidad de éxito en el mercado | La detección de una necesidad insatisfecha |
El descubrimiento de un nuevo producto/servicio | |
El desarrollo de un nuevo método de producción | |
Motivaciones relacionadas con la disponibilidad de recursos | La posibilidad de financiación externa |
Responder a convocatorias externas (públicas y/o privadas) | |
Invertir los recursos financieros propios o de mi familia | |
La existencia de apoyos públicos | |
La disponibilidad de una red de contactos en el mercado potencial | |
Poner en práctica las habilidades emprendedoras que posee | |
Conocimiento de posibles proveedores | |
Políticas públicas y estímulos para el emprendimiento | |
Acompañamiento externo público y/o privado | |
Motivaciones relacionadas con la experiencia laboral | Inconformidad con la situación laboral cuando era empleado |
Terminación de vinculación laboral y oportunidad de continuar en empresa propia | |
Motivaciones relacionadas con el entorno social e institucional | Continuar con una tradición familiar de emprendedores |
La influencia de los amigos | |
Seguir el ejemplo de empresas o proyectos exitosos | |
Lograr un mejor status social | |
Existencia de organizaciones de fomento al emprendimiento | |
Las campañas de fomento a la creación de empresas | |
La actitud existente en el entorno hacia la creación de empresas | |
Generar empleo | |
Contribuir al bienestar de la comunidad |
Análisis Evaluación Jueces
Con la finalidad de reducir el número de ítems de dicha escala se ha recurrido al juicio de expertos en el mundo del emprendimiento en España y Colombia. El documento proporcionado a los expertos puede encontrarse en el siguiente link: https://osf.io/vs6w8. De esta forma, se solicita a un total de 10 expertos las siguientes evaluaciones:
Evaluación sobre si cada una de las variables consideradas pertenecen a la dimensión a la que se ha incorporado, asignando una valoración de 1 a 5, siendo 1 su nula pertenencia y 5 su total pertenencia
Asignación de una puntuación entre 1 y 5 puntos a cada variable, de acuerdo con su utilidad para medir el potencial emprendedor (siendo 1 muy bajo nivel de predicción y 5 muy alto).
Recomendaciones de mejora, tanto por eliminación de alguna variable o por la inclusión de otras adicionales que no hayan sido tenidas en cuenta.
Las respuestas de los jueces están disponibles en: https://osf.io/8cqtb. A continuación comenzaremos la tarea de análisis cargando esta respuestas en el documento para trabajar sobre ellas.
En este dataset disponemos de las respuestas de los \(10\) jueces a las preguntas cuantitativas presentadas previamente respecto a cada uno de los \(35\) items de la escala original. La columna Tipo_Evaluación
indica el tipo de evaluación de cada respuesta dada.
En primer lugar debemos de considerar la fiabilidad de las medidas proporcionadas por los jueces. Para ello se utilizará tanto el Coeficiente de Correlación Intraclase (ICC) como el Coeficiente Fleiss’ Kappa (CFK), siendo este último el más adecuado para el contexto en el que nos encontramos al disponer de múltiples jueces y un formato de respuesta ordinal tipo Likert.
Average Score Intraclass Correlation
Model: twoway
Type : consistency
Subjects = 9
Raters = 35
ICC(C,35) = 0.954
F-Test, H0: r0 = 0 ; H1: r0 > 0
F(8,272) = 21.8 , p = 1.6e-25
95%-Confidence Interval for ICC Population Values:
0.897 < ICC < 0.988
Fleiss' Kappa for m Raters
Subjects = 9
Raters = 35
Kappa = 0.182
z = 23.4
p-value = 0
Vemos que se utilizan solo 9 jueces ya que el juez 6 tiene un valor perdido, lo que hace descartarlo para el análisis. Con un ICC = 0.954
podemos asumir una alta consistencia entre los jueces. Un valor cercano a 1 implica que las diferencias entre los jueces son mínimas. El intervalo de confianza (95%) = 0.897 - 0.988
confirma que la consistencia es alta, incluso en los peores escenarios (0.897
). Finalmente, en la prueba F, F(8,272) = 21.8, p = 1.6e-25
, el ICC es estadísticamente significativo (p < 0.001
), lo que indica que las valoraciones entre jueces son consistentes más allá de lo que se esperaría por azar. Este resultado sugiere que los jueces tienen un alto nivel de acuerdo en sus evaluaciones. Esto respalda la fiabilidad de las puntuaciones en términos de consistencia.
Por otro lado, el indice de Fleiss’ Kappa devuelve un valor Kappa = 0.182
, lo que indica una baja concordancia absoluta entre los jueces. La kappa de Fleiss compara si los jueces seleccionan las mismas categorías o valores exactos, en lugar de evaluar consistencia relativa. Al estudiar su significancia, vemos que z = 23.4, p = 0
. Aunque el resultado es estadísticamente significativo (p < 0.001
), la kappa indica que el acuerdo exacto entre los jueces es bajo. Podemos concluir que los jueces no suelen dar exactamente las mismas puntuaciones a los ítems, pero esto no contradice el ICC. La consistencia puede ser alta (ICC) incluso si hay desacuerdo en los valores absolutos (Kappa).
Con la intención de desarrollar una escala más corta, se computó la media en la evaluación de los jueces respecto a la utilidad y a la pertenencia a la dimensión de cada ítem. Como criterio, se decidió descartar aquellos ítems que ofreciesen una media en utilidad
por debajo de \(4\) puntos. Además, también se reportan en la tabla el Coeficiente de Variación (CV%). La medida CV es interesante, ya que relativiza la desviación estándar dividiéndola por la media, lo que permite comparar la dispersión entre ítems con diferentes medias. Un CV alto indica que la variabilidad relativa es mayor, lo que puede señalar ítems que no están tan alineados con el resto en términos de consistencia de las valoraciones. Es particularmente útil cuando las escalas tienen diferentes rangos o distribuciones, ya que ajusta la variabilidad a la escala del ítem. Un CV > 30%
indica que las respuestas varían significativamente en relación con la media.
Item | Media_pertenencia | Media_utilidad | CV_pertenencia | CV_utilidad |
---|---|---|---|---|
Item_1 | 4.9 | 4.4 | 6.45% | 19.17% |
Item_2 | 4.1 | 3.9 | 31.38% | 35.14% |
Item_3 | 4.1 | 3.3 | 35.34% | 37.93% |
Item_4 | 3.1 | 3 | 44.2% | 44.44% |
Item_5 | 4.1 | 4.1 | 31.38% | 31.38% |
Item_6 | 4.2 | 4.1 | 29.27% | 35.34% |
Item_7 | 3.9 | 3.5 | 32.99% | 40.96% |
Item_8 | 3.9 | 4.2 | 37.16% | 18.78% |
Item_9 | 4.1 | 4.2 | 24.25% | 21.88% |
Item_10 | 4.6 | 4.2 | 21% | 27.03% |
Item_11 | 4 | 3.3 | 31.18% | 42.97% |
Item_12 | 4.1 | 3.5 | 24.25% | 33.67% |
Item_13 | 4.6 | 4.6 | 11.23% | 11.23% |
Item_14 | 4.1 | 4.1 | 29.2% | 24.25% |
Item_15 | 3.9 | 4.2 | 32.99% | 15.06% |
Item_16 | 4.4 | 4.3 | 30.68% | 29.11% |
Item_17 | 4 | 3.6 | 28.87% | 32.61% |
Item_18 | 4.6 | 4.3 | 27.5% | 34.75% |
Item_19 | 4.3 | 4.1 | 31.1% | 35.34% |
Item_20 | 4.8 | 4.8 | 13.18% | 13.18% |
Item_21 | 3.8 | 4.7 | 50.85% | 14.36% |
Item_22 | 4 | 4.3 | 33.07% | 31.1% |
Item_23 | 3.89 | 4 | 37.36% | 33.33% |
Item_24 | 4 | 3.6 | 33.07% | 43.82% |
Item_25 | 4.4 | 3.4 | 28.75% | 52.25% |
Item_26 | 4.2 | 3.3 | 27.03% | 45.29% |
Item_27 | 5 | 4.5 | 0% | 18.89% |
Item_28 | 4.9 | 4 | 6.45% | 26.35% |
Item_29 | 4.6 | 3.7 | 15.2% | 36.15% |
Item_30 | 3.2 | 2.9 | 54.72% | 49.97% |
Item_31 | 3.4 | 3.3 | 46.4% | 45.29% |
Item_32 | 3.6 | 3.5 | 41.82% | 36.27% |
Item_33 | 4.6 | 3.67 | 11.23% | 38.57% |
Item_34 | 3.7 | 3.6 | 40.39% | 39.72% |
Item_35 | 3.8 | 4.1 | 36.8% | 29.2% |
Dado este criterio, se decide mantener los siguientes items en la escala reducida:
“Cumplir con un sueño o meta personal”
“Tener mayor flexibilidad en el uso del tiempo”
“Tener autonomía e independencia en mi trabajo”
“Obtener altos ingresos económicos”
“Construir un negocio familiar”
“Explotar comercialmente el conocimiento y la experiencia personal”
“La detección de una necesidad insatisfecha”
“El descubrimiento de un nuevo producto/servicio”
“El desarrollo de un nuevo método de producción”
“La posibilidad de fina5nciación externa”
“Invertir los recursos financieros propios o de mi familia”
“La existencia de apoyos públicos”
“La disponibilidad de una red de contactos en el mercado potencial”
“Poner en práctica las habilidades emprendedoras que posee”
“Conocimiento de posibles proveedores”
“Políticas públicas y estímulos para el emprendimiento”
“Continuar con una tradición familiar de emprendedores”
“La influencia de los amigos”
“Contribuir al bienestar de la comunidad”
El principal problema de esta decisión en la reducción de la escala es que nos encontramos con una estructura teórica desfigurada, perdiendo por completo la dimensión sobre “Motivaciones relacionadas con la experiencia laboral”, y reduciendo la dimensión de “Motivaciones relacionadas con el conocimiento” a un solo ítem. Por esta razón, se plantea la realización de un proceso exploratorio, y para ello se pretende utilizar las herramientas típicas del Análisis Factorial Exploratorio (AFE de ahora en adelante). Pero antes debemos de realizar una serie de análisis preliminares de los ítems que nos van a ayudar a comprender mejor la escala a la que nos estamos enfrentando.
Análisis Preliminares de los Ítems
Esta nueva escala fué suministrada a un total de 125 emprendedores y estudiantes con el fin de realizar un primer análisis exploratorio de su estructura nueva factorial. Los resultados quedan publicados en el siguiente enlace: https://osf.io/jgs5t. A continuación podemos ver los \(10\) primeros casos de este conjunto de datos cargados en el documento de análisis actual para disponer de una referencia de los mismos.
Ciudad | Actualmente soy | Número de años que lleva funcionando (Si es estudiante y no tiene empresa, por favor escribir 0) | Objeto social (negocio principal de la empresa) (Si es estudiante y no tiene empresa, por favor escribir NA) | Género | Rango de edad | Estado civil | Máximo nivel educativo terminado | Pregunta 1 | Pregunta 2 | Pregunta 3 | Pregunta 4 | Pregunta 5 | Pregunta 6 | Pregunta 7 | Pregunta 8 | Pregunta 9 | Pregunta 10 | Pregunta 11 | Pregunta 12 | Pregunta 13 | Pregunta 14 | Pregunta 15 | Pregunta 16 | Pregunta 17 | Pregunta 18 | Pregunta 19 | Total |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Ipiales | Emprendedor (a) | 3 | Neuronaranja | Masculino | Entre 35 y 45 años | Soltera (o) | Maestría | 5 | 3 | 4 | 3 | 3 | 5 | 5 | 5 | 2 | 3 | 4 | 3 | 1 | 5 | 5 | 5 | 5 | 5 | 5 | 76 |
Sabaneta | Emprendedor (a) | 1 | Herramientas Para Emprendedores Basadas En Ia | Masculino | Entre 35 y 45 años | Casada (o) | Universitaria | 4 | 3 | 4 | 4 | 4 | 5 | 5 | 3 | 3 | 4 | 4 | 4 | 3 | 4 | 4 | 4 | 3 | 3 | 3 | 71 |
El Santuario | Ambos | 7 | Entretenimiento | Masculino | Entre 35 y 45 años | Soltera (o) | Técnica | 4 | 2 | 4 | 5 | 4 | 5 | 5 | 4 | 4 | 3 | 4 | 3 | 2 | 3 | 2 | 3 | 2 | 3 | 5 | 67 |
Santa Marta | Emprendedor (a) | 0 | Turismo - Alojamiento Y Experiencia | Femenino | Entre 45 y 55 años | Casada (o) | Doctorado | 5 | 3 | 4 | 5 | 4 | 4 | 4 | 5 | 4 | 5 | 4 | 5 | 4 | 5 | 4 | 3 | 3 | 3 | 3 | 77 |
Marinilla | Emprendedor (a) | 5 | Turismo | Femenino | Entre 35 y 45 años | Soltera (o) | Tecnología | 3 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 3 | 4 | 4 | 4 | 3 | 4 | 3 | 3 | 3 | 5 | 5 | 79 |
Rionegro | Emprendedor (a) | 4 | Elaboración Y Distribución De Productos Congelados | Femenino | Entre 45 y 55 años | Soltera (o) | Tecnología | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 3 | 5 | 3 | 3 | 3 | 5 | 5 | 87 |
Podemos verificar que el conjunto de datos tiene las dimensiones [125, 28], que se corresponden con 125 filas y 28 columnas. Dado que en nuestro caso estamos interesados concretamente en realizar un análisis sobre los ítems de la escala, tomaremos solo estos datos para comenzar con los análisis descriptivos de dichos ítems, pero antes vamos a definir el dataset items
en el que solo vamos a guardar las preguntas cambiando los nombres de las variables para simplificar los análisis posteriores.
I1 | I2 | I3 | I4 | I5 | I6 | I7 | I8 | I9 | I10 | I11 | I12 | I13 | I14 | I15 | I16 | I17 | I18 | I19 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
5 | 3 | 4 | 3 | 3 | 5 | 5 | 5 | 2 | 3 | 4 | 3 | 1 | 5 | 5 | 5 | 5 | 5 | 5 |
4 | 3 | 4 | 4 | 4 | 5 | 5 | 3 | 3 | 4 | 4 | 4 | 3 | 4 | 4 | 4 | 3 | 3 | 3 |
4 | 2 | 4 | 5 | 4 | 5 | 5 | 4 | 4 | 3 | 4 | 3 | 2 | 3 | 2 | 3 | 2 | 3 | 5 |
5 | 3 | 4 | 5 | 4 | 4 | 4 | 5 | 4 | 5 | 4 | 5 | 4 | 5 | 4 | 3 | 3 | 3 | 3 |
3 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 3 | 4 | 4 | 4 | 3 | 4 | 3 | 3 | 3 | 5 | 5 |
5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 5 | 3 | 5 | 3 | 3 | 3 | 5 | 5 |
Una vez cargados y limpiados los datos, procedemos a realizar un primer análisis descriptivo de los ítems en la escala:
vars | n | mean | sd | median | trimmed | mad | min | max | range | skew | kurtosis | se | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
I1 | 1 | 125 | 4.392 | 0.8789290 | 5 | 4.544555 | 0.0000 | 1 | 5 | 4 | -1.5456080 | 2.3275331 | 0.0786138 |
I2 | 2 | 125 | 4.312 | 1.0113549 | 5 | 4.504950 | 0.0000 | 1 | 5 | 4 | -1.5738651 | 1.9988152 | 0.0904583 |
I3 | 3 | 125 | 4.512 | 0.8855106 | 5 | 4.702970 | 0.0000 | 1 | 5 | 4 | -2.4209598 | 6.2484980 | 0.0792025 |
I4 | 4 | 125 | 4.232 | 0.9930078 | 5 | 4.405941 | 0.0000 | 1 | 5 | 4 | -1.4515334 | 1.8545288 | 0.0888173 |
I5 | 5 | 125 | 3.824 | 1.3202150 | 4 | 4.019802 | 1.4826 | 1 | 5 | 4 | -0.8872411 | -0.4086397 | 0.1180836 |
I6 | 6 | 125 | 4.424 | 0.9355350 | 5 | 4.633663 | 0.0000 | 1 | 5 | 4 | -1.9206125 | 3.4675908 | 0.0836768 |
I7 | 7 | 125 | 4.496 | 0.8578292 | 5 | 4.683168 | 0.0000 | 1 | 5 | 4 | -2.1928500 | 5.3180637 | 0.0767266 |
I8 | 8 | 125 | 4.344 | 0.9597043 | 5 | 4.534654 | 0.0000 | 1 | 5 | 4 | -1.4295534 | 1.1824879 | 0.0858386 |
I9 | 9 | 125 | 3.688 | 1.1941794 | 4 | 3.801980 | 1.4826 | 1 | 5 | 4 | -0.5716523 | -0.6213658 | 0.1068107 |
I10 | 10 | 125 | 3.640 | 1.3642911 | 4 | 3.792079 | 1.4826 | 1 | 5 | 4 | -0.6423838 | -0.8390297 | 0.1220259 |
I11 | 11 | 125 | 3.520 | 1.2864053 | 4 | 3.643564 | 1.4826 | 1 | 5 | 4 | -0.4836092 | -0.8364289 | 0.1150596 |
I12 | 12 | 125 | 3.696 | 1.3867111 | 4 | 3.861386 | 1.4826 | 1 | 5 | 4 | -0.6750875 | -0.8991099 | 0.1240312 |
I13 | 13 | 125 | 2.880 | 1.4345956 | 3 | 2.851485 | 1.4826 | 1 | 5 | 4 | -0.0024711 | -1.3558769 | 0.1283141 |
I14 | 14 | 125 | 4.424 | 0.9355350 | 5 | 4.613861 | 0.0000 | 1 | 5 | 4 | -1.9206125 | 3.7182369 | 0.0836768 |
I15 | 15 | 125 | 3.992 | 1.0433816 | 4 | 4.138614 | 1.4826 | 1 | 5 | 4 | -1.0406812 | 0.7140995 | 0.0933229 |
I16 | 16 | 125 | 3.576 | 1.2589294 | 4 | 3.683168 | 1.4826 | 1 | 5 | 4 | -0.3988942 | -0.8908808 | 0.1126021 |
I17 | 17 | 125 | 3.168 | 1.2555426 | 3 | 3.207921 | 1.4826 | 1 | 5 | 4 | -0.0974549 | -0.9074392 | 0.1122991 |
I18 | 18 | 125 | 3.384 | 1.2938066 | 4 | 3.475248 | 1.4826 | 1 | 5 | 4 | -0.3553366 | -0.9917729 | 0.1157216 |
I19 | 19 | 125 | 3.448 | 1.2665422 | 4 | 3.554455 | 1.4826 | 1 | 5 | 4 | -0.4275328 | -0.8548349 | 0.1132830 |
Análisis descriptivo de los ítems:
Media (mean): Indica el promedio de las respuestas para cada ítem. Valores altos cercanos a 5 sugieren que, en promedio, los participantes tienden a responder en los niveles superiores de la escala (por ejemplo, “de acuerdo” o “muy de acuerdo”). Valores más bajos indican una tendencia hacia las respuestas inferiores.
Desviación estándar (sd): Mide la dispersión de las respuestas alrededor de la media. Una desviación estándar alta indica mayor variabilidad en las respuestas, mientras que una baja sugiere que las respuestas están más concentradas alrededor de la media.
Asimetría (skew): Indica la simetría de la distribución de las respuestas. Valores negativos de asimetría sugieren que la mayoría de las respuestas se concentran en los valores altos de la escala (sesgo hacia la derecha), mientras que valores positivos indican lo contrario.
Curtosis (kurtosis): Mide el grado de apuntamiento de la distribución. Valores positivos indican una distribución más apuntada (leptocúrtica), mientras que valores negativos indican una distribución más plana (platocúrtica).
Ítems con Medias Altas (superiores a 4) como I1, I2, I3, I4, I6, I7, I8, I14:
Estos ítems presentan medias altas, lo que sugiere que los participantes tienden a estar de acuerdo o muy de acuerdo con las afirmaciones. Esto podría indicar que los ítems son fáciles o que representan constructos con los que los participantes se identifican fuertemente. La asimetría negativa pronunciada y la curtosis positiva indican que las respuestas están sesgadas hacia los valores altos y que la distribución es apuntada. Esto podría reflejar un efecto techo, donde los participantes alcanzan el puntaje máximo, limitando la variabilidad. En ítems como I3 e I7, la alta media y la asimetría negativa sugieren que muchos participantes alcanzan el puntaje máximo, lo que puede limitar la capacidad del ítem para discriminar entre niveles altos del constructo.
Ítems con Medias Moderadas (entre 3 y 4) como I5, I9, I10, I11, I12, I15, I16, I18, I19:
Las medias en este rango sugieren una distribución más equilibrada de las respuestas, con una tendencia moderada hacia el acuerdo. Valores entre 1 y 1.4 indican una variabilidad moderada en las respuestas. Asimetrías negativas menos pronunciadas y curtosis cercanas a cero o negativas sugieren distribuciones más simétricas y planas.
Ítems con Medias Bajas (inferiores a 3) como I13, I17:
Estos ítems tienen las medias más bajas, lo que indica que los participantes tienden a estar en desacuerdo o neutrales respecto a las afirmaciones. Valores de asimetría cercanos a cero sugieren una distribución simétrica de las respuestas. Valores negativos indican una distribución plana, con respuestas distribuidas a lo largo de los niveles de la escala. No parece observarse un efecto suelo en estos datos.
Conclusiones generales de los análisis descriptivos:
Los ítems con asimetrías y curtosis elevadas (por ejemplo, I3, I7) podrían revisarse para asegurar que no estén limitando la variabilidad necesaria para un buen análisis psicométrico, tendremos que vigilarlos durante el AFE. A continaución, procederemos con un análisis de fiabilidad (por ejemplo, alfa de Cronbach) para evaluar la consistencia interna de la escala y considerar la posible eliminación de ítems redundantes o problemáticos, entre ellos I3 e I7, aunque debemos de tomar los resultados con cierta cautela, ya que no podemos asumir que la escala sea unidimensional. Para llevar a cabo este análisis se utiliza la librería psych
, para la que su función alpha
nos devuelve los siguientes resultados:
raw_alpha std.alpha G6(smc) average_r S/N ase mean sd
0.910465 0.9139207 0.9515791 0.3584808 10.6172 0.01154477 3.892211 0.7121705
median_r
0.3275267
n raw.r std.r r.cor r.drop mean sd
I1 125 0.6634101 0.6820033 0.6593470 0.6245994 4.392 0.8789290
I2 125 0.5332419 0.5665032 0.5467139 0.4765000 4.312 1.0113549
I3 125 0.5882937 0.6255657 0.6128300 0.5429653 4.512 0.8855106
I4 125 0.7156606 0.7321122 0.7211666 0.6768864 4.232 0.9930078
I5 125 0.6026416 0.5859903 0.5579700 0.5347997 3.824 1.3202150
I6 125 0.5858051 0.6222915 0.6154737 0.5375597 4.424 0.9355350
I7 125 0.5634403 0.6024170 0.5949957 0.5178040 4.496 0.8578292
I8 125 0.7402917 0.7657898 0.7583450 0.7055666 4.344 0.9597043
I9 125 0.6733243 0.6464678 0.6370533 0.6205427 3.688 1.1941794
I10 125 0.7687884 0.7413646 0.7461231 0.7223275 3.640 1.3642911
I11 125 0.6408004 0.6157174 0.5981445 0.5793868 3.520 1.2864053
I12 125 0.7397415 0.7138753 0.7113046 0.6876216 3.696 1.3867111
I13 125 0.6394828 0.6015623 0.5752262 0.5700851 2.880 1.4345956
I14 125 0.5838940 0.6163746 0.5950544 0.5354946 4.424 0.9355350
I15 125 0.4655106 0.4896001 0.4694044 0.4018568 3.992 1.0433816
I16 125 0.5219160 0.5173798 0.4956762 0.4492058 3.576 1.2589294
I17 125 0.6588723 0.6370269 0.6168954 0.6012859 3.168 1.2555426
I18 125 0.6132656 0.5888150 0.5725707 0.5481328 3.384 1.2938066
I19 125 0.5602980 0.5487418 0.5236345 0.4908866 3.448 1.2665422
Un Alpha de Cronbach de 0.91
nos indica excelente consistencia interna de la escala en su conjunto. Valores superiores a 0.9 sugieren que los ítems están midiendo el mismo constructo de manera coherente. Los ítems tienen una correlación media moderada entre ellos en la escala (0.36
), lo que es adecuado para una escala unidimensional. El error estandar de alpha es igual a 0.012
, lo que indica una elevada precisión en la estimación del valor de alpha, siendo el intervalo de confianza del 95% de [0.89, 0.93
].
En la segunda tabla se analiza cada item de manera más individualizada, y para ello debemos de comprender el significado de cada parámetro obtenido:
raw.r y std.r: Correlación del ítem con el puntaje total sin y con estandarización.
r.cor: Correlación del ítem corregida por solapamiento.
r.drop: Correlación del ítem con el total de la escala excluyendo el ítem (correlación ítem-total corregida).
Si nos centramos en r.drop
, que sería la medida más fiable, vemos que I8 (0.71), I10 (0.72), I12 (0.69) tienen las correlaciones más altas, indicando que están fuertemente relacionados con el constructo medido. Por otro lado, I15 (0.40), I16 (0.45), aunque están por encima de 0.40, son los más bajos de la escala, por lo que podría ser útil revisar estos ítems para asegurar que son claros y relevantes.
Aunque a futuro se puede considerar la reformulación de los ítems I3, I7, I14 para reducir el efecto techo y aumentar la variabilidad de las respuestas, en general podemos decir que la escala es consistente teniendo en cuenta los análisis realizados hasta ahora para un modelo de un solo factor general. A continuación veremos si esta puede ajustarse mejor a un modelo con múltiples dimensiones.
Análisis Factorial Exploratorio
Paso 1: Verificar la Adecuación de los Datos para el AFE:
A la hora de realizar un Análisis Factorial Exploratorio o AFE debemos de comenzar verficando la adecuación de los datos a este tipo de análisis. El primer indicador a tener en cuenta es el tamaño de la muestra, siendo recomendable tener entre 5 y 10 participantes por item. En nuestro caso podemos calcular un promedio de 6.58
participantes por ítem, lo cual es aceptable dentro del rango marcado.
En segundo lugar, es recomendable evaluar si las correlaciones parciales entre las variables son lo suficientemente pequeñas como para justificar un AFE. Para ello se hace uso de la medida de adecuación muestral de Kaiser-Meyer-Olkin (KMO). Este índice mide la proporción de varianza entre variables que podría ser común, y por tanto, explicable por factores latentes. Valores cercanos a 1 indican que el AFE es adecuado. Interpretación de valores del índice KMO:
KMO ≥ 0.90: Excelente.
0.80 ≤ KMO < 0.90: Muy bueno.
0.70 ≤ KMO < 0.80: Bueno.
0.60 ≤ KMO < 0.70: Aceptable.
KMO < 0.60: Inadecuado.
Kaiser-Meyer-Olkin factor adequacy
Call: KMO(r = items)
Overall MSA = 0.85
MSA for each item =
I1 I2 I3 I4 I5 I6 I7 I8 I9 I10 I11 I12 I13 I14 I15 I16
0.92 0.84 0.85 0.91 0.87 0.80 0.77 0.92 0.88 0.84 0.84 0.88 0.87 0.85 0.73 0.77
I17 I18 I19
0.86 0.78 0.79
Un KMO global de 0.85 indica una muy buena adecuación de los datos para el AFE. Esto sugiere que las correlaciones parciales entre las variables son pequeñas y que los factores comunes son apropiados para explicar las correlaciones observadas. En un análisis más individualizado podemos observar que ningún ítem tiene un KMO individual menor a 0.70, lo que indica que todos los ítems son adecuados para incluirlos en el AFE.
Una última prueba de adecuación de los datos sería la prueba de Esfericidad de Bartlett, que trata de verificar si la matriz de correlaciones calculada para los ítems es significativamente diferente de una matriz identidad. En este caso, cualquier p-valor obtenido por debajo de 0.05 nos informa de que el conjunto de items es susceptible de una AFE.
Bartlett's Test of Sphericity
Call: bart_spher(x = items)
X2 = 1493.244
df = 171
p-value < 2.22e-16
En nuestro caso, con un p-valor menor de 0.001 podemos asumir que se cumple la hipótesis de esfericidad. Podemos hacernos una idea más detallada de las correlaciones entre los ítems mediante la siguiente matriz de correlaciones.
Esta parece indicar que existen correlaciones altas entre los ítems de la escala. Podemos comprobar si existen problemas de multicolinealidad mediante el cálculo del determinante de la matriz de correlaciones. Un determinante cercano a 0 indica un alto grado de multicolinealidad. Un valor aceptable para la determinante suele ser > 0.00001, y vemos que en nuestro caso tenemos un valor de 0.0000028, siendo este menor de lo considerado como aceptable. Esto puede derivar en problemas a la hora de evaluar una estructura factorial.
[1] 2.813792e-06
Si exploramos más detenidamente las correlaciones más elevadas (mayores de 0.8), vemos que los siguientes items están altamente correlacionados, y es posible que estén indicando información muy similar.
row col
I7 7 6
I12 12 10
Una opción interesante puede ser la eliminación de los ítems 7 y 12 para comprobar si esto mejora una potencial solución factorial, lo que resultaria en un determinante de la matriz de correlaciones de 0.00004, encontrándose este dentro de lo aceptable.
[1] 4.405025e-05
Paso 2: Determinar el Número de Factores a Extraer
Identificar el número óptimo de factores es crucial para una correcta interpretación del AFE. Existen varios métodos para hacerlo.
Análisis del Gráfico de Sedimentación (Scree Plot): Este gráfico muestra los autovalores ordenados de mayor a menor. El “codo” del gráfico indica el punto donde la varianza explicada por los factores adicionales disminuye significativamente, sugiriendo el número óptimo de factores.
Criterio de Kaiser (Autovalores > 1): Según este criterio, se retienen los factores con eigenvalores mayores a 1, ya que explican más varianza que una variable original.
Análisis Paralelo de Horn: Este método compara los autovalores obtenidos de los datos reales con los eigenvalores obtenidos de datos aleatorios. Los factores cuyos eigenvalores reales superan a los aleatorios se consideran significativos. Este análisis puede realizarse estimando los factores mediante métodos AFE o mediante métodos de Análisis de Componentes Principales o ACP.
Coordenadas Óptimas (Optimal Coordinates): Este método utiliza cálculos matemáticos basados en las coordenadas óptimas del Scree Plot para determinar el número óptimo de factores. Considera la diferencia en la pendiente entre puntos sucesivos. El punto donde hay un cambio notable en la pendiente (calculado matemáticamente) indica el número de factores a retener.
Factor de Aceleración (Acceleration Factor): Este método identifica el punto de máxima aceleración en la curva de eigenvalores del Scree Plot. Se basa en la segunda derivada de la curva para detectar el punto donde la pendiente cambia más drásticamente.
A continuación utilizamos las librerías paran
y nFactors
para obtener todas las métricas mencionadas:
Eigenvalue_1 | Eigenvalue_2 | Eigenvalue_3 | Eigenvalue_4 | Eigenvalue_5 | Eigenvalue_6 | Eigenvalue_7 | Eigenvalue_8 | Eigenvalue_9 | Eigenvalue_10 | Eigenvalue_11 | Eigenvalue_12 | Eigenvalue_13 | Eigenvalue_14 | Eigenvalue_15 | Eigenvalue_16 | Eigenvalue_17 | Eigenvalue_18 | Eigenvalue_19 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
7.57 | 2.19 | 1.71 | 1.3 | 1.16 | 0.81 | 0.69 | 0.58 | 0.51 | 0.45 | 0.34 | 0.31 | 0.28 | 0.24 | 0.22 | 0.21 | 0.17 | 0.15 | 0.1 |
Using eigendecomposition of correlation matrix.
Computing: 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
Results of Horn's Parallel Analysis for component retention
5000 iterations, using the mean estimate
--------------------------------------------------
Component Adjusted Unadjusted Estimated
Eigenvalue Eigenvalue Bias
--------------------------------------------------
1 6.807922 7.569142 0.761220
2 1.580173 2.187659 0.607486
3 1.215854 1.707825 0.491971
--------------------------------------------------
Adjusted eigenvalues > 1 indicate dimensions to retain.
(3 components retained)
Como vemos hay muchos indicadores distintos a analizar, y no existe una concordancia entre ellos. Vamos a explorarlos detenidamente para tomar una decisión adecuada:
Los dos métodos más básicos son el criterio de Kaiser y el Scree Plot. Según ambos, deberíamos de estimar un modelo de
5
factores latentes.Respecto al análisis paralelo de Horn, si estimamos los factores utilizando ACP obtenemos un número óptimo de
3
dimensiones, mientras que utilizando AFE este resulta en un número óptimo de5
dimensiones.Utilizando técnicas avanzadas de Scree Plot como Coordenadas Óptimas o Factor de Aceleración, la primera nos devuelve un número óptimo de
5
factores, mientras que la segunda nos ofrecería un número óptimo de1
factor.
A modo de interpretación general de los resultados en este proceso de selección del número óptimo de dimensiones, parece que hay cierto consenso (Kaiser, Scree Plot, AFE, y Coordenadas Óptimas) en que la mejor configuración factorial necesita de 5
dimensiones latentes. Si utilizamos ACP para estimar el análisis paralelo, vemos que este nos devuelve 3
dimensiones, siendo habitual que esta técnica infraestime siendo comparada con el análisis paralelo mediante AFE. Si nos basamos en un principio de parsimonia, podríamos justificar la utilización de 3
dimensiones, pero existiendo un consenso tan alto con 5
dimensiones, parece que esta es la opción más adecuada. Respecto al resultado ofrecido por el método del Factor de Aceleración, parece que concuerda con lo que habíamos obtenido en el análisis preliminar de los ítems, obteniendo un valor de alpha de cronbach de 0.91
. Esto sugiere que existe un factor principal que acumula un porcentaje importante de la varianza de la escala, por lo que procederemos con cautela en los análisis posteriores, y sugeriremos una estructura Bi-Factor tras realizar un AFE inicial que puede ajustarse mejor a esta realidad observada en los datos.
Paso 3: Seleccionar el Método de Extracción de Factores
Aunque el método más común para la extracción de factores es Máxima Verosimilitud, este asume normalidad multivariada de las variables, por lo que en nuestro caso necesitaremos de un método más robusto. La mejor elección para casos como el nuestro en los que algunos ítems presentan asimetrías y curtosis significativas, será el método de Ejes Principales.
Paso 4: Seleccionar el Método de Rotación
Para tomar una decisión sobre el método de rotación a utilizar se observará la magnitud de las correlaciones entre las distintas dimensiones obtenidas en el AFE con 5
factores. En caso de obtener correlaciones elevadas se utilizará una rotación Oblicua (Promax), mientras que en caso de no existir correlación entre las dimensiones plantearemos una rotación Ortogonal (Varimax). Comenzaremos con una rotación Oblicua, y observaremos así las correlaciones obtenidas.
Paso 5: Realizar el Análisis Factorial Exploratorio
Factor Analysis using method = pa
Call: fa(r = items, nfactors = numero_factores, rotate = "promax",
fm = "pa")
Standardized loadings (pattern matrix) based upon correlation matrix
PA1 PA2 PA5 PA3 PA4 h2 u2 com
I1 0.28 0.47 -0.04 0.12 0.00 0.48 0.52 1.8
I2 -0.16 0.92 -0.03 -0.06 -0.01 0.65 0.35 1.1
I3 -0.12 1.00 -0.06 0.05 -0.09 0.78 0.22 1.1
I4 0.20 0.71 -0.06 0.01 0.03 0.67 0.33 1.2
I5 0.33 0.19 0.11 -0.25 0.24 0.43 0.57 3.7
I6 -0.03 -0.10 0.95 -0.01 0.03 0.79 0.21 1.0
I7 -0.07 -0.10 1.01 -0.09 0.06 0.82 0.18 1.1
I8 0.33 0.09 0.56 0.09 -0.09 0.69 0.31 1.8
I9 0.97 -0.09 -0.02 0.00 -0.13 0.70 0.30 1.1
I10 1.05 -0.04 0.01 0.01 -0.18 0.88 0.12 1.1
I11 0.47 0.16 -0.06 -0.23 0.32 0.57 0.43 2.6
I12 0.96 -0.05 0.00 0.14 -0.20 0.76 0.24 1.1
I13 0.54 -0.08 0.01 -0.01 0.24 0.45 0.55 1.4
I14 0.00 0.27 0.32 0.26 -0.03 0.46 0.54 2.9
I15 -0.20 0.16 0.06 0.76 0.06 0.66 0.34 1.3
I16 0.14 -0.11 -0.07 0.81 0.09 0.68 0.32 1.1
I17 0.38 -0.08 -0.10 0.44 0.23 0.52 0.48 2.7
I18 -0.07 -0.12 -0.02 0.09 0.99 0.84 0.16 1.1
I19 -0.19 0.02 0.06 0.16 0.74 0.53 0.47 1.2
PA1 PA2 PA5 PA3 PA4
SS loadings 3.90 2.60 2.29 1.80 1.77
Proportion Var 0.21 0.14 0.12 0.09 0.09
Cumulative Var 0.21 0.34 0.46 0.56 0.65
Proportion Explained 0.32 0.21 0.19 0.15 0.14
Cumulative Proportion 0.32 0.53 0.71 0.86 1.00
With factor correlations of
PA1 PA2 PA5 PA3 PA4
PA1 1.00 0.58 0.44 0.30 0.62
PA2 0.58 1.00 0.61 0.32 0.47
PA5 0.44 0.61 1.00 0.47 0.38
PA3 0.30 0.32 0.47 1.00 0.25
PA4 0.62 0.47 0.38 0.25 1.00
Mean item complexity = 1.6
Test of the hypothesis that 5 factors are sufficient.
df null model = 171 with the objective function = 12.78 with Chi Square = 1493.24
df of the model are 86 and the objective function was 1.39
The root mean square of the residuals (RMSR) is 0.03
The df corrected root mean square of the residuals is 0.05
The harmonic n.obs is 125 with the empirical chi square 50.95 with prob < 1
The total n.obs was 125 with Likelihood Chi Square = 158.12 with prob < 3.5e-06
Tucker Lewis Index of factoring reliability = 0.888
RMSEA index = 0.082 and the 90 % confidence intervals are 0.062 0.102
BIC = -257.11
Fit based upon off diagonal values = 0.99
Measures of factor score adequacy
PA1 PA2 PA5 PA3 PA4
Correlation of (regression) scores with factors 0.97 0.95 0.96 0.91 0.95
Multiple R square of scores with factors 0.95 0.91 0.92 0.83 0.89
Minimum correlation of possible factor scores 0.89 0.82 0.84 0.67 0.79
En primer lugar, nos fijamos en que la matriz de correlaciones entre los factores justifican una rotación oblicua, siendo algunos ejemplos de correlaciones elevadas los siguientes:
PA1 y PA2: 0.58
PA1 y PA4: 0.62
PA2 y PA5: 0.61
Respecto a la varianza explicada, esta nos indica que se distribuye de una forma equitativa entre las dimensiones de 2 a 5, aunque si observamos que la primera dimensión retiene un elevado porcentaje de la varianza (0.21
) incluso tras la rotación.
Paso 6: Interpretar los Índices de Ajuste del Modelo
Si nos centramos en los índices de ajuste del modelo, podemos observar que el Chi-cuadrado del Modelo es Chi Square = 158.12, df = 86, p < 3.5e-06
, ofreciendo un valor de p significativo que sugiere que el modelo no ajusta perfectamente, pero en muestras grandes es común obtener significancia. Por otro lado, el Root Mean Square Residual (RMSR) es de 0.03
, que siendo cercano a 0 indica un buen ajuste. El RMSEA de 0.082
(Intervalo de confianza al 90%: 0.062 - 0.102
) sugiere un ajuste aceptable pero no excelente. Finalmente, un TLI de 0.888
, cercano a 0.90, indica un ajuste aceptable, además el índice CFI nos devuelve un resultado de 0.95
, indicando este un buen ajuste.
Paso 7: Interpretar las Cargas Factoriales del Modelo
Una vez hemos visto un ajuste aceptable para nuestro modelo podemos proceder a interpretar como se distribuyen las cargas factoriales por las distintas dimensiones. Para ello se ha preparado una tabla con el los pesos devueltos por fa
en el objeto Structure
, diseñado para este propósito, que se muestra a continuación y que facilita la interpretación de los resultados en bruto obtenidos en el análisis factorial.
Ítem | Factor 1 | Factor 2 | Factor 3 | Factor 4 | Factor 5 |
---|---|---|---|---|---|
I1 | 0.28 | 0.47 | |||
I2 | 0.92 | ||||
I3 | 1.00 | ||||
I4 | 0.71 | ||||
I5 | 0.33 | -0.25 | 0.24 | ||
I6 | 0.95 | ||||
I7 | 1.01 | ||||
I8 | 0.33 | 0.56 | |||
I9 | 0.97 | ||||
I10 | 1.05 | ||||
I11 | 0.47 | -0.23 | 0.32 | ||
I12 | 0.96 | -0.20 | |||
I13 | 0.54 | 0.24 | |||
I14 | 0.27 | 0.32 | 0.26 | ||
I15 | -0.20 | 0.76 | |||
I16 | 0.81 | ||||
I17 | 0.38 | 0.44 | 0.23 | ||
I18 | 0.99 | ||||
I19 | 0.74 |
Vemos que, aunque hay algunas cargas cruzadas en los Item 1, 5, 8, 11, 14 y 17, en general los ítems de la escala se distribuyen con cierta independencia por los distintos factores extraidos. También podemos observar que es el primer factor el que acumula más items, siendo el cuarto factor el que acumula menos ítems. Esto es común en el análisis factorial, y se justifica ya que es la primera dimensión la que acumula más varianza explicada.
Paso 8: Interpretar las Comunalidades de los Ítems
Finalmente, debemos de analizar la comunalidad de los ítems. El valor de h2
nos va a informar de qué proporción de la varianza de cada ítem es explicada por los factores extraidos. De esta forma, podremos interpretar qué items tienen una mayor utilidad para medir nuestra estructura factorial latente. De nuevo se ha preparado una visualización que facilita el análisis de la comunalidades.
h2 | Categoría | |
---|---|---|
I1 | 0.483 | Aceptable |
I2 | 0.651 | Bueno |
I3 | 0.775 | Excelente |
I4 | 0.675 | Bueno |
I5 | 0.433 | Aceptable |
I6 | 0.794 | Excelente |
I7 | 0.820 | Excelente |
I8 | 0.687 | Bueno |
I9 | 0.697 | Bueno |
I10 | 0.879 | Excelente |
I11 | 0.571 | Bueno |
I12 | 0.759 | Excelente |
I13 | 0.448 | Aceptable |
I14 | 0.458 | Aceptable |
I15 | 0.659 | Bueno |
I16 | 0.679 | Bueno |
I17 | 0.521 | Bueno |
I18 | 0.838 | Excelente |
I19 | 0.530 | Bueno |
En la tabla observamos que la gran mayoría de los ítems tienen un valor de comunalidad entre bueno y excelente, siendo algunos ítems como el 1, 5, 13 y 14 peor explicados por el modelo factorial escogido. Esto puede guiarnos en la eliminación de alguno de estos ítems en futuras iteraciones del proyecto.
Paso 9: Evaluar la Fiabilidad de Cada Factor
Para evaluar la fiabilidad de los factores extraidos vamos a utilizar las medidas de Alpha de Cronbach y de Omega de McDonald, siendo esta última la más recomendada en situaciones de multidimensionalidad y factores correlacionados. A continuación se muestran las medidas de fiabilidad para cada uno de los factores:
Alfa_Cronbach | Omega_McDonald | Categoría_Alfa | Categoría_Omega | |
---|---|---|---|---|
PA1 | 0.8840801 | 0.8880392 | Bueno | Bueno |
PA2 | 0.8528555 | 0.8575435 | Bueno | Bueno |
PA5 | 0.8586669 | 0.8658241 | Bueno | Bueno |
PA3 | 0.7669046 | 0.7870481 | Aceptable | Aceptable |
PA4 | 0.7507056 | 0.7836156 | Aceptable | Aceptable |
Observamos como los factores 1, 2 y 5 nos devuelven buenos valores de fiabilidad en ambas medidas, mientras que los valores de los factores 3 y 4 son un poco más bajos, siendo igualmente un valor de fiabilidad aceptable.
Paso 10: Visualizar el Modelo Factorial
Finalmente, podemos dibujar un diagrama del modelo factorial para nuestra escala de motivación hacia el emprendimiento:
Aunque el modelo no ofrece unos resultados excelentes, podemos considerar que hemos encontrado un ajuste aceptable con el conjunto de items seleccionados para la escala reducida para un modelo de cinco factores. Esto encaja en cierto modo con el proceso de eliminación de items, ya que la escala original contaba con seis dimensiones teóricas, y se eliminó una de ellas completamente tras el análisis de los jueces. A continuación se presenta una tabla con los ítems ubicados en sus dimensiones principales:
Dimensión | Ítems |
---|---|
Dimensión 1 | Lo que me motiva a emprender es: Aprovechar los estímulos y políticas públicas de fomento al emprendimiento, Aprovechar la posibilidad de financiación externa, La posibilidad de acceder a apoyos públicos, Continuar con una tradición familiar de emprendedores, He desarrollado un nuevo método de producción. |
Dimensión 2 | Lo que me motiva a emprender es: La autonomía e independencia en mi trabajo, Tener flexibilidad en el uso del tiempo, Invertir recursos financieros propios/ de mi familia, He detectado una necesidad insatisfecha, Poder explotar comercialmente el conocimiento que tengo. |
Dimensión 3 | Lo que me motiva a emprender es: He desarrollado un nuevo producto/servicio, Construir un negocio familiar, Poner en práctica mis habilidades emprendedoras. |
Dimensión 4 | Lo que me motiva a emprender es: Tengo buenos contactos con posibles proveedores, Cuento con una red de contactos en el mercado potencial, La posibilidad de aplicar la experiencia que he adquirido. |
Dimensión 5 | Lo que me motiva a emprender es: La posibilidad de obtener altos ingresos económicos, Siempre he tenido el sueño de convertirme en emprendedor(a), Contribuir al bienestar de la comunidad. |
Limitaciones de los Análisis
Aunque los datos de “pertenencia” de los ítems a las dimensiones por parte de los jueces son de mucha relevancia teórica, estos no podemos aplicarlos para validar una posible estructura factorial, ya que la muestra recogida solo comprende una versión reducida de la escala inicial. En futuros estudios se hace necesario recoger una muestra más elevada para realizar tanto una validación de la escala original como una validación de la estructura extraida en la escala reducida.
La limitación más importante nos la encontramos en las cargas factoriales extremadamente bajas para algunos de los ítems, y otras extremadamente altas, superando en casos puntuales el valor máximo de 1. Estas, aunque nos permiten encontrar un ajuste aceptable del modelo, nos invitan a pensar que la estructura factorial obtenida con la escala reducida no es capaz de representar el constructo de una manera tan válida como lo hacía la escala original. Además, vemos que la distribución de los ítems en la nueva estructura factorial necesita de un nuevo sistema teórico que nos permita interpretarla. Las cargas superiores a 1 pueden venir derivadas de problemas de multcolinealidad que hemos detectado al analizar las correlaciones entre los ítems.
Para terminar, aunque previamente se ha mencionado un potencial modelo Bifactor, este no puede ser estimado debido a la falta de participantes, y a las bajas cargas factoriales de algunos ítems. Si sería recomendable realizar un análisis más en profundidad del modelo de 3 factores para contrastar su ajuste con el modelo establecido. A continuación realizaremos un análisis superficial de este modelo.
Modelo Factorial Actualizado
En esta última sección, aplicaremos ciertas modificaciones con la intención de mejorar la solución factorial definitiva. En primer lugar, estimaremos el número de factores tras la eliminación de los ítems 7 y 12, siendo estos los que están causando el problema de multicolinealidad.
Eigenvalue_1 | Eigenvalue_2 | Eigenvalue_3 | Eigenvalue_4 | Eigenvalue_5 | Eigenvalue_6 | Eigenvalue_7 | Eigenvalue_8 | Eigenvalue_9 | Eigenvalue_10 | Eigenvalue_11 | Eigenvalue_12 | Eigenvalue_13 | Eigenvalue_14 | Eigenvalue_15 | Eigenvalue_16 | Eigenvalue_17 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
6.73 | 1.94 | 1.7 | 1.16 | 0.91 | 0.77 | 0.69 | 0.55 | 0.49 | 0.39 | 0.34 | 0.3 | 0.26 | 0.23 | 0.21 | 0.17 | 0.15 |
Using eigendecomposition of correlation matrix.
Computing: 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
Results of Horn's Parallel Analysis for component retention
5000 iterations, using the mean estimate
--------------------------------------------------
Component Adjusted Unadjusted Estimated
Eigenvalue Eigenvalue Bias
--------------------------------------------------
1 6.025438 6.728230 0.702792
2 1.393155 1.942468 0.549313
3 1.266794 1.701496 0.434701
--------------------------------------------------
Adjusted eigenvalues > 1 indicate dimensions to retain.
(3 components retained)
Vemos que tanto el Análisis Paralelo con AFE como el criterio de Factor de Aceleración mantienen el mismo número de factores obtenidos previamente, mientras que el resto de criterios coinciden en un número óptimo de 4 factores.
Factor Analysis using method = pa
Call: fa(r = data_items, nfactors = numero_factores, rotate = "promax",
fm = "pa")
Standardized loadings (pattern matrix) based upon correlation matrix
PA3 PA1 PA2 PA4 h2 u2 com
I1 0.28 0.44 0.10 -0.02 0.48 0.52 1.8
I2 -0.15 0.91 -0.12 0.01 0.64 0.36 1.1
I3 -0.08 0.92 -0.02 -0.08 0.71 0.29 1.0
I4 0.23 0.67 -0.04 0.02 0.65 0.35 1.2
I5 0.41 0.26 -0.21 0.18 0.43 0.57 2.7
I6 -0.01 0.36 0.35 0.04 0.38 0.62 2.0
I8 0.32 0.37 0.35 -0.11 0.60 0.40 3.1
I9 1.02 -0.12 0.04 -0.23 0.74 0.26 1.1
I10 0.98 -0.01 0.06 -0.19 0.79 0.21 1.1
I11 0.52 0.16 -0.27 0.28 0.57 0.43 2.3
I13 0.56 -0.07 0.01 0.20 0.44 0.56 1.3
I14 -0.06 0.43 0.41 -0.01 0.47 0.53 2.0
I15 -0.27 0.12 0.80 0.08 0.65 0.35 1.3
I16 0.14 -0.23 0.81 0.04 0.63 0.37 1.2
I17 0.42 -0.19 0.43 0.17 0.50 0.50 2.7
I18 0.01 -0.13 0.07 0.94 0.83 0.17 1.0
I19 -0.16 0.04 0.16 0.74 0.55 0.45 1.2
PA3 PA1 PA2 PA4
SS loadings 3.25 3.02 2.17 1.64
Proportion Var 0.19 0.18 0.13 0.10
Cumulative Var 0.19 0.37 0.50 0.59
Proportion Explained 0.32 0.30 0.22 0.16
Cumulative Proportion 0.32 0.62 0.84 1.00
With factor correlations of
PA3 PA1 PA2 PA4
PA3 1.00 0.57 0.37 0.61
PA1 0.57 1.00 0.45 0.44
PA2 0.37 0.45 1.00 0.34
PA4 0.61 0.44 0.34 1.00
Mean item complexity = 1.7
Test of the hypothesis that 4 factors are sufficient.
df null model = 136 with the objective function = 10.03 with Chi Square = 1178.55
df of the model are 74 and the objective function was 1.49
The root mean square of the residuals (RMSR) is 0.05
The df corrected root mean square of the residuals is 0.06
The harmonic n.obs is 125 with the empirical chi square 70.8 with prob < 0.58
The total n.obs was 125 with Likelihood Chi Square = 171.58 with prob < 1e-09
Tucker Lewis Index of factoring reliability = 0.823
RMSEA index = 0.102 and the 90 % confidence intervals are 0.083 0.123
BIC = -185.71
Fit based upon off diagonal values = 0.99
Measures of factor score adequacy
PA3 PA1 PA2 PA4
Correlation of (regression) scores with factors 0.96 0.95 0.92 0.94
Multiple R square of scores with factors 0.92 0.90 0.85 0.88
Minimum correlation of possible factor scores 0.84 0.80 0.70 0.77
Mantenemos una correlación “promax” oblicua ya que siguen existiendo correlaciones elevadas entre los factores. A continuación vemos como siguen manteniéndose cargas factoriales superiores a 1, lo que puede venir dado por una elevada correlación entre los ítems, aunque esta no sea tan marcada como antes.
Ítem | Factor 1 | Factor 2 | Factor 3 | Factor 4 |
---|---|---|---|---|
I1 | 0.28 | 0.44 | ||
I2 | 0.91 | |||
I3 | 0.92 | |||
I4 | 0.23 | 0.67 | ||
I5 | 0.41 | 0.26 | -0.21 | |
I6 | 0.36 | 0.35 | ||
I8 | 0.32 | 0.37 | 0.35 | |
I9 | 1.02 | -0.23 | ||
I10 | 0.98 | |||
I11 | 0.52 | -0.27 | 0.28 | |
I13 | 0.56 | |||
I14 | 0.43 | 0.41 | ||
I15 | -0.27 | 0.80 | ||
I16 | -0.23 | 0.81 | ||
I17 | 0.42 | 0.43 | ||
I18 | 0.94 | |||
I19 | 0.74 |
Si nos fijamos en la solución factorial, podemos observar que existen un elevado número de cargas cruzadas. Veamos qué valores de comunalidad se obtienen en este modelo.
h2 | Categoría | |
---|---|---|
I1 | 0.475 | Aceptable |
I2 | 0.640 | Bueno |
I3 | 0.709 | Excelente |
I4 | 0.654 | Bueno |
I5 | 0.431 | Aceptable |
I6 | 0.378 | Aceptable |
I8 | 0.599 | Bueno |
I9 | 0.738 | Excelente |
I10 | 0.794 | Excelente |
I11 | 0.569 | Bueno |
I13 | 0.443 | Aceptable |
I14 | 0.470 | Aceptable |
I15 | 0.653 | Bueno |
I16 | 0.632 | Bueno |
I17 | 0.504 | Bueno |
I18 | 0.834 | Excelente |
I19 | 0.551 | Bueno |
Aunque prácticamente hemos conseguido eliminar el problema de los pesos superiores a 1, vamos a comprobar qué resultados ofrece la solución de 3 dimensiones, pudiendo justificar esta decisión con el criterio del análisis paralelo mediante AFE. A continuación se muestran los resultados del AFE con 3 dimensiones y sus cargas factoriales.
Factor Analysis using method = pa
Call: fa(r = data_items, nfactors = numero_factores, rotate = "promax",
fm = "pa")
Standardized loadings (pattern matrix) based upon correlation matrix
PA1 PA3 PA2 h2 u2 com
I1 0.28 0.45 0.09 0.47 0.53 1.8
I2 -0.06 0.86 -0.11 0.62 0.38 1.0
I3 -0.08 0.90 -0.03 0.71 0.29 1.0
I4 0.29 0.65 -0.06 0.66 0.34 1.4
I5 0.60 0.23 -0.20 0.43 0.57 1.5
I6 -0.01 0.36 0.37 0.38 0.62 2.0
I8 0.21 0.40 0.31 0.57 0.43 2.4
I9 0.78 -0.02 -0.05 0.56 0.44 1.0
I10 0.79 0.07 -0.03 0.66 0.34 1.0
I11 0.77 0.13 -0.24 0.56 0.44 1.2
I13 0.72 -0.08 0.02 0.47 0.53 1.0
I14 -0.11 0.44 0.43 0.47 0.53 2.1
I15 -0.32 0.14 0.87 0.67 0.33 1.3
I16 0.05 -0.18 0.82 0.60 0.40 1.1
I17 0.48 -0.18 0.46 0.52 0.48 2.3
I18 0.57 -0.14 0.24 0.42 0.58 1.5
I19 0.33 -0.01 0.31 0.30 0.70 2.0
PA1 PA3 PA2
SS loadings 3.75 2.99 2.33
Proportion Var 0.22 0.18 0.14
Cumulative Var 0.22 0.40 0.53
Proportion Explained 0.41 0.33 0.26
Cumulative Proportion 0.41 0.74 1.00
With factor correlations of
PA1 PA3 PA2
PA1 1.00 0.53 0.49
PA3 0.53 1.00 0.47
PA2 0.49 0.47 1.00
Mean item complexity = 1.5
Test of the hypothesis that 3 factors are sufficient.
df null model = 136 with the objective function = 10.03 with Chi Square = 1178.55
df of the model are 88 and the objective function was 2.3
The root mean square of the residuals (RMSR) is 0.06
The df corrected root mean square of the residuals is 0.08
The harmonic n.obs is 125 with the empirical chi square 136.77 with prob < 0.00068
The total n.obs was 125 with Likelihood Chi Square = 266.13 with prob < 8.6e-20
Tucker Lewis Index of factoring reliability = 0.731
RMSEA index = 0.127 and the 90 % confidence intervals are 0.11 0.146
BIC = -158.77
Fit based upon off diagonal values = 0.97
Measures of factor score adequacy
PA1 PA3 PA2
Correlation of (regression) scores with factors 0.95 0.94 0.93
Multiple R square of scores with factors 0.90 0.89 0.86
Minimum correlation of possible factor scores 0.79 0.78 0.72
Ítem | Factor 1 | Factor 2 | Factor 3 |
---|---|---|---|
I1 | 0.28 | 0.45 | |
I2 | 0.86 | ||
I3 | 0.90 | ||
I4 | 0.29 | 0.65 | |
I5 | 0.60 | 0.23 | |
I6 | 0.36 | 0.37 | |
I8 | 0.21 | 0.40 | 0.31 |
I9 | 0.78 | ||
I10 | 0.79 | ||
I11 | 0.77 | -0.24 | |
I13 | 0.72 | ||
I14 | 0.44 | 0.43 | |
I15 | -0.32 | 0.87 | |
I16 | 0.82 | ||
I17 | 0.48 | 0.46 | |
I18 | 0.57 | 0.24 | |
I19 | 0.33 | 0.31 |
Vemos que hemos conseguido eliminar por completo el problema de los pesos extremos, y aunque seguimos teniendo algunos problemas de comunalidades, estas se encuentran todas dentro de lo “aceptable” (valores superiores a 0.35 en todos los casos).
Además, este modelo de 3 dimensiones latentes nos devuelve valores de fiabilidad mucho mejores que el modelo anterior tal y como vemos en la siguiente tabla.
Alfa_Cronbach | Omega_McDonald | Categoría_Alfa | Categoría_Omega | |
---|---|---|---|---|
PA1 | 0.8227804 | 0.8294983 | Bueno | Bueno |
PA3 | 0.8324935 | 0.8491729 | Bueno | Bueno |
PA2 | 0.7820742 | 0.8008210 | Aceptable | Bueno |
Si pintamos el diagrama del modelo actualizado obtenemos la siguiente solución factorial:
Predicción del éxito en el emprendimiento
[En esta sección se trabajará sobre un modelo predictivo del éxito en el emprendimiento haciendo uso de la escala reducida como predictor principal]
Una vez definidas las distintas estructuras factoriales que encajan con los datos:
Escala unidimensional: hemos observado que el conjunto de 19 ítems pueden definirse como un sistema unidimensional, devolviendo un alpha de Cronbach global de 0.91.
Escala de 5 dimensiones: la primera estructura multidimensional que se ha definido constaba de 5 dimensiones, aunque esta conteía problemas de pesos muy elevados derivados de la multicolinealidad entre los items.
Escala de 3 dimensiones: tras eliminar los items 7 y 12 por ser estos los que estaban contribuyendo en mayor medida a la multicolinealidad, y reducir el numero de dimensiones primero a 4 y más adelante a 3 debido a que la solución de 4 factores mantenía el problema de los pesos superiores a 1, se determina una estructura final de 3 dimensiones. Esta estructura devuelve valores de fiabilidad adecuados.
El siguiente paso en el proceso de análisis de la investigación que nos ocupa consistirá en la estimación de un modelo predictivo que nos permita explicar el éxito en el emprendimiento. Para ello se utiliza el tiempo que se ha mantenido cierta empresa como indicador de éxito en emprendimiento (estaría bien recoger más información al respecto en futuras investigaciones, esto es una clara limitación). Los predictores serán las puntuaciones en los distintos factores de los modelos indicados previamente. A continuación vemos la cabecera del conjunto de datos que se ha definido para la estimación del modelo lineal.
y uni PA1 PA2 PA5 PA3 PA4
1 3 0.1351905 -0.36199598 -0.6278714 0.5428734 1.21768040 0.7216300
2 1 -0.3075493 -0.04202268 -0.7127811 0.1585931 -0.05548262 -0.2003594
3 7 -0.4290073 -0.27084827 -0.7864707 0.1510916 -1.21068042 -0.1242530
4 0 0.3971047 0.76906013 -0.1581873 -0.2354907 -0.08380651 -0.1957888
5 5 0.3990058 0.31522368 0.5221378 0.5280969 -0.64009549 1.1521498
6 4 0.9591643 1.10995243 0.8234205 0.6407688 -0.57532889 1.1975065
PA1.1 PA3.1 PA2.1
1 -0.08649365 -0.60689226 1.261578109
2 -0.06065489 -0.78115064 -0.202191486
3 0.06634478 -0.85465743 -1.113107643
4 0.53641736 -0.07996586 -0.006180627
5 0.44162828 0.46016409 -0.275354217
6 1.12558926 0.78901382 -0.172902602
Una vez construido el dataset vamos a dividirlo en train y test para poder validar nuestros resultados.
Tamaños de los conjuntos:
Train: 95
Test: 30
Se utiliza una aproximación “paso a paso hacia delante” para seleccionar las variables significativas en el modelo lineal. Para dicha selección se hace uso del estadístico AIC (Akaike Information Criteria), elgiendo en cada paso el modelo que minimice este valor, seleccionando así la configuración más adecuada en término de minimización del error global del modelo corrigiendo al mismo tiempo por el número de variables incluidas. Esto nos ayudará a reducir la probabilidad de sobre ajuste.
Call:
lm(formula = y ~ PA1 + PA4, data = train_data)
Residuals:
Min 1Q Median 3Q Max
-6.1001 -2.5653 -0.7326 1.8438 10.6949
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 4.3051 0.3568 12.066 < 2e-16 ***
PA1 -1.7161 0.4738 -3.622 0.000478 ***
PA4 1.1622 0.4880 2.382 0.019301 *
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 3.469 on 92 degrees of freedom
Multiple R-squared: 0.1249, Adjusted R-squared: 0.1059
F-statistic: 6.565 on 2 and 92 DF, p-value: 0.002161
Como podemos observar en los resultados, el modelo más adecuado será aquel que utilice los factores 1 y 4 de la estructura factorial de 5 dimensiones para explicar el éxito como emprendedor para cada sujeto del estudio, siendo este éxito definido por el tiempo de duración del negocio.
Aunque ambos factores son significativos, será el primero el que afecte de una forma más marcada a esta probabilidad de éxito, reduciéndose la misma al aumentar las puntuaciones en esta dimensión (1a dimensión del modelo de 5 factores). Podemos ver que por cada unidad de incremento en la puntuación factorial, se estima un decremento de 1.72 años de duración del emprendimiento en la variable dependiente. Por otro lado, si observamos el efecto del factor 4, vemos que por cada unidad de incremento en la puntuación de dicho factor, se espera un incremento de 1.16 años en el emprendimiento.
Si nos fijamos en los estadísticos de ajuste global del modelo, podemos ver que el estadístico F es significativo, lo nos informa de que todas las variables incluidas son adecuadas para el modelo. Sin embargo, el R² ajustado nos devuelve un valor de 0.11, lo que nos indica que tan solo el 11% de la varianza del tiempo de emprendimiento está explicada por estos factores motivacionales.
A continuación podemos observar los gráficos caracetrísticos de los residuos del modelo. En estos gráficos podemos ver una leve desviación para valores elevados de la variable dependiente, lo que puede estar indicando un efecto cuadrático por parte de alguna de las variables independientes. Este efecto cuadrático será estudiado más adelante. En el gráfico Q-Q también observamos cierta asimetría en valores elevados respecto a la normalidad de los residuos, siendo esta asimetría muy leve de nuevo. Tampoco observamos ningún valor extremo en los residuos.
Para profundizar en el análisis de un posible efecto cuadrático vamos a dibujar gráficos de dispersión de los residuos del modelo contra ambas variables independientes. En caso de observar patrones no explicados por las variables de forma lineal, esto puede indicar un posible efecto cuadrático.
Como vemos en los gráficos resultantes, no parece haber un efecto cuadrático, aún así vamos a contrastarlo. A continuación trazamos un modelo incluyendo este hipotético efecto. En los resultados podemos observar que este efecto cuadrático no es significativo. Esto nos hace pensar que esta leve desviación de los residuos es algo fortuito y no generalizable a un efecto polinómico de ningún orden, siendo el modelo lineal la mejor solución en este caso.
Call:
lm(formula = y ~ PA1 + I(PA1^2) + PA4 + I(PA4^2), data = train_data)
Residuals:
Min 1Q Median 3Q Max
-6.4125 -2.6942 -0.4845 1.8671 10.6601
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 4.7420 0.5094 9.309 7.83e-15 ***
PA1 -1.6597 0.5799 -2.862 0.00524 **
I(PA1^2) 0.1287 0.4574 0.281 0.77904
PA4 0.8657 0.5493 1.576 0.11854
I(PA4^2) -0.6405 0.4460 -1.436 0.15448
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 3.459 on 90 degrees of freedom
Multiple R-squared: 0.1491, Adjusted R-squared: 0.1112
F-statistic: 3.941 on 4 and 90 DF, p-value: 0.005399
Otra posible causa de estos residuos asimétricos puede ser una asimetría severa en la variable dependiente. Para explorar esta posibilidad, a continuación vemos el histograma de la variable
En estos casos de asimetría positiva muy marcada podemos hacer uso de una función logaritmica para transformar la variable. Esta transformación, aunque útil, puede resultar en problemas de interpretabilidad. Veamos el histograma aplicando la transformación.
Vemos que la transformación puede ayudarnos a cumplir normalidad en la variable dependiente. A continuación estimamos de nuevo el modelo con la variable dependiente transformada
Call:
lm(formula = y ~ PA1 + PA4, data = train_data_log)
Residuals:
Min 1Q Median 3Q Max
-1.68199 -0.47691 -0.01411 0.52289 1.38079
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 1.43536 0.06987 20.542 < 2e-16 ***
PA1 -0.32343 0.09279 -3.486 0.000754 ***
PA4 0.25927 0.09558 2.713 0.007965 **
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.6795 on 92 degrees of freedom
Multiple R-squared: 0.1202, Adjusted R-squared: 0.1011
F-statistic: 6.285 on 2 and 92 DF, p-value: 0.002765
Aunque vemos una clara mejoría en los análisis de los residuos, el ajuste global del modelo es muy similar al modelo estimado sobre la variable original. Esto nos lleva a concluir que una transformación logaritmica no será lo suficientemente relevante como para compensar la falta de interpretatibilidad de los parámetros del modelo.
A modo de conclusión, se ha encontrado un efecto significativo de los factores 1 y 4 del modelo de 5 dimensiones a la hora de explicar el tiempo de emprendimiento, considerando este como un indicador de éxito del emprendimiento. Estas variables serán agrupadoras de ciertos ítems de la escala de motivación, por lo que podremos decir que las dimensiones 1 y 4 de la escala reducida de motivación hacia el emprendimiento son de utilidad para la predicción del éxito en emprendedores de manera significativa. Sin embargo, la varianza explicada sobre esta variable es muy reducida, siendo esta del 11% en el mejor de los casos. Para confirmar estos resultados vamos a hacer uso de métodos de validación cruzada, primero usando el conjunto train, aplicando K-fold sobre el mismo, y finalmente constrastando nuestro modelo en el conjunto test (aunque en una muestra tan reducida será complicado generalizar los resultados).
Call:
lm(formula = .outcome ~ ., data = dat)
Residuals:
Min 1Q Median 3Q Max
-6.1001 -2.5653 -0.7326 1.8438 10.6949
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 4.3051 0.3568 12.066 < 2e-16 ***
PA1 -1.7161 0.4738 -3.622 0.000478 ***
PA4 1.1622 0.4880 2.382 0.019301 *
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 3.469 on 92 degrees of freedom
Multiple R-squared: 0.1249, Adjusted R-squared: 0.1059
F-statistic: 6.565 on 2 and 92 DF, p-value: 0.002161
Parece que usando K-fold observamos que nuestro modelo es generalizable en los datos de entrenamiento, ya que no se dan diferencias respecto al modelo con el conjunto de datos completo. Finalmente, debemos de contrastar este modelo sobre el conjunto de test. A continuación podemos observar que la proporción de varianza explicada en el conjunto de test resulta insignificante (3% de la varianza explicada con las predicciones del modelo). Esto nos lleva a pensar que nuestro modelo está sobreajustado a los datos de entrenamiento, y que el efecto encontrado no tiene la potencia suficiente como para ser generalizable a otro conjunto de datos. Este resultado es congruente con el valor de varianza explicada tan limitado que hemos encontrado en nuestro datos previamente.
Error de prueba: 13.27064
R2 en el conjunto de prueba: 0.03606529
A modo de conclusión general, hemos visto que la escala reducida de motivación para el emprendimiento sufre de serios problemas a la hora de extraer las dimensiones determinadas por la mayoría de los métodos utilizados (scree plot, analisis paralelo, etc.), por lo que nos hemos visto obligados a eliminar algunos ítems que causaban cierto conflicto en la estructura factorial debido a la multicolinealidad. Finalmente se ha optado por utilizar un modelo de 3 dimensiones, que parece la mejor solución factorial para los datos recogidos. Sin embargo, a la hora de estimar un modelo explicativo del éxito en el emprendimiento, esta escala de 3 dimensiones no ha ofrecido resultados significativos en ninguna de sus dimensiones, obteniendo efectos significativos tan solo para las dimensiones 1 y 4 del modelo de 5 factores. Sin embargo no podemos considerar estos efectos como generazliables, ya que no han sido capaces de replicarse en un conjunto de datos reservado para testear el modelo. Esto se debe a que el efecto, aunque significativo para los datos de entrenamiento, es muy limitado, y puede venir dado por un efecto espúreo en la muestra de entrenamiento. Una hipótesis para estos resultados negativos puede ser que la variable dependiente seleccionada (años de duración del emprendimiento) no es representativa del constructo a explicar (éxito en el emprendimiento), y estamos, de esta forma, basando nuestros análisis en una operacionalización incorrecta del constructo a medir. Esta limitación se une a las previamente mencionadas sobre la validez teórica de la escala reducida.
Referencias
Marulanda Valencia, F. Á., Montoya Restrepo, I. A., & Vélez Restrepo, J. M. (2014). Teorías motivacionales en el estudio del emprendimiento. Pensamiento & gestión, (36), 206-238.