Gúia de Análisis sobre la Escala de Motivación hacia el Emprendimiento y su potencial predictivo del éxito emprendedor

El presente documento pretende servir como una guía de los análisis realizados en la investigación sobre el desarrollo de una nueva escala reducida para medir la motivación hacia el emprendimiento, y su capacidad predictiva sobre el éxito de personas emprendedoras. Investigación en la que colaboran la Dra. Flor Ángela Marulanda Valencia, la Dra. Milagros Dones Tacero, y el Dr. Alejandro Martínez-Mingo.

La investigación se basa en un trabajo previo realizado por la Dra. Flor Ángela Marulanda Valencia (Marulanda et al., 2014) [corregir si este no es el trabajo clave de Ángela] en el que se exploran distitnas teorías motivacionales en el estudio del emprendimiento. El objetivo es desarrollar una escala corta para evaluar la motivación hacia el emprendimiento, y para ello se han seguido los siguientes pasos: selección de la escala inicial, evaluación interjueces de la utilidad y adecuación de cada item al constructo global y a su dimensión específica, eliminación de ítems percibidos como inadecuados por parte de los jueces expertos, aplicación de la escala reducida a un grupo de estudiante y emprendedores colombianos, análisis exploratorio de los resultados con el fin de encontrar una nueva estructura para la escala reducida. En una segunda fase de análisis, se traza el objetivo de determinar la capacidad predictiva de dicha escala sobre el éxito en personas emprendedoras, y para ello se ha utilizado el tiempo emprendiendo como medida de éxito. En la Tabla 1 se puede ver la escala original de partida (cita de la escala) con sus dimensiones principales.

Tabla 1: Motivaciones para el emprendimiento (escala original).
Dimensión Variable
Motivaciones de tipo personal Cumplir con un sueño o meta personal
Alcanzar nuevos retos personales
Vivir una experiencia que me permita crecimiento personal
La mejora del entorno de trabajo personal (ambiente laboral)
Tener mayor flexibilidad en el uso del tiempo
Tener autonomía e independencia en mi trabajo
Tener un medio de subsistencia
Obtener altos ingresos económicos
Construir un negocio familiar
Motivaciones relacionadas con el conocimiento Explotar comercialmente el conocimiento y la experiencia personal
Explotar comercialmente una innovación generada a partir de resultados de investigación
Explotar comercialmente una innovación generada a partir del conocimiento y la tecnología provistos por otros
Motivaciones relacionadas con la potencialidad de éxito en el mercado La detección de una necesidad insatisfecha
El descubrimiento de un nuevo producto/servicio
El desarrollo de un nuevo método de producción
Motivaciones relacionadas con la disponibilidad de recursos La posibilidad de financiación externa
Responder a convocatorias externas (públicas y/o privadas)
Invertir los recursos financieros propios o de mi familia
La existencia de apoyos públicos
La disponibilidad de una red de contactos en el mercado potencial
Poner en práctica las habilidades emprendedoras que posee
Conocimiento de posibles proveedores
Políticas públicas y estímulos para el emprendimiento
Acompañamiento externo público y/o privado
Motivaciones relacionadas con la experiencia laboral Inconformidad con la situación laboral cuando era empleado
Terminación de vinculación laboral y oportunidad de continuar en empresa propia
Motivaciones relacionadas con el entorno social e institucional Continuar con una tradición familiar de emprendedores
La influencia de los amigos
Seguir el ejemplo de empresas o proyectos exitosos
Lograr un mejor status social
Existencia de organizaciones de fomento al emprendimiento
Las campañas de fomento a la creación de empresas
La actitud existente en el entorno hacia la creación de empresas
Generar empleo
Contribuir al bienestar de la comunidad

Análisis Evaluación Jueces

Con la finalidad de reducir el número de ítems de dicha escala se ha recurrido al juicio de expertos en el mundo del emprendimiento en España y Colombia. El documento proporcionado a los expertos puede encontrarse en el siguiente link: https://osf.io/vs6w8. De esta forma, se solicita a un total de 10 expertos las siguientes evaluaciones:

  1. Evaluación sobre si cada una de las variables consideradas pertenecen a la dimensión a la que se ha incorporado, asignando una valoración de 1 a 5, siendo 1 su nula pertenencia y 5 su total pertenencia

  2. Asignación de una puntuación entre 1 y 5 puntos a cada variable, de acuerdo con su utilidad para medir el potencial emprendedor (siendo 1 muy bajo nivel de predicción y 5 muy alto).

  3. Recomendaciones de mejora, tanto por eliminación de alguna variable o por la inclusión de otras adicionales que no hayan sido tenidas en cuenta.

Las respuestas de los jueces están disponibles en: https://osf.io/8cqtb. A continuación comenzaremos la tarea de análisis cargando esta respuestas en el documento para trabajar sobre ellas.

Todos los datos del archivo
ID_Juez Tipo Item_1 Item_2 Item_3 Item_4 Item_5 Item_6 Item_7 Item_8 Item_9 Item_10 Item_11 Item_12 Item_13 Item_14 Item_15 Item_16 Item_17 Item_18 Item_19 Item_20 Item_21 Item_22 Item_23 Item_24 Item_25 Item_26 Item_27 Item_28 Item_29 Item_30 Item_31 Item_32 Item_33 Item_34 Item_35
juez_1 pertenencia 5 5 5 3 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
juez_1 utilidad 5 3 3 3 5 5 5 5 3 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
juez_2 pertenencia 5 5 4 2 4 2 4 4 3 2 2 2 4 4 5 5 5 5 5 5 5 5 5 4 5 5 5 5 5 2 2 2 5 4 4
juez_2 utilidad 4 5 4 3 4 2 4 4 4 3 3 3 4 4 5 5 3 5 5 5 5 5 5 3 4 3 5 5 5 4 4 4 4 5 5
juez_3 pertenencia 5 2 5 1 2 2 3 5 5 5 2 4 5 5 4 1 2 1 1 3 5 3 1 1 2 2 5 5 3 2 1 1 4 1 1
juez_3 utilidad 3 1 4 1 1 1 2 4 5 4 1 3 5 5 4 1 2 1 1 3 5 3 1 1 1 1 4 3 2 1 1 1 1 1 1
juez_4 pertenencia 5 4 2 2 5 5 4 2 3 5 5 5 4 4 3 5 4 5 3 5 1 2 4 4 5 4 5 5 5 3 2 2 4 4 3
juez_4 utilidad 5 4 2 3 4 4 3 3 4 5 2 3 5 4 4 4 4 5 4 5 5 5 4 4 3 3 3 3 4 3 2 3 3 3 4
juez_5 pertenencia 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 2 5 5 5 5 0 5 5 5 5 5
juez_5 utilidad 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
juez_6 pertenencia 4 2 1 3 3 4 3 3 4 5 5 4 4 4 3 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 4 4 5 4 4
juez_6 utilidad 4 3 2 1 3 5 2 5 5 3 3 2 5 5 4 5 5 5 5 5 5 5 5 5 4 3 3 4 4 3 5 4 NA 4 4
juez_7 pertenencia 5 5 5 4 5 4 4 4 3 5 5 5 4 4 4 5 3 5 5 5 5 4 4 3 5 3 5 5 4 3 3 3 4 2 4
juez_7 utilidad 5 5 5 4 5 4 4 3 3 5 5 5 4 3 4 5 3 5 5 5 5 4 3 3 5 5 5 5 3 3 3 3 4 3 4
juez_8 pertenencia 5 5 5 5 5 5 5 5 5 4 4 4 5 1 1 3 3 5 5 5 5 2 2 5 5 5 5 5 5 5 5 5 5 5 5
juez_8 utilidad 3 5 4 4 5 5 4 4 5 5 4 4 4 2 3 4 4 5 5 5 4 1 3 5 1 3 5 2 5 2 2 2 4 3 4
juez_9 pertenencia 5 5 5 2 2 5 1 1 5 5 4 4 5 5 5 5 5 5 5 5 1 NA NA NA 5 5 5 5 5 5 5 5 5 2 2
juez_9 utilidad 5 5 2 2 4 5 1 4 5 2 2 2 4 4 4 4 2 2 4 5 5 5 5 4 1 4 5 4 2 1 4 4 5 2 4
juez_10 pertenencia 5 3 4 4 5 5 5 5 3 5 3 3 5 4 4 5 3 5 4 5 1 5 4 4 5 3 5 4 4 2 2 4 4 5 5
juez_10 utilidad 5 3 2 4 5 5 5 5 3 5 3 3 5 4 4 5 3 5 2 5 3 5 4 1 5 1 5 4 2 2 2 4 2 5 5

En este dataset disponemos de las respuestas de los \(10\) jueces a las preguntas cuantitativas presentadas previamente respecto a cada uno de los \(35\) items de la escala original. La columna Tipo_Evaluación indica el tipo de evaluación de cada respuesta dada.

En primer lugar debemos de considerar la fiabilidad de las medidas proporcionadas por los jueces. Para ello se utilizará tanto el Coeficiente de Correlación Intraclase (ICC) como el Coeficiente Fleiss’ Kappa (CFK), siendo este último el más adecuado para el contexto en el que nos encontramos al disponer de múltiples jueces y un formato de respuesta ordinal tipo Likert.

 Average Score Intraclass Correlation

   Model: twoway 
   Type : consistency 

   Subjects = 9 
     Raters = 35 
  ICC(C,35) = 0.954

 F-Test, H0: r0 = 0 ; H1: r0 > 0 
   F(8,272) = 21.8 , p = 1.6e-25 

 95%-Confidence Interval for ICC Population Values:
  0.897 < ICC < 0.988
 Fleiss' Kappa for m Raters

 Subjects = 9 
   Raters = 35 
    Kappa = 0.182 

        z = 23.4 
  p-value = 0 

Vemos que se utilizan solo 9 jueces ya que el juez 6 tiene un valor perdido, lo que hace descartarlo para el análisis. Con un ICC = 0.954 podemos asumir una alta consistencia entre los jueces. Un valor cercano a 1 implica que las diferencias entre los jueces son mínimas. El intervalo de confianza (95%) = 0.897 - 0.988 confirma que la consistencia es alta, incluso en los peores escenarios (0.897). Finalmente, en la prueba F, F(8,272) = 21.8, p = 1.6e-25, el ICC es estadísticamente significativo (p < 0.001), lo que indica que las valoraciones entre jueces son consistentes más allá de lo que se esperaría por azar. Este resultado sugiere que los jueces tienen un alto nivel de acuerdo en sus evaluaciones. Esto respalda la fiabilidad de las puntuaciones en términos de consistencia.

Por otro lado, el indice de Fleiss’ Kappa devuelve un valor Kappa = 0.182, lo que indica una baja concordancia absoluta entre los jueces. La kappa de Fleiss compara si los jueces seleccionan las mismas categorías o valores exactos, en lugar de evaluar consistencia relativa. Al estudiar su significancia, vemos que z = 23.4, p = 0. Aunque el resultado es estadísticamente significativo (p < 0.001), la kappa indica que el acuerdo exacto entre los jueces es bajo. Podemos concluir que los jueces no suelen dar exactamente las mismas puntuaciones a los ítems, pero esto no contradice el ICC. La consistencia puede ser alta (ICC) incluso si hay desacuerdo en los valores absolutos (Kappa).

Con la intención de desarrollar una escala más corta, se computó la media en la evaluación de los jueces respecto a la utilidad y a la pertenencia a la dimensión de cada ítem. Como criterio, se decidió descartar aquellos ítems que ofreciesen una media en utilidad por debajo de \(4\) puntos. Además, también se reportan en la tabla el Coeficiente de Variación (CV%). La medida CV es interesante, ya que relativiza la desviación estándar dividiéndola por la media, lo que permite comparar la dispersión entre ítems con diferentes medias. Un CV alto indica que la variabilidad relativa es mayor, lo que puede señalar ítems que no están tan alineados con el resto en términos de consistencia de las valoraciones. Es particularmente útil cuando las escalas tienen diferentes rangos o distribuciones, ya que ajusta la variabilidad a la escala del ítem. Un CV > 30% indica que las respuestas varían significativamente en relación con la media.

Medias, Desviación Estándar y Coeficiente de Variación (en %) por Ítem y Tipo de Evaluación
Item Media_pertenencia Media_utilidad CV_pertenencia CV_utilidad
Item_1 4.9 4.4 6.45% 19.17%
Item_2 4.1 3.9 31.38% 35.14%
Item_3 4.1 3.3 35.34% 37.93%
Item_4 3.1 3 44.2% 44.44%
Item_5 4.1 4.1 31.38% 31.38%
Item_6 4.2 4.1 29.27% 35.34%
Item_7 3.9 3.5 32.99% 40.96%
Item_8 3.9 4.2 37.16% 18.78%
Item_9 4.1 4.2 24.25% 21.88%
Item_10 4.6 4.2 21% 27.03%
Item_11 4 3.3 31.18% 42.97%
Item_12 4.1 3.5 24.25% 33.67%
Item_13 4.6 4.6 11.23% 11.23%
Item_14 4.1 4.1 29.2% 24.25%
Item_15 3.9 4.2 32.99% 15.06%
Item_16 4.4 4.3 30.68% 29.11%
Item_17 4 3.6 28.87% 32.61%
Item_18 4.6 4.3 27.5% 34.75%
Item_19 4.3 4.1 31.1% 35.34%
Item_20 4.8 4.8 13.18% 13.18%
Item_21 3.8 4.7 50.85% 14.36%
Item_22 4 4.3 33.07% 31.1%
Item_23 3.89 4 37.36% 33.33%
Item_24 4 3.6 33.07% 43.82%
Item_25 4.4 3.4 28.75% 52.25%
Item_26 4.2 3.3 27.03% 45.29%
Item_27 5 4.5 0% 18.89%
Item_28 4.9 4 6.45% 26.35%
Item_29 4.6 3.7 15.2% 36.15%
Item_30 3.2 2.9 54.72% 49.97%
Item_31 3.4 3.3 46.4% 45.29%
Item_32 3.6 3.5 41.82% 36.27%
Item_33 4.6 3.67 11.23% 38.57%
Item_34 3.7 3.6 40.39% 39.72%
Item_35 3.8 4.1 36.8% 29.2%

Dado este criterio, se decide mantener los siguientes items en la escala reducida:

  1. “Cumplir con un sueño o meta personal”

  2. “Tener mayor flexibilidad en el uso del tiempo”

  3. “Tener autonomía e independencia en mi trabajo”

  4. “Obtener altos ingresos económicos”

  5. “Construir un negocio familiar”

  6. “Explotar comercialmente el conocimiento y la experiencia personal”

  7. “La detección de una necesidad insatisfecha”

  8. “El descubrimiento de un nuevo producto/servicio”

  9. “El desarrollo de un nuevo método de producción”

  10. “La posibilidad de fina5nciación externa”

  11. “Invertir los recursos financieros propios o de mi familia”

  12. “La existencia de apoyos públicos”

  13. “La disponibilidad de una red de contactos en el mercado potencial”

  14. “Poner en práctica las habilidades emprendedoras que posee”

  15. “Conocimiento de posibles proveedores”

  16. “Políticas públicas y estímulos para el emprendimiento”

  17. “Continuar con una tradición familiar de emprendedores”

  18. “La influencia de los amigos”

  19. “Contribuir al bienestar de la comunidad”

El principal problema de esta decisión en la reducción de la escala es que nos encontramos con una estructura teórica desfigurada, perdiendo por completo la dimensión sobre “Motivaciones relacionadas con la experiencia laboral”, y reduciendo la dimensión de “Motivaciones relacionadas con el conocimiento” a un solo ítem. Por esta razón, se plantea la realización de un proceso exploratorio, y para ello se pretende utilizar las herramientas típicas del Análisis Factorial Exploratorio (AFE de ahora en adelante). Pero antes debemos de realizar una serie de análisis preliminares de los ítems que nos van a ayudar a comprender mejor la escala a la que nos estamos enfrentando.

Análisis Preliminares de los Ítems

Esta nueva escala fué suministrada a un total de 125 emprendedores y estudiantes con el fin de realizar un primer análisis exploratorio de su estructura nueva factorial. Los resultados quedan publicados en el siguiente enlace: https://osf.io/jgs5t. A continuación podemos ver los \(10\) primeros casos de este conjunto de datos cargados en el documento de análisis actual para disponer de una referencia de los mismos.

Datos de los participantes
Ciudad Actualmente soy Número de años que lleva funcionando (Si es estudiante y no tiene empresa, por favor escribir 0) Objeto social (negocio principal de la empresa) (Si es estudiante y no tiene empresa, por favor escribir NA) Género Rango de edad Estado civil Máximo nivel educativo terminado Pregunta 1 Pregunta 2 Pregunta 3 Pregunta 4 Pregunta 5 Pregunta 6 Pregunta 7 Pregunta 8 Pregunta 9 Pregunta 10 Pregunta 11 Pregunta 12 Pregunta 13 Pregunta 14 Pregunta 15 Pregunta 16 Pregunta 17 Pregunta 18 Pregunta 19 Total
Ipiales Emprendedor (a) 3 Neuronaranja Masculino Entre 35 y 45 años Soltera (o) Maestría 5 3 4 3 3 5 5 5 2 3 4 3 1 5 5 5 5 5 5 76
Sabaneta Emprendedor (a) 1 Herramientas Para Emprendedores Basadas En Ia Masculino Entre 35 y 45 años Casada (o) Universitaria 4 3 4 4 4 5 5 3 3 4 4 4 3 4 4 4 3 3 3 71
El Santuario Ambos 7 Entretenimiento Masculino Entre 35 y 45 años Soltera (o) Técnica 4 2 4 5 4 5 5 4 4 3 4 3 2 3 2 3 2 3 5 67
Santa Marta Emprendedor (a) 0 Turismo - Alojamiento Y Experiencia Femenino Entre 45 y 55 años Casada (o) Doctorado 5 3 4 5 4 4 4 5 4 5 4 5 4 5 4 3 3 3 3 77
Marinilla Emprendedor (a) 5 Turismo Femenino Entre 35 y 45 años Soltera (o) Tecnología 3 5 5 5 5 5 5 5 3 4 4 4 3 4 3 3 3 5 5 79
Rionegro Emprendedor (a) 4 Elaboración Y Distribución De Productos Congelados Femenino Entre 45 y 55 años Soltera (o) Tecnología 5 5 5 5 5 5 5 5 5 5 5 5 3 5 3 3 3 5 5 87

Podemos verificar que el conjunto de datos tiene las dimensiones [125, 28], que se corresponden con 125 filas y 28 columnas. Dado que en nuestro caso estamos interesados concretamente en realizar un análisis sobre los ítems de la escala, tomaremos solo estos datos para comenzar con los análisis descriptivos de dichos ítems, pero antes vamos a definir el dataset items en el que solo vamos a guardar las preguntas cambiando los nombres de las variables para simplificar los análisis posteriores.

Items de la nueva escala
I1 I2 I3 I4 I5 I6 I7 I8 I9 I10 I11 I12 I13 I14 I15 I16 I17 I18 I19
5 3 4 3 3 5 5 5 2 3 4 3 1 5 5 5 5 5 5
4 3 4 4 4 5 5 3 3 4 4 4 3 4 4 4 3 3 3
4 2 4 5 4 5 5 4 4 3 4 3 2 3 2 3 2 3 5
5 3 4 5 4 4 4 5 4 5 4 5 4 5 4 3 3 3 3
3 5 5 5 5 5 5 5 3 4 4 4 3 4 3 3 3 5 5
5 5 5 5 5 5 5 5 5 5 5 5 3 5 3 3 3 5 5

Una vez cargados y limpiados los datos, procedemos a realizar un primer análisis descriptivo de los ítems en la escala:

Items de la nueva escala
vars n mean sd median trimmed mad min max range skew kurtosis se
I1 1 125 4.392 0.8789290 5 4.544555 0.0000 1 5 4 -1.5456080 2.3275331 0.0786138
I2 2 125 4.312 1.0113549 5 4.504950 0.0000 1 5 4 -1.5738651 1.9988152 0.0904583
I3 3 125 4.512 0.8855106 5 4.702970 0.0000 1 5 4 -2.4209598 6.2484980 0.0792025
I4 4 125 4.232 0.9930078 5 4.405941 0.0000 1 5 4 -1.4515334 1.8545288 0.0888173
I5 5 125 3.824 1.3202150 4 4.019802 1.4826 1 5 4 -0.8872411 -0.4086397 0.1180836
I6 6 125 4.424 0.9355350 5 4.633663 0.0000 1 5 4 -1.9206125 3.4675908 0.0836768
I7 7 125 4.496 0.8578292 5 4.683168 0.0000 1 5 4 -2.1928500 5.3180637 0.0767266
I8 8 125 4.344 0.9597043 5 4.534654 0.0000 1 5 4 -1.4295534 1.1824879 0.0858386
I9 9 125 3.688 1.1941794 4 3.801980 1.4826 1 5 4 -0.5716523 -0.6213658 0.1068107
I10 10 125 3.640 1.3642911 4 3.792079 1.4826 1 5 4 -0.6423838 -0.8390297 0.1220259
I11 11 125 3.520 1.2864053 4 3.643564 1.4826 1 5 4 -0.4836092 -0.8364289 0.1150596
I12 12 125 3.696 1.3867111 4 3.861386 1.4826 1 5 4 -0.6750875 -0.8991099 0.1240312
I13 13 125 2.880 1.4345956 3 2.851485 1.4826 1 5 4 -0.0024711 -1.3558769 0.1283141
I14 14 125 4.424 0.9355350 5 4.613861 0.0000 1 5 4 -1.9206125 3.7182369 0.0836768
I15 15 125 3.992 1.0433816 4 4.138614 1.4826 1 5 4 -1.0406812 0.7140995 0.0933229
I16 16 125 3.576 1.2589294 4 3.683168 1.4826 1 5 4 -0.3988942 -0.8908808 0.1126021
I17 17 125 3.168 1.2555426 3 3.207921 1.4826 1 5 4 -0.0974549 -0.9074392 0.1122991
I18 18 125 3.384 1.2938066 4 3.475248 1.4826 1 5 4 -0.3553366 -0.9917729 0.1157216
I19 19 125 3.448 1.2665422 4 3.554455 1.4826 1 5 4 -0.4275328 -0.8548349 0.1132830

Análisis descriptivo de los ítems:

  • Media (mean): Indica el promedio de las respuestas para cada ítem. Valores altos cercanos a 5 sugieren que, en promedio, los participantes tienden a responder en los niveles superiores de la escala (por ejemplo, “de acuerdo” o “muy de acuerdo”). Valores más bajos indican una tendencia hacia las respuestas inferiores.

  • Desviación estándar (sd): Mide la dispersión de las respuestas alrededor de la media. Una desviación estándar alta indica mayor variabilidad en las respuestas, mientras que una baja sugiere que las respuestas están más concentradas alrededor de la media.

  • Asimetría (skew): Indica la simetría de la distribución de las respuestas. Valores negativos de asimetría sugieren que la mayoría de las respuestas se concentran en los valores altos de la escala (sesgo hacia la derecha), mientras que valores positivos indican lo contrario.

  • Curtosis (kurtosis): Mide el grado de apuntamiento de la distribución. Valores positivos indican una distribución más apuntada (leptocúrtica), mientras que valores negativos indican una distribución más plana (platocúrtica).

Ítems con Medias Altas (superiores a 4) como I1, I2, I3, I4, I6, I7, I8, I14:

Estos ítems presentan medias altas, lo que sugiere que los participantes tienden a estar de acuerdo o muy de acuerdo con las afirmaciones. Esto podría indicar que los ítems son fáciles o que representan constructos con los que los participantes se identifican fuertemente. La asimetría negativa pronunciada y la curtosis positiva indican que las respuestas están sesgadas hacia los valores altos y que la distribución es apuntada. Esto podría reflejar un efecto techo, donde los participantes alcanzan el puntaje máximo, limitando la variabilidad. En ítems como I3 e I7, la alta media y la asimetría negativa sugieren que muchos participantes alcanzan el puntaje máximo, lo que puede limitar la capacidad del ítem para discriminar entre niveles altos del constructo.

Ítems con Medias Moderadas (entre 3 y 4) como I5, I9, I10, I11, I12, I15, I16, I18, I19:

Las medias en este rango sugieren una distribución más equilibrada de las respuestas, con una tendencia moderada hacia el acuerdo. Valores entre 1 y 1.4 indican una variabilidad moderada en las respuestas. Asimetrías negativas menos pronunciadas y curtosis cercanas a cero o negativas sugieren distribuciones más simétricas y planas.

Ítems con Medias Bajas (inferiores a 3) como I13, I17:

Estos ítems tienen las medias más bajas, lo que indica que los participantes tienden a estar en desacuerdo o neutrales respecto a las afirmaciones. Valores de asimetría cercanos a cero sugieren una distribución simétrica de las respuestas. Valores negativos indican una distribución plana, con respuestas distribuidas a lo largo de los niveles de la escala. No parece observarse un efecto suelo en estos datos.

Conclusiones generales de los análisis descriptivos:

Los ítems con asimetrías y curtosis elevadas (por ejemplo, I3, I7) podrían revisarse para asegurar que no estén limitando la variabilidad necesaria para un buen análisis psicométrico, tendremos que vigilarlos durante el AFE. A continaución, procederemos con un análisis de fiabilidad (por ejemplo, alfa de Cronbach) para evaluar la consistencia interna de la escala y considerar la posible eliminación de ítems redundantes o problemáticos, entre ellos I3 e I7, aunque debemos de tomar los resultados con cierta cautela, ya que no podemos asumir que la escala sea unidimensional. Para llevar a cabo este análisis se utiliza la librería psych, para la que su función alpha nos devuelve los siguientes resultados:

 raw_alpha std.alpha   G6(smc) average_r     S/N        ase     mean        sd
  0.910465 0.9139207 0.9515791 0.3584808 10.6172 0.01154477 3.892211 0.7121705
  median_r
 0.3275267
      n     raw.r     std.r     r.cor    r.drop  mean        sd
I1  125 0.6634101 0.6820033 0.6593470 0.6245994 4.392 0.8789290
I2  125 0.5332419 0.5665032 0.5467139 0.4765000 4.312 1.0113549
I3  125 0.5882937 0.6255657 0.6128300 0.5429653 4.512 0.8855106
I4  125 0.7156606 0.7321122 0.7211666 0.6768864 4.232 0.9930078
I5  125 0.6026416 0.5859903 0.5579700 0.5347997 3.824 1.3202150
I6  125 0.5858051 0.6222915 0.6154737 0.5375597 4.424 0.9355350
I7  125 0.5634403 0.6024170 0.5949957 0.5178040 4.496 0.8578292
I8  125 0.7402917 0.7657898 0.7583450 0.7055666 4.344 0.9597043
I9  125 0.6733243 0.6464678 0.6370533 0.6205427 3.688 1.1941794
I10 125 0.7687884 0.7413646 0.7461231 0.7223275 3.640 1.3642911
I11 125 0.6408004 0.6157174 0.5981445 0.5793868 3.520 1.2864053
I12 125 0.7397415 0.7138753 0.7113046 0.6876216 3.696 1.3867111
I13 125 0.6394828 0.6015623 0.5752262 0.5700851 2.880 1.4345956
I14 125 0.5838940 0.6163746 0.5950544 0.5354946 4.424 0.9355350
I15 125 0.4655106 0.4896001 0.4694044 0.4018568 3.992 1.0433816
I16 125 0.5219160 0.5173798 0.4956762 0.4492058 3.576 1.2589294
I17 125 0.6588723 0.6370269 0.6168954 0.6012859 3.168 1.2555426
I18 125 0.6132656 0.5888150 0.5725707 0.5481328 3.384 1.2938066
I19 125 0.5602980 0.5487418 0.5236345 0.4908866 3.448 1.2665422

Un Alpha de Cronbach de 0.91 nos indica excelente consistencia interna de la escala en su conjunto. Valores superiores a 0.9 sugieren que los ítems están midiendo el mismo constructo de manera coherente. Los ítems tienen una correlación media moderada entre ellos en la escala (0.36), lo que es adecuado para una escala unidimensional. El error estandar de alpha es igual a 0.012, lo que indica una elevada precisión en la estimación del valor de alpha, siendo el intervalo de confianza del 95% de [0.89, 0.93].

En la segunda tabla se analiza cada item de manera más individualizada, y para ello debemos de comprender el significado de cada parámetro obtenido:

  • raw.r y std.r: Correlación del ítem con el puntaje total sin y con estandarización.

  • r.cor: Correlación del ítem corregida por solapamiento.

  • r.drop: Correlación del ítem con el total de la escala excluyendo el ítem (correlación ítem-total corregida).

Si nos centramos en r.drop, que sería la medida más fiable, vemos que I8 (0.71), I10 (0.72), I12 (0.69) tienen las correlaciones más altas, indicando que están fuertemente relacionados con el constructo medido. Por otro lado, I15 (0.40), I16 (0.45), aunque están por encima de 0.40, son los más bajos de la escala, por lo que podría ser útil revisar estos ítems para asegurar que son claros y relevantes.

Aunque a futuro se puede considerar la reformulación de los ítems I3, I7, I14 para reducir el efecto techo y aumentar la variabilidad de las respuestas, en general podemos decir que la escala es consistente teniendo en cuenta los análisis realizados hasta ahora para un modelo de un solo factor general. A continuación veremos si esta puede ajustarse mejor a un modelo con múltiples dimensiones.

Análisis Factorial Exploratorio

Paso 1: Verificar la Adecuación de los Datos para el AFE:

A la hora de realizar un Análisis Factorial Exploratorio o AFE debemos de comenzar verficando la adecuación de los datos a este tipo de análisis. El primer indicador a tener en cuenta es el tamaño de la muestra, siendo recomendable tener entre 5 y 10 participantes por item. En nuestro caso podemos calcular un promedio de 6.58 participantes por ítem, lo cual es aceptable dentro del rango marcado.

En segundo lugar, es recomendable evaluar si las correlaciones parciales entre las variables son lo suficientemente pequeñas como para justificar un AFE. Para ello se hace uso de la medida de adecuación muestral de Kaiser-Meyer-Olkin (KMO). Este índice mide la proporción de varianza entre variables que podría ser común, y por tanto, explicable por factores latentes. Valores cercanos a 1 indican que el AFE es adecuado. Interpretación de valores del índice KMO:

  • KMO ≥ 0.90: Excelente.

  • 0.80 ≤ KMO < 0.90: Muy bueno.

  • 0.70 ≤ KMO < 0.80: Bueno.

  • 0.60 ≤ KMO < 0.70: Aceptable.

  • KMO < 0.60: Inadecuado.

Kaiser-Meyer-Olkin factor adequacy
Call: KMO(r = items)
Overall MSA =  0.85
MSA for each item = 
  I1   I2   I3   I4   I5   I6   I7   I8   I9  I10  I11  I12  I13  I14  I15  I16 
0.92 0.84 0.85 0.91 0.87 0.80 0.77 0.92 0.88 0.84 0.84 0.88 0.87 0.85 0.73 0.77 
 I17  I18  I19 
0.86 0.78 0.79 

Un KMO global de 0.85 indica una muy buena adecuación de los datos para el AFE. Esto sugiere que las correlaciones parciales entre las variables son pequeñas y que los factores comunes son apropiados para explicar las correlaciones observadas. En un análisis más individualizado podemos observar que ningún ítem tiene un KMO individual menor a 0.70, lo que indica que todos los ítems son adecuados para incluirlos en el AFE.

Una última prueba de adecuación de los datos sería la prueba de Esfericidad de Bartlett, que trata de verificar si la matriz de correlaciones calculada para los ítems es significativamente diferente de una matriz identidad. En este caso, cualquier p-valor obtenido por debajo de 0.05 nos informa de que el conjunto de items es susceptible de una AFE.

    Bartlett's Test of Sphericity

Call: bart_spher(x = items)

     X2 = 1493.244
     df = 171
p-value < 2.22e-16

En nuestro caso, con un p-valor menor de 0.001 podemos asumir que se cumple la hipótesis de esfericidad. Podemos hacernos una idea más detallada de las correlaciones entre los ítems mediante la siguiente matriz de correlaciones.

Esta parece indicar que existen correlaciones altas entre los ítems de la escala. Podemos comprobar si existen problemas de multicolinealidad mediante el cálculo del determinante de la matriz de correlaciones. Un determinante cercano a 0 indica un alto grado de multicolinealidad. Un valor aceptable para la determinante suele ser > 0.00001, y vemos que en nuestro caso tenemos un valor de 0.0000028, siendo este menor de lo considerado como aceptable. Esto puede derivar en problemas a la hora de evaluar una estructura factorial.

[1] 2.813792e-06

Si exploramos más detenidamente las correlaciones más elevadas (mayores de 0.8), vemos que los siguientes items están altamente correlacionados, y es posible que estén indicando información muy similar.

    row col
I7    7   6
I12  12  10

Una opción interesante puede ser la eliminación de los ítems 7 y 12 para comprobar si esto mejora una potencial solución factorial, lo que resultaria en un determinante de la matriz de correlaciones de 0.00004, encontrándose este dentro de lo aceptable.

[1] 4.405025e-05

Paso 2: Determinar el Número de Factores a Extraer

Identificar el número óptimo de factores es crucial para una correcta interpretación del AFE. Existen varios métodos para hacerlo.

  1. Análisis del Gráfico de Sedimentación (Scree Plot): Este gráfico muestra los autovalores ordenados de mayor a menor. El “codo” del gráfico indica el punto donde la varianza explicada por los factores adicionales disminuye significativamente, sugiriendo el número óptimo de factores.

  2. Criterio de Kaiser (Autovalores > 1): Según este criterio, se retienen los factores con eigenvalores mayores a 1, ya que explican más varianza que una variable original.

  3. Análisis Paralelo de Horn: Este método compara los autovalores obtenidos de los datos reales con los eigenvalores obtenidos de datos aleatorios. Los factores cuyos eigenvalores reales superan a los aleatorios se consideran significativos. Este análisis puede realizarse estimando los factores mediante métodos AFE o mediante métodos de Análisis de Componentes Principales o ACP.

  4. Coordenadas Óptimas (Optimal Coordinates): Este método utiliza cálculos matemáticos basados en las coordenadas óptimas del Scree Plot para determinar el número óptimo de factores. Considera la diferencia en la pendiente entre puntos sucesivos. El punto donde hay un cambio notable en la pendiente (calculado matemáticamente) indica el número de factores a retener.

  5. Factor de Aceleración (Acceleration Factor): Este método identifica el punto de máxima aceleración en la curva de eigenvalores del Scree Plot. Se basa en la segunda derivada de la curva para detectar el punto donde la pendiente cambia más drásticamente.

A continuación utilizamos las librerías paran y nFactors para obtener todas las métricas mencionadas:

Eigenvalue_1 Eigenvalue_2 Eigenvalue_3 Eigenvalue_4 Eigenvalue_5 Eigenvalue_6 Eigenvalue_7 Eigenvalue_8 Eigenvalue_9 Eigenvalue_10 Eigenvalue_11 Eigenvalue_12 Eigenvalue_13 Eigenvalue_14 Eigenvalue_15 Eigenvalue_16 Eigenvalue_17 Eigenvalue_18 Eigenvalue_19
7.57 2.19 1.71 1.3 1.16 0.81 0.69 0.58 0.51 0.45 0.34 0.31 0.28 0.24 0.22 0.21 0.17 0.15 0.1


Using eigendecomposition of correlation matrix.
Computing: 10%  20%  30%  40%  50%  60%  70%  80%  90%  100%


Results of Horn's Parallel Analysis for component retention
5000 iterations, using the mean estimate

-------------------------------------------------- 
Component   Adjusted    Unadjusted    Estimated 
            Eigenvalue  Eigenvalue    Bias 
-------------------------------------------------- 
1           6.807922    7.569142      0.761220
2           1.580173    2.187659      0.607486
3           1.215854    1.707825      0.491971
-------------------------------------------------- 

Adjusted eigenvalues > 1 indicate dimensions to retain.
(3 components retained)

Como vemos hay muchos indicadores distintos a analizar, y no existe una concordancia entre ellos. Vamos a explorarlos detenidamente para tomar una decisión adecuada:

  • Los dos métodos más básicos son el criterio de Kaiser y el Scree Plot. Según ambos, deberíamos de estimar un modelo de 5 factores latentes.

  • Respecto al análisis paralelo de Horn, si estimamos los factores utilizando ACP obtenemos un número óptimo de 3 dimensiones, mientras que utilizando AFE este resulta en un número óptimo de 5 dimensiones.

  • Utilizando técnicas avanzadas de Scree Plot como Coordenadas Óptimas o Factor de Aceleración, la primera nos devuelve un número óptimo de 5 factores, mientras que la segunda nos ofrecería un número óptimo de 1 factor.

A modo de interpretación general de los resultados en este proceso de selección del número óptimo de dimensiones, parece que hay cierto consenso (Kaiser, Scree Plot, AFE, y Coordenadas Óptimas) en que la mejor configuración factorial necesita de 5 dimensiones latentes. Si utilizamos ACP para estimar el análisis paralelo, vemos que este nos devuelve 3 dimensiones, siendo habitual que esta técnica infraestime siendo comparada con el análisis paralelo mediante AFE. Si nos basamos en un principio de parsimonia, podríamos justificar la utilización de 3 dimensiones, pero existiendo un consenso tan alto con 5 dimensiones, parece que esta es la opción más adecuada. Respecto al resultado ofrecido por el método del Factor de Aceleración, parece que concuerda con lo que habíamos obtenido en el análisis preliminar de los ítems, obteniendo un valor de alpha de cronbach de 0.91. Esto sugiere que existe un factor principal que acumula un porcentaje importante de la varianza de la escala, por lo que procederemos con cautela en los análisis posteriores, y sugeriremos una estructura Bi-Factor tras realizar un AFE inicial que puede ajustarse mejor a esta realidad observada en los datos.

Paso 3: Seleccionar el Método de Extracción de Factores

Aunque el método más común para la extracción de factores es Máxima Verosimilitud, este asume normalidad multivariada de las variables, por lo que en nuestro caso necesitaremos de un método más robusto. La mejor elección para casos como el nuestro en los que algunos ítems presentan asimetrías y curtosis significativas, será el método de Ejes Principales.

Paso 4: Seleccionar el Método de Rotación

Para tomar una decisión sobre el método de rotación a utilizar se observará la magnitud de las correlaciones entre las distintas dimensiones obtenidas en el AFE con 5 factores. En caso de obtener correlaciones elevadas se utilizará una rotación Oblicua (Promax), mientras que en caso de no existir correlación entre las dimensiones plantearemos una rotación Ortogonal (Varimax). Comenzaremos con una rotación Oblicua, y observaremos así las correlaciones obtenidas.

Paso 5: Realizar el Análisis Factorial Exploratorio

Factor Analysis using method =  pa
Call: fa(r = items, nfactors = numero_factores, rotate = "promax", 
    fm = "pa")
Standardized loadings (pattern matrix) based upon correlation matrix
      PA1   PA2   PA5   PA3   PA4   h2   u2 com
I1   0.28  0.47 -0.04  0.12  0.00 0.48 0.52 1.8
I2  -0.16  0.92 -0.03 -0.06 -0.01 0.65 0.35 1.1
I3  -0.12  1.00 -0.06  0.05 -0.09 0.78 0.22 1.1
I4   0.20  0.71 -0.06  0.01  0.03 0.67 0.33 1.2
I5   0.33  0.19  0.11 -0.25  0.24 0.43 0.57 3.7
I6  -0.03 -0.10  0.95 -0.01  0.03 0.79 0.21 1.0
I7  -0.07 -0.10  1.01 -0.09  0.06 0.82 0.18 1.1
I8   0.33  0.09  0.56  0.09 -0.09 0.69 0.31 1.8
I9   0.97 -0.09 -0.02  0.00 -0.13 0.70 0.30 1.1
I10  1.05 -0.04  0.01  0.01 -0.18 0.88 0.12 1.1
I11  0.47  0.16 -0.06 -0.23  0.32 0.57 0.43 2.6
I12  0.96 -0.05  0.00  0.14 -0.20 0.76 0.24 1.1
I13  0.54 -0.08  0.01 -0.01  0.24 0.45 0.55 1.4
I14  0.00  0.27  0.32  0.26 -0.03 0.46 0.54 2.9
I15 -0.20  0.16  0.06  0.76  0.06 0.66 0.34 1.3
I16  0.14 -0.11 -0.07  0.81  0.09 0.68 0.32 1.1
I17  0.38 -0.08 -0.10  0.44  0.23 0.52 0.48 2.7
I18 -0.07 -0.12 -0.02  0.09  0.99 0.84 0.16 1.1
I19 -0.19  0.02  0.06  0.16  0.74 0.53 0.47 1.2

                       PA1  PA2  PA5  PA3  PA4
SS loadings           3.90 2.60 2.29 1.80 1.77
Proportion Var        0.21 0.14 0.12 0.09 0.09
Cumulative Var        0.21 0.34 0.46 0.56 0.65
Proportion Explained  0.32 0.21 0.19 0.15 0.14
Cumulative Proportion 0.32 0.53 0.71 0.86 1.00

 With factor correlations of 
     PA1  PA2  PA5  PA3  PA4
PA1 1.00 0.58 0.44 0.30 0.62
PA2 0.58 1.00 0.61 0.32 0.47
PA5 0.44 0.61 1.00 0.47 0.38
PA3 0.30 0.32 0.47 1.00 0.25
PA4 0.62 0.47 0.38 0.25 1.00

Mean item complexity =  1.6
Test of the hypothesis that 5 factors are sufficient.

df null model =  171  with the objective function =  12.78 with Chi Square =  1493.24
df of  the model are 86  and the objective function was  1.39 

The root mean square of the residuals (RMSR) is  0.03 
The df corrected root mean square of the residuals is  0.05 

The harmonic n.obs is  125 with the empirical chi square  50.95  with prob <  1 
The total n.obs was  125  with Likelihood Chi Square =  158.12  with prob <  3.5e-06 

Tucker Lewis Index of factoring reliability =  0.888
RMSEA index =  0.082  and the 90 % confidence intervals are  0.062 0.102
BIC =  -257.11
Fit based upon off diagonal values = 0.99
Measures of factor score adequacy             
                                                   PA1  PA2  PA5  PA3  PA4
Correlation of (regression) scores with factors   0.97 0.95 0.96 0.91 0.95
Multiple R square of scores with factors          0.95 0.91 0.92 0.83 0.89
Minimum correlation of possible factor scores     0.89 0.82 0.84 0.67 0.79

En primer lugar, nos fijamos en que la matriz de correlaciones entre los factores justifican una rotación oblicua, siendo algunos ejemplos de correlaciones elevadas los siguientes:

  • PA1 y PA2: 0.58

  • PA1 y PA4: 0.62

  • PA2 y PA5: 0.61

Respecto a la varianza explicada, esta nos indica que se distribuye de una forma equitativa entre las dimensiones de 2 a 5, aunque si observamos que la primera dimensión retiene un elevado porcentaje de la varianza (0.21) incluso tras la rotación.

Paso 6: Interpretar los Índices de Ajuste del Modelo

Si nos centramos en los índices de ajuste del modelo, podemos observar que el Chi-cuadrado del Modelo es Chi Square = 158.12, df = 86, p < 3.5e-06, ofreciendo un valor de p significativo que sugiere que el modelo no ajusta perfectamente, pero en muestras grandes es común obtener significancia. Por otro lado, el Root Mean Square Residual (RMSR) es de 0.03, que siendo cercano a 0 indica un buen ajuste. El RMSEA de 0.082 (Intervalo de confianza al 90%: 0.062 - 0.102) sugiere un ajuste aceptable pero no excelente. Finalmente, un TLI de 0.888, cercano a 0.90, indica un ajuste aceptable, además el índice CFI nos devuelve un resultado de 0.95, indicando este un buen ajuste.

Paso 7: Interpretar las Cargas Factoriales del Modelo

Una vez hemos visto un ajuste aceptable para nuestro modelo podemos proceder a interpretar como se distribuyen las cargas factoriales por las distintas dimensiones. Para ello se ha preparado una tabla con el los pesos devueltos por fa en el objeto Structure, diseñado para este propósito, que se muestra a continuación y que facilita la interpretación de los resultados en bruto obtenidos en el análisis factorial.

Cargas Factoriales
Ítem Factor 1 Factor 2 Factor 3 Factor 4 Factor 5
I1 0.28 0.47
I2 0.92
I3 1.00
I4 0.71
I5 0.33 -0.25 0.24
I6 0.95
I7 1.01
I8 0.33 0.56
I9 0.97
I10 1.05
I11 0.47 -0.23 0.32
I12 0.96 -0.20
I13 0.54 0.24
I14 0.27 0.32 0.26
I15 -0.20 0.76
I16 0.81
I17 0.38 0.44 0.23
I18 0.99
I19 0.74

Vemos que, aunque hay algunas cargas cruzadas en los Item 1, 5, 8, 11, 14 y 17, en general los ítems de la escala se distribuyen con cierta independencia por los distintos factores extraidos. También podemos observar que es el primer factor el que acumula más items, siendo el cuarto factor el que acumula menos ítems. Esto es común en el análisis factorial, y se justifica ya que es la primera dimensión la que acumula más varianza explicada.

Paso 8: Interpretar las Comunalidades de los Ítems

Finalmente, debemos de analizar la comunalidad de los ítems. El valor de h2 nos va a informar de qué proporción de la varianza de cada ítem es explicada por los factores extraidos. De esta forma, podremos interpretar qué items tienen una mayor utilidad para medir nuestra estructura factorial latente. De nuevo se ha preparado una visualización que facilita el análisis de la comunalidades.

Comunalidades (h2) de cada Ítem
h2 Categoría
I1 0.483 Aceptable
I2 0.651 Bueno
I3 0.775 Excelente
I4 0.675 Bueno
I5 0.433 Aceptable
I6 0.794 Excelente
I7 0.820 Excelente
I8 0.687 Bueno
I9 0.697 Bueno
I10 0.879 Excelente
I11 0.571 Bueno
I12 0.759 Excelente
I13 0.448 Aceptable
I14 0.458 Aceptable
I15 0.659 Bueno
I16 0.679 Bueno
I17 0.521 Bueno
I18 0.838 Excelente
I19 0.530 Bueno

En la tabla observamos que la gran mayoría de los ítems tienen un valor de comunalidad entre bueno y excelente, siendo algunos ítems como el 1, 5, 13 y 14 peor explicados por el modelo factorial escogido. Esto puede guiarnos en la eliminación de alguno de estos ítems en futuras iteraciones del proyecto.

Paso 9: Evaluar la Fiabilidad de Cada Factor

Para evaluar la fiabilidad de los factores extraidos vamos a utilizar las medidas de Alpha de Cronbach y de Omega de McDonald, siendo esta última la más recomendada en situaciones de multidimensionalidad y factores correlacionados. A continuación se muestran las medidas de fiabilidad para cada uno de los factores:

Resultados de Fiabilidad por Factor
Alfa_Cronbach Omega_McDonald Categoría_Alfa Categoría_Omega
PA1 0.8840801 0.8880392 Bueno Bueno
PA2 0.8528555 0.8575435 Bueno Bueno
PA5 0.8586669 0.8658241 Bueno Bueno
PA3 0.7669046 0.7870481 Aceptable Aceptable
PA4 0.7507056 0.7836156 Aceptable Aceptable

Observamos como los factores 1, 2 y 5 nos devuelven buenos valores de fiabilidad en ambas medidas, mientras que los valores de los factores 3 y 4 son un poco más bajos, siendo igualmente un valor de fiabilidad aceptable.

Paso 10: Visualizar el Modelo Factorial

Finalmente, podemos dibujar un diagrama del modelo factorial para nuestra escala de motivación hacia el emprendimiento:

Aunque el modelo no ofrece unos resultados excelentes, podemos considerar que hemos encontrado un ajuste aceptable con el conjunto de items seleccionados para la escala reducida para un modelo de cinco factores. Esto encaja en cierto modo con el proceso de eliminación de items, ya que la escala original contaba con seis dimensiones teóricas, y se eliminó una de ellas completamente tras el análisis de los jueces. A continuación se presenta una tabla con los ítems ubicados en sus dimensiones principales:

Tabla 2: Motivaciones para el Emprendimiento (escala reducida)
Dimensión Ítems
Dimensión 1 Lo que me motiva a emprender es: Aprovechar los estímulos y políticas públicas de fomento al emprendimiento, Aprovechar la posibilidad de financiación externa, La posibilidad de acceder a apoyos públicos, Continuar con una tradición familiar de emprendedores, He desarrollado un nuevo método de producción.
Dimensión 2 Lo que me motiva a emprender es: La autonomía e independencia en mi trabajo, Tener flexibilidad en el uso del tiempo, Invertir recursos financieros propios/ de mi familia, He detectado una necesidad insatisfecha, Poder explotar comercialmente el conocimiento que tengo.
Dimensión 3 Lo que me motiva a emprender es: He desarrollado un nuevo producto/servicio, Construir un negocio familiar, Poner en práctica mis habilidades emprendedoras.
Dimensión 4 Lo que me motiva a emprender es: Tengo buenos contactos con posibles proveedores, Cuento con una red de contactos en el mercado potencial, La posibilidad de aplicar la experiencia que he adquirido.
Dimensión 5 Lo que me motiva a emprender es: La posibilidad de obtener altos ingresos económicos, Siempre he tenido el sueño de convertirme en emprendedor(a), Contribuir al bienestar de la comunidad.

Limitaciones de los Análisis

Aunque los datos de “pertenencia” de los ítems a las dimensiones por parte de los jueces son de mucha relevancia teórica, estos no podemos aplicarlos para validar una posible estructura factorial, ya que la muestra recogida solo comprende una versión reducida de la escala inicial. En futuros estudios se hace necesario recoger una muestra más elevada para realizar tanto una validación de la escala original como una validación de la estructura extraida en la escala reducida.

La limitación más importante nos la encontramos en las cargas factoriales extremadamente bajas para algunos de los ítems, y otras extremadamente altas, superando en casos puntuales el valor máximo de 1. Estas, aunque nos permiten encontrar un ajuste aceptable del modelo, nos invitan a pensar que la estructura factorial obtenida con la escala reducida no es capaz de representar el constructo de una manera tan válida como lo hacía la escala original. Además, vemos que la distribución de los ítems en la nueva estructura factorial necesita de un nuevo sistema teórico que nos permita interpretarla. Las cargas superiores a 1 pueden venir derivadas de problemas de multcolinealidad que hemos detectado al analizar las correlaciones entre los ítems.

Para terminar, aunque previamente se ha mencionado un potencial modelo Bifactor, este no puede ser estimado debido a la falta de participantes, y a las bajas cargas factoriales de algunos ítems. Si sería recomendable realizar un análisis más en profundidad del modelo de 3 factores para contrastar su ajuste con el modelo establecido. A continuación realizaremos un análisis superficial de este modelo.

Modelo Factorial Actualizado

En esta última sección, aplicaremos ciertas modificaciones con la intención de mejorar la solución factorial definitiva. En primer lugar, estimaremos el número de factores tras la eliminación de los ítems 7 y 12, siendo estos los que están causando el problema de multicolinealidad.

Eigenvalue_1 Eigenvalue_2 Eigenvalue_3 Eigenvalue_4 Eigenvalue_5 Eigenvalue_6 Eigenvalue_7 Eigenvalue_8 Eigenvalue_9 Eigenvalue_10 Eigenvalue_11 Eigenvalue_12 Eigenvalue_13 Eigenvalue_14 Eigenvalue_15 Eigenvalue_16 Eigenvalue_17
6.73 1.94 1.7 1.16 0.91 0.77 0.69 0.55 0.49 0.39 0.34 0.3 0.26 0.23 0.21 0.17 0.15


Using eigendecomposition of correlation matrix.
Computing: 10%  20%  30%  40%  50%  60%  70%  80%  90%  100%


Results of Horn's Parallel Analysis for component retention
5000 iterations, using the mean estimate

-------------------------------------------------- 
Component   Adjusted    Unadjusted    Estimated 
            Eigenvalue  Eigenvalue    Bias 
-------------------------------------------------- 
1           6.025438    6.728230      0.702792
2           1.393155    1.942468      0.549313
3           1.266794    1.701496      0.434701
-------------------------------------------------- 

Adjusted eigenvalues > 1 indicate dimensions to retain.
(3 components retained)

Vemos que tanto el Análisis Paralelo con AFE como el criterio de Factor de Aceleración mantienen el mismo número de factores obtenidos previamente, mientras que el resto de criterios coinciden en un número óptimo de 4 factores.

Factor Analysis using method =  pa
Call: fa(r = data_items, nfactors = numero_factores, rotate = "promax", 
    fm = "pa")
Standardized loadings (pattern matrix) based upon correlation matrix
      PA3   PA1   PA2   PA4   h2   u2 com
I1   0.28  0.44  0.10 -0.02 0.48 0.52 1.8
I2  -0.15  0.91 -0.12  0.01 0.64 0.36 1.1
I3  -0.08  0.92 -0.02 -0.08 0.71 0.29 1.0
I4   0.23  0.67 -0.04  0.02 0.65 0.35 1.2
I5   0.41  0.26 -0.21  0.18 0.43 0.57 2.7
I6  -0.01  0.36  0.35  0.04 0.38 0.62 2.0
I8   0.32  0.37  0.35 -0.11 0.60 0.40 3.1
I9   1.02 -0.12  0.04 -0.23 0.74 0.26 1.1
I10  0.98 -0.01  0.06 -0.19 0.79 0.21 1.1
I11  0.52  0.16 -0.27  0.28 0.57 0.43 2.3
I13  0.56 -0.07  0.01  0.20 0.44 0.56 1.3
I14 -0.06  0.43  0.41 -0.01 0.47 0.53 2.0
I15 -0.27  0.12  0.80  0.08 0.65 0.35 1.3
I16  0.14 -0.23  0.81  0.04 0.63 0.37 1.2
I17  0.42 -0.19  0.43  0.17 0.50 0.50 2.7
I18  0.01 -0.13  0.07  0.94 0.83 0.17 1.0
I19 -0.16  0.04  0.16  0.74 0.55 0.45 1.2

                       PA3  PA1  PA2  PA4
SS loadings           3.25 3.02 2.17 1.64
Proportion Var        0.19 0.18 0.13 0.10
Cumulative Var        0.19 0.37 0.50 0.59
Proportion Explained  0.32 0.30 0.22 0.16
Cumulative Proportion 0.32 0.62 0.84 1.00

 With factor correlations of 
     PA3  PA1  PA2  PA4
PA3 1.00 0.57 0.37 0.61
PA1 0.57 1.00 0.45 0.44
PA2 0.37 0.45 1.00 0.34
PA4 0.61 0.44 0.34 1.00

Mean item complexity =  1.7
Test of the hypothesis that 4 factors are sufficient.

df null model =  136  with the objective function =  10.03 with Chi Square =  1178.55
df of  the model are 74  and the objective function was  1.49 

The root mean square of the residuals (RMSR) is  0.05 
The df corrected root mean square of the residuals is  0.06 

The harmonic n.obs is  125 with the empirical chi square  70.8  with prob <  0.58 
The total n.obs was  125  with Likelihood Chi Square =  171.58  with prob <  1e-09 

Tucker Lewis Index of factoring reliability =  0.823
RMSEA index =  0.102  and the 90 % confidence intervals are  0.083 0.123
BIC =  -185.71
Fit based upon off diagonal values = 0.99
Measures of factor score adequacy             
                                                   PA3  PA1  PA2  PA4
Correlation of (regression) scores with factors   0.96 0.95 0.92 0.94
Multiple R square of scores with factors          0.92 0.90 0.85 0.88
Minimum correlation of possible factor scores     0.84 0.80 0.70 0.77

Mantenemos una correlación “promax” oblicua ya que siguen existiendo correlaciones elevadas entre los factores. A continuación vemos como siguen manteniéndose cargas factoriales superiores a 1, lo que puede venir dado por una elevada correlación entre los ítems, aunque esta no sea tan marcada como antes.

Cargas Factoriales
Ítem Factor 1 Factor 2 Factor 3 Factor 4
I1 0.28 0.44
I2 0.91
I3 0.92
I4 0.23 0.67
I5 0.41 0.26 -0.21
I6 0.36 0.35
I8 0.32 0.37 0.35
I9 1.02 -0.23
I10 0.98
I11 0.52 -0.27 0.28
I13 0.56
I14 0.43 0.41
I15 -0.27 0.80
I16 -0.23 0.81
I17 0.42 0.43
I18 0.94
I19 0.74

Si nos fijamos en la solución factorial, podemos observar que existen un elevado número de cargas cruzadas. Veamos qué valores de comunalidad se obtienen en este modelo.

Comunalidades (h2) de cada Ítem
h2 Categoría
I1 0.475 Aceptable
I2 0.640 Bueno
I3 0.709 Excelente
I4 0.654 Bueno
I5 0.431 Aceptable
I6 0.378 Aceptable
I8 0.599 Bueno
I9 0.738 Excelente
I10 0.794 Excelente
I11 0.569 Bueno
I13 0.443 Aceptable
I14 0.470 Aceptable
I15 0.653 Bueno
I16 0.632 Bueno
I17 0.504 Bueno
I18 0.834 Excelente
I19 0.551 Bueno

Aunque prácticamente hemos conseguido eliminar el problema de los pesos superiores a 1, vamos a comprobar qué resultados ofrece la solución de 3 dimensiones, pudiendo justificar esta decisión con el criterio del análisis paralelo mediante AFE. A continuación se muestran los resultados del AFE con 3 dimensiones y sus cargas factoriales.

Factor Analysis using method =  pa
Call: fa(r = data_items, nfactors = numero_factores, rotate = "promax", 
    fm = "pa")
Standardized loadings (pattern matrix) based upon correlation matrix
      PA1   PA3   PA2   h2   u2 com
I1   0.28  0.45  0.09 0.47 0.53 1.8
I2  -0.06  0.86 -0.11 0.62 0.38 1.0
I3  -0.08  0.90 -0.03 0.71 0.29 1.0
I4   0.29  0.65 -0.06 0.66 0.34 1.4
I5   0.60  0.23 -0.20 0.43 0.57 1.5
I6  -0.01  0.36  0.37 0.38 0.62 2.0
I8   0.21  0.40  0.31 0.57 0.43 2.4
I9   0.78 -0.02 -0.05 0.56 0.44 1.0
I10  0.79  0.07 -0.03 0.66 0.34 1.0
I11  0.77  0.13 -0.24 0.56 0.44 1.2
I13  0.72 -0.08  0.02 0.47 0.53 1.0
I14 -0.11  0.44  0.43 0.47 0.53 2.1
I15 -0.32  0.14  0.87 0.67 0.33 1.3
I16  0.05 -0.18  0.82 0.60 0.40 1.1
I17  0.48 -0.18  0.46 0.52 0.48 2.3
I18  0.57 -0.14  0.24 0.42 0.58 1.5
I19  0.33 -0.01  0.31 0.30 0.70 2.0

                       PA1  PA3  PA2
SS loadings           3.75 2.99 2.33
Proportion Var        0.22 0.18 0.14
Cumulative Var        0.22 0.40 0.53
Proportion Explained  0.41 0.33 0.26
Cumulative Proportion 0.41 0.74 1.00

 With factor correlations of 
     PA1  PA3  PA2
PA1 1.00 0.53 0.49
PA3 0.53 1.00 0.47
PA2 0.49 0.47 1.00

Mean item complexity =  1.5
Test of the hypothesis that 3 factors are sufficient.

df null model =  136  with the objective function =  10.03 with Chi Square =  1178.55
df of  the model are 88  and the objective function was  2.3 

The root mean square of the residuals (RMSR) is  0.06 
The df corrected root mean square of the residuals is  0.08 

The harmonic n.obs is  125 with the empirical chi square  136.77  with prob <  0.00068 
The total n.obs was  125  with Likelihood Chi Square =  266.13  with prob <  8.6e-20 

Tucker Lewis Index of factoring reliability =  0.731
RMSEA index =  0.127  and the 90 % confidence intervals are  0.11 0.146
BIC =  -158.77
Fit based upon off diagonal values = 0.97
Measures of factor score adequacy             
                                                   PA1  PA3  PA2
Correlation of (regression) scores with factors   0.95 0.94 0.93
Multiple R square of scores with factors          0.90 0.89 0.86
Minimum correlation of possible factor scores     0.79 0.78 0.72
Cargas Factoriales
Ítem Factor 1 Factor 2 Factor 3
I1 0.28 0.45
I2 0.86
I3 0.90
I4 0.29 0.65
I5 0.60 0.23
I6 0.36 0.37
I8 0.21 0.40 0.31
I9 0.78
I10 0.79
I11 0.77 -0.24
I13 0.72
I14 0.44 0.43
I15 -0.32 0.87
I16 0.82
I17 0.48 0.46
I18 0.57 0.24
I19 0.33 0.31

Vemos que hemos conseguido eliminar por completo el problema de los pesos extremos, y aunque seguimos teniendo algunos problemas de comunalidades, estas se encuentran todas dentro de lo “aceptable” (valores superiores a 0.35 en todos los casos).

Además, este modelo de 3 dimensiones latentes nos devuelve valores de fiabilidad mucho mejores que el modelo anterior tal y como vemos en la siguiente tabla.

Resultados de Fiabilidad por Factor
Alfa_Cronbach Omega_McDonald Categoría_Alfa Categoría_Omega
PA1 0.8227804 0.8294983 Bueno Bueno
PA3 0.8324935 0.8491729 Bueno Bueno
PA2 0.7820742 0.8008210 Aceptable Bueno

Si pintamos el diagrama del modelo actualizado obtenemos la siguiente solución factorial:

Predicción del éxito en el emprendimiento

[En esta sección se trabajará sobre un modelo predictivo del éxito en el emprendimiento haciendo uso de la escala reducida como predictor principal]

Una vez definidas las distintas estructuras factoriales que encajan con los datos:

  • Escala unidimensional: hemos observado que el conjunto de 19 ítems pueden definirse como un sistema unidimensional, devolviendo un alpha de Cronbach global de 0.91.

  • Escala de 5 dimensiones: la primera estructura multidimensional que se ha definido constaba de 5 dimensiones, aunque esta conteía problemas de pesos muy elevados derivados de la multicolinealidad entre los items.

  • Escala de 3 dimensiones: tras eliminar los items 7 y 12 por ser estos los que estaban contribuyendo en mayor medida a la multicolinealidad, y reducir el numero de dimensiones primero a 4 y más adelante a 3 debido a que la solución de 4 factores mantenía el problema de los pesos superiores a 1, se determina una estructura final de 3 dimensiones. Esta estructura devuelve valores de fiabilidad adecuados.

El siguiente paso en el proceso de análisis de la investigación que nos ocupa consistirá en la estimación de un modelo predictivo que nos permita explicar el éxito en el emprendimiento. Para ello se utiliza el tiempo que se ha mantenido cierta empresa como indicador de éxito en emprendimiento (estaría bien recoger más información al respecto en futuras investigaciones, esto es una clara limitación). Los predictores serán las puntuaciones en los distintos factores de los modelos indicados previamente. A continuación vemos la cabecera del conjunto de datos que se ha definido para la estimación del modelo lineal.

  y        uni         PA1        PA2        PA5         PA3        PA4
1 3  0.1351905 -0.36199598 -0.6278714  0.5428734  1.21768040  0.7216300
2 1 -0.3075493 -0.04202268 -0.7127811  0.1585931 -0.05548262 -0.2003594
3 7 -0.4290073 -0.27084827 -0.7864707  0.1510916 -1.21068042 -0.1242530
4 0  0.3971047  0.76906013 -0.1581873 -0.2354907 -0.08380651 -0.1957888
5 5  0.3990058  0.31522368  0.5221378  0.5280969 -0.64009549  1.1521498
6 4  0.9591643  1.10995243  0.8234205  0.6407688 -0.57532889  1.1975065
        PA1.1       PA3.1        PA2.1
1 -0.08649365 -0.60689226  1.261578109
2 -0.06065489 -0.78115064 -0.202191486
3  0.06634478 -0.85465743 -1.113107643
4  0.53641736 -0.07996586 -0.006180627
5  0.44162828  0.46016409 -0.275354217
6  1.12558926  0.78901382 -0.172902602

Una vez construido el dataset vamos a dividirlo en train y test para poder validar nuestros resultados.

Tamaños de los conjuntos:
Train: 95 
Test: 30 

Se utiliza una aproximación “paso a paso hacia delante” para seleccionar las variables significativas en el modelo lineal. Para dicha selección se hace uso del estadístico AIC (Akaike Information Criteria), elgiendo en cada paso el modelo que minimice este valor, seleccionando así la configuración más adecuada en término de minimización del error global del modelo corrigiendo al mismo tiempo por el número de variables incluidas. Esto nos ayudará a reducir la probabilidad de sobre ajuste.


Call:
lm(formula = y ~ PA1 + PA4, data = train_data)

Residuals:
    Min      1Q  Median      3Q     Max 
-6.1001 -2.5653 -0.7326  1.8438 10.6949 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)   4.3051     0.3568  12.066  < 2e-16 ***
PA1          -1.7161     0.4738  -3.622 0.000478 ***
PA4           1.1622     0.4880   2.382 0.019301 *  
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 3.469 on 92 degrees of freedom
Multiple R-squared:  0.1249,    Adjusted R-squared:  0.1059 
F-statistic: 6.565 on 2 and 92 DF,  p-value: 0.002161

Como podemos observar en los resultados, el modelo más adecuado será aquel que utilice los factores 1 y 4 de la estructura factorial de 5 dimensiones para explicar el éxito como emprendedor para cada sujeto del estudio, siendo este éxito definido por el tiempo de duración del negocio.

Aunque ambos factores son significativos, será el primero el que afecte de una forma más marcada a esta probabilidad de éxito, reduciéndose la misma al aumentar las puntuaciones en esta dimensión (1a dimensión del modelo de 5 factores). Podemos ver que por cada unidad de incremento en la puntuación factorial, se estima un decremento de 1.72 años de duración del emprendimiento en la variable dependiente. Por otro lado, si observamos el efecto del factor 4, vemos que por cada unidad de incremento en la puntuación de dicho factor, se espera un incremento de 1.16 años en el emprendimiento.

Si nos fijamos en los estadísticos de ajuste global del modelo, podemos ver que el estadístico F es significativo, lo nos informa de que todas las variables incluidas son adecuadas para el modelo. Sin embargo, el R² ajustado nos devuelve un valor de 0.11, lo que nos indica que tan solo el 11% de la varianza del tiempo de emprendimiento está explicada por estos factores motivacionales.

A continuación podemos observar los gráficos caracetrísticos de los residuos del modelo. En estos gráficos podemos ver una leve desviación para valores elevados de la variable dependiente, lo que puede estar indicando un efecto cuadrático por parte de alguna de las variables independientes. Este efecto cuadrático será estudiado más adelante. En el gráfico Q-Q también observamos cierta asimetría en valores elevados respecto a la normalidad de los residuos, siendo esta asimetría muy leve de nuevo. Tampoco observamos ningún valor extremo en los residuos.

Para profundizar en el análisis de un posible efecto cuadrático vamos a dibujar gráficos de dispersión de los residuos del modelo contra ambas variables independientes. En caso de observar patrones no explicados por las variables de forma lineal, esto puede indicar un posible efecto cuadrático.

Como vemos en los gráficos resultantes, no parece haber un efecto cuadrático, aún así vamos a contrastarlo. A continuación trazamos un modelo incluyendo este hipotético efecto. En los resultados podemos observar que este efecto cuadrático no es significativo. Esto nos hace pensar que esta leve desviación de los residuos es algo fortuito y no generalizable a un efecto polinómico de ningún orden, siendo el modelo lineal la mejor solución en este caso.


Call:
lm(formula = y ~ PA1 + I(PA1^2) + PA4 + I(PA4^2), data = train_data)

Residuals:
    Min      1Q  Median      3Q     Max 
-6.4125 -2.6942 -0.4845  1.8671 10.6601 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)   4.7420     0.5094   9.309 7.83e-15 ***
PA1          -1.6597     0.5799  -2.862  0.00524 ** 
I(PA1^2)      0.1287     0.4574   0.281  0.77904    
PA4           0.8657     0.5493   1.576  0.11854    
I(PA4^2)     -0.6405     0.4460  -1.436  0.15448    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 3.459 on 90 degrees of freedom
Multiple R-squared:  0.1491,    Adjusted R-squared:  0.1112 
F-statistic: 3.941 on 4 and 90 DF,  p-value: 0.005399

Otra posible causa de estos residuos asimétricos puede ser una asimetría severa en la variable dependiente. Para explorar esta posibilidad, a continuación vemos el histograma de la variable

En estos casos de asimetría positiva muy marcada podemos hacer uso de una función logaritmica para transformar la variable. Esta transformación, aunque útil, puede resultar en problemas de interpretabilidad. Veamos el histograma aplicando la transformación.

Vemos que la transformación puede ayudarnos a cumplir normalidad en la variable dependiente. A continuación estimamos de nuevo el modelo con la variable dependiente transformada


Call:
lm(formula = y ~ PA1 + PA4, data = train_data_log)

Residuals:
     Min       1Q   Median       3Q      Max 
-1.68199 -0.47691 -0.01411  0.52289  1.38079 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  1.43536    0.06987  20.542  < 2e-16 ***
PA1         -0.32343    0.09279  -3.486 0.000754 ***
PA4          0.25927    0.09558   2.713 0.007965 ** 
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.6795 on 92 degrees of freedom
Multiple R-squared:  0.1202,    Adjusted R-squared:  0.1011 
F-statistic: 6.285 on 2 and 92 DF,  p-value: 0.002765

Aunque vemos una clara mejoría en los análisis de los residuos, el ajuste global del modelo es muy similar al modelo estimado sobre la variable original. Esto nos lleva a concluir que una transformación logaritmica no será lo suficientemente relevante como para compensar la falta de interpretatibilidad de los parámetros del modelo.

A modo de conclusión, se ha encontrado un efecto significativo de los factores 1 y 4 del modelo de 5 dimensiones a la hora de explicar el tiempo de emprendimiento, considerando este como un indicador de éxito del emprendimiento. Estas variables serán agrupadoras de ciertos ítems de la escala de motivación, por lo que podremos decir que las dimensiones 1 y 4 de la escala reducida de motivación hacia el emprendimiento son de utilidad para la predicción del éxito en emprendedores de manera significativa. Sin embargo, la varianza explicada sobre esta variable es muy reducida, siendo esta del 11% en el mejor de los casos. Para confirmar estos resultados vamos a hacer uso de métodos de validación cruzada, primero usando el conjunto train, aplicando K-fold sobre el mismo, y finalmente constrastando nuestro modelo en el conjunto test (aunque en una muestra tan reducida será complicado generalizar los resultados).


Call:
lm(formula = .outcome ~ ., data = dat)

Residuals:
    Min      1Q  Median      3Q     Max 
-6.1001 -2.5653 -0.7326  1.8438 10.6949 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)   4.3051     0.3568  12.066  < 2e-16 ***
PA1          -1.7161     0.4738  -3.622 0.000478 ***
PA4           1.1622     0.4880   2.382 0.019301 *  
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 3.469 on 92 degrees of freedom
Multiple R-squared:  0.1249,    Adjusted R-squared:  0.1059 
F-statistic: 6.565 on 2 and 92 DF,  p-value: 0.002161

Parece que usando K-fold observamos que nuestro modelo es generalizable en los datos de entrenamiento, ya que no se dan diferencias respecto al modelo con el conjunto de datos completo. Finalmente, debemos de contrastar este modelo sobre el conjunto de test. A continuación podemos observar que la proporción de varianza explicada en el conjunto de test resulta insignificante (3% de la varianza explicada con las predicciones del modelo). Esto nos lleva a pensar que nuestro modelo está sobreajustado a los datos de entrenamiento, y que el efecto encontrado no tiene la potencia suficiente como para ser generalizable a otro conjunto de datos. Este resultado es congruente con el valor de varianza explicada tan limitado que hemos encontrado en nuestro datos previamente.

Error de prueba: 13.27064 
R2 en el conjunto de prueba: 0.03606529 

A modo de conclusión general, hemos visto que la escala reducida de motivación para el emprendimiento sufre de serios problemas a la hora de extraer las dimensiones determinadas por la mayoría de los métodos utilizados (scree plot, analisis paralelo, etc.), por lo que nos hemos visto obligados a eliminar algunos ítems que causaban cierto conflicto en la estructura factorial debido a la multicolinealidad. Finalmente se ha optado por utilizar un modelo de 3 dimensiones, que parece la mejor solución factorial para los datos recogidos. Sin embargo, a la hora de estimar un modelo explicativo del éxito en el emprendimiento, esta escala de 3 dimensiones no ha ofrecido resultados significativos en ninguna de sus dimensiones, obteniendo efectos significativos tan solo para las dimensiones 1 y 4 del modelo de 5 factores. Sin embargo no podemos considerar estos efectos como generazliables, ya que no han sido capaces de replicarse en un conjunto de datos reservado para testear el modelo. Esto se debe a que el efecto, aunque significativo para los datos de entrenamiento, es muy limitado, y puede venir dado por un efecto espúreo en la muestra de entrenamiento. Una hipótesis para estos resultados negativos puede ser que la variable dependiente seleccionada (años de duración del emprendimiento) no es representativa del constructo a explicar (éxito en el emprendimiento), y estamos, de esta forma, basando nuestros análisis en una operacionalización incorrecta del constructo a medir. Esta limitación se une a las previamente mencionadas sobre la validez teórica de la escala reducida.

Referencias

Marulanda Valencia, F. Á., Montoya Restrepo, I. A., & Vélez Restrepo, J. M. (2014). Teorías motivacionales en el estudio del emprendimiento. Pensamiento & gestión, (36), 206-238.