Abstract
Se presentan los resultados de un análisis textual exploratorio de tres documentos principales de la trasformación curricular que actualmente se está llevando a cabo en Uruguay: el Marco Curricular, las Progresiones de Aprendizaje y el Plan de EBI. Se exploran: a- las frecuencias de los términos; b - variables como la orientación en el tiempo, el vocabulario emocional y el uso de pronombres (utilizando LIWC-22); c- El uso de vocabulario afectivo y prototípicamente emocional (utilizando Stadthagen 2017 y EmoPro); d- La frecuencia y contexto de las referencias a Habilidades y Competencias. Para leerlos en contexto, se utilizan como punto de comparación dos documentos elaborados durante el año 2022 por las ATD de DGEIP y DGES. Se presentan resultados, bases de datos y materiales para su reutilización.La discusión sobre la transformación educativa es compleja en varios sentidos. Por un lado, implica considerar a la vez múltiples niveles de análisis: desde evaluar la calidad de la evidencia empírica a debatir filosóficamente los objetivos de la educación. Por el otro, es un tema difícil, complicado y enmarañado, que mueve afectos y sensibilidades. En ese sentido, no sorprende que tanto en instancias profesionales (como las ATD) como en medios de comunicación y redes sociales las discusiones se estanquen o degeneren rápidamente.
Una de las voces principales en este debate público es la de las autoridades de la ANEP. Con el objetivo de hacer un mínimo aporte a la clarificación y complejización de la discusión, este texto presenta algunos análisis exploratorios sobre los tres documentos principales de la transformación curricular publicados en la página web de ANEP a fines de 2022: el Marco Curricular, las Progresiones de Aprendizaje y el Plan de Educación Básica Integral.
Concretamente se busca responder a las siguientes preguntas generales:
¿Cuál es el vocabulario de la transformación curricular? ¿Cuáles son los términos más frecuentes en los documentos? ¿Qué términos son frecuentes en el discurso docente pero no en ellos?
¿Qué características tiene el lenguaje utilizado al respecto de la afectividad, el vocabulario emocional, la orientación temporal y el uso de pronombres?
Más concretamente, centrándonos en términos relevantes para el proyecto de la ANEP (y para la discusión educativa contemporánea), se explora el siguiente asunto:
Más que intentar fundamentar un punto de vista desde estos datos o derivar una conclusión, se explicará de manera lo más llana posible la metodología, se presentarán los resultados y se pondrán a disposición los materiales y datos, esperando que esta “lectura distante” de los documentos pueda ser de utilidad a los/as agentes implicados/as.
Se utilizó un enfoque de “bolsa de palabras” (bag of words) donde cada documento y cada línea del texto se entiende como un conjunto de palabras, ignorándose el órden. Aunque evidentemente esta simplificación no hace justicia a la complejidad del lenguaje, la relación entre el lenguaje y la experiencia es tan estrecha que incluso un método tan crudo como contar palabras capta dinámicas psicológicas y sociales interesantes. Son muy recomendables los artículos de Ryan Boyd y colaboradores ( 1, 2, 3); en español, un recurso sintético es el artículo de Nairán Ramírez-Esparza (2007).
Por ejemplo, en un conjunto de documentos sobre una transformación educativa es esperable que la palabra “educación” sea la más frecuente. A un nivel mayor de detalle, nos puede interesar saber qué otras palabras son frecuentes: ¿cuál es el vocabulario central de este cambio educativo? ¿Cuál es el vocabulario que no está presente?. El paradigma de interpretación más frecuente en el análisis psicológico de textos es el de las palabras como atención: el vocabulario ofrece una ventana a la forma en que se atiende a determinado fenómeno (Boyd y Schwartz, 2021).
Además de ver directamente el vocabulario, podemos agrupar las palabras en categorías (ej. conjugadas en pasado/presente/futuro) o puntuarlas en dimensiones (ej. desde muy agradable a muy desagradable). Por ejemplo, considerando la afectividad de las palabras, no es lo mismo si un texto incluye muchas palabras como “soledad”, “fracaso”, y “frustración” que si incluye palabras como “bienestar”, “respeto” y “construcción”. Utilizando esta lógica, se han creado y perfeccionado a lo largo de los años una serie de “diccionarios”: listas de miles de palabras clasificadas en categorías o puntuadas en dimensiones. Esos diccionarios permiten asignar valores numéricos a cada texto, considerando la puntuación promedio de sus palabras o la proporción de palabras en cada categoría.
En este trabajo nos centramos en las siguientes variables:
Valencia: ¿Tiene en general la palabra connotaciones positivas/agradables o negativas/desagradables? Ej. “Diversión”/“Dolor”
Arousal: ¿Tiene en general la palabra connotaciones de alta o baja activación? Ej. “Actividad”/“Aburrimiento”
Vocabulario emocional: ¿Es una palabra que típicamente se utiliza para referirse a un estado emocional? Ej. “Enojo”
Orientación temporal: ¿Hace referencia al pasado/presente/futuro? Ej. “fue/es/será”
Uso de pronombres: ¿Hace referencia a Yo/Mío/Tuyo/Nuestro/Nosotros/Ella, etc.?
Además, para tener una visión un poco más profunda (aunque todavía muy limitada) del contexto en que una palabra es utilizada, se puede explorar cuantitativamente qué palabras tienden a aparecer juntas. Por ejemplo, si muchas veces la palabra “habilidades” aparece en la misma línea que la palabra “sociales” o “cognitivas” pero nunca de “manuales” o “técnicas”, eso nos aporta información relevante sobre la forma en que se está conceptualizando a las habilidades. Concretamente en este trabajo se consideraron las palabras inmediatamente posteriores a las palabras “competencia/s” y “habilidad/es”, y el coeficiente de correlación phi (equivalente al coficiente r de Pearson para variables binarias). Para abordar el contexto de forma todavía más concreta, se extrajeron las líneas en las cuales estos términos son utilizados.
Los análisis se realizaron en RStudio. Se utilizaron los siguientes paquetes: pdftools para leer los archivos pdf, tiyverse y ggwordcloud para la manipulación y visualización de datos, tidytext, widyr y tm para analizar los textos. En general se siguieron los lineamientos de Silge y Robinson, 2016.
Se utilizaron los diccionarios EmoPro y Stadthagen et al 2017. Estos y otros recursos útiles para analizar textos en español pueden descargarse gratuitamente en el excelente recurso de Fraga et al 2018, EmoFinder
Además de los análisis realizados en R, se utilizó LIWC-22 con el diccionario adaptado por Ramírez-Esparza (2007). Se presenta el output completo aunque solo se visualicen algunos de los resultados.
Este no es un reporte académico: muchos detalles no se explican por economía de tiempo y lenguaje. Puede comunicarse solicitando detalles, haciendo sugerencias o comentarios, etc.
# Se cargan paquetes
library(pdftools)
library(tidyverse)
library(tidytext)
library(tm)
library(ggwordcloud)
library(widyr)
"Se utilizan los paquetes pdftools, tidyverse, tidytext, tm ggwordcloud y widyr"
## [1] "Se utilizan los paquetes pdftools, tidyverse, tidytext, tm ggwordcloud y widyr"
# Se cargan datos
Marco <- pdf_text("~/R/csv/Marco_curricular.pdf") %>%
readr::read_lines() %>%
tibble() %>%
mutate(documento = "Marco Curricular")
names(Marco)[1] <- "texto"
Progresiones <- pdf_text("~/R/csv/Progresiones.pdf") %>%
readr::read_lines() %>%
tibble() %>%
mutate(documento = "Progresiones de Aprendizaje")
names(Progresiones)[1] <- "texto"
Plan <- pdf_text("~/R/csv/Plan.pdf") %>% readr::read_lines() %>%
tibble() %>%
mutate(documento = "Plan de EBI")
names(Plan)[1] <- "texto"
Evaluación <- pdf_text("~/R/csv/Evaluación.pdf") %>%
readr::read_lines() %>% tibble() %>%
mutate(documento = "Reglamento de Evaluación")
names(Evaluación)[1] <- "texto"
Documentos <- bind_rows(Marco, Progresiones, Plan) %>% mutate(línea = row_number())
## ATD
ATD1 <- pdf_text("~/R/csv/ATD-DGEIP-Diciembre.pdf") %>%
readr::read_lines() %>%
tibble() %>%
mutate(documento = "ATD Primaria")
names(ATD1)[1] <- "texto"
ATD2 <- pdf_text("~/R/csv/ATD-DGES-Mayo.pdf") %>%
readr::read_lines() %>%
tibble() %>%
mutate(documento = "ATD Secundaria")
names(ATD2)[1] <- "texto"
Documentos_ATD <- bind_rows(ATD1, ATD2) %>% mutate(línea = row_number())
Documentos
Documentos_ATD
# Se carga el output de LIWC
Resultados_LIWC <- read.csv("~/R/csv/LIWC reforma.csv")
Resultados_LIWC_ATD <- read.csv("~/R/csv/LIWC ATD.csv")
Resultados_LIWC
Resultados_LIWC_ATD
# Se carga el diccionario EmoPro
EmoPro <- read.csv("~/R/csv/EmPro.csv", header = TRUE, sep = ",", dec = ".", comment.char = "", strip.white = TRUE, stringsAsFactors = FALSE, encoding="UTF-8") %>% rename("word" = "Word", "Valence" = "Valence_Mean", "Arousal" = "Arousal_Mean", "Happiness" = "Happiness_Mean", "Disgust" = "Disgust_Mean", "Anger" = "Anger_Mean", "Fear" = "Fear_Mean", "Sadness" = "Sadness_Mean", "Reconstrucción" = "Family", "Dominant_Basic_Emotion" = "Dominant_emotion") %>% select(word, Valence, Arousal, Happiness, Disgust, Anger, Fear, Sadness, Reconstrucción, Prototypicality_Mean, Emo_Básica = Dominant_Basic_Emotion)
EmoPro <- EmoPro %>% mutate(cuadrante = case_when(
Valence <= median(EmoPro$Valence) & Arousal >= median(EmoPro$Arousal) ~ "V- A+",
Valence >= median(EmoPro$Valence) & Arousal >= median(EmoPro$Arousal) ~ "V+ A+",
Valence <= median(EmoPro$Valence) & Arousal <= median(EmoPro$Arousal) ~ "V- A-",
Valence >= median(EmoPro$Valence) & Arousal <= median(EmoPro$Arousal) ~ "V+ A-")) %>% filter(word != "solo")
EmoPro
# Se carga el diccionario de Stadthagen
# Se selecionan palabras con una SD < 1.5
Stadthagen <- read.csv("~/R/csv/emoFinder2.csv") %>% rename("Palabra." = "Word") %>% filter(ValenceSD < 1.5 & ArousalSD < 1.5) %>% select(Palabra., ValenceMean, ArousalMean) %>% rename("word" = "Palabra.", "Valence" = "ValenceMean", "Arousal" = "ArousalMean")
Stadthagen <- Stadthagen %>% mutate(cuadrante = case_when(
Valence <= median(Stadthagen$Valence) & Arousal >= median(Stadthagen$Arousal) ~ "V- A+",
Valence >= median(Stadthagen$Valence) & Arousal >= median(Stadthagen$Arousal) ~ "V+ A+",
Valence <= median(Stadthagen$Valence) & Arousal <= median(Stadthagen$Arousal) ~ "V- A-",
Valence >= median(Stadthagen$Valence) & Arousal <= median(Stadthagen$Arousal) ~ "V+ A-"))
Stadthagen
Una forma inicial de explorar los documentos es ver la frecuencia de las palabras. En estos resultados puede verse:
Las palabras más frecuentes en general
Las palabras más frecuentes por documento
Las palabras características de cada documento (tf.idf)
stopwords_edu <- c(stopwords("sp"), "diferentes", "cada", "partir", "mcn", "así", "p", "to", "c", "vista", "pa", "ción", "artículo", "m","i", "v", "f", "iii", "iv", "S", "s", "ii", "n", "xl", "maldonado", "afirmativo", "ordinaria", "abstenciones", "afirmativos", "afirmativa", "votación", "canelones" ) %>% tibble()
names(stopwords_edu)[1] <- "word"
Documentos_tidy <- Documentos %>%
unnest_tokens(word, texto, to_lower = T) %>%
anti_join(stopwords_edu) %>%
filter(!grepl('[0-9]', word))
Documentos_tidy %>% count(word) %>% arrange(desc(n)) %>% head(120) %>%
ggplot(aes(label = word, size = n, color = n)) +
geom_text_wordcloud(area_corr = TRUE, shape = "circle") +
scale_size_area(max_size = 10) +
theme_classic() + labs(title = "Palabras más frecuentes en documentos de ANEP") + scale_color_viridis_c() + labs(x = "El tamaño representa la frecuencia del término")
Documentos_tidy_ATD <- Documentos_ATD %>%
unnest_tokens(word, texto, to_lower = T) %>%
anti_join(stopwords_edu) %>%
filter(!grepl('[0-9]', word))
Documentos_tidy_ATD %>% count(word) %>% arrange(desc(n)) %>% head(120) %>%
ggplot(aes(label = word, size = n, color = n)) +
geom_text_wordcloud(area_corr = TRUE, shape = "circle") +
scale_size_area(max_size = 10) +
theme_classic() + labs(title = "Palabras más frecuentes en documentos ATD", x= "El tamaño representa la frecuencia del término") + scale_color_viridis_c()
"ANEP"
## [1] "ANEP"
Documentos_tidy %>% count(word) %>% arrange(desc(n)) %>% mutate(posición = row_number())
"ATD"
## [1] "ATD"
Documentos_tidy_ATD %>% count(word) %>% arrange(desc(n)) %>% mutate(posición = row_number())
Documentos_ATD_ANEP <- bind_rows(Documentos_tidy_ATD %>% mutate(polo = "ATD"), Documentos_tidy %>% mutate(polo = "ANEP")) %>%
count(word, polo) %>%
bind_tf_idf(word, polo, n)
Documentos_ATD_ANEP %>% filter(n > 5) %>%
arrange(desc(tf_idf)) %>%
head(150) %>%
ggplot(aes(label = word, size =tf_idf, color = tf_idf)) +
geom_text_wordcloud(area_corr = TRUE, shape = "square") +
scale_size_area(max_size = 8) +
theme_classic() + ggtitle("Palabras características de ATD y ANEP") + labs(x= "Términos con mayor tf.idf en cada conjunto de documentos") + facet_wrap(~polo) + scale_color_viridis_c()
Utilizando el diccionario de Ramírez-Esparza (2007) en LIWC-22, EmoPro y Stadthagen et al. (2017), podemos analizar los siguientes aspectos:
¿Qué pronombres y referencias predominan en los documentos? (LIWC)
¿Qué foco temporal predomina? (LIWC)
¿Qué uso de términos emocionales predomina? (LIWC)
¿Qué características afectivas tiene el lenguaje utilizado? (Stadthagen et al. 2017)
¿Qué uso se hace del vocabulario emocional típico? (EmoPro)
LIWC_Pronombres <- bind_rows(Resultados_LIWC %>% summarise(Referencias_Yo = mean(Yo), Referencias_Nosotros = mean(Nosotro), Referencias_Tu_Usted = mean(TuUtd), Referencias_ElElla =mean(ElElla), Referencias_Ellos =mean(Ellos), Referencias_Impersonales = mean(PronImp)) %>% pivot_longer(cols = starts_with("Ref"), names_to = "variable", values_to = "proporción") %>% mutate(polo = "ANEP"), Resultados_LIWC_ATD %>% summarise(Referencias_Yo = mean(Yo), Referencias_Nosotros = mean(Nosotro), Referencias_Tu_Usted = mean(TuUtd), Referencias_ElElla =mean(ElElla), Referencias_Ellos =mean(Ellos), Referencias_Impersonales = mean(PronImp)) %>% pivot_longer(cols = starts_with("Ref"), names_to = "variable", values_to = "proporción") %>% mutate(polo = "ATD"))
LIWC_Pronombres %>% ggplot(aes(reorder(variable, proporción), proporción, fill = variable)) + geom_col() + theme_classic() + coord_flip() + theme(legend.position = "none") + labs(title = "Pronombres y Referencias", x="", y= "Porcentaje de palabras en la categoría - diccionario LIWC-Español (2007)") + facet_wrap(~polo) + scale_fill_viridis_d()
LIWC_Pronombres
LIWC_Tiempo <- bind_rows(Resultados_LIWC %>% summarise(Referencias_Pasado = mean(Pasado), Referencias_Presente = mean(Present), Referencias_Futuro = mean(Futuro)) %>% pivot_longer(cols = starts_with("Ref"), names_to = "variable", values_to = "proporción") %>% mutate(polo ="ANEP"), Resultados_LIWC_ATD %>% summarise(Referencias_Pasado = mean(Pasado), Referencias_Presente = mean(Present), Referencias_Futuro = mean(Futuro)) %>% pivot_longer(cols = starts_with("Ref"), names_to = "variable", values_to = "proporción") %>% mutate(polo ="ATD"))
LIWC_Tiempo %>% ggplot(aes(reorder(variable, proporción), proporción, fill = variable)) + geom_col() + theme_classic() + coord_flip() + theme(legend.position = "none") + labs(title = "Pasado, presente, futuro", x="", y= "Porcentaje de palabras en la categoría - diccionario LIWC-Español (2007)") + facet_wrap(~polo) + scale_fill_viridis_d()
LIWC_Tiempo
LIWC_Emo <- bind_rows(Resultados_LIWC %>% summarise(Emociones_positivas = mean(EmoPos), Emociones_negativas = mean(EmoNeg)) %>% pivot_longer(cols = starts_with("Emo"), names_to = "variable", values_to = "proporción") %>% mutate(polo = "ANEP"), Resultados_LIWC_ATD %>% summarise(Emociones_positivas = mean(EmoPos), Emociones_negativas = mean(EmoNeg)) %>% pivot_longer(cols = starts_with("Emo"), names_to = "variable", values_to = "proporción") %>% mutate(polo = "ATD"))
LIWC_Emo %>% ggplot(aes(reorder(variable, proporción), proporción, fill = variable)) + geom_col() + theme_classic() + coord_flip() + theme(legend.position = "none") + labs(title = "Emociones positivas y negativas", x="", y= "Porcentaje de palabras en la categoría - diccionario LIWC-Español (2007)") + facet_wrap(~polo) + scale_fill_viridis_d()
LIWC_Emo
bind_rows(Documentos_tidy_ATD %>%
anti_join(stopwords_edu) %>%
inner_join(Stadthagen) %>%
count(word, Valence, Arousal, cuadrante) %>% filter(n >= 3) %>%
mutate(prop = n/sum(n)) %>% mutate(polo = "ATD"), Documentos_tidy %>%
anti_join(stopwords_edu) %>%
inner_join(Stadthagen) %>%
count(word, Valence, Arousal, cuadrante) %>% filter(n >= 3) %>%
mutate(prop = n/sum(n)) %>% mutate(polo = "ANEP")) %>%
ggplot(aes(Valence, Arousal, color = cuadrante, size = n)) + geom_point() +
theme_classic() +
labs(
title = "Afectividad del lenguaje ANEP",
subtitle = "Diccionario Stadthagen et al. 2017"
) + facet_wrap(~polo) + scale_color_viridis_d()
bind_rows(Documentos_tidy_ATD %>%
anti_join(stopwords_edu) %>%
inner_join(Stadthagen) %>%
filter(Valence <= 4.5 | Valence > 5.5) %>%
count(word, Valence, Arousal, cuadrante) %>% filter(n >= 5) %>%
mutate(prop = n/sum(n)) %>% mutate(polo = "ATD"), Documentos_tidy %>%
anti_join(stopwords_edu) %>%
inner_join(Stadthagen) %>% filter(Valence <= 4.5 | Valence > 5.5)
%>% count(word, Valence, Arousal, cuadrante) %>% filter(n >= 5) %>%
mutate(prop = n/sum(n)) %>% mutate(polo = "ANEP")) %>%
ggplot(aes(label = word, size = prop, color = Valence)) +
geom_text_wordcloud(area_corr = TRUE, shape = "square") +
scale_size_area(max_size = 12) +
theme_classic() + ggtitle("Términos más frecuentes") + labs(x= "Diccionario Stadthagen et al. 2017 - Términos polarizados - El color indica Valencia") +
facet_wrap(~polo) + scale_color_viridis_c()
"ANEP"
## [1] "ANEP"
Documentos_tidy %>%
anti_join(stopwords_edu) %>%
inner_join(Stadthagen) %>%
count(word, Valence, Arousal, cuadrante) %>% filter(n >= 3)
"ATD"
## [1] "ATD"
Documentos_tidy_ATD %>%
anti_join(stopwords_edu) %>%
inner_join(Stadthagen) %>%
count(word, Valence, Arousal, cuadrante) %>% filter(n >= 3)
bind_rows(Documentos_tidy %>% count(word) %>% inner_join(EmoPro) %>% mutate(polo = "ANEP"),
Documentos_tidy_ATD %>% count(word) %>% inner_join(EmoPro) %>% mutate(polo = "ATD")) %>% ggplot(aes(Valence, Arousal, color = cuadrante, size = n)) + geom_point() +
theme_classic() +
labs(
title = "Vocabulario Prototípicamente Emocional",
subtitle = "Diccionario EmoPro") +
facet_wrap(~polo) + theme(legend.position = "bottom") + scale_color_viridis_d()
bind_rows(Documentos_tidy %>% count(word) %>% inner_join(EmoPro) %>% mutate(n = n/sum(n)) %>% mutate(polo = "ANEP"),
Documentos_tidy_ATD %>% count(word) %>% inner_join(EmoPro) %>% mutate(n = n/sum(n)) %>% mutate(polo = "ATD")) %>% mutate(ifelse(n <= 2, 2, n)) %>%
ggplot(aes(label = word, size =n, color = cuadrante)) +
geom_text_wordcloud(area_corr = TRUE, shape = "square") +
scale_size_area(max_size = 15) +
theme_classic() +
labs(
title = "Vocabulario Prototípicamente Emocional",
subtitle = "Diccionario EmoPro") + facet_wrap(~polo) + scale_color_viridis_d()
"ANEP"
## [1] "ANEP"
Documentos_tidy %>%
count(word) %>%
inner_join(EmoPro) %>% arrange(desc(n))
"ATD"
## [1] "ATD"
Documentos_tidy_ATD %>%
count(word) %>%
inner_join(EmoPro) %>% arrange(desc(n))
Para acercarnos al uso de estas ambiguas palabras, abordamos las siguientes preguntas:
¿Qué frecuencia tienen estos términos (en singular y en plural)?
¿Qué palabras tienden a aparecer frecuentemente inmediatamente después de estas palabras?
¿Qué palabras tienen una mayor correlación con estas palabras?
¿En qué casos concretos se utilizan?
habilidades_y_competencias_ANEP <- Documentos_tidy %>% count(word) %>% mutate(prop = n/sum(n) * 100) %>% filter(word %in% c("competencia", "competencias", "habilidad", "habilidades")) %>% mutate(polo = "ANEP")
habilidades_y_competencias_ATD <- Documentos_tidy_ATD %>% count(word) %>% mutate(prop = n/sum(n) * 100) %>% filter(word %in% c("competencia", "competencias", "habilidad", "habilidades")) %>% mutate(polo = "ATD")
habilidades_y_competencias <- bind_rows(habilidades_y_competencias_ANEP, habilidades_y_competencias_ATD)
habilidades_y_competencias %>% ggplot(aes(reorder(word, prop), prop, fill = polo)) + geom_col() + coord_flip() + theme_classic() + theme(legend.position = "none") + labs(title = "Frecuencia de los términos Competencia/s y Habilidad/es", subtitle = "Proporción de palabras", x="", y = "Porcentaje (apariciones / total de palabras del documento)") +
facet_wrap(~polo) + scale_fill_viridis_d()
habilidades_y_competencias
bigramas <- Documentos %>%
unnest_tokens(bigram, texto, token = "ngrams", n = 2) %>%
filter(!is.na(bigram)) %>% count(bigram) %>% separate(bigram, c("word1", "word2"), sep = " ") %>%
filter(!word1 %in% stopwords_edu$word) %>%
filter(!word2 %in% stopwords_edu$word)
bind_rows(bigramas %>%
filter(word1 %in% c("competencia", "competencias") & n > 1) %>% arrange(desc(n)) %>% mutate(término_original = "competencia/s") %>% mutate(n = n/sum(n)),
bigramas %>%
filter(word1 %in% c("habilidad", "habilidades")) %>% arrange(desc(n)) %>% mutate(término_original = "habilidad/es") %>% mutate(n = n/sum(n))) %>% select(término = word2, n, término_original) %>%
ggplot(aes(label = término, size = n, color = n)) +
geom_text_wordcloud(area_corr = TRUE, shape = "square") +
scale_size_area(max_size = 18) +
theme_classic() + ggtitle("Palabras inmediatamente posteriores ANEP") + labs(x= "EL color y el tamaño indican frecuencia") + facet_wrap(~término_original) + scale_color_viridis_c()
bigramasATD <- Documentos_ATD %>%
unnest_tokens(bigram, texto, token = "ngrams", n = 2) %>%
filter(!is.na(bigram)) %>% count(bigram) %>% separate(bigram, c("word1", "word2"), sep = " ") %>%
filter(!word1 %in% stopwords_edu$word) %>%
filter(!word2 %in% stopwords_edu$word)
bind_rows(bigramasATD %>%
filter(word1 %in% c("competencia", "competencias") & n > 1) %>% arrange(desc(n)) %>% mutate(término_original = "competencia/s") %>% mutate(n = n/sum(n)),
bigramasATD %>%
filter(word1 %in% c("habilidad", "habilidades")) %>% arrange(desc(n)) %>% mutate(término_original = "habilidad/es") %>% mutate(n = n/sum(n))) %>% select(término = word2, n, término_original) %>%
ggplot(aes(label = término, size = n, color = n)) +
geom_text_wordcloud(area_corr = TRUE, shape = "square") +
scale_size_area(max_size = 18) +
theme_classic() + ggtitle("Palabras inmediatamente posteriores ATD") + labs(subtitle= "*Ninguna palabra apareció más de una vez de manera inmediatamente posterior al término Competencia/s") + facet_wrap(~término_original) + scale_color_viridis_c()
palabras_raras <- Documentos_tidy %>% count(word) %>% filter(n < 5)
correlaciones_phi <- Documentos_tidy %>%
count(word, línea) %>% anti_join(palabras_raras) %>%
pairwise_cor(word, línea, sort = T)
bind_rows(correlaciones_phi %>% filter(item1 %in% c("competencia", "competencias")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "competencia/s"),
correlaciones_phi %>% filter(item1 %in% c("habilidades", "habilidad")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "habilidad/es")) %>%
ggplot(aes(label = término, size =correlation, color = correlation)) +
geom_text_wordcloud(area_corr = TRUE, shape = "square") +
scale_size_area(max_size = 12) +
theme_classic() + ggtitle("Palabras correlacionadas ANEP") + labs(x= "Coeficiente Phi - El tamaño y color indican fuerza de la correlación") + facet_wrap(~término_original) + scale_color_viridis_c()
bind_rows(correlaciones_phi %>% filter(item1 %in% c("competencia", "competencias")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "competencia/s"),
correlaciones_phi %>% filter(item1 %in% c("habilidades", "habilidad")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "habilidad/es")) %>% arrange(desc(correlation))
palabras_raras_ATD <- Documentos_tidy_ATD %>% count(word) %>% filter(n < 5)
correlaciones_phi_ATD <- Documentos_tidy_ATD %>%
count(word, línea) %>% anti_join(palabras_raras_ATD) %>%
pairwise_cor(word, línea, sort = T)
bind_rows(correlaciones_phi_ATD %>% filter(item1 %in% c("competencia", "competencias")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "competencia/s"),
correlaciones_phi_ATD %>% filter(item1 %in% c("habilidades", "habilidad")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "habilidad/es")) %>%
ggplot(aes(label = término, size =correlation, color = correlation)) +
geom_text_wordcloud(area_corr = TRUE, shape = "square") +
scale_size_area(max_size = 9) +
theme_classic() + ggtitle("Palabras correlacionadas ATD") + labs(x= "Coeficiente Phi - El tamaño y color indican fuerza de la correlación") + facet_wrap(~término_original) + scale_color_viridis_c()
bind_rows(correlaciones_phi_ATD %>% filter(item1 %in% c("competencia", "competencias")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "competencia/s"),
correlaciones_phi_ATD %>% filter(item1 %in% c("habilidades", "habilidad")) %>%
head(50) %>% select(-item1, término = item2) %>% mutate(término_original = "habilidad/es")) %>% arrange(desc(correlation))
líneas_habilidosas <- (Documentos_tidy %>% filter(word %in% c("habilidad", "habilidades")))$línea
"ANEP"
## [1] "ANEP"
Documentos %>% filter(línea %in% líneas_habilidosas)
líneas_habilidosas_ATD <- (Documentos_tidy_ATD %>% filter(word %in% c("habilidad", "habilidades")))$línea
"ATD"
## [1] "ATD"
Documentos_ATD %>% filter(línea %in% líneas_habilidosas_ATD)
líneas_competentes <- (Documentos_tidy %>% filter(word %in% c("competencia", "competencias")))$línea
"ANEP"
## [1] "ANEP"
Documentos %>% filter(línea %in% líneas_competentes)
líneas_competentes_ATD <- (Documentos_tidy_ATD %>% filter(word %in% c("competencia", "competencias")))$línea
"ATD"
## [1] "ATD"
Documentos_ATD %>% filter(línea %in% líneas_competentes_ATD)
Estos datos fueron analizados en un período breve de tiempo y de forma exploratoria. Eventualmente, este tema puede resultar de interés a otra persona. Esperando que pueda ser de utilidad, se brinda acceso en formato csv a:
Los documentos en su primer versión (los tres documentos segmentados en líneas).
Los documentos en formato tidy (los tres documentos segmentados en palabras).
Los resultados cuantitativos de LIWC-22.
Los materiales utilizados (EmoPro y Stadthagen).
Puede accederse a los materiales en este enlace. Los códigos utilizados pueden verse en este mismo documento. Quedo a abierto a culquier comunicación al respecto de este trabajo (nigelmanchini@gmail.com)
Bardach, L. y Klassen, R. M. (2020). Smart teachers, successful students? A systematic review of the literature on teachers’ cognitive abilities and teacher effectiveness. Educational Research Review, 30, 100312–. https://doi.org/10.1016/j.edurev.2020.100312
Bardach, L., Klassen, R.M. y Perry, N.E. (2022). Teachers’ Psychological Characteristics: Do They Matter for Teacher Effectiveness, Teachers’ Well-being, Retention, and Interpersonal Relations? An Integrative Review. Educational Psychology Review 34, 259–300. https://doi.org/10.1007/s10648-021-09614-9
Boyd, R. (2017). Psychological text analysis in the digital humanities. In S. Hai-Jew (Ed.), Data Analytics in Digital Humanities (pp. 161–189). Springer International Publishing. https://doi.org/10.1007/978-3-319-54499-1_7
Boyd, R. y Schwartz, H. (2021). Natural language analysis and the psychology of verbal behavior: The past, present, and future states of the field. Journal of Language and Social Psychology, 40(1), 1–21.
Bruns, B. y Luque, J. (2014). Profesores excelentes: cómo mejorar el aprendizaje en América Latina y el Caribe. Washington, DC: Banco Mundial.
Cornelius-White, J. (2007). Learner-Centered Teacher-Student Relationships Are Effective: A Meta-Analysis. Review of Educational Research, 77(1), 113–143. https://doi.org/10.3102/003465430298563
Edwards, T. y Holtzman, N. (2017). A meta-analysis of correlations between depression and first person singular pronoun use. Journal of Research in Personality, 68, 63-68. https://doi.org/10.1016/j.jrp.2017.02.005
Jerez, O., Orsini, C. y Hasbún, B. (2016). Atributos de una docencia de calidad en la educación superior: una revisión sistemática. Estudios Pedagógicos 42(3). 483-506.
Kennedy, B., Ashokkumar, A., Boyd, R., y Dehghani, M. (2021). Text analysis for psychology: Methods, principles, and practices. In M. Dehghani y R. Boyd (Eds.), The Handbook of Language Analysis in Psychology. Nueva York: Guilford Press.
Kim, L.E., Jörg, V. y Klassen, R.M. (2019). A Meta-Analysis of the Effects of Teacher Personality on Teacher Effectiveness and Burnout. Educational Psychology Review, 31, 163–195. https://doi.org/10.1007/s10648-018-9458-2
Lei, H., Cui, Y., y Chiu, M. (2017). The Relationship between Teacher Support and Students’ Academic Emotions: A Meta-Analysis. Frontiers in Psychology, 8, 2288. https://doi.org/10.3389/fpsyg.2017.02288
Chen, J. Qiu, L. Ho, M. (2020). A meta-analysis of linguistic markers of extraversion: Positive emotion and social process words. Journal of research in personality, 89, 104035. https://doi.org/10.1016/j.jrp.2020.104035
Manchini, N., Jiménez, Ó., y Ramos, N. R. (2022, Agosto 8). Teachers’ Soft Skills: a Scoping Review. https://doi.org/10.31234/osf.io/trjub
Martín, K. (1978, 29 de mayo). Paulo Freire: “La educación es siempre un quehacer político”. El País. https://elpais.com/diario/1978/05/20/sociedad/264463223_850215.html Moreno, C. (2009) Effective teachers – Professional and personal skills. Ensayos, 24. 35-46.
Quin, D. (2017). Longitudinal and Contextual Associations Between Teacher–Student Relationships and Student Engagement: A Systematic Review. Review of Educational Research, 87(2), 345–387. https://doi.org/10.3102/0034654316669434
R Core Team (2022). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. https://www.R-project.org/.
Ramírez-Esparza, N., Pennebaker, J. W., García, F.,y Suría, R. (2007). La psicología del uso de las palabras: un programa de computadora que analiza textos en español. Revista Mexicana de Psicología, 24(1), 85-99.
Roorda, D. L., Koomen, H.., Spilt, J. L., y Oort, F. J. (2011). The Influence of Affective Teacher–Student Relationships on Students’ School Engagement and Achievement: A Meta-Analytic Approach. Review of Educational Research, 81(4), 493–529. https://doi.org/10.3102/0034654311421793
RStudio Team (2020). RStudio: Integrated Development for R. RStudio, PBC, Boston, MA. http://www.rstudio.com.
Scheerens, van der Werf, G., & de Boer, H. (2020). Soft Skills in Education: Putting the evidence in perspective. Springer International Publishing. https://doi.org/10.1007/978-3-030-54787-5
Silge, J. y Robinson, D. (2016). tidytext: Text Mining and Analysis Using Tidy Data Principles in R. Journal of Open Source Software, 1(3). http://dx.doi.org/10.21105/joss.00037.
Stadthagen-Gonzalez, H., Imbault, C., Pérez Sánchez, M. A., y Brysbaert, M. (2017). Norms of valence and arousal for 14,031 Spanish words. Behavior Research Methods, 49, 111-123. https://doi.org/10.3758/s13428-015-0700-2
Tausczik, Y. y Pennebaker, J. (2010). The Psychological Meaning of Words: LIWC and Computerized Text Analysis Methods. Journal of Language and Social Psychology 29(1) 24 –54. https://doi.org/10.1177/0261927X09351676
Tenti, E., y Steinberg, C. . (2007). Características sociodemográficas y posición en la estructura social de los docentes de Argentina, Brasil y México. Pensamiento Educativo, Revista De Investigación Latinoamericana, 41(1), 223–253.
Thapa, A., Cohen, J., Guffey, S., y Higgins-D’Alessandro, A. (2013). A Review of School Climate Research. Review of Educational Research, 83(3), 357–385. https://doi.org/10.3102/0034654313483907
Wickham, H., Averick, M., Bryan, J., Chang, W., McGowan, L., François, R., Grolemund, G., Hayes, A., Henry, L., Hester, J., Kuhn, M., Pedersen, T., Miller, E., Bache, S., Müller, K., Ooms, J., Robinson, D., Seidel, D., Spinu, V., … Yutani, H. (2019). Welcome to the tidyverse. Journal of Open Source Software, 4(43), 1686.
Zhou, J., y Ye, J. (2020). Sentiment analysis in education research: a review of journal publications. Interactive Learning Environments, 1–13. https://doi.org/10.1080/10494820.2020.1826985