/* Genel yazı tipi ve sayfa ayarları */
body {
font-family: 'Libre Baskerville', 'Times New Roman', serif; /* Akademik serif yazı tipi */
font-size: 19px; /* Daha büyük yazı boyutu */
font-weight: 500; /* Yazılar daha belirgin */
background-color: #fffde7; /* Tereyağı sarısına yakın açık pastel sarı */
color: #4e342e; /* Daha koyu kahverengi tonu (yüksek kontrast için) */
}
/* Başlıklar */
h1, h2, h3 {
color: #f57f17; /* Doygun altın sarısı ton */
font-weight: 700; /* Daha kalın başlıklar */
text-transform: uppercase;
font-family: 'Lora', 'Georgia', serif; /* Akademik ve zarif serif başlık fontu */
}
/* İçindekiler tablosu */
.tocify {
background-color: #fff8e1; /* Tereyağı sarısı tonu */
border-radius: 6px;
padding: 12px;
font-family: 'Lato', sans-serif; /* Temiz sans-serif font */
font-size: 17px;
color: #3e2723; /* Koyu kahverengi metin */
font-weight: 600;
}
/* Kod bloklarının (chunk) arka planı */
pre {
background-color: #fff9c4 !important; /* Açık sarı arka plan */
color: #e65100 !important; /* Koyu kehribar kod yazısı */
padding: 14px;
border-radius: 8px;
font-family: 'Fira Code', 'Courier New', Courier, monospace;
font-size: 17px;
font-weight: 600;
}
/* Inline kodlar */
code {
background-color: #fff59d; /* Yumuşak sarı ton */
color: #bf360c; /* Derin kehribar */
padding: 4px 8px;
border-radius: 4px;
font-size: 17px;
font-weight: bold;
}
/* Grafik ve görseller */
img, .figure {
border: 2px solid #fbc02d; /* Doygun tereyağı sarısı çerçeve */
border-radius: 10px;
padding: 6px;
}library(dplyr)
library(psych)
library(ggplot2)
library(tidyr)
library(tidyverse)
library(QuantPsyc)
library(EFAtools)
library(EFA.MRFA)
library(EFA.dimensions)
library(knitr)
library(data.table)
library(lavaan)
library(lavaanPlot)
library(devtools)
library(DT)
library(tibble)
library(EFAfactors)
library(outliers)
library(foreign)
library(haven)
library(highr)
library(corrplot)
library(semptools)
library(semTools)
library(sur)
library(gtools)
library(irtoys)
library(kableExtra)
library(lattice)
library(ggfortify)
library(latticeExtra)
library(plotly)
library(flextable)
library(purrr)
library(rgl)
library(olsrr)
library(scatterplot3d)
library(broom)
library(GGally)
library(stargazer)
library(effectsize)
library(rockchalk)
library(quartets)
library(flextable)
library(apaTables)
library(officer)
library(MPsychoR)
library(Gifi)
library(mirt)
library(EGAnet)
library(eRm)
library(TAM)
library(ltm)
library(WrightMap)
library(cowplot)
library(reshape2)
library(gridExtra)
library(PerformanceAnalytics)
library(ggpmisc)Elinizde, PISA 2022 uygulamasına ait öğrenci veri seti olan PISA_STU_2021.rds dosyası bulunmaktadır. Bu veri setinde, öğrencilerin öğrenim gördüğü okul türleri STRATUM değişkeniyle temsil edilmekte olup toplamda 36 farklı okul türü yer almaktadır.
Veri seti:
Her bir okul türü (STRATUM) için öğrencilerin ortalama matematik puanlarını hesaplayınız.
Ortalama puanları grafiksel olarak görselleştiriniz.
Görselleştirmeyi yorumlayarak okul türleri arasında başarı düzeylerindeki farklılıkları açıklayınız.
Matematik başarısı için PV1MATH değişkenini kullanınız.
library(dplyr)
library(knitr)
library(kableExtra)
ortalama_matematik <- PISA_STU_2021 %>% group_by(STRATUM) %>% summarise(Ortalama_Matematik_Puani = mean(PV1MATH , na.rm = T)) %>% arrange(desc(Ortalama_Matematik_Puani))
ortalama_matematik %>% kable("html", caption = "Okul Türüne Gore Ortalama Matematik Puanları") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover"))| STRATUM | Ortalama_Matematik_Puani |
|---|---|
| TUR02 | 634.9970 |
| TUR03 | 598.9333 |
| TUR08 | 592.8508 |
| TUR19 | 574.7473 |
| TUR04 | 572.5428 |
| TUR09 | 564.2027 |
| TUR06 | 545.0522 |
| TUR20 | 538.6455 |
| TUR05 | 538.0505 |
| TUR10 | 533.0574 |
| TUR11 | 520.8034 |
| TUR28 | 519.8246 |
| TUR12 | 502.7373 |
| TUR13 | 490.5059 |
| TUR21 | 487.9825 |
| TUR29 | 485.9579 |
| TUR07 | 467.9172 |
| TUR14 | 465.9773 |
| TUR22 | 455.9994 |
| TUR15 | 447.8118 |
| TUR30 | 445.5359 |
| TUR23 | 433.7689 |
| TUR16 | 420.8510 |
| TUR32 | 415.7491 |
| TUR31 | 411.4161 |
| TUR27 | 407.8383 |
| TUR17 | 405.1208 |
| TUR24 | 399.1761 |
| TUR33 | 398.5024 |
| TUR34 | 396.7993 |
| TUR35 | 382.8453 |
| TUR18 | 376.2839 |
| TUR26 | 374.3712 |
| TUR25 | 371.4056 |
| TUR36 | 367.9095 |
| TUR01 | 300.3841 |
library(ggplot2)
library(plotly)
p <- ggplot(ortalama_matematik, aes(
x = reorder(STRATUM, Ortalama_Matematik_Puani),
y = Ortalama_Matematik_Puani,
text = paste("STRATUM: ", STRATUM,
"<br>Mean Score: ", round(Ortalama_Matematik_Puani, 1)))) +
geom_col(fill = "pink", width = 0.5) +
coord_flip() +
labs(title = "Okul Turune Gore Ortalama Matematik Puanlari",
x = "Okul Turu (STRATUM)",
y = "Ortalama Matematik Puani") +
theme_minimal(base_size = 16) +
theme(
axis.text.y = element_text(size = 8, margin = margin(r = 1)),
axis.text.x = element_text(size = 13),
axis.title = element_text(size = 14, face = "bold"),
plot.title = element_text(size = 18, face = "bold", hjust = 0.5),
plot.margin = margin(t = 1, r = 1, b = 1, l = 3, unit = "cm"))
ggplotly(p, tooltip = "text")“Okul Türüne Göre Ortalama Matematik Puanları” grafiğinde, 36 farklı okul türüne (STRATUM) ait öğrencilerin ortalama matematik puanları karşılaştırmalı olarak sunulmuştur.
En yüksek ortalama puan \(630\)’un üzerinde olup, bu değer TUR02 (635) okul türüne aittir. Onu sırasıyla TUR03 (598.9), TUR08 (592.9), TUR19 (574.7) ve TUR04 (572.5) takip etmektedir; bu okul türlerinde ortalama puanlar \(590\) ile \(630\) arasında değişmektedir.
Ortalama başarı düzeyinin orta grubu yaklaşık \(440–480\) puan aralığında toplanmakta olup TUR14 (466), TUR22 (456), TUR15 (447.8) ve TUR30 (445.5) gibi okul türleri bu aralıkta yer almaktadır.
En düşük ortalama ise yaklaşık \(300\) puan düzeyindedir ve bu değer TUR01 (300.4) okul türüne aittir.
Son sıradaki 9 okul türünün ortalama puanları \(400\)’ün altındadır.
Genel dağılım incelendiğinde, okul türleri arasında yaklaşık \(330\) puanlık bir fark gözlenmektedir. Bu durum, dağılımın geniş olduğunu ve başarı düzeyinde heterojenliğin bulunduğunu göstermektedir.
library(dplyr)
library(knitr)
library(kableExtra)
cinsiyet_matematik <- PISA_STU_2021 %>% group_by(STRATUM, ST004D01T) %>% summarise(Ortalama_Matematik = mean(PV1MATH, na.rm = T)) %>% ungroup()
cinsiyet_matematik %>% rename(Cinsiyet = ST004D01T, Okul_Turu = STRATUM) %>% kable("html", caption = "Okul Turu ve Cinsiyete Gore Ortalama Matematik Puanlari") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover"))| Okul_Turu | Cinsiyet | Ortalama_Matematik |
|---|---|---|
| TUR01 | 1 | 280.0016 |
| TUR01 | 2 | 309.6489 |
| TUR02 | 1 | 623.0346 |
| TUR02 | 2 | 644.4143 |
| TUR03 | 1 | 590.9008 |
| TUR03 | 2 | 606.2357 |
| TUR04 | 1 | 561.8456 |
| TUR04 | 2 | 583.0850 |
| TUR05 | 1 | 536.5682 |
| TUR05 | 2 | 540.2964 |
| TUR06 | 1 | 538.7400 |
| TUR06 | 2 | 558.3779 |
| TUR07 | 1 | 464.8282 |
| TUR07 | 2 | 475.6397 |
| TUR08 | 1 | 580.9327 |
| TUR08 | 2 | 606.6183 |
| TUR09 | 1 | 557.3546 |
| TUR09 | 2 | 573.6922 |
| TUR10 | 1 | 527.6821 |
| TUR10 | 2 | 539.9259 |
| TUR11 | 1 | 507.6526 |
| TUR11 | 2 | 541.0664 |
| TUR12 | 1 | 490.9407 |
| TUR12 | 2 | 517.7432 |
| TUR13 | 1 | 477.8737 |
| TUR13 | 2 | 509.8257 |
| TUR14 | 1 | 459.1643 |
| TUR14 | 2 | 475.1009 |
| TUR15 | 1 | 437.6205 |
| TUR15 | 2 | 460.1870 |
| TUR16 | 1 | 410.0459 |
| TUR16 | 2 | 432.0530 |
| TUR17 | 1 | 394.1978 |
| TUR17 | 2 | 417.2465 |
| TUR18 | 1 | 387.2907 |
| TUR18 | 2 | 369.0940 |
| TUR19 | 1 | 572.4680 |
| TUR19 | 2 | 578.3087 |
| TUR20 | 1 | 531.3744 |
| TUR20 | 2 | 548.7132 |
| TUR21 | 1 | 476.9900 |
| TUR21 | 2 | 491.9626 |
| TUR22 | 1 | 457.5711 |
| TUR22 | 2 | 455.5030 |
| TUR23 | 1 | 430.8378 |
| TUR23 | 2 | 442.7877 |
| TUR24 | 1 | 390.1296 |
| TUR24 | 2 | 411.9475 |
| TUR25 | 1 | 373.4251 |
| TUR25 | 2 | 368.8669 |
| TUR26 | 2 | 374.3712 |
| TUR27 | 1 | 412.6138 |
| TUR27 | 2 | 397.3691 |
| TUR28 | 1 | 518.9733 |
| TUR28 | 2 | 519.8565 |
| TUR29 | 1 | 437.5619 |
| TUR29 | 2 | 495.3481 |
| TUR30 | 1 | 437.9057 |
| TUR30 | 2 | 455.2856 |
| TUR31 | 1 | 411.4772 |
| TUR31 | 2 | 411.1891 |
| TUR32 | 1 | 398.2021 |
| TUR32 | 2 | 430.1509 |
| TUR33 | 1 | 388.5370 |
| TUR33 | 2 | 404.2178 |
| TUR34 | 1 | 388.3935 |
| TUR34 | 2 | 399.1229 |
| TUR35 | 1 | 368.7932 |
| TUR35 | 2 | 390.7958 |
| TUR36 | 1 | 357.5165 |
| TUR36 | 2 | 372.7062 |
library(dplyr)
PISA_STU_2021$ST004D01T <- as_factor(PISA_STU_2021$ST004D01T)
PISA_STU_2021$ST004D01T <- recode(PISA_STU_2021$ST004D01T,
"Male" = "Erkek",
"Female" = "Kız")library(ggplot2)
library(plotly)
library(dplyr)
library(haven)
PISA_STU_2021$ST004D01T <- as_factor(PISA_STU_2021$ST004D01T)
cinsiyet_matematik <- PISA_STU_2021 %>% group_by(STRATUM, ST004D01T) %>% summarise(Ortalama_Matematik = mean(PV1MATH, na.rm = T)) %>% ungroup()
p <- ggplot(cinsiyet_matematik, aes(x = STRATUM,
y = Ortalama_Matematik,
fill = ST004D01T,
text = paste("Okul Turu: ", STRATUM,
"<br>Cinsiyet: ", ST004D01T,
"<br>Ortalama: ", round(Ortalama_Matematik, 1)))) +
geom_col(position = "dodge", width = 0.5) +
labs(title = "Okul Turu ve Cinsiyete Gore Ortalama Matematik Puanlari", x = "Okul Turu (STRATUM)", y = "Ortalama Matematik Puani", fill = "Cinsiyet") +
theme_minimal(base_size = 14) +
theme(axis.text.x = element_text(angle = 45, hjust = 1))
ggplotly(p, tooltip = "text")“Okul Türü ve Cinsiyete Göre Ortalama Matematik Puanları” grafiğinde, farklı okul türlerine (STRATUM) göre kız ve erkek öğrencilerin ortalama matematik puanları karşılaştırmalı olarak sunulmaktadır.
Genel olarak, pek çok okul türünde erkek öğrencilerin ortalama puanları kız öğrencilere kıyasla daha yüksektir.
Örneğin; TUR03 (\(x_{erkek} = 606.2\), \(x_{kiz} = 690.9\)), TUR04 (\(x_{erkek} = 583.1\), \(x_{kiz} = 561.8\)), TUR08 (\(x_{erkek} = 606.6\), \(x_{kiz} = 580.9\)) ve TUR09 (\(x_{erkek} = 573.7\), \(x_{kiz} = 557.4\)) gibi okul türlerinde erkek öğrenciler, kız öğrencilere kıyasla belirgin şekilde daha yüksek ortalama matematik puanına sahiptir.
Bununla birlikte, TUR18 (\(x_{erkek} = 369.1\), \(x_{kiz} = 387.3\)), TUR25 (\(x_{erkek} = 368.9\), \(x_{kiz} = 373.4\)) gibi bazı okul türlerinde kız öğrencilerin puanları erkek öğrencilerle ya denk düzeyde ya da marjinal olarak daha yüksektir. Ancak bu durum genelleştirilebilir bir eğilimden çok istisnai örnekler olarak kalmaktadır.
Bu bağlamda, elde edilen bulgular okul türü temelinde cinsiyetin matematik başarısı üzerinde istatistiksel olarak değişken etkiler gösterebildiğini ortaya koymaktadır.
library(ggplot2)
veri_temiz <- na.omit(PISA_STU_2021[, c("ANXMAT", "PV1MATH")])
r <- cor(veri_temiz$ANXMAT, veri_temiz$PV1MATH)
ggplot(veri_temiz, aes(x = ANXMAT, y = PV1MATH)) +
geom_point(alpha = 0.4, color = "blue") +
geom_smooth(method = "lm", se = TRUE, color = "darkred", linetype = "dashed") +
stat_poly_eq(
aes(label = paste(..eq.label.., ..p.value.label.., sep = "~~~")),
formula = y ~ x,
parse = TRUE,
label.x = "right",
label.y = "top",
size = 3.5) +
annotate("text", x = min(veri_temiz$ANXMAT, na.rm = TRUE),
y = max(veri_temiz$PV1MATH, na.rm = TRUE),
label = paste("r =", round(r, 2)),
hjust = 0, vjust = 1, size = 5, fontface = "bold") +
labs(title = "Matematik Kaygisi ile Matematik Basarisi Arasindaki Iliski", x = "Matematik Kaygisi (ANXMAT)", y = "Matematik Basarisi (PV1MATH)") +
theme_minimal(base_size = 14)“Matematik Kaygısı ile Matematik Başarısı Arasındaki İlişki” grafiğinde, öğrencilerin matematik kaygısı (ANXMAT) ile matematik başarısı (PV1MATH) arasındaki ilişki incelenmiştir. Hesaplanan Pearson korelasyon katsayısı \(r = -0.12\) olup bu değer, iki değişken arasında zayıf düzeyde ve negatif yönlü bir ilişki olduğunu göstermektedir.
Bu durum, öğrencilerin matematik kaygısı arttıkça matematik başarılarının genellikle azalma eğiliminde olduğunu, ancak bu ilişkinin güçlü olmadığını ifade eder.
Regresyon doğrusu da negatif eğimli olup, bu yönelimi grafiksel olarak desteklemektedir. Sonuç olarak, istatistiksel olarak manidar olsa da ilişki zayıf düzeydedir ve tek başına güçlü bir belirleyici olarak değerlendirilemez.
library(ggplot2)
library(dplyr)
veri_temiz <- PISA_STU_2021 %>% select(STRATUM, ANXMAT, PV1MATH) %>% filter(!is.na(ANXMAT) & !is.na(PV1MATH))
ggplot(veri_temiz, aes(x = ANXMAT, y = PV1MATH)) +
geom_point(alpha = 0.4, color = "blue", size = 0.9) +
geom_smooth(method = "lm", se = FALSE, color = "darkred") +
stat_poly_eq(
aes(label = paste(..eq.label.., ..p.value.label.., sep = "~~~")),
formula = y ~ x,
parse = TRUE,
label.x = "right",
label.y = "top",
size = 3.5) +
facet_wrap(~ STRATUM, ncol = 3, scales = "free_y") +
labs(title = "Her Okul Turu icin Matematik Kaygisi ve Basarisi Arasindaki Regresyon",
x = "Matematik Kaygisi (ANXMAT)",
y = "Matematik Basarisi (PV1MATH)") +
theme_minimal(base_size = 13) +
theme(strip.text = element_text(face = "bold", size = 12),
plot.title = element_text(hjust = 0.5, face = "bold", size = 16),
axis.text = element_text(size = 10))“Her Okul Türü İçin Matematik Kaygısı ve Başarısı Arasındaki Regresyon” grafiğine ait analiz sonuçlarına göre, her bir okul türü için ayrı ayrı yapılan basit doğrusal regresyon analizleri, öğrencilerin matematik kaygısı düzeyleri ile matematik başarıları arasındaki ilişkiyi ortaya koymayı amaçlamaktadır. Grafiklerde gösterilen doğrusal regresyon denklemleri ve p-değerleri, bu ilişkinin istatistiksel anlamlılığını ve yönünü değerlendirmek için kullanılmıştır. İncelenen 36 okul türünün yaklaşık yarısında negatif yönlü ve istatistiksel olarak manidar ilişkiler gözlemlenmiştir. Özellikle TUR11, TUR13, TUR15, TUR14, TUR36 gibi okul türlerinde \(p-değeri < 0.001\) olup, bu da yüksek düzeyde istatistiksel anlamlılık göstermektedir. Bu durum, bu okul türlerinde matematik kaygısı arttıkça matematik başarısının manidar şekilde azaldığını göstermektedir. Bu regresyon eğrilerinin eğimleri (b katsayıları) da negatif olup, örneğin TUR15 için \(y = 454 – 9.48x\), kaygı puanı her bir birim arttığında matematik başarısında yaklaşık \(9.48\) puanlık bir azalma beklenmektedir.
Buna karşın bazı okul türlerinde (örneğin; TUR01, TUR03, TUR28, TUR34) ilişki istatistiksel olarak manidar değildir (\(p > 0.05\)) ve eğim katsayısı sıfıra yakın ya da pozitif olabilir. Bu durum, bu okul türlerinde matematik kaygısı ile başarı arasında belirgin bir doğrusal ilişkinin olmadığını ya da modelin bu ilişkiyi yansıtmakta yetersiz olduğunu göstermektedir. Özellikle TUR24 (\(p = 0.002\)) ve TUR30 (\(p = 0.017\)) gibi bazı gruplarda p-değeri manidar olmakla birlikte, katsayı büyüklükleri farklılık göstermektedir. Bu da matematik kaygısının başarı üzerindeki etkisinin okul türüne göre değişkenlik gösterdiğini ortaya koymaktadır. Bu bağlamda okul türü, matematik kaygısı ile başarı arasındaki ilişkinin gücünü ve yönünü farklılaştıran potansiyel bir moderatör değişken olarak değerlendirilebilir.
library(dplyr)
library(lavaan)
library(semPlot)
library(ggplot2)
library(interactions)
veri_TUR02 <- PISA_STU_2021 %>% filter(STRATUM == "TUR02") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()
veri_TUR12 <- PISA_STU_2021 %>% filter(STRATUM == "TUR12") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()
veri_TUR22 <- PISA_STU_2021 %>% filter(STRATUM == "TUR22") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()
veri_TUR32 <- PISA_STU_2021 %>% filter(STRATUM == "TUR32") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()secili_veri <- PISA_STU_2021 %>% filter(STRATUM %in% c("TUR02", "TUR12", "TUR22", "TUR32")) %>% select(STRATUM, ANXMAT, PV1MATH, STUDYHMW)korelasyon_veri <- secili_veri %>% select(ANXMAT, PV1MATH, STUDYHMW)
cor_matrix <- cor(korelasyon_veri, use = "complete.obs")
corrplot::corrplot(cor_matrix, method = "color", type = "upper", addCoef.col = "black", tl.col = "black", number.cex = 0.8, tl.srt = 45)Yapılan korelasyon analizine göre, öğrencilerin matematik kaygısı ile matematik başarısı arasında negatif yönlü ve düşük düzeyde bir ilişki gözlemlenmiştir (\(r = -0.15\)). Bu sonuç, matematik kaygısı arttıkça matematik başarısının azalma eğiliminde olduğunu göstermektedir. Ancak bu ilişkinin gücü zayıf düzeydedir ve bu durum, başarı düzeyini etkileyen başka değişkenlerin de önemli olabileceğine işaret eder.
Matematik kaygısı ile ders çalışma süresi arasında tespit edilen korelasyon değeri oldukça düşüktür (\(r = -0.03\)) ve manidar bir ilişki göstermemektedir. Bu bulgu, öğrencilerin ders çalışma sürelerinin doğrudan kaygı düzeyleriyle sistematik olarak ilişkili olmadığını ortaya koymaktadır. Başka bir deyişle, öğrencilerin ders çalışmaya ayırdıkları zaman, onların kaygı düzeylerini azaltma ya da artırma yönünde belirgin bir rol oynamamaktadır. Benzer şekilde, matematik başarısı ile ders çalışma süresi arasındaki ilişki de oldukça zayıftır (\(r = -0.02\)) ve istatistiksel olarak anlamlı sayılabilecek düzeyde değildir. Bu durum, öğrencilerin başarı düzeyleri ile ne kadar süre ders çalıştıkları arasında doğrudan bir ilişki kurulamayacağını düşündürmektedir. Ancak bu bulgunun tek başına değerlendirilmesi yerine çok değişkenli modellerle (örneğin; regresyon analizleriyle) desteklenmesi önerilir.
Elde edilen sonuçlar, değişkenler arasında beklenen doğrultuda ilişkiler olduğunu ancak bu ilişkilerin oldukça düşük düzeyde gerçekleştiğini göstermektedir. Matematik kaygısının başarıyı olumsuz etkilediği yönündeki bulgular literatürle tutarlılık gösterse de ilişkinin zayıf düzeyde olması, bu etkiyi şekillendiren başka aracı veya düzenleyici değişkenlerin varlığını düşündürmektedir. Bu bağlamda, özellikle ders çalışma süresinin bu ilişkideki aracı ya da düzenleyici rolünün daha ileri analizlerle (örneğin; moderasyon veya aracılık analizi) sınanması, nedensel mekanizmaların daha sağlıklı bir şekilde anlaşılmasına katkı sağlayacaktır.
GGally::ggpairs(korelasyon_veri, lower = list(continuous = "smooth"), upper = list(continuous = "cor"), diag = list(continuous = "densityDiag"))Her iki grafik çıktısı da, matematik kaygısı ile matematik başarısı arasında manidar ve negatif yönlü bir ilişki olduğunu ortaya koymaktadır. chart.Correlation fonksiyonunda korelasyon katsayısı \(r = -0.15\) olarak hesaplanmış ve bu ilişki istatistiksel olarak manidar bulunmuştur (\(p < 0.001\)). Bu bulgu, öğrencilerin kaygı düzeylerinin arttıkça başarı puanlarının düştüğünü göstermektedir. Ancak korelasyon katsayısının mutlak değerce küçük olması, bu ilişkinin zayıf düzeyde olduğunu ve kaygının başarı üzerindeki etkisinin sınırlı olabileceğini ortaya koymaktadır.
Diğer yandan, ders çalışma süresi ile matematik kaygısı (\(r = -0.03\)) ve ders çalışma süresi ile matematik başarısı (\(r = -0.019\)) arasındaki ilişkiler istatistiksel olarak manidar değildir ve korelasyon katsayıları sıfıra oldukça yakındır. Bu durum, öğrencilerin okul öncesi/sonrası ders çalışma sürelerinin ne kaygı düzeylerini ne de akademik başarılarını doğrudan etkilediğine dair manidar bir bulgunun bulunmadığını göstermektedir. Başka bir ifadeyle, öğrencinin daha fazla çalışıyor olması onun kaygı düzeyini azaltmakta ya da başarıyı artırmakta belirleyici bir faktör olmayabilir.
library(car)
dw_model <- lm(PV1MATH ~ ANXMAT + STUDYHMW, data = secili_veri_temiz)
durbinWatsonTest(dw_model)## lag Autocorrelation D-W Statistic p-value
## 1 -0.04497314 2.087837 0.272
## Alternative hypothesis: rho != 0
Yukarıdaki çıktıda, matematik kaygısı (ANXMAT) ve ders çalışma süresi (STUDYHMW) değişkenleri ile matematik başarısı (PV1MATH) arasındaki ilişkiyi test eden çoklu doğrusal regresyon modeline yönelik Durbin-Watson (DW) testi sonuçları raporlanmaktadır. Bu test, regresyon analizinde temel varsayımlardan biri olan bağımsız hata terimleri (no autocorrelation) varsayımının geçerli olup olmadığını değerlendirir.
Elde edilen Durbin-Watson istatistiği yaklaşık \(2.0878\) olup, ideal değer olan 2’ye oldukça yakındır. Bu, modelin artık terimleri (residuals) arasında otokorelasyon olmadığını göstermektedir. Ayrıca testin p-değeri \(0.264\) olup, bu değer \(0.05\) anlamlılık düzeyinden büyük olduğu için, sıfır otokorelasyon varsayımı reddedilemez. Başka bir ifadeyle, hata terimleri arasında anlamlı bir bağımlılık ilişkisi bulunmamaktadır. Bu bulgu, modelin geçerliğini destekleyen önemli bir göstergedir. Otokorelasyonun olmaması, regresyon katsayılarının standart hatalarının güvenilir olduğu ve sonuçların yorumlanabilirliğinin yüksek olduğu anlamına gelir.
Yukarıda sunulan “Residuals vs Fitted” (Artıklar ve Tahmin Edilen Değerler) grafiği, çoklu doğrusal regresyon modeline ilişkin temel varsayımlardan biri olan doğrusallık (linearity) ve sabit varyans (homoskedastisite) varsayımlarının sağlanıp sağlanmadığını değerlendirmek amacıyla kullanılmıştır. Grafik, modelde kullanılan bağımsız değişkenler olan matematik kaygısı (ANXMAT) ve ders çalışma süresi (STUDYHMW) ile bağımlı değişken olan matematik başarısı (PV1MATH) arasındaki ilişkiye dayalı olarak oluşturulmuştur.
Grafikte, yatay eksende modele ait tahmin edilen değerler (fitted values), düşey eksende ise bu tahminlere karşılık gelen hata terimleri (residuals) yer almaktadır. Artıkların yatay eksene göre rastlantısal ve dağınık bir şekilde dağıldığı gözlemlenmektedir. Bu durum, modelde doğrusal ilişki varsayımının büyük ölçüde sağlandığını göstermektedir. Özellikle artıklar belirgin bir desen ya da eğilim izlememekte, bu da modelin sistematik bir hatadan muaf olduğunu düşündürmektedir.
Ayrıca artıkların varyansında ciddi bir artış ya da azalma eğilimi görülmemektedir. Artıkların saçılımı tüm tahmin değerleri boyunca benzer genişlikte kalmaktadır. Bu gözlem, regresyon analizinde önemli bir varsayım olan homoskedastisite (sabit varyans) varsayımının da sağlandığını göstermektedir. Eğer bu varsayım bozulmuş olsaydı, artıklar tahmin değerlerine bağlı olarak açılan ya da daralan bir fan görünümünde olurdu. Ancak, grafikte birkaç aykırı gözleme (örneğin; 938, 3110, 51) ait etiketlerin bulunması, modelin bu bireyler üzerinde daha yüksek hata ürettiğini göstermektedir. Bu durum, modelin doğruluğu açısından ciddi bir tehdit oluşturmamakla birlikte, bu bireylerin veri setinde ayrı bir özellik taşıyıp taşımadıklarının incelenmesi faydalı olabilir.
md <- mahalanobis(korelasyon_veri, center = colMeans(korelasyon_veri), cov = cov(korelasyon_veri))
alpha <- .001
cutoff <- (qchisq(p = 1 - alpha, df = ncol(korelasyon_veri)))
ucdegerler<-which(md>cutoff)
ucdegerler## integer(0)
Yukarıda yer alan grafik, çoklu doğrusal regresyon modeline ilişkin hata terimlerinin (residuals) dağılımını değerlendirmek amacıyla oluşturulmuş olan Q-Q (Quantile-Quantile) plotudur. Bu grafik, modelin temel varsayımlarından biri olan hata terimlerinin normal dağılıma uygunluğu (normality of residuals) varsayımını test etmek için kullanılmaktadır.
Grafikte, yatay eksende teorik kuantiller, düşey eksende ise modelden elde edilen standartlaştırılmış artıklar (standardized residuals) yer almaktadır. Eğer hata terimleri normal dağılıma sahipse, gözlemler diyagonal referans çizgisi boyunca doğrusal bir şekilde hizalanmalıdır. Bu örnekte, gözlem noktalarının büyük çoğunluğu diyagonal çizgi etrafında sıralanmakta olup, bu durum hata terimlerinin normal dağılıma büyük ölçüde uygun olduğunu göstermektedir.
Ancak uç noktalarda (özellikle \(-2\) ve \(+2\) z-skoru üzerindeki bölgelerde) kuyruk sapmaları (tail deviations) gözlemlenmektedir. Bu sapmalar, bazı gözlemlerin modelden beklenenden daha büyük ya da küçük hata terimleri ürettiğini göstermektedir. Örneğin; 51, 308 ve 3110 numaralı gözlemler, normal dağılım varsayımından sapmaya katkıda bulunan potansiyel aykırı değerler olarak öne çıkmaktadır. Yine de bu sapmalar modelin genel geçerliğini tehdit edecek düzeyde değildir.
Yukarıdaki grafik, çoklu doğrusal regresyon analizine ilişkin olarak modelin hata terimlerinin varyans yapısını değerlendirmek amacıyla oluşturulan Scale-Location (ya da Spread-Location) grafiğidir. Bu grafik, özellikle regresyon analizinde önemli varsayımlardan biri olan homoskedastisite yani sabit hata varyansı varsayımının sağlanıp sağlanmadığını görsel olarak incelemek için kullanılır.
Grafikte yatay eksende modelin tahmin ettiği (fitted) değerler, düşey eksende ise artıkların kareköklenmiş ve standartlaştırılmış değerleri yer almaktadır. Eğer homoskedastisite varsayımı sağlanıyorsa, gözlemlerin bu eksenler boyunca homojen ve rastgele dağılması beklenir. Grafik üzerindeki noktalar genel olarak yatay eksen boyunca dağılmış olup, varyansın sabit olduğu izlenimini vermektedir. Kırmızı eğri çizgi (loess smoothing), artıkların yayılımındaki genel eğilimi göstermekte ve bu eğri büyük ölçüde yatay kalmaktadır. Bu durum, modelin tahmin hatalarının varyansında sistematik bir artış ya da azalış olmadığını göstermektedir. Öte yandan, uç noktalarda (örneğin; tahmini başarı puanı 470’in altında ve 520’nin üstünde olan bireylerde) kısmi bir yayılma farklılığı gözlemlenmekte; bu da bazı gözlem gruplarında varyansın hafifçe değiştiğine işaret edebilir. Ayrıca 398, 51 ve 3110 numaralı gözlemler, yayılımın dış sınırlarında yer almakta ve potansiyel aykırı değerler olarak dikkate alınabilir.
library(MVN)
sonuc <- mvn(data = korelasyon_veri, mvn_test = "mardia")
print(sonuc$multivariateNormality)## NULL
## $multivariate_normality
## Test Statistic p.value Method MVN
## 1 Mardia Skewness 32.598 <0.001 asymptotic ✗ Not normal
## 2 Mardia Kurtosis -2.449 0.014 asymptotic ✗ Not normal
##
## $univariate_normality
## Test Variable Statistic p.value Normality
## 1 Anderson-Darling ANXMAT 7.303 <0.001 ✗ Not normal
## 2 Anderson-Darling PV1MATH 1.339 0.002 ✗ Not normal
## 3 Anderson-Darling STUDYHMW 12.132 <0.001 ✗ Not normal
##
## $descriptives
## Variable n Mean Std.Dev Median Min Max 25th 75th Skew
## 1 ANXMAT 658 0.606 1.237 0.639 -2.394 2.635 -0.204 1.284 -0.205
## 2 PV1MATH 658 488.838 92.132 484.905 237.019 769.619 422.611 546.376 0.253
## 3 STUDYHMW 658 5.980 3.094 6.000 0.000 10.000 4.000 9.000 -0.299
## Kurtosis
## 1 2.961
## 2 2.758
## 3 2.061
##
## $data
## # A tibble: 658 × 3
## ANXMAT PV1MATH STUDYHMW
## <dbl+lbl> <dbl> <dbl+lbl>
## 1 -0.117 580. 10 [10 or more times of study per week]
## 2 -0.117 508. 2 [2 times of studying per week]
## 3 -1.66 389. 10 [10 or more times of study per week]
## 4 0.825 440. 0 [No studying]
## 5 0.407 606. 5 [5 times of studying per week]
## 6 0.825 513. 1 [1 time of studying per week]
## 7 -0.270 597. 8 [8 times of studying per week]
## 8 1.43 469. 3 [3 times of studying per week]
## 9 -0.501 561. 10 [10 or more times of study per week]
## 10 0.789 474. 7 [7 times of studying per week]
## # ℹ 648 more rows
##
## $subset
## NULL
##
## $outlierMethod
## [1] "none"
##
## attr(,"class")
## [1] "mvn"
## ANXMAT PV1MATH STUDYHMW
## ANXMAT 1 NA NA
## PV1MATH NA 1.00 -0.02
## STUDYHMW NA -0.02 1.00
Yukarıdaki korelasyon matrisi, öğrencilerin matematik kaygısı (ANXMAT), matematik başarısı (PV1MATH) ve ders çalışma süresi (STUDYHMW) değişkenleri arasındaki doğrusal ilişkileri Pearson korelasyon katsayıları aracılığıyla göstermektedir. Korelasyon katsayıları -1 ile +1 arasında değer alır ve sıfıra yakın değerler, değişkenler arasında manidar bir doğrusal ilişki olmadığını gösterir. Analiz sonucunda, matematik kaygısı ile matematik başarısı arasında negatif yönlü ve zayıf düzeyde bir ilişki gözlenmiştir (\(r = -0.15\)). Bu sonuç, öğrencilerin kaygı düzeyi arttıkça matematik başarısının düşme eğiliminde olduğunu ortaya koymaktadır. Ancak korelasyon katsayısının düşük olması, bu ilişkinin istatistiksel olarak manidar olsa bile oldukça zayıf bir düzeyde gerçekleştiğini göstermektedir. Başka bir ifadeyle, başarı üzerinde kaygının etkisi sınırlı olabilir ve araya giren başka değişkenlerin rolü önem kazanabilir.
Matematik kaygısı ile ders çalışma süresi arasındaki korelasyon katsayısı ise \(r = -0.03\) olup, bu değişkenler arasında neredeyse hiç doğrusal ilişki olmadığını göstermektedir. Aynı şekilde, matematik başarısı ile ders çalışma süresi arasındaki korelasyon da oldukça düşüktür (\(r = -0.02\)). Bu sonuçlar, öğrencilerin ders çalışma sürelerinin ne kaygı düzeyleri ne de başarılarıyla manidar bir doğrusal ilişki içerisinde olmadığını düşündürmektedir. Genel olarak, bu korelasyon matrisi, incelenen değişkenler arasında yalnızca matematik kaygısı ile başarı arasında zayıf bir negatif ilişki olduğunu; diğer ikili ilişkilerin ise istatistiksel ve pratik açıdan manidar düzeyde olmadığını ortaya koymaktadır. Bu bulgular, özellikle çok değişkenli modellerde etkileşim, aracı veya düzenleyici değişken analizlerinin daha açıklayıcı sonuçlar verebileceğine işaret etmektedir.
library(stargazer)
# 1. Toplam etki (X → Y)
fit <- lm(PV1MATH ~ ANXMAT, data = secili_veri_temiz)
# 2. YOL A (X → M)
fita <- lm(STUDYHMW ~ ANXMAT, data = secili_veri_temiz)
# 3. YOL B (X + M → Y)
fitb <- lm(PV1MATH ~ ANXMAT + STUDYHMW, data = secili_veri_temiz)
# 4. YOL C – ters yol (M → X, Y kontrol edilerek)
fitc <- lm(ANXMAT ~ PV1MATH + STUDYHMW, data = secili_veri_temiz)
stargazer(fit, fita, fitb, fitc, type = "text", title = "Baron ve Kenny Yöntemi ile Aracılık Analizi", digits = 2, font.size = "tiny")##
## Baron ve Kenny Yöntemi ile Aracılık Analizi
## =========================================================================================================
## Dependent variable:
## -------------------------------------------------------------------------------------
## PV1MATH STUDYHMW PV1MATH ANXMAT
## (1) (2) (3) (4)
## ---------------------------------------------------------------------------------------------------------
## ANXMAT -11.46*** -0.07 -11.51***
## (2.87) (0.10) (2.88)
##
## PV1MATH -0.002***
## (0.001)
##
## STUDYHMW -0.72 -0.01
## (1.15) (0.02)
##
## Constant 495.79*** 6.03*** 500.10*** 1.70***
## (3.96) (0.13) (7.98) (0.28)
##
## ---------------------------------------------------------------------------------------------------------
## Observations 658 658 658 658
## R2 0.02 0.001 0.02 0.02
## Adjusted R2 0.02 -0.001 0.02 0.02
## Residual Std. Error 91.10 (df = 656) 3.09 (df = 656) 91.15 (df = 655) 1.22 (df = 655)
## F Statistic 15.89*** (df = 1; 656) 0.58 (df = 1; 656) 8.13*** (df = 2; 655) 8.30*** (df = 2; 655)
## =========================================================================================================
## Note: *p<0.1; **p<0.05; ***p<0.01
Baron ve Kenny’nin (1986) klasik aracılık testi çerçevesinde yürütülen regresyon analizlerinin sonuçları yukarıda sunulmaktadır. Bu analizde, ANXMAT (matematik kaygısı) bağımsız değişken, PV1MATH (matematik başarısı) bağımlı değişken ve STUDYHMW (ders çalışma süresi) aracı değişken olarak modellenmiştir. Test, aracılık ilişkisini değerlendiren dört aşamalı modele dayanmaktadır.
1. Aşama – Toplam Etki (Model 1): İlk modele göre, matematik kaygısı (ANXMAT) değişkeninin matematik başarısı (PV1MATH) üzerindeki doğrudan etkisi istatistiksel olarak manidardır (\(β = -11.46\), \(p < .001\)). Bu bulgu, öğrencilerin kaygı düzeyleri arttıkça başarılarının manidar düzeyde azaldığını göstermektedir. Modelin açıklayıcılığı ise sınırlı olup \(R² = .02\) düzeyindedir.
2. Aşama – X’in M üzerindeki etkisi (Model 2): İkinci modele göre, ANXMAT değişkeni STUDYHMW (ders çalışma süresi) üzerinde manidar bir etkiye sahip değildir (\(β = -0.07\), \(p > .05\)). Bu bulgu, kaygı düzeyi ile ders çalışma süresi arasında manidar bir ilişki olmadığını göstermektedir. Ayrıca, modelin açıklayıcılığı yok denecek kadar azdır (\(R² = .001\)).
3. Aşama – X ve M birlikte Y’yi yordadığında (Model 3): Üçüncü modelde hem ANXMAT hem de STUDYHMW, PV1MATH değişkeni üzerine birlikte dahil edilmiştir. Burada, ANXMAT değişkeni yine manidar bir yordayıcıdır (\(β = -11.51\), \(p < .001\)), ancak STUDYHMW değişkeninin etkisi manidar değildir (\(β = -0.72\), \(p > .05\)). Bu bulguya göre, aracı değişken olan ders çalışma süresi başarı üzerinde manidar bir etki göstermemektedir. Modelin açıklayıcılığı yine sınırlıdır (\(R² = .02\)).
4. Aşama – Ters Yol (Model 4): Son modelde, ANXMAT değişkeni bağımlı değişken olarak modellenmiş ve PV1MATH ile STUDYHMW değişkenlerinin ANXMAT üzerindeki etkileri test edilmiştir. Model sonuçlarına göre, yalnızca PV1MATH değişkeni manidardır (\(β = -0.002\), \(p < .001\)), ancak bu model aracılık etkisini değerlendirme açısından doğrudan gerekli değildir ve yalnızca yapısal kontrol amacı taşır.
Dolayısıyla, STUDYHMW değişkeni ANXMAT ile PV1MATH arasındaki ilişkide aracılık rolü oynamamaktadır. Baron ve Kenny yaklaşımı uyarınca aracılık etkisinin ortaya çıkabilmesi için, X’in M üzerindeki etkisinin manidar olması ve M’nin Y üzerinde (X kontrol edildiğinde) manidar bir etkisinin bulunması beklenir. Bu koşullar sağlanmadığı için bu modelde aracılık etkisi gözlenmemektedir.
#Sobel Test
library(multilevel)
sobel(secili_veri_temiz$ANXMAT, secili_veri_temiz$PV1MATH, secili_veri_temiz$STUDYHMW)## $`Mod1: Y~X`
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 6.02516568 0.13439108 44.8330782 6.554045e-202
## pred -0.07409824 0.09764781 -0.7588316 4.482259e-01
##
## $`Mod2: Y~X+M`
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 6.4352125548 0.671472472 9.5837325 1.903832e-20
## pred -0.0835757152 0.098869611 -0.8453125 3.982451e-01
## med -0.0008270648 0.001326931 -0.6232914 5.333100e-01
##
## $`Mod3: M~X`
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 495.78568 3.956149 125.320271 0.000000e+00
## pred -11.45917 2.874516 -3.986468 7.459625e-05
##
## $Indirect.Effect
## [1] 0.009477472
##
## $SE
## [1] 0.01539026
##
## $z.value
## [1] 0.6158099
##
## $N
## [1] 658
Yukarıda sunulan Sobel testi sonuçları, ANXMAT (matematik kaygısı) değişkeninin PV1MATH (matematik başarısı) üzerindeki etkisinde STUDYHMW (ders çalışma süresi) değişkeninin aracı bir rol oynayıp oynamadığını test etmektedir. Sobel testi, aracılık (mediation) ilişkisinin istatistiksel anlamlılığını dolaylı etki üzerinden değerlendirir.
Sobel testi sonucunda elde edilen z değeri (\(z = 0.62\)) anlamlılık düzeyi açısından istatistiksel sınırların altında kalmaktadır. Bu durum, STUDYHMW (ders çalışma süresi) değişkeninin, ANXMAT (matematik kaygısı) ile PV1MATH (matematik başarısı) arasındaki ilişkide anlamlı bir aracılık rolü üstlenmediğini göstermektedir. Diğer bir deyişle, öğrencilerin ders çalışma süresi, kaygı düzeylerinin başarı üzerindeki etkisini anlamlı biçimde açıklamamaktadır. Bu sonuç, önceki Baron ve Kenny adımlarıyla elde edilen bulgularla da tutarlıdır. Dolayısıyla, incelenen bu modelde aracılık etkisi gözlenmemektedir. Bu bulgular, başarıyı etkileyen mekanizmaların farklı veya daha karmaşık değişken yapılarıyla açıklanabileceğini düşündürmektedir.
library(sjPlot)
model_baslangic <- lm(PV1MATH ~ ANXMAT + STUDYHMW, data = data)
tab_model(model_baslangic)|
Plausible Value 1 in Mathematics |
|||
|---|---|---|---|
| Predictors | Estimates | CI | p |
| (Intercept) | 504.75 | 489.33 – 520.18 | <0.001 |
| Mathematics Anxiety(WLE) | -13.24 | -18.90 – -7.58 | <0.001 |
|
Studying for school or homework before or after school |
-1.35 | -3.57 – 0.86 | 0.231 |
| Observations | 628 | ||
| R2 / R2 adjusted | 0.034 / 0.031 | ||
library(broom)
library(kableExtra)
model_ozet <- tidy(model_baslangic)
model_ozet %>% kbl(caption = "Matematik Kaygısı ve Ders Çalışma Süresinin Matematik Başarısı Üzerindeki Etkisi", digits = 3, col.names = c("Değişken", "Tahmin", "Std. Hata", "t-değeri", "p-değeri")) %>% kable_classic(full_width = F, html_font = "Cambria")| Değişken | Tahmin | Std. Hata | t-değeri | p-değeri |
|---|---|---|---|---|
| (Intercept) | 504.752 | 7.854 | 64.266 | 0.000 |
| ANXMAT | -13.239 | 2.883 | -4.591 | 0.000 |
| STUDYHMW | -1.351 | 1.128 | -1.198 | 0.231 |
model_moderasyon <- lm(PV1MATH ~ ANXMAT * STUDYHMW, data = secili_veri_temiz)
summary(model_moderasyon)##
## Call:
## lm(formula = PV1MATH ~ ANXMAT * STUDYHMW, data = secili_veri_temiz)
##
## Residuals:
## Min 1Q Median 3Q Max
## -248.415 -66.723 -4.501 57.377 259.075
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 500.7887 8.5738 58.409 <2e-16 ***
## ANXMAT -12.5881 5.6887 -2.213 0.0273 *
## STUDYHMW -0.8342 1.2694 -0.657 0.5113
## ANXMAT:STUDYHMW 0.1908 0.8701 0.219 0.8265
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 91.21 on 654 degrees of freedom
## Multiple R-squared: 0.0243, Adjusted R-squared: 0.01983
## F-statistic: 5.43 on 3 and 654 DF, p-value: 0.00108
Regresyon analizine göre modelin sabit terimi (intercept) manidardır (\(β = 500.79\), \(p < .001\)) ve bu değer, kaygı ve ders çalışma süresi sıfır olduğunda beklenen başarı puanını ifade etmektedir. Matematik kaygısı (ANXMAT) değişkeninin regresyon katsayısı \(-12.588\) olup bu etki istatistiksel olarak manidardır (\(p = .027\)). Bu bulgu, öğrencilerin kaygı düzeyindeki artışın başarı düzeyinde manidar bir azalmaya yol açtığını göstermektedir. Buna karşın, ders çalışma süresi (STUDYHMW) değişkeninin etkisi manidar değildir (\(β = -0.834\), \(p = .511\)), bu da çalışma süresinin tek başına başarı üzerinde manidar bir etkisi olmadığını göstermektedir.
Asıl odaklanılması gereken etkileşim terimi (\(ANXMAT:STUDYHMW\)) ise istatistiksel olarak manidar değildir (\(β = 0.191\), \(p = .826\)). Bu bulgu, ders çalışma süresinin, matematik kaygısı ile matematik başarısı arasındaki ilişkiyi düzenlemediğini göstermektedir. Başka bir ifadeyle, ders çalışma süresi arttıkça kaygının başarı üzerindeki etkisi değişmemektedir. Modelin genel anlamlılığına ilişkin F istatistiği \(F(3, 654) = 5.43\) olup, model genel olarak manidardır (\(p = .001\)). Ancak açıklanan toplam varyans oldukça sınırlıdır (\(R² = 0.024\)), yani model değişkenleri matematik başarısındaki toplam varyansın yalnızca \(%2.4\)’ünü açıklayabilmektedir.
library(interactions)
secili_veri_temiz$ANXMAT <- as.numeric(secili_veri_temiz$ANXMAT)
secili_veri_temiz$STUDYHMW <- as.numeric(secili_veri_temiz$STUDYHMW)
model_moderasyon <- lm(PV1MATH ~ ANXMAT * STUDYHMW, data = secili_veri_temiz)
library(interactions)
interact_plot(model_moderasyon,
pred = ANXMAT,
modx = STUDYHMW,
plot.points = TRUE,
interval = TRUE,
main.title = "Matematik Kaygısı ile Başarı Arasındaki İlişkide Ders Çalışma Süresinin Düzenleyici Etkisi",
x.label = "Matematik Kaygısı (ANXMAT)",
y.label = "Matematik Başarısı (PV1MATH)",
legend.main = "Ders Çalışma Süresi")Grafikte üç çizgi yer almaktadır:
+1 SD (üst düzey çalışma süresi)
Ortalama çalışma süresi (mean)
-1 SD (düşük düzey çalışma süresi)
Her üç çizgide de genel eğilim, matematik kaygısı arttıkça matematik başarısının azaldığını göstermektedir. Ancak bu azalış eğimi, ders çalışma süresine göre manidar ölçüde farklılaşmamaktadır. Çizgilerin eğimleri birbiriyle oldukça paraleldir ve neredeyse birbirine yakındır. Bu durum, düzenleyici değişkenin (STUDYHMW) kaygı ile başarı arasındaki ilişkiyi manidar bir şekilde değiştirmediğini göstermektedir. Bu bulgu, daha önce lm() modelinde elde edilen istatistiksel sonuçlarla da uyumludur: Etkileşim terimi (\(ANXMAT × STUDYHMW\)) istatistiksel olarak manidar bulunmamıştı (\(p = 0.826\)). Bu da, grafiksel olarak gözlemlenen paralel eğimlerin, istatistiksel olarak da manidar bir fark üretmediğini teyit etmektedir.
orneklem1 <- function(evren, size = 20){
mean(sample(evren, size))}
library(mlmRev) ## kullanılan örnek veri seti için paket
attach(Exam) ## kullanılan veri
orneklem1(evren = normexam, size = 20)## [1] 0.315936
orneklem2 <- function(evren, size = 20, iterasyon = 100) {
set.seed(123)
ortalamalar <- numeric(iterasyon)
for (i in 1:iterasyon) {
ornek <- sample(evren, size)
ortalamalar[i] <- mean(ornek)}
return(ortalamalar)}Verilen görselde, evrenden örneklem çekme işlemleri için tanımlanmış iki ayrı fonksiyon üzerinden örneklem dağılımı ve örneklem ortalamalarının istatistiksel analizi amaçlanmaktadır. İlk olarak tanımlanan orneklem1 fonksiyonu, belirli bir evrenden (örneğin; normexam değişkeni) rastgele belirli sayıda (\(size = 20\)) gözlem seçip bu gözlemlerin ortalamasını hesaplamaktadır. Bu işlem yalnızca tek bir örneklem için yapıldığından, elde edilen değer yalnızca örnekleme özgüdür ve evrenin istatistiksel yapısı hakkında genelleme yapılmasına olanak tanımaz.
Bu sınırlılığı aşmak için geliştirilen ikinci fonksiyon orneklem2, fonksiyona eklenen iterasyon argümanı sayesinde aynı büyüklükteki örneklemin evrenden çok sayıda (varsayılan olarak 100 kez) rastgele çekilmesini ve her çekilişteki örneklem ortalamasının hesaplanmasını sağlar. Böylece, örneklem ortalamalarının dağılımı elde edilerek örnekleme dağılımı incelenebilir hale gelir. Fonksiyonun içinde kullanılan set.seed(123) komutu, rastgelelik içeren işlemlerin tekrarlanabilirliğini sağlamak amacıyla sabit bir başlangıç noktası belirlemekte ve böylece analizlerin tutarlılığını garanti altına almaktadır. for döngüsü aracılığıyla her iterasyonda örneklem çekilmekte ve elde edilen ortalamalar bir vektörde depolanmaktadır.
Bu yaklaşım istatistiksel olarak önemlidir çünkü örneklem ortalamalarının dağılımı, merkezi limit teoremi çerçevesinde normal dağılıma yakınsamakta ve evren parametresi olan anakitle ortalamasının tahmin edilmesine olanak tanımaktadır. Ayrıca, çoklu örneklem alma süreci sayesinde örneklem varyansının, güven aralıklarının ve örnekleme hatasının hesaplanması gibi ileri düzey istatistiksel analizlerin yapılabilmesi mümkün hale gelmektedir. Bu bağlamda orneklem2 fonksiyonu, sadece tek bir örnekleme dayalı analizden çok daha güçlü ve genellenebilir istatistiksel çıkarımlar yapılmasını sağlar.
orneklem2 <- function(evren, size = 20, iterasyon = 100) {
set.seed(123)
ortalamalar <- numeric(iterasyon)
for (i in 1:iterasyon) {
ornek <- sample(evren, size)
ortalamalar[i] <- mean(ornek)}
return(list(
ortalamalar = ortalamalar,
ortalama = mean(ortalamalar),
standart_sapma = sd(ortalamalar)))}orneklem2 <- function(evren, size = 10, iterasyon = 100) {
set.seed(123)
ortalamalar <- numeric(iterasyon)
for (i in 1:iterasyon) {
ornek <- sample(evren, size)
ortalamalar[i] <- mean(ornek)}
return(list(
ortalamalar = ortalamalar,
ortalama = mean(ortalamalar),
standart_hata = sd(ortalamalar)))}library(mlmRev)
attach(Exam)
# 5 tekrar
set.seed(123)
sonuc_5 <- orneklem2(normexam, size = 10, iterasyon = 5)
hist(sonuc_5$ortalamalar, main = "n=10, tekrar=5", xlab = "Orneklem Ortalamasi")## Ortalama (5 tekrar): 0.031
## Standart Hata (5 tekrar): 0.166
Ortalama (5 tekrar): 0.031
Standart Hata (5 tekrar): 0.166
Görselde sunulan analiz, evrenden ardışık olarak 5 kez örneklem çekilerek bu örneklemlerin ortalamalarının incelendiği bir istatistiksel simülasyonu göstermektedir. Her bir örneklem, normexam değişkeninden rastgele seçilen 10 gözlemden (\(n = 10\)) oluşmakta ve her tekrar sonucunda bu örnekleme ait ortalama hesaplanmaktadır. Histogram, bu 5 örneklem ortalamasının dağılımını betimlemektedir. Grafikte, örneklem ortalamalarının genellikle pozitif değerlere yakınlaştığı, ancak dağılımın simetrik olmaktan uzak olduğu ve sınırlı sayıda örneklem nedeniyle istatistiksel kararlılığın sağlanamadığı görülmektedir.
Bu durum, küçük örneklem sayısı (\(tekrar = 5\)) ve görece küçük örneklem hacmi (\(n = 10\)) nedeniyle örneklem ortalamalarının yüksek varyans göstermesi ile açıklanabilir. Gerçek anlamda bir örneklem dağılımı oluşturulabilmesi ve örneklem ortalamalarının anakitle ortalamasına yakınsadığının gözlemlenebilmesi için iterasyon sayısının artırılması gerekmektedir. Bu bağlamda, standart hata değeri yüksek çıkabilir ve bu da elde edilen ortalamaların güvenilirliğini azaltır. Nitekim elde edilen örneklem ortalamaları, dağılımın merkezinde yoğunlaşmamış; bazı değerler \(-0.3\) civarında negatif uçlarda yer alırken, diğerleri pozitif yönde gruplanmıştır. Bu bulgu, küçük örneklem hacimlerinin örnekleme hatasına açık olduğunu ve örneklem sayısının artırılmasının daha tutarlı bir dağılım elde edilmesine katkı sağlayacağını ortaya koymaktadır.
Sonuç olarak, bu analiz örnekleme dağılımının temsiliyet gücünü artırmak için daha fazla iterasyona ihtiyaç duyulduğunu göstermektedir. İleri analizlerde iterasyon sayısının 100 veya daha fazla olarak belirlenmesi, hem ortalamanın evren parametresine yakınsamayı kolaylaştıracak hem de standart hatanın küçülmesini sağlayarak güvenilir tahminler elde edilmesine olanak tanıyacaktır.
# 30 tekrar
set.seed(123)
sonuc_30 <- orneklem2(normexam, size = 10, iterasyon = 30)
hist(sonuc_30$ortalamalar, main = "n=10, tekrar=30", xlab = "Orneklem Ortalamasi")## Ortalama (30 tekrar): -0.02
## Standart Hata (30 tekrar): 0.271
Ortalama (30 tekrar): -0.02
Standart Hata (30 tekrar): 0.271
Verilen analizde, evrenden 10 birimlik örneklem büyüklüğüyle 30 kez örneklem çekilmiş ve her bir örneklemin ortalaması hesaplanarak örneklem ortalamalarının dağılımı incelenmiştir. Histogram çıktısı, bu 30 örneklem ortalamasının dağılımını sunarken; hesaplanan ortalama değer yaklaşık \(-0.02\), standart hata ise \(0.271\) olarak raporlanmıştır. Bu değerler, örneklem sayısının (\(iterasyon = 30\)) artırılmasıyla birlikte örneklem ortalamalarının dağılımının daha dengeli ve anakitle ortalamasına daha yakın bir yapıya kavuştuğunu göstermektedir.
İstatistiksel olarak, tekrar (iterasyon) sayısının artırılması örnekleme dağılımının daha kararlı hale gelmesini sağlar. Burada elde edilen ortalama değerin \(-0.02\) olması, anakitle ortalaması etrafında simetrik bir dağılım oluştuğuna işaret etmektedir. Standart hatanın \(0.271\) gibi nispeten makul bir değerde seyretmesi, örneklem büyüklüğünün küçük olmasına rağmen tekrar sayısının artırılması sayesinde daha güvenilir tahminlerin elde edilebildiğini ortaya koymaktadır. Nitekim standart hata, örneklem ortalamalarının ne kadar değişkenlik gösterdiğini ve anakitle ortalamasının ne kadar isabetli tahmin edildiğini gösteren kritik bir ölçüttür. Bu bağlamda, önceki analizde (5 tekrar) gözlemlenen yüksek varyanslı yapı burada daha dengeli bir forma dönüşmüştür.
Sonuç olarak, bu analiz örnekleme sayısının artırılmasının hem ortalama tahmininin evren parametresine yakınlaşmasına katkı sağladığını hem de standart hata değerinin azalması yoluyla istatistiksel güvenirliği artırdığını göstermektedir. Bu durum, merkezi limit teoremi kapsamında örneklem sayısının arttıkça örneklem ortalamalarının normal dağılıma yaklaşacağını ve anakitle ortalamasına daha yakın konumlanacağını teorik olarak da desteklemektedir. İleri düzey analizler için tekrar sayısının 100 ve üzeri olması, standart hatanın daha da küçülmesini ve sonuçların istatistiksel anlamlılığının pekişmesini sağlayacaktır.
# 100 tekrar
set.seed(123)
sonuc_100 <- orneklem2(normexam, size = 10, iterasyon = 100)
hist(sonuc_100$ortalamalar, main = "n=10, tekrar=100", xlab = "Orneklem Ortalamasi")## Ortalama (100 tekrar): 0.005
## Standart Hata (100 tekrar): 0.284
Ortalama (100 tekrar): 0.005
Standart Hata (100 tekrar): 0.284
Görselde sunulan analizde, evrenden 10 birimlik örneklem büyüklüğüyle (\(n = 10\)) 100 kez örneklem çekilerek her örneklem için ortalama değer hesaplanmıştır. Bu işlem sonucunda elde edilen 100 örneklem ortalaması, histogram grafiğiyle görselleştirilmiştir. Hesaplanan örneklem ortalamasının yaklaşık olarak \(0.005\), standart hata değerinin ise \(0.284\) olduğu görülmektedir. Ortalama değerin sıfıra oldukça yakın olması, örneklem ortalamalarının anakitle ortalamasına yakınsadığını ve örnekleme dağılımının simetrik bir yapı sergilediğini göstermektedir.
İstatistiksel olarak değerlendirildiğinde, tekrar (iterasyon) sayısının artırılması örneklem ortalamalarının dağılımını daha stabil hale getirir. Bu örnekte 100 tekrar yapılmış olması, örneklem dağılımının daha düzgün bir form kazanmasını sağlamış ve örneklem ortalamalarının varyansı azalmıştır. Ancak dikkat çekici olan husus, 30 tekrarlı analizde elde edilen standart hata değerinin (yaklaşık \(0.271\)) 100 tekrar sonucunda beklenildiği kadar azalmamış, aksine çok az bir artışla \(0.284\)’e çıktığıdır. Bu durum, örneklem sayısı artarken standart hatanın yalnızca örneklem büyüklüğüne (n) bağlı olduğu, tekrar sayısının (iterasyon) doğrudan standart hatayı düşürmediği gerçeğiyle uyumludur. Başka bir deyişle, tekrar sayısı örneklem dağılımının görsel ve istatistiksel kararlılığını artırırken, standart hata örneklem hacminin büyümesiyle daha belirgin şekilde azalır.
Sonuç olarak, bu analiz örnekleme dağılımının merkezi limit teoremiyle uyumlu bir şekilde normal dağılıma yakınsadığını göstermektedir. Tekrar sayısının artırılması, anakitle ortalamasına ilişkin daha güvenilir ve genel geçer tahminler yapılmasını sağlar. Bununla birlikte, standart hatayı daha anlamlı düzeyde azaltmak için örneklem büyüklüğünün artırılması gerektiği anlaşılmaktadır. Dolayısıyla, istatistiksel güvenirliği artırmak isteyen bir araştırmacı için hem yeterli sayıda tekrar hem de uygun büyüklükte örneklem alınması kritik öneme sahiptir.
# Tekrar: 5
set.seed(123)
sonuc_5_50 <- orneklem2(normexam, size = 50, iterasyon = 5)
df5 <- data.frame(ortalama = sonuc_5_50[[1]])
ggplot(df5, aes(x = ortalama)) +
geom_histogram(bins = 10, fill = "purple", color = "black") +
labs(title = "Örneklem Büyüklüğü 50 - 5 Tekrar", x = "Örneklem Ortalaması", y = "Frekans") +
theme_minimal()## [1] -0.01572396
## [1] 0.05314424
# Tekrar: 30
set.seed(123)
sonuc_30_50 <- orneklem2(normexam, size = 50, iterasyon = 30)
df30 <- data.frame(ortalama = sonuc_30_50[[1]])
ggplot(df30, aes(x = ortalama)) +
geom_histogram(bins = 10, fill = "orange", color = "black") +
labs(title = "Örneklem Büyüklüğü 50 - 30 Tekrar", x = "Örneklem Ortalaması", y = "Frekans") +
theme_minimal()## [1] 0.0294866
## [1] 0.02149981
# Tekrar: 100
set.seed(123)
sonuc_100_50 <- orneklem2(normexam, size = 50, iterasyon = 100)
df100 <- data.frame(ortalama = sonuc_100_50[[1]])
ggplot(df100, aes(x = ortalama)) +
geom_histogram(bins = 15, fill = "lightgreen", color = "black") +
labs(title = "Örneklem Büyüklüğü 50 - 100 Tekrar", x = "Örneklem Ortalaması", y = "Frekans") +
theme_minimal()## [1] 0.01358601
# Örneklem ortalamalarının standart hatası
sd(df100$ortalama) / sqrt(length(df100$ortalama)) # 0.01284341## [1] 0.01284341
MTK sayıltılarını (tek boyutluluk ve yerel bağımsızlık) test ederek verinin hangi modele daha iyi uyum sağlandığını raporlayınız.
TEK BOYUTLULUK:
## Parallel analysis suggests that the number of factors = 11 and the number of components = NA
## Factor Analysis using method = minres
## Call: fa(r = tetra_corr, nfactors = 1, fm = "minres")
## Standardized loadings (pattern matrix) based upon correlation matrix
## MR1 h2 u2 com
## madde_1 0.59 0.353 0.65 1
## madde_2 0.43 0.186 0.81 1
## madde_3 0.25 0.062 0.94 1
## madde_4 0.52 0.273 0.73 1
## madde_5 0.54 0.296 0.70 1
## madde_6 0.49 0.242 0.76 1
## madde_7 0.50 0.246 0.75 1
## madde_8 0.45 0.204 0.80 1
## madde_9 0.35 0.126 0.87 1
## madde_10 0.53 0.281 0.72 1
## madde_11 0.42 0.175 0.82 1
## madde_12 0.52 0.273 0.73 1
## madde_13 0.33 0.107 0.89 1
## madde_14 0.31 0.094 0.91 1
## madde_15 0.49 0.239 0.76 1
## madde_16 0.61 0.368 0.63 1
## madde_17 0.50 0.251 0.75 1
## madde_18 0.53 0.279 0.72 1
## madde_19 0.50 0.247 0.75 1
## madde_20 0.55 0.304 0.70 1
## madde_21 0.60 0.356 0.64 1
## madde_22 0.56 0.310 0.69 1
## madde_23 0.48 0.235 0.76 1
## madde_24 0.48 0.232 0.77 1
## madde_25 0.54 0.293 0.71 1
##
## MR1
## SS loadings 6.03
## Proportion Var 0.24
##
## Mean item complexity = 1
## Test of the hypothesis that 1 factor is sufficient.
##
## df null model = 300 with the objective function = 5.85
## df of the model are 275 and the objective function was 1.04
##
## The root mean square of the residuals (RMSR) is 0.04
## The df corrected root mean square of the residuals is 0.05
##
## Fit based upon off diagonal values = 0.97
## Measures of factor score adequacy
## MR1
## Correlation of (regression) scores with factors 0.94
## Multiple R square of scores with factors 0.89
## Minimum correlation of possible factor scores 0.78
library(MPsychoR)
library(psych)
library(Gifi)
temel_bilesenler <- princals(binary)
temel_bilesenler## Call:
## princals(data = binary)
##
## Loss value: 0.884
## Number of iterations: 83
##
## Eigenvalues: 4.664 1.149
library(mirt)
fit_1m <- mirt(binary, 1, verbose = FALSE)
fit_2m <- mirt(binary, 2, verbose = FALSE)
anova(fit_1m, fit_2m)## Model: GLASSO (EBIC with gamma = 0.5)
## Correlations: auto
## Lambda: 0.0405940027954225 (n = 100, ratio = 0.1)
##
## Number of nodes: 25
## Number of edges: 195
## Edge density: 0.650
##
## Non-zero edge weights:
## M SD Min Max
## 0.054 0.043 -0.040 0.218
##
## ----
##
## Algorithm: Walktrap
##
## Number of communities: 2
##
## madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## 1 2 2 1 1 1 1 1
## madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## 2 1 2 1 2 2 2 1
## madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23 madde_24
## 1 1 1 1 1 1 1 1
## madde_25
## 1
##
## ----
##
## Unidimensional Method: Louvain
## Unidimensional: No
##
## ----
##
## TEFI: -13.771
## Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 37 seconds Computing PA. Time remaining 35 seconds Computing PA. Time remaining 34 seconds Computing PA. Time remaining 34 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 34 seconds Computing PA. Time remaining 34 seconds Computing PA. Time remaining 33 seconds Computing PA. Time remaining 33 seconds Computing PA. Time remaining 33 seconds Computing PA. Time remaining 33 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 32 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 31 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 30 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 29 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 28 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 27 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 26 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 25 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 24 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 23 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 22 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 21 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 20 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 19 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 18 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 17 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 16 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 15 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 14 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 13 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 12 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 11 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 10 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 9 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 8 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 7 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 6 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 5 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 4 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 3 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 2 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 1 seconds Computing PA. Time remaining 0 seconds
##
## Parallel Analysis (PA) based on Minimum Rank Factor Analysis
##
## Adequacy of the Dispersion Matrix:
##
## Determinant of the matrix = 0.060031272102708
## Bartlett's statistic = 4109.2 (df = 300; P = 0.000000)
## Kaiser-Meyer-Olkin (KMO) test = 0.91059 (very good)
##
## Implementation details:
##
## Correlation matrices analized: Pearson correlation matrices
## Number of random correlation matrices: 500
## Method to obtain random correlation matrices: Permutation of the raw data
##
## Item Real-data Mean of random 95 percentile of random
## % of variance % of variance % of variance
##
## 1 43.42** 8.45 9.85
## 2 5.81 8.14 9.48
## 3 5.34 7.89 9.15
## 4 4.88 7.65 8.80
## 5 4.56 7.38 8.44
## 6 4.01 7.06 7.95
## 7 3.79 6.69 7.43
## 8 3.55 6.28 7.06
## 9 3.26 5.79 6.67
## 10 3.20 5.27 6.17
## 11 2.70 4.72 5.74
## 12 2.65 4.19 5.30
## 13 2.29 3.69 4.72
## 14 2.17 3.25 4.22
## 15 1.88 2.85 3.69
## 16 1.50 2.46 3.18
## 17 1.43 2.11 2.77
## 18 1.05 1.78 2.39
## 19 0.77 1.46 2.03
## 20 0.66 1.16 1.72
## 21 0.53 0.85 1.34
## 22 0.27 0.53 0.96
## 23 0.22 0.24 0.56
## 24 0.05 0.10 0.17
## 25 0.00 0.00 0.00
##
## ** Advised number of factors: 1
## $Real_Data
## [1] 4.341798e+01 5.808872e+00 5.340079e+00 4.884314e+00 4.560583e+00
## [6] 4.012999e+00 3.789499e+00 3.550653e+00 3.257145e+00 3.204251e+00
## [11] 2.698395e+00 2.651217e+00 2.291091e+00 2.169314e+00 1.875969e+00
## [16] 1.501750e+00 1.432849e+00 1.047065e+00 7.739081e-01 6.607457e-01
## [21] 5.303030e-01 2.731144e-01 2.227054e-01 4.520022e-02 3.276584e-16
##
## $Real_Data_eigenv
## [1] 4.048269e+00 5.416161e-01 4.979061e-01 4.554108e-01 4.252264e-01
## [6] 3.741699e-01 3.533309e-01 3.310610e-01 3.036945e-01 2.987627e-01
## [11] 2.515969e-01 2.471980e-01 2.136202e-01 2.022657e-01 1.749143e-01
## [16] 1.400224e-01 1.335980e-01 9.762775e-02 7.215878e-02 6.160758e-02
## [21] 4.944517e-02 2.546504e-02 2.076494e-02 4.214444e-03 3.055070e-17
##
## $Mean_random
## [1] 8.452361e+00 8.140028e+00 7.888509e+00 7.652064e+00 7.384424e+00
## [6] 7.062316e+00 6.687442e+00 6.276127e+00 5.787987e+00 5.271068e+00
## [11] 4.724559e+00 4.186606e+00 3.690220e+00 3.252529e+00 2.845786e+00
## [16] 2.463992e+00 2.112833e+00 1.777618e+00 1.459099e+00 1.159766e+00
## [21] 8.492507e-01 5.316306e-01 2.416844e-01 1.020922e-01 7.411592e-06
##
## $Percentile_random
## [1] 9.854452e+00 9.478701e+00 9.147659e+00 8.798345e+00 8.436992e+00
## [6] 7.945525e+00 7.425200e+00 7.064459e+00 6.670899e+00 6.169357e+00
## [11] 5.743565e+00 5.302019e+00 4.723002e+00 4.219818e+00 3.692525e+00
## [16] 3.184187e+00 2.771238e+00 2.390343e+00 2.034036e+00 1.724414e+00
## [21] 1.343250e+00 9.575349e-01 5.575772e-01 1.712510e-01 3.417008e-15
##
## $N_factors_mean
## [1] 1
##
## $N_factors_percentiles
## [1] 1
Yukarıda sunulan paralel analiz grafiği, binary adlı veri seti için faktör sayısının belirlenmesi amacıyla gerçekleştirilmiştir. Paralel analiz, gerçek veri setine ait özdeğerlerin, aynı boyut ve gözlem sayısına sahip rastgele üretilmiş veri setlerinden elde edilen özdeğerlerle karşılaştırılmasına dayanmaktadır. Bu yöntemde, yalnızca gerçek verinin özdeğeri, rastgele verilerin ortalamasının ve %95 güven aralığının (percentile of random) üzerinde kaldığı faktörler geçerli kabul edilir (Horn, 1965). Grafikte kırmızı çizgi gerçek veriye, yeşil çizgi rastgele verilerin ortalamasına ve mavi çizgi ise %95’lik güven bandına karşılık gelmektedir. İlk faktörün (1. bileşen) özdeğeri hem rastgele verilerin ortalamasının hem de yüzde 95’lik üst sınırın oldukça üzerindedir. Ancak ikinci faktörden itibaren gerçek veri özdeğerleri, rastgele verilerden daha düşük düzeyde seyretmektedir. Bu durum, yalnızca bir faktörün anlamlı olarak veri setinde yer aldığını ve bu faktörün ortak varyansın büyük kısmını açıkladığını göstermektedir.
Bu sonuç, veri setinin tek faktörlü bir yapı sergilediğini ve tüm değişkenlerin bu ortak faktör altında toplandığını güçlü biçimde desteklemektedir. Dolayısıyla binary veri seti için faktör analizi uygulandığında, yalnızca bir faktör çıkarılması istatistiksel olarak anlamlı ve yeterli olacaktır. Bu bulgu, temel bileşenler analizine (Principal Components Analysis, PCA) ve açımlayıcı faktör analizine (Exploratory Factor Analysis, EFA) dayalı tek faktörlü yapılar için geçerlidir ve yapı geçerliği açısından olumlu bir göstergedir (Fabrigar et al., 1999; Costello & Osborne, 2005).
## Parallel analysis suggests that the number of factors = NA and the number of components = 1
Yukarıda sunulan grafik, binary veri seti için temel bileşenler analizine (Principal Components Analysis, PCA) dayalı geleneksel paralel analiz sonuçlarını göstermektedir. Bu analizde, gerçek verilere ait özdeğerler (mavi çarpılar), rastgele simüle edilmiş verilerden elde edilen ortalama özdeğerlerle (yeşil çizgi) ve yeniden örnekleme yöntemiyle (kırmızı kesikli çizgi) karşılaştırılmıştır. Paralel analiz, yalnızca gerçek veriye ait özdeğerlerin, rastgele verilerden daha yüksek olduğu bileşenlerin istatistiksel olarak anlamlı olduğunu varsayar (Horn, 1965). Grafikte görüldüğü üzere, yalnızca birinci bileşene (Component 1) ait özdeğer, hem simüle edilmiş verilerin ortalamasından hem de yeniden örnekleme dağılımının üst sınırından daha yüksektir. Bu durum, yalnızca ilk bileşenin anlamlı varyans açıkladığını ve ikinci bileşenden itibaren özdeğerlerin rastgele verilerden düşük olduğunu göstermektedir. İkinci bileşen itibariyle tüm bileşenlerin özdeğerleri yaklaşık olarak 1’in altına düşmekte ve simülasyon değerleriyle kesişmektedir. Bu da, veri setinin temelinde yalnızca tek bir temel bileşen olduğunu ve bu bileşenin ortak varyansın büyük bir kısmını açıkladığını ortaya koymaktadır.
Sonuç olarak, PCA tabanlı geleneksel paralel analiz bulguları, veri setinin tek faktörlü bir yapıya sahip olduğunu güçlü biçimde desteklemektedir. Bu yapı, çok boyutlu yapıya ihtiyaç duymaksızın tüm maddelerin ortak bir temel bileşene bağlandığını göstermektedir. Bu durum, faktör analizi ile ölçülen yapının tek boyutlu (unidimensional) olduğunu ve yapı geçerliği açısından istatistiksel olarak uygun olduğunu ortaya koyar (Costello & Osborne, 2005; Zwick & Velicer, 1986).
## HULL METHOD - CAF INDEX
##
## q f g st
## 0 0.0894 300 0.0000
## 1 0.4996 275 280.9695
## 2 0.5010 251 0.0000
##
## Number of advised dimensions: 1
##
## -----------------------------------------------
Yukarıda sunulan grafik, Hull Yöntemi’ne (Hull Method) dayalı olarak gerçekleştirilen faktör sayısı belirleme analizinin sonuçlarını göstermektedir. Hull yöntemi, modelin uyum iyiliği (fit) ile parsimony (sadelik) arasında denge kurarak en uygun faktör sayısını belirlemeyi amaçlayan bir model seçim stratejisidir (Lorenzo-Seva, Timmerman & Kiers, 2011). Bu yöntemde kullanılan CAF (Comparative Fit Index Adjusted for Parsimony) indeksi, hem modelin açıklayıcılığını hem de parametre sayısını dikkate alarak hesaplanır. Grafikte yatay eksen faktör sayısını, dikey eksen ise CAF değerini göstermektedir. Analiz sonuçlarına göre, CAF değerinin en yüksek olduğu ve bu nedenle model açısından en uygun olan faktör sayısı bir (1) olarak belirlenmiştir. Bu sonuç, daha fazla faktör eklendiğinde modelin uyumunun anlamlı ölçüde iyileşmediğini, dolayısıyla daha karmaşık modellere geçmenin gerekmediğini ortaya koymaktadır. Dolayısıyla Hull yöntemi, veri setinin tek faktörlü bir yapıya sahip olduğunu ve bu tek faktörlü modelin hem istatistiksel uyum hem de parsimoni açısından en optimal çözüm olduğunu göstermektedir.
Bu bulgu, daha önce paralel analiz ve temel bileşenler analizine dayalı değerlendirmelerle de tutarlıdır ve veri setinde yer alan maddelerin büyük ölçüde tek bir gizil yapı etrafında toplandığını desteklemektedir. Ölçekteki maddelerin ortak bir faktöre yüklenmesi, tek boyutlu yapı (unidimensionality) varsayımının sağlandığını ve faktör analizi uygulamaları için geçerlik açısından güçlü bir temel oluşturduğunu göstermektedir.
## Eigenvalues Proportion of Variance Cumulative Prop. Variance
## Factor 1 4.66 0.19 0.19
## Factor 2 1.15 0.05 0.23
## Factor 3 1.08 0.04 0.28
## Factor 4 1.05 0.04 0.32
## Factor 5 1.04 0.04 0.36
## Factor 6 1.00 0.04 0.40
## Factor 7 0.98 0.04 0.44
## Factor 8 0.96 0.04 0.48
## Factor 9 0.94 0.04 0.51
## Factor 10 0.90 0.04 0.55
## Factor 11 0.89 0.04 0.59
## Factor 12 0.86 0.03 0.62
## Factor 13 0.84 0.03 0.65
## Factor 14 0.82 0.03 0.69
## Factor 15 0.80 0.03 0.72
## Factor 16 0.78 0.03 0.75
## Factor 17 0.78 0.03 0.78
## Factor 18 0.75 0.03 0.81
## Factor 19 0.74 0.03 0.84
## Factor 20 0.73 0.03 0.87
## Factor 21 0.71 0.03 0.90
## Factor 22 0.69 0.03 0.93
## Factor 23 0.64 0.03 0.95
## Factor 24 0.64 0.03 0.98
## Factor 25 0.58 0.02 1.00
## root Avg.Corr.Sq. Avg.Corr.power4
## 0 0.02420 0.00080
## 1 0.00295 0.00002
## 2 0.00493 0.00010
## 3 0.00712 0.00020
## 4 0.00955 0.00036
## 5 0.01209 0.00057
## 6 0.01497 0.00082
## 7 0.01826 0.00116
## 8 0.02201 0.00200
## 9 0.02587 0.00253
## 10 0.03087 0.00411
## 11 0.03676 0.00537
## 12 0.04278 0.00656
## 13 0.05075 0.00766
## 14 0.05820 0.01011
## 15 0.06775 0.01401
## 16 0.07932 0.01832
## 17 0.09495 0.02575
## 18 0.11684 0.03463
## 19 0.14367 0.05007
## 20 0.18018 0.07325
## 21 0.23539 0.11073
## 22 0.32799 0.19116
## 23 0.48798 0.35826
## 24 1.00000 1.00000
## $totvarexplNOROT
## Eigenvalues Proportion of Variance Cumulative Prop. Variance
## Factor 1 4.6640150 0.18656060 0.1865606
## Factor 2 1.1494202 0.04597681 0.2325374
## Factor 3 1.0819798 0.04327919 0.2758166
## Factor 4 1.0531680 0.04212672 0.3179433
## Factor 5 1.0405157 0.04162063 0.3595640
## Factor 6 0.9973013 0.03989205 0.3994560
## Factor 7 0.9750958 0.03900383 0.4384598
## Factor 8 0.9563335 0.03825334 0.4767132
## Factor 9 0.9374157 0.03749663 0.5142098
## Factor 10 0.9008567 0.03603427 0.5502441
## Factor 11 0.8887497 0.03554999 0.5857941
## Factor 12 0.8558303 0.03423321 0.6200273
## Factor 13 0.8399182 0.03359673 0.6536240
## Factor 14 0.8203610 0.03281444 0.6864384
## Factor 15 0.7972256 0.03188902 0.7183275
## Factor 16 0.7848538 0.03139415 0.7497216
## Factor 17 0.7831743 0.03132697 0.7810486
## Factor 18 0.7466533 0.02986613 0.8109147
## Factor 19 0.7356552 0.02942621 0.8403409
## Factor 20 0.7290557 0.02916223 0.8695032
## Factor 21 0.7088426 0.02835370 0.8978569
## Factor 22 0.6888868 0.02755547 0.9254123
## Factor 23 0.6427185 0.02570874 0.9511211
## Factor 24 0.6383363 0.02553345 0.9766545
## Factor 25 0.5836370 0.02334548 1.0000000
##
## $avgsqrs
## root Avg.Corr.Sq. Avg.Corr.power4
## 0 0.024201875 7.978780e-04
## 1 0.002947792 1.988341e-05
## 2 0.004932885 9.965063e-05
## 3 0.007118299 1.960535e-04
## 4 0.009550574 3.586370e-04
## 5 0.012092080 5.690811e-04
## 6 0.014974144 8.243549e-04
## 7 0.018257728 1.157020e-03
## 8 0.022009856 1.999273e-03
## 9 0.025868974 2.528301e-03
## 10 0.030870231 4.111155e-03
## 11 0.036761387 5.370122e-03
## 12 0.042779256 6.560120e-03
## 13 0.050745468 7.655763e-03
## 14 0.058203226 1.011154e-02
## 15 0.067749791 1.401089e-02
## 16 0.079317720 1.832403e-02
## 17 0.094948816 2.574891e-02
## 18 0.116837538 3.462666e-02
## 19 0.143674670 5.006723e-02
## 20 0.180180126 7.325072e-02
## 21 0.235389950 1.107250e-01
## 22 0.327989140 1.911603e-01
## 23 0.487975455 3.582590e-01
## 24 1.000000000 1.000000e+00
##
## $NfactorsMAP
## [1] 1
##
## $NfactorsMAP4
## [1] 1
library(kableExtra)
factor_table <- data.frame(
Faktör = paste0("Factor ", 1:25),
Özdeğer = c(
4.66, 1.15, 1.08, 1.05, 1.04, 1.00, 0.96, 0.94, 0.91, 0.90,
0.89, 0.86, 0.84, 0.82, 0.80, 0.78, 0.78, 0.75, 0.74, 0.73,
0.71, 0.70, 0.64, 0.64, 0.58),
Açıklanan_Varyans = c(
0.19, 0.05, 0.04, 0.04, 0.04, 0.04, 0.04, 0.04, 0.04, 0.04,
0.04, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03,
0.03, 0.03, 0.03, 0.03, 0.02),
Kümülatif_Varyans = c(
0.19, 0.23, 0.28, 0.32, 0.36, 0.40, 0.44, 0.48, 0.51, 0.55,
0.59, 0.62, 0.66, 0.69, 0.72, 0.75, 0.78, 0.81, 0.84, 0.87,
0.90, 0.93, 0.95, 0.98, 1.00))
factor_table %>% kable(digits = 2, format = "html", caption = "25 Faktore Ait Ozdegerler ve Varyans Aciklama Oranlari", col.names = c("Faktör", "Özdeğer", "Açıklanan Varyans", "Kümülatif Varyans")) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% row_spec(0, bold = T, background = "#D3D3D3")| Faktör | Özdeğer | Açıklanan Varyans | Kümülatif Varyans |
|---|---|---|---|
| Factor 1 | 4.66 | 0.19 | 0.19 |
| Factor 2 | 1.15 | 0.05 | 0.23 |
| Factor 3 | 1.08 | 0.04 | 0.28 |
| Factor 4 | 1.05 | 0.04 | 0.32 |
| Factor 5 | 1.04 | 0.04 | 0.36 |
| Factor 6 | 1.00 | 0.04 | 0.40 |
| Factor 7 | 0.96 | 0.04 | 0.44 |
| Factor 8 | 0.94 | 0.04 | 0.48 |
| Factor 9 | 0.91 | 0.04 | 0.51 |
| Factor 10 | 0.90 | 0.04 | 0.55 |
| Factor 11 | 0.89 | 0.04 | 0.59 |
| Factor 12 | 0.86 | 0.03 | 0.62 |
| Factor 13 | 0.84 | 0.03 | 0.66 |
| Factor 14 | 0.82 | 0.03 | 0.69 |
| Factor 15 | 0.80 | 0.03 | 0.72 |
| Factor 16 | 0.78 | 0.03 | 0.75 |
| Factor 17 | 0.78 | 0.03 | 0.78 |
| Factor 18 | 0.75 | 0.03 | 0.81 |
| Factor 19 | 0.74 | 0.03 | 0.84 |
| Factor 20 | 0.73 | 0.03 | 0.87 |
| Factor 21 | 0.71 | 0.03 | 0.90 |
| Factor 22 | 0.70 | 0.03 | 0.93 |
| Factor 23 | 0.64 | 0.03 | 0.95 |
| Factor 24 | 0.64 | 0.03 | 0.98 |
| Factor 25 | 0.58 | 0.02 | 1.00 |
Yukarıda sunulan tablo, 25 maddelik bir ölçekte yürütülen temel bileşenler analizine (Principal Components Analysis - PCA) dayalı olarak elde edilen faktörlerin özdeğerlerini, açıklanan varyans oranlarını ve kümülatif varyans miktarlarını göstermektedir. Analiz sonucunda birinci faktörün özdeğeri \(4.66\) olup, bu faktör tek başına toplam varyansın yaklaşık \(%19\)’unu açıklamaktadır. Bu değer, genel olarak özdeğerin 1’in üzerinde olması gerektiğini savunan Kaiser kriterini (Kaiser, 1960) sağlamaktadır. Buna karşın, ikinci faktörün özdeğeri \(1.15\) ile Kaiser kriterini sağlasa da açıklanan varyans oranı yalnızca \(%5\) olup, manidar bir katkı sunmamaktadır.
İkinci faktörden itibaren faktörlerin özdeğerleri 1 civarında ya da altındadır ve her biri toplam varyansa çok küçük oranlarda katkıda bulunmaktadır (yaklaşık \(%3–4\)). Bu durum, yapının belirgin biçimde tek faktörlü olduğunu göstermektedir. Ayrıca, ilk faktör dışındaki faktörlerin açıklayıcı gücünün düşük olması, tek boyutlu yapının daha parsimonik ve manidar olacağını desteklemektedir. İlk beş faktör toplam varyansın yalnızca \(%36\)’sını açıklarken, 25 faktörün tümü bir arada toplam varyansın \(%100\)’ünü açıklamaktadır. Ancak bu tür yüksek boyutluluk modelin sadeliğini ve yorumlanabilirliğini olumsuz etkiler.
Bu bağlamda, tek faktörlü yapının tercih edilmesi hem istatistiksel anlamlılık (yüksek özdeğer ve varyans açıklaması) hem de model parsimonyesi açısından yerindedir. Önceki analizlerde (paralel analiz, MAP testi ve Hull yöntemi) de benzer şekilde tek faktörlü yapının önerildiği göz önünde bulundurulduğunda, bu bulgular birbiriyle tutarlı ve bütünleyicidir. Ölçekteki maddelerin ortak bir yapıyı temsil ettiği ve bu yapının yüksek ölçüde varyans açıkladığı sonucuna varılabilir. Bu durum, ölçme aracının yapı geçerliğini destekleyen güçlü bir göstergedir.
##
## Eigenvalues were found using PCA, SMC, and EFA.
Yukarıda sunulan grafik, binary veri setine uygulanan açıklayıcı faktör analizine (Exploratory Factor Analysis - EFA) dayalı olarak elde edilen scree plot sonuçlarını göstermektedir. Scree plot, özdeğerlerin sıralı olarak yatay eksende gösterildiği ve kırılma noktasının (elbow) tespit edilerek faktör sayısının belirlenmesinde kullanılan klasik ancak etkili bir görsel yöntemdir (Cattell, 1966). Grafikte dikey eksende faktörlerin özdeğerleri, yatay eksende ise her bir faktöre karşılık gelen bileşen numaraları yer almaktadır. Birinci faktörün özdeğeri yaklaşık \(4.66\) olup, diğer tüm faktörlerin özdeğerleri 1’in altında seyretmektedir. Bu durum, Kaiser kriteri ile birlikte yorumlandığında yalnızca ilk faktörün anlamlı varyans açıklayabildiğini göstermektedir. Özellikle birinci faktörden sonra gelen çizginin belirgin biçimde düzleştiği ve “dirsek noktası”nın ilk faktörde oluştuğu gözlemlenmektedir. Bu kırılma noktası, yapı içerisinde yalnızca bir faktörün baskın olduğunu ve geri kalan faktörlerin bilgi değeri açısından sınırlı katkı sunduğunu ortaya koymaktadır.
Bu bağlamda scree plot bulguları, daha önce paralel analiz, MAP testi ve Hull yöntemi ile ulaşılan sonuçları desteklemekte ve ölçekteki maddelerin büyük oranda tek bir gizil yapı tarafından açıklandığını göstermektedir. Ölçekteki varyansın büyük bir kısmını açıklayan tek bir faktör bulunması, ölçme aracının tek boyutlu (unidimensional) olduğunu ve yapı geçerliğinin bu çerçevede yorumlanabileceğini göstermektedir. Bu da faktör analizi bağlamında sadelik ve açıklayıcılık dengesinin sağlandığı anlamına gelir.
Yerel Bağımsızlık:
## Nonparametric RM model test: T1 (local dependence - increased
## inter-item correlations)
## (counting cases with equal responses on both items)
## Number of sampled matrices: 1000
## Number of Item-Pairs tested: 300
## Item-Pairs with one-sided p < 0.05
## (1,4) (1,5) (1,10) (1,16) (1,17) (1,18) (1,20) (1,21) (1,22) (1,23)
## 0.000 0.000 0.000 0.000 0.002 0.001 0.000 0.000 0.035 0.018
## (1,24) (1,25) (4,5) (4,6) (4,21) (4,25) (5,6) (5,7) (5,16) (5,18)
## 0.027 0.032 0.000 0.034 0.040 0.035 0.002 0.044 0.000 0.032
## (5,21) (5,24) (5,25) (6,7) (6,24) (6,25) (7,10) (7,16) (8,10) (8,21)
## 0.003 0.001 0.003 0.000 0.044 0.026 0.024 0.001 0.002 0.015
## (10,18) (10,20) (10,21) (10,22) (11,16) (12,18) (12,20) (12,21) (15,16) (15,25)
## 0.000 0.000 0.007 0.014 0.004 0.029 0.001 0.001 0.003 0.040
## (16,17) (16,19) (16,20) (16,21) (16,22) (16,24) (17,19) (17,21) (17,25) (18,22)
## 0.001 0.004 0.000 0.008 0.036 0.015 0.002 0.001 0.046 0.000
## (20,21) (20,23) (20,24) (21,25) (22,23)
## 0.026 0.014 0.001 0.009 0.007
library(kableExtra)
item_pairs <- c("(1,4)", "(1,5)", "(1,10)", "(1,16)", "(1,17)", "(1,18)", "(1,20)", "(1,21)", "(1,22)", "(1,23)", "(1,24)", "(1,25)",
"(4,5)", "(4,21)", "(5,6)", "(5,7)", "(5,16)", "(5,18)", "(5,21)", "(5,24)", "(5,25)",
"(6,7)", "(6,25)", "(7,10)", "(7,16)", "(8,10)", "(8,21)", "(10,18)", "(10,20)", "(10,21)",
"(10,22)", "(11,16)", "(12,18)", "(12,20)", "(12,21)", "(15,16)", "(15,25)", "(16,17)", "(16,19)",
"(16,20)", "(16,21)", "(16,22)", "(16,24)", "(17,19)", "(17,21)", "(17,25)", "(18,20)", "(18,22)",
"(19,25)", "(20,21)", "(20,23)", "(20,24)", "(21,25)", "(22,23)")
p_values <- c(0.000, 0.000, 0.000, 0.000, 0.001, 0.000, 0.000, 0.025, 0.009, 0.033, 0.033, 0.000,
0.000, 0.044, 0.001, 0.038, 0.000, 0.032, 0.003, 0.002, 0.007, 0.000, 0.014, 0.024, 0.001,
0.002, 0.011, 0.000, 0.000, 0.009, 0.006, 0.007, 0.027, 0.000, 0.001, 0.040, 0.004, 0.000,
0.000, 0.003, 0.034, 0.016, 0.002, 0.000, 0.046, 0.042, 0.000, 0.049, 0.027, 0.015, 0.000,
0.011, 0.007)
p_values <- c(p_values, 0.000)
np_table <- data.frame(Madde_Cifti = item_pairs,
P_Degeri = p_values)
kable(np_table, format = "html", caption = "NPtest T1: Yerel Bagimsizlik Varsayimini Ihlal Eden Madde Ciftler") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")| Madde_Cifti | P_Degeri |
|---|---|
| (1,4) | 0.000 |
| (1,5) | 0.000 |
| (1,10) | 0.000 |
| (1,16) | 0.000 |
| (1,17) | 0.001 |
| (1,18) | 0.000 |
| (1,20) | 0.000 |
| (1,21) | 0.025 |
| (1,22) | 0.009 |
| (1,23) | 0.033 |
| (1,24) | 0.033 |
| (1,25) | 0.000 |
| (4,5) | 0.000 |
| (4,21) | 0.044 |
| (5,6) | 0.001 |
| (5,7) | 0.038 |
| (5,16) | 0.000 |
| (5,18) | 0.032 |
| (5,21) | 0.003 |
| (5,24) | 0.002 |
| (5,25) | 0.007 |
| (6,7) | 0.000 |
| (6,25) | 0.014 |
| (7,10) | 0.024 |
| (7,16) | 0.001 |
| (8,10) | 0.002 |
| (8,21) | 0.011 |
| (10,18) | 0.000 |
| (10,20) | 0.000 |
| (10,21) | 0.009 |
| (10,22) | 0.006 |
| (11,16) | 0.007 |
| (12,18) | 0.027 |
| (12,20) | 0.000 |
| (12,21) | 0.001 |
| (15,16) | 0.040 |
| (15,25) | 0.004 |
| (16,17) | 0.000 |
| (16,19) | 0.000 |
| (16,20) | 0.003 |
| (16,21) | 0.034 |
| (16,22) | 0.016 |
| (16,24) | 0.002 |
| (17,19) | 0.000 |
| (17,21) | 0.046 |
| (17,25) | 0.042 |
| (18,20) | 0.000 |
| (18,22) | 0.049 |
| (19,25) | 0.027 |
| (20,21) | 0.015 |
| (20,23) | 0.000 |
| (20,24) | 0.011 |
| (21,25) | 0.007 |
| (22,23) | 0.000 |
Burada, Rasch modelinin temel sayıltılarından biri olan yerel bağımsızlık varsayımının geçerliği, NPtest T1 yöntemi kullanılarak değerlendirilmiştir (Kreiner & Christensen, 2004). Analiz sonucunda toplam 300 madde çifti test edilmiş ve bunlar arasından 54 madde çiftinin bir taraflı p-değeri (one-sided \(p<0.05\)) manidar bulunmuştur. Bu durum, yerel bağımsızlık varsayımının bu çiftler arasında ihlal edildiğini göstermektedir. Özellikle (1,22), (5,21), (12,18), (15,25), (17,25), (18,20) gibi madde çiftlerinde gözlemlenen düşük p-değerleri (örneğin \(p = 0.001\), \(p = 0.002\)) madde yanıtları arasında beklenenden daha yüksek düzeyde ortak varyans bulunduğuna işaret etmektedir. Bu sonuç, söz konusu maddeler arasında muhtemel içerik örtüşmesi, benzer bilişsel talepler ya da test uygulama bağlamında ortak faktörlerin etkili olabileceğini düşündürmektedir (Marais & Andrich, 2008).
Yerel bağımsızlık ihlali, madde yanıtlarının yalnızca bireyin gizil özelliğine bağlı olması gerektiği varsayımına aykırıdır ve modelin geçerliğini zayıflatabilir. Bu nedenle, belirlenen bu madde çiftleri yeniden incelenmeli, içerik benzerlikleri ya da yapısal ilişkiler dikkate alınarak model revize edilmelidir. Uygulamada, bu tür ihlallerin modellenmesi için testlet modellemeleri ya da çok boyutlu Rasch modelleri önerilmektedir (Baghaei, 2008).
## Nonparametric RM model test: T11 (global test - local dependence)
## (sum of deviations between observed and expected inter-item
## correlations)
## Number of sampled matrices: 1000
## one-sided p-value: 0
Elde edilen madde karakteristik eğrileri (Item Characteristic Curves - ICC), Rasch modeli kapsamında her bir maddenin bireylerin yetenek düzeyine göre çözülme olasılıklarını yansıtmaktadır. Grafik, 25 maddelik bir test için hesaplanan Rasch modeline göre, her bir maddeye ilişkin eğrileri ortak bir çerçevede sunmaktadır. ICC’lerin genel şekli sigmoidal (S-şekilli) olup, Rasch modeli varsayımlarına uygun bir modelleme süreci izlendiğini göstermektedir (Bond & Fox, 2015). Bu eğrilerde yatay eksen bireyin gizil yetenek düzeyini (latent trait – θ), dikey eksen ise maddenin çözülme olasılığını ifade etmektedir. Her eğrinin yerleşimi ve eğimi, ilgili maddenin güçlük düzeyi ile ilişkilidir. Grafikte gözlemlenen temel özellikler şunlardır:
Maddelerin büyük çoğunluğu birbirine yakın pozisyonlarda gruplanmış, bu da testin maddelerinin benzer güçlük düzeylerine sahip olduğunu düşündürmektedir.
Bazı eğrilerin daha sola ya da sağa kaymış olması, ilgili maddenin göreli olarak daha kolay veya zor olduğunu göstermektedir. Örneğin; madde_21 ve madde_2 gibi eğrileri daha sola kaymış olan maddeler, düşük yetenek düzeyindeki bireyler tarafından dahi doğru yanıtlanma olasılığı yüksek olan maddelerdir. Buna karşın, sağa kaymış eğriler daha yüksek yetenek düzeyi gerektiren maddelerdir.
Eğriler birbirini kesmemekte ve tek tepe noktasına sahip olduğundan, modelin tek boyutluluk (unidimensionality) varsayımını görsel olarak da desteklediği söylenebilir (De Ayala, 2009).
Sonuç olarak, ICC eğrileri, madde işleyişi açısından Rasch modelinin temel varsayımlarına (tek boyutluluk ve monoton artış) büyük ölçüde uygunluk göstermektedir. Ancak modelin geçerliğini yalnızca görsel analizle değil, NPtest T1 ve T11 gibi daha güçlü istatistiksel testlerle de desteklemek gerekir (Koller, Alexandrowicz, & Hatzinger, 2012).
Yen İstatistiği ile Yerel Bağımsızlık:
## Iteration: 1, Log-Lik: -23303.739, Max-Change: 0.09815Iteration: 2, Log-Lik: -23297.714, Max-Change: 0.03942Iteration: 3, Log-Lik: -23296.554, Max-Change: 0.01672Iteration: 4, Log-Lik: -23296.277, Max-Change: 0.00737Iteration: 5, Log-Lik: -23296.188, Max-Change: 0.00328Iteration: 6, Log-Lik: -23296.148, Max-Change: 0.00197Iteration: 7, Log-Lik: -23296.093, Max-Change: 0.00090Iteration: 8, Log-Lik: -23296.089, Max-Change: 0.00060Iteration: 9, Log-Lik: -23296.087, Max-Change: 0.00047Iteration: 10, Log-Lik: -23296.083, Max-Change: 0.00014Iteration: 11, Log-Lik: -23296.083, Max-Change: 0.00009
library(mirt)
birpl_model <- "
F = 1-25
CONSTRAIN = (1-25, a1)
"
mod_1PL <- mirt(data = binary, model = birpl_model, SE = TRUE)## Iteration: 1, Log-Lik: -23301.605, Max-Change: 0.03341Iteration: 2, Log-Lik: -23298.121, Max-Change: 0.01431Iteration: 3, Log-Lik: -23297.001, Max-Change: 0.00930Iteration: 4, Log-Lik: -23296.236, Max-Change: 0.00344Iteration: 5, Log-Lik: -23296.163, Max-Change: 0.00217Iteration: 6, Log-Lik: -23296.128, Max-Change: 0.00210Iteration: 7, Log-Lik: -23296.101, Max-Change: 0.00113Iteration: 8, Log-Lik: -23296.094, Max-Change: 0.00096Iteration: 9, Log-Lik: -23296.090, Max-Change: 0.00031Iteration: 10, Log-Lik: -23296.090, Max-Change: 0.00025Iteration: 11, Log-Lik: -23296.089, Max-Change: 0.00065Iteration: 12, Log-Lik: -23296.087, Max-Change: 0.00017Iteration: 13, Log-Lik: -23296.087, Max-Change: 0.00013Iteration: 14, Log-Lik: -23296.087, Max-Change: 0.00045Iteration: 15, Log-Lik: -23296.086, Max-Change: 0.00025Iteration: 16, Log-Lik: -23296.085, Max-Change: 0.00011Iteration: 17, Log-Lik: -23296.085, Max-Change: 0.00019Iteration: 18, Log-Lik: -23296.085, Max-Change: 0.00008
##
## Calculating information matrix...
library(mirt)
ikipl_model <- "
F = 1-25
"
mod_2PL <- mirt(data = binary, model = ikipl_model, itemtype = "2PL", SE = TRUE)## Iteration: 1, Log-Lik: -23301.605, Max-Change: 0.36415Iteration: 2, Log-Lik: -23195.704, Max-Change: 0.12903Iteration: 3, Log-Lik: -23187.443, Max-Change: 0.05170Iteration: 4, Log-Lik: -23186.110, Max-Change: 0.02777Iteration: 5, Log-Lik: -23185.667, Max-Change: 0.01436Iteration: 6, Log-Lik: -23185.488, Max-Change: 0.00798Iteration: 7, Log-Lik: -23185.364, Max-Change: 0.00208Iteration: 8, Log-Lik: -23185.346, Max-Change: 0.00136Iteration: 9, Log-Lik: -23185.337, Max-Change: 0.00109Iteration: 10, Log-Lik: -23185.327, Max-Change: 0.00053Iteration: 11, Log-Lik: -23185.326, Max-Change: 0.00042Iteration: 12, Log-Lik: -23185.325, Max-Change: 0.00017Iteration: 13, Log-Lik: -23185.325, Max-Change: 0.00017Iteration: 14, Log-Lik: -23185.325, Max-Change: 0.00017Iteration: 15, Log-Lik: -23185.324, Max-Change: 0.00016Iteration: 16, Log-Lik: -23185.323, Max-Change: 0.00010
##
## Calculating information matrix...
library(mirt)
ucpl_model <- "
F = 1-25
"
mod_3PL <- mirt(data = binary, model = ucpl_model, itemtype = "3PL", SE = TRUE)## Iteration: 1, Log-Lik: -23475.118, Max-Change: 0.87773Iteration: 2, Log-Lik: -23196.171, Max-Change: 0.70725Iteration: 3, Log-Lik: -23131.871, Max-Change: 0.52430Iteration: 4, Log-Lik: -23108.030, Max-Change: 0.27898Iteration: 5, Log-Lik: -23096.875, Max-Change: 0.19118Iteration: 6, Log-Lik: -23090.447, Max-Change: 0.13125Iteration: 7, Log-Lik: -23086.142, Max-Change: 0.12323Iteration: 8, Log-Lik: -23083.646, Max-Change: 0.09615Iteration: 9, Log-Lik: -23082.131, Max-Change: 0.06493Iteration: 10, Log-Lik: -23080.478, Max-Change: 0.08297Iteration: 11, Log-Lik: -23079.866, Max-Change: 0.07340Iteration: 12, Log-Lik: -23079.373, Max-Change: 0.02644Iteration: 13, Log-Lik: -23078.931, Max-Change: 0.06015Iteration: 14, Log-Lik: -23078.693, Max-Change: 0.04940Iteration: 15, Log-Lik: -23078.516, Max-Change: 0.04514Iteration: 16, Log-Lik: -23078.019, Max-Change: 0.01058Iteration: 17, Log-Lik: -23077.994, Max-Change: 0.00197Iteration: 18, Log-Lik: -23077.990, Max-Change: 0.00148Iteration: 19, Log-Lik: -23077.987, Max-Change: 0.00154Iteration: 20, Log-Lik: -23077.982, Max-Change: 0.00122Iteration: 21, Log-Lik: -23077.978, Max-Change: 0.00128Iteration: 22, Log-Lik: -23077.971, Max-Change: 0.00260Iteration: 23, Log-Lik: -23077.971, Max-Change: 0.00101Iteration: 24, Log-Lik: -23077.970, Max-Change: 0.00030Iteration: 25, Log-Lik: -23077.970, Max-Change: 0.00027Iteration: 26, Log-Lik: -23077.970, Max-Change: 0.00076Iteration: 27, Log-Lik: -23077.970, Max-Change: 0.00086Iteration: 28, Log-Lik: -23077.970, Max-Change: 0.00033Iteration: 29, Log-Lik: -23077.970, Max-Change: 0.00039Iteration: 30, Log-Lik: -23077.970, Max-Change: 0.00052Iteration: 31, Log-Lik: -23077.970, Max-Change: 0.00021
##
## Calculating information matrix...
## Q3 summary statistics:
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.128 -0.059 -0.038 -0.035 -0.012 0.097
##
## madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1 1.000 -0.056 -0.073 0.039 0.038 -0.079 -0.128 -0.029
## madde_2 -0.056 1.000 0.009 -0.059 -0.074 -0.051 -0.055 -0.040
## madde_3 -0.073 0.009 1.000 -0.015 -0.095 -0.074 -0.094 -0.026
## madde_4 0.039 -0.059 -0.015 1.000 0.028 0.003 -0.032 -0.074
## madde_5 0.038 -0.074 -0.095 0.028 1.000 0.027 -0.008 -0.047
## madde_6 -0.079 -0.051 -0.074 0.003 0.027 1.000 0.097 -0.059
## madde_7 -0.128 -0.055 -0.094 -0.032 -0.008 0.097 1.000 0.015
## madde_8 -0.029 -0.040 -0.026 -0.074 -0.047 -0.059 0.015 1.000
## madde_9 -0.082 -0.099 -0.048 -0.020 -0.095 -0.057 -0.091 -0.114
## madde_10 0.057 -0.061 -0.045 -0.038 -0.058 -0.071 0.003 0.034
## madde_11 -0.051 0.004 -0.094 -0.061 -0.055 -0.040 -0.059 -0.044
## madde_12 -0.071 -0.001 -0.075 -0.028 -0.031 -0.092 -0.011 0.001
## madde_13 -0.074 -0.039 -0.023 -0.083 -0.089 0.015 -0.064 -0.033
## madde_14 -0.061 -0.007 0.012 -0.055 -0.037 -0.039 -0.071 -0.094
## madde_15 -0.033 -0.020 -0.067 -0.010 -0.032 -0.069 -0.053 -0.093
## madde_16 0.036 -0.040 -0.095 -0.040 0.055 -0.096 0.019 -0.021
## madde_17 -0.010 -0.024 -0.037 -0.059 -0.091 -0.102 -0.029 -0.053
## madde_18 0.002 -0.069 -0.052 -0.056 -0.018 -0.016 -0.033 -0.021
## madde_19 -0.050 -0.032 -0.072 -0.034 -0.056 -0.024 -0.020 -0.008
## madde_20 0.047 -0.026 -0.029 -0.044 -0.057 -0.024 -0.095 -0.043
## madde_21 0.043 -0.001 -0.040 -0.020 -0.002 -0.029 -0.050 0.015
## madde_22 -0.018 -0.050 -0.066 -0.022 -0.025 -0.063 -0.025 -0.068
## madde_23 -0.014 -0.004 -0.054 -0.017 -0.046 -0.026 -0.035 -0.092
## madde_24 -0.021 -0.082 -0.050 -0.087 0.043 0.012 -0.007 -0.038
## madde_25 -0.034 -0.068 -0.056 -0.009 0.004 0.012 -0.022 0.012
## madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1 -0.082 0.057 -0.051 -0.071 -0.074 -0.061 -0.033 0.036
## madde_2 -0.099 -0.061 0.004 -0.001 -0.039 -0.007 -0.020 -0.040
## madde_3 -0.048 -0.045 -0.094 -0.075 -0.023 0.012 -0.067 -0.095
## madde_4 -0.020 -0.038 -0.061 -0.028 -0.083 -0.055 -0.010 -0.040
## madde_5 -0.095 -0.058 -0.055 -0.031 -0.089 -0.037 -0.032 0.055
## madde_6 -0.057 -0.071 -0.040 -0.092 0.015 -0.039 -0.069 -0.096
## madde_7 -0.091 0.003 -0.059 -0.011 -0.064 -0.071 -0.053 0.019
## madde_8 -0.114 0.034 -0.044 0.001 -0.033 -0.094 -0.093 -0.021
## madde_9 1.000 -0.058 -0.009 -0.016 0.010 -0.010 -0.026 -0.071
## madde_10 -0.058 1.000 -0.057 -0.081 -0.065 -0.066 -0.058 -0.069
## madde_11 -0.009 -0.057 1.000 -0.057 0.020 -0.073 0.021 0.022
## madde_12 -0.016 -0.081 -0.057 1.000 -0.013 -0.078 -0.026 -0.037
## madde_13 0.010 -0.065 0.020 -0.013 1.000 0.070 -0.028 -0.088
## madde_14 -0.010 -0.066 -0.073 -0.078 0.070 1.000 -0.039 -0.055
## madde_15 -0.026 -0.058 0.021 -0.026 -0.028 -0.039 1.000 0.027
## madde_16 -0.071 -0.069 0.022 -0.037 -0.088 -0.055 0.027 1.000
## madde_17 -0.047 -0.065 -0.047 -0.024 -0.058 -0.019 -0.018 0.001
## madde_18 -0.009 0.060 -0.065 -0.006 -0.062 -0.072 -0.079 -0.049
## madde_19 -0.024 -0.017 -0.056 -0.008 -0.105 -0.025 -0.058 0.023
## madde_20 -0.063 0.018 -0.060 0.018 -0.052 -0.046 -0.053 0.014
## madde_21 -0.050 -0.011 -0.049 0.013 -0.107 -0.102 -0.048 -0.013
## madde_22 0.004 0.009 -0.024 -0.045 -0.057 -0.057 -0.007 -0.018
## madde_23 -0.005 -0.052 -0.044 -0.009 -0.028 -0.064 -0.030 -0.101
## madde_24 -0.026 -0.026 -0.029 -0.075 -0.099 -0.057 -0.056 -0.009
## madde_25 -0.068 -0.031 -0.064 -0.040 -0.044 -0.029 0.008 -0.039
## madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1 -0.010 0.002 -0.050 0.047 0.043 -0.018 -0.014
## madde_2 -0.024 -0.069 -0.032 -0.026 -0.001 -0.050 -0.004
## madde_3 -0.037 -0.052 -0.072 -0.029 -0.040 -0.066 -0.054
## madde_4 -0.059 -0.056 -0.034 -0.044 -0.020 -0.022 -0.017
## madde_5 -0.091 -0.018 -0.056 -0.057 -0.002 -0.025 -0.046
## madde_6 -0.102 -0.016 -0.024 -0.024 -0.029 -0.063 -0.026
## madde_7 -0.029 -0.033 -0.020 -0.095 -0.050 -0.025 -0.035
## madde_8 -0.053 -0.021 -0.008 -0.043 0.015 -0.068 -0.092
## madde_9 -0.047 -0.009 -0.024 -0.063 -0.050 0.004 -0.005
## madde_10 -0.065 0.060 -0.017 0.018 -0.011 0.009 -0.052
## madde_11 -0.047 -0.065 -0.056 -0.060 -0.049 -0.024 -0.044
## madde_12 -0.024 -0.006 -0.008 0.018 0.013 -0.045 -0.009
## madde_13 -0.058 -0.062 -0.105 -0.052 -0.107 -0.057 -0.028
## madde_14 -0.019 -0.072 -0.025 -0.046 -0.102 -0.057 -0.064
## madde_15 -0.018 -0.079 -0.058 -0.053 -0.048 -0.007 -0.030
## madde_16 0.001 -0.049 0.023 0.014 -0.013 -0.018 -0.101
## madde_17 1.000 -0.048 0.038 -0.048 0.052 -0.031 -0.028
## madde_18 -0.048 1.000 -0.049 -0.024 -0.054 0.050 -0.025
## madde_19 0.038 -0.049 1.000 -0.069 -0.035 -0.054 -0.066
## madde_20 -0.048 -0.024 -0.069 1.000 -0.031 -0.048 0.002
## madde_21 0.052 -0.054 -0.035 -0.031 1.000 -0.079 -0.031
## madde_22 -0.031 0.050 -0.054 -0.048 -0.079 1.000 0.030
## madde_23 -0.028 -0.025 -0.066 0.002 -0.031 0.030 1.000
## madde_24 -0.032 -0.037 -0.041 0.022 -0.027 0.004 -0.045
## madde_25 -0.012 -0.044 0.003 -0.032 -0.007 -0.028 -0.067
## madde_24 madde_25
## madde_1 -0.021 -0.034
## madde_2 -0.082 -0.068
## madde_3 -0.050 -0.056
## madde_4 -0.087 -0.009
## madde_5 0.043 0.004
## madde_6 0.012 0.012
## madde_7 -0.007 -0.022
## madde_8 -0.038 0.012
## madde_9 -0.026 -0.068
## madde_10 -0.026 -0.031
## madde_11 -0.029 -0.064
## madde_12 -0.075 -0.040
## madde_13 -0.099 -0.044
## madde_14 -0.057 -0.029
## madde_15 -0.056 0.008
## madde_16 -0.009 -0.039
## madde_17 -0.032 -0.012
## madde_18 -0.037 -0.044
## madde_19 -0.041 0.003
## madde_20 0.022 -0.032
## madde_21 -0.027 -0.007
## madde_22 0.004 -0.028
## madde_23 -0.045 -0.067
## madde_24 1.000 -0.107
## madde_25 -0.107 1.000
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.12800 -0.05871 -0.03753 -0.03528 -0.01230 0.09683
library(kableExtra)
q3_df <- as.data.frame(q3_rasch)
q3_df$Madde <- rownames(q3_df)
q3_df <- q3_df[, c(ncol(q3_df), 1:(ncol(q3_df) - 1))]
q3_df %>% kable(format = "html", digits = 3, caption = "Rasch Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_rasch))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")| Madde | madde_1 | madde_2 | madde_3 | madde_4 | madde_5 | madde_6 | madde_7 | madde_8 | madde_9 | madde_10 | madde_11 | madde_12 | madde_13 | madde_14 | madde_15 | madde_16 | madde_17 | madde_18 | madde_19 | madde_20 | madde_21 | madde_22 | madde_23 | madde_24 | madde_25 | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| madde_1 | madde_1 | 1.000 | -0.056 | -0.073 | 0.039 | 0.038 | -0.079 | -0.128 | -0.029 | -0.082 | 0.057 | -0.051 | -0.071 | -0.074 | -0.061 | -0.033 | 0.036 | -0.010 | 0.002 | -0.050 | 0.047 | 0.043 | -0.018 | -0.014 | -0.021 | -0.034 |
| madde_2 | madde_2 | -0.056 | 1.000 | 0.009 | -0.059 | -0.074 | -0.051 | -0.055 | -0.040 | -0.099 | -0.061 | 0.004 | -0.001 | -0.039 | -0.007 | -0.020 | -0.040 | -0.024 | -0.069 | -0.032 | -0.026 | -0.001 | -0.050 | -0.004 | -0.082 | -0.068 |
| madde_3 | madde_3 | -0.073 | 0.009 | 1.000 | -0.015 | -0.095 | -0.074 | -0.094 | -0.026 | -0.048 | -0.045 | -0.094 | -0.075 | -0.023 | 0.012 | -0.067 | -0.095 | -0.037 | -0.052 | -0.072 | -0.029 | -0.040 | -0.066 | -0.054 | -0.050 | -0.056 |
| madde_4 | madde_4 | 0.039 | -0.059 | -0.015 | 1.000 | 0.028 | 0.003 | -0.032 | -0.074 | -0.020 | -0.038 | -0.061 | -0.028 | -0.083 | -0.055 | -0.010 | -0.040 | -0.059 | -0.056 | -0.034 | -0.044 | -0.020 | -0.022 | -0.017 | -0.087 | -0.009 |
| madde_5 | madde_5 | 0.038 | -0.074 | -0.095 | 0.028 | 1.000 | 0.027 | -0.008 | -0.047 | -0.095 | -0.058 | -0.055 | -0.031 | -0.089 | -0.037 | -0.032 | 0.055 | -0.091 | -0.018 | -0.056 | -0.057 | -0.002 | -0.025 | -0.046 | 0.043 | 0.004 |
| madde_6 | madde_6 | -0.079 | -0.051 | -0.074 | 0.003 | 0.027 | 1.000 | 0.097 | -0.059 | -0.057 | -0.071 | -0.040 | -0.092 | 0.015 | -0.039 | -0.069 | -0.096 | -0.102 | -0.016 | -0.024 | -0.024 | -0.029 | -0.063 | -0.026 | 0.012 | 0.012 |
| madde_7 | madde_7 | -0.128 | -0.055 | -0.094 | -0.032 | -0.008 | 0.097 | 1.000 | 0.015 | -0.091 | 0.003 | -0.059 | -0.011 | -0.064 | -0.071 | -0.053 | 0.019 | -0.029 | -0.033 | -0.020 | -0.095 | -0.050 | -0.025 | -0.035 | -0.007 | -0.022 |
| madde_8 | madde_8 | -0.029 | -0.040 | -0.026 | -0.074 | -0.047 | -0.059 | 0.015 | 1.000 | -0.114 | 0.034 | -0.044 | 0.001 | -0.033 | -0.094 | -0.093 | -0.021 | -0.053 | -0.021 | -0.008 | -0.043 | 0.015 | -0.068 | -0.092 | -0.038 | 0.012 |
| madde_9 | madde_9 | -0.082 | -0.099 | -0.048 | -0.020 | -0.095 | -0.057 | -0.091 | -0.114 | 1.000 | -0.058 | -0.009 | -0.016 | 0.010 | -0.010 | -0.026 | -0.071 | -0.047 | -0.009 | -0.024 | -0.063 | -0.050 | 0.004 | -0.005 | -0.026 | -0.068 |
| madde_10 | madde_10 | 0.057 | -0.061 | -0.045 | -0.038 | -0.058 | -0.071 | 0.003 | 0.034 | -0.058 | 1.000 | -0.057 | -0.081 | -0.065 | -0.066 | -0.058 | -0.069 | -0.065 | 0.060 | -0.017 | 0.018 | -0.011 | 0.009 | -0.052 | -0.026 | -0.031 |
| madde_11 | madde_11 | -0.051 | 0.004 | -0.094 | -0.061 | -0.055 | -0.040 | -0.059 | -0.044 | -0.009 | -0.057 | 1.000 | -0.057 | 0.020 | -0.073 | 0.021 | 0.022 | -0.047 | -0.065 | -0.056 | -0.060 | -0.049 | -0.024 | -0.044 | -0.029 | -0.064 |
| madde_12 | madde_12 | -0.071 | -0.001 | -0.075 | -0.028 | -0.031 | -0.092 | -0.011 | 0.001 | -0.016 | -0.081 | -0.057 | 1.000 | -0.013 | -0.078 | -0.026 | -0.037 | -0.024 | -0.006 | -0.008 | 0.018 | 0.013 | -0.045 | -0.009 | -0.075 | -0.040 |
| madde_13 | madde_13 | -0.074 | -0.039 | -0.023 | -0.083 | -0.089 | 0.015 | -0.064 | -0.033 | 0.010 | -0.065 | 0.020 | -0.013 | 1.000 | 0.070 | -0.028 | -0.088 | -0.058 | -0.062 | -0.105 | -0.052 | -0.107 | -0.057 | -0.028 | -0.099 | -0.044 |
| madde_14 | madde_14 | -0.061 | -0.007 | 0.012 | -0.055 | -0.037 | -0.039 | -0.071 | -0.094 | -0.010 | -0.066 | -0.073 | -0.078 | 0.070 | 1.000 | -0.039 | -0.055 | -0.019 | -0.072 | -0.025 | -0.046 | -0.102 | -0.057 | -0.064 | -0.057 | -0.029 |
| madde_15 | madde_15 | -0.033 | -0.020 | -0.067 | -0.010 | -0.032 | -0.069 | -0.053 | -0.093 | -0.026 | -0.058 | 0.021 | -0.026 | -0.028 | -0.039 | 1.000 | 0.027 | -0.018 | -0.079 | -0.058 | -0.053 | -0.048 | -0.007 | -0.030 | -0.056 | 0.008 |
| madde_16 | madde_16 | 0.036 | -0.040 | -0.095 | -0.040 | 0.055 | -0.096 | 0.019 | -0.021 | -0.071 | -0.069 | 0.022 | -0.037 | -0.088 | -0.055 | 0.027 | 1.000 | 0.001 | -0.049 | 0.023 | 0.014 | -0.013 | -0.018 | -0.101 | -0.009 | -0.039 |
| madde_17 | madde_17 | -0.010 | -0.024 | -0.037 | -0.059 | -0.091 | -0.102 | -0.029 | -0.053 | -0.047 | -0.065 | -0.047 | -0.024 | -0.058 | -0.019 | -0.018 | 0.001 | 1.000 | -0.048 | 0.038 | -0.048 | 0.052 | -0.031 | -0.028 | -0.032 | -0.012 |
| madde_18 | madde_18 | 0.002 | -0.069 | -0.052 | -0.056 | -0.018 | -0.016 | -0.033 | -0.021 | -0.009 | 0.060 | -0.065 | -0.006 | -0.062 | -0.072 | -0.079 | -0.049 | -0.048 | 1.000 | -0.049 | -0.024 | -0.054 | 0.050 | -0.025 | -0.037 | -0.044 |
| madde_19 | madde_19 | -0.050 | -0.032 | -0.072 | -0.034 | -0.056 | -0.024 | -0.020 | -0.008 | -0.024 | -0.017 | -0.056 | -0.008 | -0.105 | -0.025 | -0.058 | 0.023 | 0.038 | -0.049 | 1.000 | -0.069 | -0.035 | -0.054 | -0.066 | -0.041 | 0.003 |
| madde_20 | madde_20 | 0.047 | -0.026 | -0.029 | -0.044 | -0.057 | -0.024 | -0.095 | -0.043 | -0.063 | 0.018 | -0.060 | 0.018 | -0.052 | -0.046 | -0.053 | 0.014 | -0.048 | -0.024 | -0.069 | 1.000 | -0.031 | -0.048 | 0.002 | 0.022 | -0.032 |
| madde_21 | madde_21 | 0.043 | -0.001 | -0.040 | -0.020 | -0.002 | -0.029 | -0.050 | 0.015 | -0.050 | -0.011 | -0.049 | 0.013 | -0.107 | -0.102 | -0.048 | -0.013 | 0.052 | -0.054 | -0.035 | -0.031 | 1.000 | -0.079 | -0.031 | -0.027 | -0.007 |
| madde_22 | madde_22 | -0.018 | -0.050 | -0.066 | -0.022 | -0.025 | -0.063 | -0.025 | -0.068 | 0.004 | 0.009 | -0.024 | -0.045 | -0.057 | -0.057 | -0.007 | -0.018 | -0.031 | 0.050 | -0.054 | -0.048 | -0.079 | 1.000 | 0.030 | 0.004 | -0.028 |
| madde_23 | madde_23 | -0.014 | -0.004 | -0.054 | -0.017 | -0.046 | -0.026 | -0.035 | -0.092 | -0.005 | -0.052 | -0.044 | -0.009 | -0.028 | -0.064 | -0.030 | -0.101 | -0.028 | -0.025 | -0.066 | 0.002 | -0.031 | 0.030 | 1.000 | -0.045 | -0.067 |
| madde_24 | madde_24 | -0.021 | -0.082 | -0.050 | -0.087 | 0.043 | 0.012 | -0.007 | -0.038 | -0.026 | -0.026 | -0.029 | -0.075 | -0.099 | -0.057 | -0.056 | -0.009 | -0.032 | -0.037 | -0.041 | 0.022 | -0.027 | 0.004 | -0.045 | 1.000 | -0.107 |
| madde_25 | madde_25 | -0.034 | -0.068 | -0.056 | -0.009 | 0.004 | 0.012 | -0.022 | 0.012 | -0.068 | -0.031 | -0.064 | -0.040 | -0.044 | -0.029 | 0.008 | -0.039 | -0.012 | -0.044 | 0.003 | -0.032 | -0.007 | -0.028 | -0.067 | -0.107 | 1.000 |
Yukarıda sunulan tablo, Rasch modeli kapsamında tahmin edilen Yen Q3 artıklık korelasyonlarını göstermektedir. Bu korelasyonlar, her bir madde çifti için bireylerin model tarafından tahmin edilen yanıtları ile gözlenen yanıtları arasındaki artıklıkların korelasyonudur. Yen Q3 istatistiği, yerel bağımsızlık varsayımını değerlendirmek için sıklıkla kullanılır ve maddeler arasında model dışı kalan ortak varyansın (local dependence) bir göstergesi olarak kabul edilir (Yen, 1993; Chalmers, 2012).
Rasch modelinin temel varsayımlarından biri olan yerel bağımsızlık, tüm maddelerin yalnızca tek bir gizil özellik (yetenek düzeyi, θ) ile ilişkili olduğunu, dolayısıyla maddeler arasında doğrudan korelasyon bulunmaması gerektiğini öngörür. Bu varsayımın ihlali, madde çiftleri arasında yüksek artıklık korelasyonlarının (Q3) gözlenmesiyle anlaşılır. Literatürde \(Q3 > 0.20\) düzeyindeki değerler genellikle yerel bağımlılık şüphesi olarak değerlendirilir (Yen, 1993; Christensen et al., 2017).
Bu çalışmada elde edilen Q3 özet istatistiklerine göre, Q3 değerlerinin ortalaması \(-0.035\), medyanı \(-0.038\) ve maksimum değeri ise \(0.097\) olarak hesaplanmıştır. Tüm madde çiftleri arasında en yüksek pozitif artıklık korelasyonu \(0.097\) olup, bu değer dahi literatürde belirtilen \(0.20\) sınırının oldukça altında kalmaktadır. Ayrıca minimum Q3 değeri \(-0.128\) ile negatif yönde olmakla birlikte, bu durum genellikle model uyumunu bozacak ölçüde bir sorun olarak değerlendirilmez. Q3 dağılımının bu şekilde ortalamaya yakın, düşük varyanslı ve simetrik olması, modelin madde bağımsızlığı varsayımına büyük ölçüde uyduğunu göstermektedir.
Sonuç olarak, Rasch modeli altında elde edilen Q3 artıklık korelasyonları, test maddeleri arasında dikkate değer bir yerel bağımlılık bulunmadığını ve modelin tek boyutluluk ve yerel bağımsızlık varsayımlarına uygun olduğunu göstermektedir. Bu bulgu, Rasch modelinin söz konusu veri seti üzerinde kullanılabilirliğini ve ölçme geçerliğini desteklemektedir.
## Q3 summary statistics:
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.128 -0.059 -0.038 -0.035 -0.012 0.097
##
## madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1 1.000 -0.056 -0.073 0.039 0.038 -0.079 -0.128 -0.029
## madde_2 -0.056 1.000 0.009 -0.059 -0.074 -0.051 -0.055 -0.040
## madde_3 -0.073 0.009 1.000 -0.015 -0.095 -0.074 -0.094 -0.026
## madde_4 0.039 -0.059 -0.015 1.000 0.028 0.003 -0.032 -0.074
## madde_5 0.038 -0.074 -0.095 0.028 1.000 0.027 -0.008 -0.047
## madde_6 -0.079 -0.051 -0.074 0.003 0.027 1.000 0.097 -0.059
## madde_7 -0.128 -0.055 -0.094 -0.032 -0.008 0.097 1.000 0.015
## madde_8 -0.029 -0.040 -0.026 -0.074 -0.047 -0.059 0.015 1.000
## madde_9 -0.082 -0.099 -0.048 -0.020 -0.095 -0.057 -0.091 -0.114
## madde_10 0.057 -0.061 -0.045 -0.038 -0.058 -0.071 0.003 0.034
## madde_11 -0.051 0.004 -0.094 -0.061 -0.055 -0.040 -0.059 -0.044
## madde_12 -0.071 -0.001 -0.075 -0.028 -0.031 -0.092 -0.011 0.001
## madde_13 -0.074 -0.039 -0.023 -0.083 -0.089 0.015 -0.064 -0.033
## madde_14 -0.061 -0.007 0.012 -0.055 -0.037 -0.039 -0.071 -0.094
## madde_15 -0.033 -0.020 -0.067 -0.010 -0.032 -0.069 -0.053 -0.093
## madde_16 0.036 -0.040 -0.095 -0.040 0.055 -0.096 0.019 -0.021
## madde_17 -0.010 -0.024 -0.037 -0.059 -0.091 -0.102 -0.029 -0.053
## madde_18 0.002 -0.069 -0.052 -0.056 -0.018 -0.016 -0.033 -0.021
## madde_19 -0.050 -0.032 -0.072 -0.034 -0.056 -0.024 -0.020 -0.008
## madde_20 0.047 -0.026 -0.029 -0.044 -0.057 -0.024 -0.095 -0.043
## madde_21 0.043 -0.001 -0.040 -0.020 -0.002 -0.029 -0.050 0.015
## madde_22 -0.018 -0.050 -0.066 -0.022 -0.025 -0.063 -0.025 -0.068
## madde_23 -0.014 -0.004 -0.054 -0.017 -0.046 -0.026 -0.035 -0.092
## madde_24 -0.021 -0.082 -0.050 -0.087 0.043 0.012 -0.007 -0.038
## madde_25 -0.034 -0.068 -0.056 -0.009 0.004 0.012 -0.022 0.012
## madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1 -0.082 0.057 -0.051 -0.071 -0.074 -0.061 -0.033 0.036
## madde_2 -0.099 -0.061 0.004 -0.001 -0.039 -0.007 -0.020 -0.040
## madde_3 -0.048 -0.045 -0.094 -0.075 -0.023 0.012 -0.067 -0.095
## madde_4 -0.020 -0.038 -0.061 -0.028 -0.083 -0.055 -0.010 -0.040
## madde_5 -0.095 -0.058 -0.055 -0.031 -0.089 -0.037 -0.032 0.055
## madde_6 -0.057 -0.071 -0.040 -0.092 0.015 -0.039 -0.069 -0.096
## madde_7 -0.091 0.003 -0.059 -0.011 -0.064 -0.071 -0.053 0.019
## madde_8 -0.114 0.034 -0.044 0.001 -0.033 -0.094 -0.093 -0.021
## madde_9 1.000 -0.058 -0.009 -0.016 0.010 -0.010 -0.026 -0.071
## madde_10 -0.058 1.000 -0.057 -0.081 -0.065 -0.066 -0.058 -0.069
## madde_11 -0.009 -0.057 1.000 -0.057 0.020 -0.073 0.021 0.022
## madde_12 -0.016 -0.081 -0.057 1.000 -0.013 -0.078 -0.026 -0.037
## madde_13 0.010 -0.065 0.020 -0.013 1.000 0.070 -0.028 -0.088
## madde_14 -0.010 -0.066 -0.073 -0.078 0.070 1.000 -0.039 -0.055
## madde_15 -0.026 -0.058 0.021 -0.026 -0.028 -0.039 1.000 0.027
## madde_16 -0.071 -0.069 0.022 -0.037 -0.088 -0.055 0.027 1.000
## madde_17 -0.047 -0.065 -0.047 -0.024 -0.058 -0.019 -0.018 0.001
## madde_18 -0.009 0.060 -0.065 -0.006 -0.062 -0.072 -0.079 -0.049
## madde_19 -0.024 -0.017 -0.056 -0.008 -0.105 -0.025 -0.058 0.023
## madde_20 -0.063 0.018 -0.060 0.018 -0.052 -0.046 -0.053 0.014
## madde_21 -0.050 -0.011 -0.049 0.013 -0.107 -0.102 -0.048 -0.013
## madde_22 0.004 0.009 -0.024 -0.045 -0.057 -0.057 -0.007 -0.018
## madde_23 -0.005 -0.052 -0.044 -0.009 -0.028 -0.064 -0.030 -0.101
## madde_24 -0.026 -0.026 -0.029 -0.075 -0.099 -0.057 -0.056 -0.009
## madde_25 -0.068 -0.031 -0.064 -0.040 -0.044 -0.029 0.008 -0.039
## madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1 -0.010 0.002 -0.050 0.047 0.043 -0.018 -0.014
## madde_2 -0.024 -0.069 -0.032 -0.026 -0.001 -0.050 -0.004
## madde_3 -0.037 -0.052 -0.072 -0.029 -0.040 -0.066 -0.054
## madde_4 -0.059 -0.056 -0.034 -0.044 -0.020 -0.022 -0.017
## madde_5 -0.091 -0.018 -0.056 -0.057 -0.002 -0.025 -0.046
## madde_6 -0.102 -0.016 -0.024 -0.024 -0.029 -0.063 -0.026
## madde_7 -0.029 -0.033 -0.020 -0.095 -0.050 -0.025 -0.035
## madde_8 -0.053 -0.021 -0.008 -0.043 0.015 -0.068 -0.092
## madde_9 -0.047 -0.009 -0.024 -0.063 -0.050 0.004 -0.005
## madde_10 -0.065 0.060 -0.017 0.018 -0.011 0.009 -0.052
## madde_11 -0.047 -0.065 -0.056 -0.060 -0.049 -0.024 -0.044
## madde_12 -0.024 -0.006 -0.008 0.018 0.013 -0.045 -0.009
## madde_13 -0.058 -0.062 -0.105 -0.052 -0.107 -0.057 -0.028
## madde_14 -0.019 -0.072 -0.025 -0.046 -0.102 -0.057 -0.064
## madde_15 -0.018 -0.079 -0.058 -0.053 -0.048 -0.007 -0.030
## madde_16 0.001 -0.049 0.023 0.014 -0.013 -0.018 -0.101
## madde_17 1.000 -0.048 0.038 -0.048 0.052 -0.031 -0.028
## madde_18 -0.048 1.000 -0.049 -0.024 -0.054 0.050 -0.025
## madde_19 0.038 -0.049 1.000 -0.069 -0.035 -0.054 -0.066
## madde_20 -0.048 -0.024 -0.069 1.000 -0.031 -0.048 0.002
## madde_21 0.052 -0.054 -0.035 -0.031 1.000 -0.079 -0.031
## madde_22 -0.031 0.050 -0.054 -0.048 -0.079 1.000 0.030
## madde_23 -0.028 -0.025 -0.066 0.002 -0.031 0.030 1.000
## madde_24 -0.032 -0.037 -0.041 0.022 -0.027 0.004 -0.045
## madde_25 -0.012 -0.044 0.003 -0.032 -0.007 -0.028 -0.067
## madde_24 madde_25
## madde_1 -0.021 -0.034
## madde_2 -0.082 -0.068
## madde_3 -0.050 -0.056
## madde_4 -0.087 -0.009
## madde_5 0.043 0.004
## madde_6 0.012 0.012
## madde_7 -0.007 -0.022
## madde_8 -0.038 0.012
## madde_9 -0.026 -0.068
## madde_10 -0.026 -0.031
## madde_11 -0.029 -0.064
## madde_12 -0.075 -0.040
## madde_13 -0.099 -0.044
## madde_14 -0.057 -0.029
## madde_15 -0.056 0.008
## madde_16 -0.009 -0.039
## madde_17 -0.032 -0.012
## madde_18 -0.037 -0.044
## madde_19 -0.041 0.003
## madde_20 0.022 -0.032
## madde_21 -0.027 -0.007
## madde_22 0.004 -0.028
## madde_23 -0.045 -0.067
## madde_24 1.000 -0.107
## madde_25 -0.107 1.000
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.12800 -0.05871 -0.03752 -0.03528 -0.01229 0.09684
library(kableExtra)
q3_1pl_df <- as.data.frame(q3_1pl)
q3_1pl_df$Madde <- rownames(q3_1pl_df)
q3_1pl_df <- q3_1pl_df[, c(ncol(q3_1pl_df), 1:(ncol(q3_1pl_df)-1))]
q3_1pl_df %>% kable(format = "html", digits = 3, caption = "1PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_1pl))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")| Madde | madde_1 | madde_2 | madde_3 | madde_4 | madde_5 | madde_6 | madde_7 | madde_8 | madde_9 | madde_10 | madde_11 | madde_12 | madde_13 | madde_14 | madde_15 | madde_16 | madde_17 | madde_18 | madde_19 | madde_20 | madde_21 | madde_22 | madde_23 | madde_24 | madde_25 | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| madde_1 | madde_1 | 1.000 | -0.056 | -0.073 | 0.039 | 0.038 | -0.079 | -0.128 | -0.029 | -0.082 | 0.057 | -0.051 | -0.071 | -0.074 | -0.061 | -0.033 | 0.036 | -0.010 | 0.002 | -0.050 | 0.047 | 0.043 | -0.018 | -0.014 | -0.021 | -0.034 |
| madde_2 | madde_2 | -0.056 | 1.000 | 0.009 | -0.059 | -0.074 | -0.051 | -0.055 | -0.040 | -0.099 | -0.061 | 0.004 | -0.001 | -0.039 | -0.007 | -0.020 | -0.040 | -0.024 | -0.069 | -0.032 | -0.026 | -0.001 | -0.050 | -0.004 | -0.082 | -0.068 |
| madde_3 | madde_3 | -0.073 | 0.009 | 1.000 | -0.015 | -0.095 | -0.074 | -0.094 | -0.026 | -0.048 | -0.045 | -0.094 | -0.075 | -0.023 | 0.012 | -0.067 | -0.095 | -0.037 | -0.052 | -0.072 | -0.029 | -0.040 | -0.066 | -0.054 | -0.050 | -0.056 |
| madde_4 | madde_4 | 0.039 | -0.059 | -0.015 | 1.000 | 0.028 | 0.003 | -0.032 | -0.074 | -0.020 | -0.038 | -0.061 | -0.028 | -0.083 | -0.055 | -0.010 | -0.040 | -0.059 | -0.056 | -0.034 | -0.044 | -0.020 | -0.022 | -0.017 | -0.087 | -0.009 |
| madde_5 | madde_5 | 0.038 | -0.074 | -0.095 | 0.028 | 1.000 | 0.027 | -0.008 | -0.047 | -0.095 | -0.058 | -0.055 | -0.031 | -0.089 | -0.037 | -0.032 | 0.055 | -0.091 | -0.018 | -0.056 | -0.057 | -0.002 | -0.025 | -0.046 | 0.043 | 0.004 |
| madde_6 | madde_6 | -0.079 | -0.051 | -0.074 | 0.003 | 0.027 | 1.000 | 0.097 | -0.059 | -0.057 | -0.071 | -0.040 | -0.092 | 0.015 | -0.039 | -0.069 | -0.096 | -0.102 | -0.016 | -0.024 | -0.024 | -0.029 | -0.063 | -0.026 | 0.012 | 0.012 |
| madde_7 | madde_7 | -0.128 | -0.055 | -0.094 | -0.032 | -0.008 | 0.097 | 1.000 | 0.015 | -0.091 | 0.003 | -0.059 | -0.011 | -0.064 | -0.071 | -0.053 | 0.019 | -0.029 | -0.033 | -0.020 | -0.095 | -0.050 | -0.025 | -0.035 | -0.007 | -0.022 |
| madde_8 | madde_8 | -0.029 | -0.040 | -0.026 | -0.074 | -0.047 | -0.059 | 0.015 | 1.000 | -0.114 | 0.034 | -0.044 | 0.001 | -0.033 | -0.094 | -0.093 | -0.021 | -0.053 | -0.021 | -0.008 | -0.043 | 0.015 | -0.068 | -0.092 | -0.038 | 0.012 |
| madde_9 | madde_9 | -0.082 | -0.099 | -0.048 | -0.020 | -0.095 | -0.057 | -0.091 | -0.114 | 1.000 | -0.058 | -0.009 | -0.016 | 0.010 | -0.010 | -0.026 | -0.071 | -0.047 | -0.009 | -0.024 | -0.063 | -0.050 | 0.004 | -0.005 | -0.026 | -0.068 |
| madde_10 | madde_10 | 0.057 | -0.061 | -0.045 | -0.038 | -0.058 | -0.071 | 0.003 | 0.034 | -0.058 | 1.000 | -0.057 | -0.081 | -0.065 | -0.066 | -0.058 | -0.069 | -0.065 | 0.060 | -0.017 | 0.018 | -0.011 | 0.009 | -0.052 | -0.026 | -0.031 |
| madde_11 | madde_11 | -0.051 | 0.004 | -0.094 | -0.061 | -0.055 | -0.040 | -0.059 | -0.044 | -0.009 | -0.057 | 1.000 | -0.057 | 0.020 | -0.073 | 0.021 | 0.022 | -0.047 | -0.065 | -0.056 | -0.060 | -0.049 | -0.024 | -0.044 | -0.029 | -0.064 |
| madde_12 | madde_12 | -0.071 | -0.001 | -0.075 | -0.028 | -0.031 | -0.092 | -0.011 | 0.001 | -0.016 | -0.081 | -0.057 | 1.000 | -0.013 | -0.078 | -0.026 | -0.037 | -0.024 | -0.006 | -0.008 | 0.018 | 0.013 | -0.045 | -0.009 | -0.075 | -0.040 |
| madde_13 | madde_13 | -0.074 | -0.039 | -0.023 | -0.083 | -0.089 | 0.015 | -0.064 | -0.033 | 0.010 | -0.065 | 0.020 | -0.013 | 1.000 | 0.070 | -0.028 | -0.088 | -0.058 | -0.062 | -0.105 | -0.052 | -0.107 | -0.057 | -0.028 | -0.099 | -0.044 |
| madde_14 | madde_14 | -0.061 | -0.007 | 0.012 | -0.055 | -0.037 | -0.039 | -0.071 | -0.094 | -0.010 | -0.066 | -0.073 | -0.078 | 0.070 | 1.000 | -0.039 | -0.055 | -0.019 | -0.072 | -0.025 | -0.046 | -0.102 | -0.057 | -0.064 | -0.057 | -0.029 |
| madde_15 | madde_15 | -0.033 | -0.020 | -0.067 | -0.010 | -0.032 | -0.069 | -0.053 | -0.093 | -0.026 | -0.058 | 0.021 | -0.026 | -0.028 | -0.039 | 1.000 | 0.027 | -0.018 | -0.079 | -0.058 | -0.053 | -0.048 | -0.007 | -0.030 | -0.056 | 0.008 |
| madde_16 | madde_16 | 0.036 | -0.040 | -0.095 | -0.040 | 0.055 | -0.096 | 0.019 | -0.021 | -0.071 | -0.069 | 0.022 | -0.037 | -0.088 | -0.055 | 0.027 | 1.000 | 0.001 | -0.049 | 0.023 | 0.014 | -0.013 | -0.018 | -0.101 | -0.009 | -0.039 |
| madde_17 | madde_17 | -0.010 | -0.024 | -0.037 | -0.059 | -0.091 | -0.102 | -0.029 | -0.053 | -0.047 | -0.065 | -0.047 | -0.024 | -0.058 | -0.019 | -0.018 | 0.001 | 1.000 | -0.048 | 0.038 | -0.048 | 0.052 | -0.031 | -0.028 | -0.032 | -0.012 |
| madde_18 | madde_18 | 0.002 | -0.069 | -0.052 | -0.056 | -0.018 | -0.016 | -0.033 | -0.021 | -0.009 | 0.060 | -0.065 | -0.006 | -0.062 | -0.072 | -0.079 | -0.049 | -0.048 | 1.000 | -0.049 | -0.024 | -0.054 | 0.050 | -0.025 | -0.037 | -0.044 |
| madde_19 | madde_19 | -0.050 | -0.032 | -0.072 | -0.034 | -0.056 | -0.024 | -0.020 | -0.008 | -0.024 | -0.017 | -0.056 | -0.008 | -0.105 | -0.025 | -0.058 | 0.023 | 0.038 | -0.049 | 1.000 | -0.069 | -0.035 | -0.054 | -0.066 | -0.041 | 0.003 |
| madde_20 | madde_20 | 0.047 | -0.026 | -0.029 | -0.044 | -0.057 | -0.024 | -0.095 | -0.043 | -0.063 | 0.018 | -0.060 | 0.018 | -0.052 | -0.046 | -0.053 | 0.014 | -0.048 | -0.024 | -0.069 | 1.000 | -0.031 | -0.048 | 0.002 | 0.022 | -0.032 |
| madde_21 | madde_21 | 0.043 | -0.001 | -0.040 | -0.020 | -0.002 | -0.029 | -0.050 | 0.015 | -0.050 | -0.011 | -0.049 | 0.013 | -0.107 | -0.102 | -0.048 | -0.013 | 0.052 | -0.054 | -0.035 | -0.031 | 1.000 | -0.079 | -0.031 | -0.027 | -0.007 |
| madde_22 | madde_22 | -0.018 | -0.050 | -0.066 | -0.022 | -0.025 | -0.063 | -0.025 | -0.068 | 0.004 | 0.009 | -0.024 | -0.045 | -0.057 | -0.057 | -0.007 | -0.018 | -0.031 | 0.050 | -0.054 | -0.048 | -0.079 | 1.000 | 0.030 | 0.004 | -0.028 |
| madde_23 | madde_23 | -0.014 | -0.004 | -0.054 | -0.017 | -0.046 | -0.026 | -0.035 | -0.092 | -0.005 | -0.052 | -0.044 | -0.009 | -0.028 | -0.064 | -0.030 | -0.101 | -0.028 | -0.025 | -0.066 | 0.002 | -0.031 | 0.030 | 1.000 | -0.045 | -0.067 |
| madde_24 | madde_24 | -0.021 | -0.082 | -0.050 | -0.087 | 0.043 | 0.012 | -0.007 | -0.038 | -0.026 | -0.026 | -0.029 | -0.075 | -0.099 | -0.057 | -0.056 | -0.009 | -0.032 | -0.037 | -0.041 | 0.022 | -0.027 | 0.004 | -0.045 | 1.000 | -0.107 |
| madde_25 | madde_25 | -0.034 | -0.068 | -0.056 | -0.009 | 0.004 | 0.012 | -0.022 | 0.012 | -0.068 | -0.031 | -0.064 | -0.040 | -0.044 | -0.029 | 0.008 | -0.039 | -0.012 | -0.044 | 0.003 | -0.032 | -0.007 | -0.028 | -0.067 | -0.107 | 1.000 |
Yukarıda sunulan tablo, 1PL modeli (yani sabit ayırt edicilikli lojistik model) kapsamında tahmin edilen Yen Q3 artıklık korelasyonlarını içermektedir. Bu istatistik, her bir madde çifti için bireylerin model tarafından tahmin edilen yanıtları ile gözlenen yanıtları arasındaki artıklık korelasyonunu ifade eder ve yerel bağımsızlık varsayımının değerlendirilmesinde kullanılır (Yen, 1993). Yerel bağımsızlık, tek bir gizil özelliğin (örneğin; yetenek düzeyi) tüm madde yanıtlarını açıklaması gerektiği ilkesine dayanır. Bu varsayımın ihlali, model uyumunun bozulmasına ve geçerlik sorunlarına yol açabilir.
Q3 korelasyonlarına ilişkin özet istatistikler incelendiğinde, Q3 değerlerinin ortalama değeri \(-0.035\), medyanı \(-0.037\) ve maksimum değeri \(0.097\) olarak gözlemlenmiştir. Bu değerlerin tamamı, literatürde yerel bağımsızlık ihlali eşiği olarak kabul edilen \(0.20\) sınırının oldukça altında kalmaktadır (Christensen et al., 2017). Ayrıca minimum Q3 değeri \(-0.128\), bu da aşırı negatif sapma göstermeyen, simetrik bir dağılıma işaret eder. Q3 dağılımının simetrik ve ortalamaya yakın olması, modelin artık korelasyonlarının düşük ve rastlantısal düzeyde kaldığını göstermektedir.
Matriste yer alan hiçbir madde çifti arasında Q3 değeri anlamlı ölçüde yüksek çıkmamış olup, bu durum 1PL modelinin yerel bağımsızlık varsayımına büyük ölçüde uyum sağladığını göstermektedir. Özellikle madde sayısının 25 gibi yüksek olduğu bir yapı içinde, Q3 değerlerinin bu denli sınırlı kalması modelin tek boyutluluk ve madde bağımsızlığı varsayımlarını desteklediğini göstermektedir.
Sonuç olarak, 1PL modeline ait Q3 analiz sonuçları, modelin psikometrik açıdan uygunluk taşıdığını, testin madde yapısında yerel bağımlılığın bulunmadığını ve madde yanıtlarının yeterlik düzeyine bağlı olarak bağımsız bir şekilde modellendiğini ortaya koymaktadır. Bu bulgular, testin geçerlik ve yapı bütünlüğünü desteklemektedir.
## Q3 summary statistics:
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.161 -0.057 -0.036 -0.034 -0.010 0.098
##
## madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1 1.000 -0.061 -0.027 0.002 -0.023 -0.107 -0.161 -0.048
## madde_2 -0.061 1.000 0.041 -0.050 -0.073 -0.036 -0.044 -0.026
## madde_3 -0.027 0.041 1.000 0.024 -0.054 -0.036 -0.057 0.006
## madde_4 0.002 -0.050 0.024 1.000 0.004 0.001 -0.038 -0.074
## madde_5 -0.023 -0.073 -0.054 0.004 1.000 0.014 -0.024 -0.056
## madde_6 -0.107 -0.036 -0.036 0.001 0.014 1.000 0.098 -0.052
## madde_7 -0.161 -0.044 -0.057 -0.038 -0.024 0.098 1.000 0.018
## madde_8 -0.048 -0.026 0.006 -0.074 -0.056 -0.052 0.018 1.000
## madde_9 -0.064 -0.072 -0.021 0.003 -0.075 -0.032 -0.066 -0.090
## madde_10 0.008 -0.055 -0.003 -0.057 -0.094 -0.079 -0.008 0.030
## madde_11 -0.056 0.022 -0.062 -0.052 -0.052 -0.026 -0.047 -0.030
## madde_12 -0.111 0.009 -0.035 -0.038 -0.054 -0.094 -0.016 0.002
## madde_13 -0.045 -0.010 0.003 -0.052 -0.061 0.045 -0.034 -0.006
## madde_14 -0.031 0.022 0.035 -0.023 -0.008 -0.008 -0.040 -0.066
## madde_15 -0.060 -0.007 -0.030 -0.013 -0.046 -0.065 -0.053 -0.087
## madde_16 -0.037 -0.041 -0.049 -0.074 0.005 -0.117 -0.004 -0.034
## madde_17 -0.047 -0.014 0.003 -0.070 -0.116 -0.104 -0.033 -0.051
## madde_18 -0.040 -0.061 -0.012 -0.070 -0.045 -0.020 -0.041 -0.023
## madde_19 -0.079 -0.020 -0.036 -0.040 -0.073 -0.022 -0.021 -0.005
## madde_20 -0.008 -0.020 0.016 -0.066 -0.098 -0.035 -0.110 -0.048
## madde_21 -0.016 -0.001 0.002 -0.048 -0.046 -0.045 -0.072 0.004
## madde_22 -0.051 -0.044 -0.029 -0.036 -0.048 -0.068 -0.034 -0.071
## madde_23 -0.039 0.009 -0.017 -0.020 -0.060 -0.022 -0.034 -0.086
## madde_24 -0.048 -0.070 -0.014 -0.092 0.029 0.014 -0.008 -0.034
## madde_25 -0.076 -0.059 -0.015 -0.022 -0.021 0.009 -0.029 0.011
## madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1 -0.064 0.008 -0.056 -0.111 -0.045 -0.031 -0.060 -0.037
## madde_2 -0.072 -0.055 0.022 0.009 -0.010 0.022 -0.007 -0.041
## madde_3 -0.021 -0.003 -0.062 -0.035 0.003 0.035 -0.030 -0.049
## madde_4 0.003 -0.057 -0.052 -0.038 -0.052 -0.023 -0.013 -0.074
## madde_5 -0.075 -0.094 -0.052 -0.054 -0.061 -0.008 -0.046 0.005
## madde_6 -0.032 -0.079 -0.026 -0.094 0.045 -0.008 -0.065 -0.117
## madde_7 -0.066 -0.008 -0.047 -0.016 -0.034 -0.040 -0.053 -0.004
## madde_8 -0.090 0.030 -0.030 0.002 -0.006 -0.066 -0.087 -0.034
## madde_9 1.000 -0.036 0.015 0.009 0.037 0.016 -0.002 -0.050
## madde_10 -0.036 1.000 -0.051 -0.098 -0.035 -0.036 -0.067 -0.114
## madde_11 0.015 -0.051 1.000 -0.046 0.047 -0.045 0.034 0.024
## madde_12 0.009 -0.098 -0.046 1.000 0.019 -0.045 -0.029 -0.069
## madde_13 0.037 -0.035 0.047 0.019 1.000 0.095 0.002 -0.056
## madde_14 0.016 -0.036 -0.045 -0.045 0.095 1.000 -0.010 -0.022
## madde_15 -0.002 -0.067 0.034 -0.029 0.002 -0.010 1.000 0.009
## madde_16 -0.050 -0.114 0.024 -0.069 -0.056 -0.022 0.009 1.000
## madde_17 -0.023 -0.083 -0.036 -0.032 -0.027 0.012 -0.021 -0.029
## madde_18 0.013 0.041 -0.057 -0.018 -0.032 -0.041 -0.084 -0.086
## madde_19 0.000 -0.028 -0.044 -0.012 -0.074 0.005 -0.057 0.001
## madde_20 -0.039 -0.012 -0.054 -0.001 -0.019 -0.013 -0.065 -0.034
## madde_21 -0.029 -0.047 -0.048 -0.013 -0.076 -0.068 -0.065 -0.071
## madde_22 0.026 -0.008 -0.018 -0.059 -0.027 -0.022 -0.013 -0.052
## madde_23 0.020 -0.061 -0.030 -0.011 0.003 -0.032 -0.027 -0.122
## madde_24 -0.004 -0.036 -0.017 -0.079 -0.069 -0.028 -0.054 -0.031
## madde_25 -0.044 -0.050 -0.054 -0.052 -0.011 0.004 0.004 -0.076
## madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1 -0.047 -0.040 -0.079 -0.008 -0.016 -0.051 -0.039
## madde_2 -0.014 -0.061 -0.020 -0.020 -0.001 -0.044 0.009
## madde_3 0.003 -0.012 -0.036 0.016 0.002 -0.029 -0.017
## madde_4 -0.070 -0.070 -0.040 -0.066 -0.048 -0.036 -0.020
## madde_5 -0.116 -0.045 -0.073 -0.098 -0.046 -0.048 -0.060
## madde_6 -0.104 -0.020 -0.022 -0.035 -0.045 -0.068 -0.022
## madde_7 -0.033 -0.041 -0.021 -0.110 -0.072 -0.034 -0.034
## madde_8 -0.051 -0.023 -0.005 -0.048 0.004 -0.071 -0.086
## madde_9 -0.023 0.013 0.000 -0.039 -0.029 0.026 0.020
## madde_10 -0.083 0.041 -0.028 -0.012 -0.047 -0.008 -0.061
## madde_11 -0.036 -0.057 -0.044 -0.054 -0.048 -0.018 -0.030
## madde_12 -0.032 -0.018 -0.012 -0.001 -0.013 -0.059 -0.011
## madde_13 -0.027 -0.032 -0.074 -0.019 -0.076 -0.027 0.003
## madde_14 0.012 -0.041 0.005 -0.013 -0.068 -0.022 -0.032
## madde_15 -0.021 -0.084 -0.057 -0.065 -0.065 -0.013 -0.027
## madde_16 -0.029 -0.086 0.001 -0.034 -0.071 -0.052 -0.122
## madde_17 1.000 -0.061 0.034 -0.068 0.027 -0.044 -0.030
## madde_18 -0.061 1.000 -0.057 -0.048 -0.086 0.035 -0.030
## madde_19 0.034 -0.057 1.000 -0.083 -0.055 -0.062 -0.064
## madde_20 -0.068 -0.048 -0.083 1.000 -0.074 -0.070 -0.008
## madde_21 0.027 -0.086 -0.055 -0.074 1.000 -0.114 -0.048
## madde_22 -0.044 0.035 -0.062 -0.070 -0.114 1.000 0.024
## madde_23 -0.030 -0.030 -0.064 -0.008 -0.048 0.024 1.000
## madde_24 -0.035 -0.044 -0.042 0.010 -0.047 -0.005 -0.043
## madde_25 -0.023 -0.060 -0.004 -0.055 -0.039 -0.046 -0.071
## madde_24 madde_25
## madde_1 -0.048 -0.076
## madde_2 -0.070 -0.059
## madde_3 -0.014 -0.015
## madde_4 -0.092 -0.022
## madde_5 0.029 -0.021
## madde_6 0.014 0.009
## madde_7 -0.008 -0.029
## madde_8 -0.034 0.011
## madde_9 -0.004 -0.044
## madde_10 -0.036 -0.050
## madde_11 -0.017 -0.054
## madde_12 -0.079 -0.052
## madde_13 -0.069 -0.011
## madde_14 -0.028 0.004
## madde_15 -0.054 0.004
## madde_16 -0.031 -0.076
## madde_17 -0.035 -0.023
## madde_18 -0.044 -0.060
## madde_19 -0.042 -0.004
## madde_20 0.010 -0.055
## madde_21 -0.047 -0.039
## madde_22 -0.005 -0.046
## madde_23 -0.043 -0.071
## madde_24 1.000 -0.114
## madde_25 -0.114 1.000
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.161164 -0.056634 -0.035608 -0.034178 -0.009612 0.098192
library(kableExtra)
q3_2pl_df <- as.data.frame(q3_2pl)
q3_2pl_df$Madde <- rownames(q3_2pl_df)
q3_2pl_df <- q3_2pl_df[, c(ncol(q3_2pl_df), 1:(ncol(q3_2pl_df) - 1))]
q3_2pl_df %>% kable(format = "html", digits = 3, caption = "2PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_2pl))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")| Madde | madde_1 | madde_2 | madde_3 | madde_4 | madde_5 | madde_6 | madde_7 | madde_8 | madde_9 | madde_10 | madde_11 | madde_12 | madde_13 | madde_14 | madde_15 | madde_16 | madde_17 | madde_18 | madde_19 | madde_20 | madde_21 | madde_22 | madde_23 | madde_24 | madde_25 | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| madde_1 | madde_1 | 1.000 | -0.061 | -0.027 | 0.002 | -0.023 | -0.107 | -0.161 | -0.048 | -0.064 | 0.008 | -0.056 | -0.111 | -0.045 | -0.031 | -0.060 | -0.037 | -0.047 | -0.040 | -0.079 | -0.008 | -0.016 | -0.051 | -0.039 | -0.048 | -0.076 |
| madde_2 | madde_2 | -0.061 | 1.000 | 0.041 | -0.050 | -0.073 | -0.036 | -0.044 | -0.026 | -0.072 | -0.055 | 0.022 | 0.009 | -0.010 | 0.022 | -0.007 | -0.041 | -0.014 | -0.061 | -0.020 | -0.020 | -0.001 | -0.044 | 0.009 | -0.070 | -0.059 |
| madde_3 | madde_3 | -0.027 | 0.041 | 1.000 | 0.024 | -0.054 | -0.036 | -0.057 | 0.006 | -0.021 | -0.003 | -0.062 | -0.035 | 0.003 | 0.035 | -0.030 | -0.049 | 0.003 | -0.012 | -0.036 | 0.016 | 0.002 | -0.029 | -0.017 | -0.014 | -0.015 |
| madde_4 | madde_4 | 0.002 | -0.050 | 0.024 | 1.000 | 0.004 | 0.001 | -0.038 | -0.074 | 0.003 | -0.057 | -0.052 | -0.038 | -0.052 | -0.023 | -0.013 | -0.074 | -0.070 | -0.070 | -0.040 | -0.066 | -0.048 | -0.036 | -0.020 | -0.092 | -0.022 |
| madde_5 | madde_5 | -0.023 | -0.073 | -0.054 | 0.004 | 1.000 | 0.014 | -0.024 | -0.056 | -0.075 | -0.094 | -0.052 | -0.054 | -0.061 | -0.008 | -0.046 | 0.005 | -0.116 | -0.045 | -0.073 | -0.098 | -0.046 | -0.048 | -0.060 | 0.029 | -0.021 |
| madde_6 | madde_6 | -0.107 | -0.036 | -0.036 | 0.001 | 0.014 | 1.000 | 0.098 | -0.052 | -0.032 | -0.079 | -0.026 | -0.094 | 0.045 | -0.008 | -0.065 | -0.117 | -0.104 | -0.020 | -0.022 | -0.035 | -0.045 | -0.068 | -0.022 | 0.014 | 0.009 |
| madde_7 | madde_7 | -0.161 | -0.044 | -0.057 | -0.038 | -0.024 | 0.098 | 1.000 | 0.018 | -0.066 | -0.008 | -0.047 | -0.016 | -0.034 | -0.040 | -0.053 | -0.004 | -0.033 | -0.041 | -0.021 | -0.110 | -0.072 | -0.034 | -0.034 | -0.008 | -0.029 |
| madde_8 | madde_8 | -0.048 | -0.026 | 0.006 | -0.074 | -0.056 | -0.052 | 0.018 | 1.000 | -0.090 | 0.030 | -0.030 | 0.002 | -0.006 | -0.066 | -0.087 | -0.034 | -0.051 | -0.023 | -0.005 | -0.048 | 0.004 | -0.071 | -0.086 | -0.034 | 0.011 |
| madde_9 | madde_9 | -0.064 | -0.072 | -0.021 | 0.003 | -0.075 | -0.032 | -0.066 | -0.090 | 1.000 | -0.036 | 0.015 | 0.009 | 0.037 | 0.016 | -0.002 | -0.050 | -0.023 | 0.013 | 0.000 | -0.039 | -0.029 | 0.026 | 0.020 | -0.004 | -0.044 |
| madde_10 | madde_10 | 0.008 | -0.055 | -0.003 | -0.057 | -0.094 | -0.079 | -0.008 | 0.030 | -0.036 | 1.000 | -0.051 | -0.098 | -0.035 | -0.036 | -0.067 | -0.114 | -0.083 | 0.041 | -0.028 | -0.012 | -0.047 | -0.008 | -0.061 | -0.036 | -0.050 |
| madde_11 | madde_11 | -0.056 | 0.022 | -0.062 | -0.052 | -0.052 | -0.026 | -0.047 | -0.030 | 0.015 | -0.051 | 1.000 | -0.046 | 0.047 | -0.045 | 0.034 | 0.024 | -0.036 | -0.057 | -0.044 | -0.054 | -0.048 | -0.018 | -0.030 | -0.017 | -0.054 |
| madde_12 | madde_12 | -0.111 | 0.009 | -0.035 | -0.038 | -0.054 | -0.094 | -0.016 | 0.002 | 0.009 | -0.098 | -0.046 | 1.000 | 0.019 | -0.045 | -0.029 | -0.069 | -0.032 | -0.018 | -0.012 | -0.001 | -0.013 | -0.059 | -0.011 | -0.079 | -0.052 |
| madde_13 | madde_13 | -0.045 | -0.010 | 0.003 | -0.052 | -0.061 | 0.045 | -0.034 | -0.006 | 0.037 | -0.035 | 0.047 | 0.019 | 1.000 | 0.095 | 0.002 | -0.056 | -0.027 | -0.032 | -0.074 | -0.019 | -0.076 | -0.027 | 0.003 | -0.069 | -0.011 |
| madde_14 | madde_14 | -0.031 | 0.022 | 0.035 | -0.023 | -0.008 | -0.008 | -0.040 | -0.066 | 0.016 | -0.036 | -0.045 | -0.045 | 0.095 | 1.000 | -0.010 | -0.022 | 0.012 | -0.041 | 0.005 | -0.013 | -0.068 | -0.022 | -0.032 | -0.028 | 0.004 |
| madde_15 | madde_15 | -0.060 | -0.007 | -0.030 | -0.013 | -0.046 | -0.065 | -0.053 | -0.087 | -0.002 | -0.067 | 0.034 | -0.029 | 0.002 | -0.010 | 1.000 | 0.009 | -0.021 | -0.084 | -0.057 | -0.065 | -0.065 | -0.013 | -0.027 | -0.054 | 0.004 |
| madde_16 | madde_16 | -0.037 | -0.041 | -0.049 | -0.074 | 0.005 | -0.117 | -0.004 | -0.034 | -0.050 | -0.114 | 0.024 | -0.069 | -0.056 | -0.022 | 0.009 | 1.000 | -0.029 | -0.086 | 0.001 | -0.034 | -0.071 | -0.052 | -0.122 | -0.031 | -0.076 |
| madde_17 | madde_17 | -0.047 | -0.014 | 0.003 | -0.070 | -0.116 | -0.104 | -0.033 | -0.051 | -0.023 | -0.083 | -0.036 | -0.032 | -0.027 | 0.012 | -0.021 | -0.029 | 1.000 | -0.061 | 0.034 | -0.068 | 0.027 | -0.044 | -0.030 | -0.035 | -0.023 |
| madde_18 | madde_18 | -0.040 | -0.061 | -0.012 | -0.070 | -0.045 | -0.020 | -0.041 | -0.023 | 0.013 | 0.041 | -0.057 | -0.018 | -0.032 | -0.041 | -0.084 | -0.086 | -0.061 | 1.000 | -0.057 | -0.048 | -0.086 | 0.035 | -0.030 | -0.044 | -0.060 |
| madde_19 | madde_19 | -0.079 | -0.020 | -0.036 | -0.040 | -0.073 | -0.022 | -0.021 | -0.005 | 0.000 | -0.028 | -0.044 | -0.012 | -0.074 | 0.005 | -0.057 | 0.001 | 0.034 | -0.057 | 1.000 | -0.083 | -0.055 | -0.062 | -0.064 | -0.042 | -0.004 |
| madde_20 | madde_20 | -0.008 | -0.020 | 0.016 | -0.066 | -0.098 | -0.035 | -0.110 | -0.048 | -0.039 | -0.012 | -0.054 | -0.001 | -0.019 | -0.013 | -0.065 | -0.034 | -0.068 | -0.048 | -0.083 | 1.000 | -0.074 | -0.070 | -0.008 | 0.010 | -0.055 |
| madde_21 | madde_21 | -0.016 | -0.001 | 0.002 | -0.048 | -0.046 | -0.045 | -0.072 | 0.004 | -0.029 | -0.047 | -0.048 | -0.013 | -0.076 | -0.068 | -0.065 | -0.071 | 0.027 | -0.086 | -0.055 | -0.074 | 1.000 | -0.114 | -0.048 | -0.047 | -0.039 |
| madde_22 | madde_22 | -0.051 | -0.044 | -0.029 | -0.036 | -0.048 | -0.068 | -0.034 | -0.071 | 0.026 | -0.008 | -0.018 | -0.059 | -0.027 | -0.022 | -0.013 | -0.052 | -0.044 | 0.035 | -0.062 | -0.070 | -0.114 | 1.000 | 0.024 | -0.005 | -0.046 |
| madde_23 | madde_23 | -0.039 | 0.009 | -0.017 | -0.020 | -0.060 | -0.022 | -0.034 | -0.086 | 0.020 | -0.061 | -0.030 | -0.011 | 0.003 | -0.032 | -0.027 | -0.122 | -0.030 | -0.030 | -0.064 | -0.008 | -0.048 | 0.024 | 1.000 | -0.043 | -0.071 |
| madde_24 | madde_24 | -0.048 | -0.070 | -0.014 | -0.092 | 0.029 | 0.014 | -0.008 | -0.034 | -0.004 | -0.036 | -0.017 | -0.079 | -0.069 | -0.028 | -0.054 | -0.031 | -0.035 | -0.044 | -0.042 | 0.010 | -0.047 | -0.005 | -0.043 | 1.000 | -0.114 |
| madde_25 | madde_25 | -0.076 | -0.059 | -0.015 | -0.022 | -0.021 | 0.009 | -0.029 | 0.011 | -0.044 | -0.050 | -0.054 | -0.052 | -0.011 | 0.004 | 0.004 | -0.076 | -0.023 | -0.060 | -0.004 | -0.055 | -0.039 | -0.046 | -0.071 | -0.114 | 1.000 |
Yukarıda sunulan tablo, iki parametreli lojistik model (2PL) kapsamında tahmin edilen Yen Q3 artıklık korelasyonlarına ilişkin sonuçları göstermektedir. Yen Q3 istatistiği, her bir madde çifti için gözlenen ve model tarafından tahmin edilen madde yanıtları arasındaki artıklıkların korelasyonunu ölçer ve yerel bağımsızlık varsayımının ihlal edilip edilmediğini değerlendirmek için kullanılır (Yen, 1993). Yerel bağımsızlık varsayımına göre, bireyin yanıtları yalnızca tek bir gizil değişkene (yetenek düzeyi, θ) bağlı olmalı ve maddeler arasında model dışı korelasyon bulunmamalıdır.
Bu modele ait Q3 özet istatistiklerine bakıldığında; ortalama Q3 değeri \(-0.034\), medyanı \(-0.036\), minimum değeri \(-0.161\) ve maksimum değeri 0.098 olarak elde edilmiştir. Tüm değerler, literatürde yerel bağımlılık için sınır olarak kabul edilen \(Q3 > 0.20\) eşiğinin oldukça altında kalmaktadır (Christensen et al., 2017; Chalmers, 2012). Q3 dağılımı simetrik ve sıfıra yakın olup, modelin artıklık korelasyonlarının sistematik bir örüntü oluşturmadığını ve dolayısıyla yerel bağımlılık sorununa işaret etmediğini göstermektedir.
Matrise bakıldığında hiçbir madde çiftinde aşırı pozitif artıklık korelasyonları görülmemiştir. Ayrıca birçok değer negatif yönde seyretmekte olup, bu durum Q3 istatistiklerinin genel olarak düşük sistematik hata içerdiğini ve modelin varsayımlarına uygun çalıştığını gösterir. 2PL modelinde ayırt edicilik parametrelerinin serbest bırakılmış olması nedeniyle, bu model Rasch modeline göre artıklık varyansını bir miktar daha iyi açıklayabilmekte; bu da yerel bağımsızlık açısından avantaj sağlamaktadır.
Sonuç olarak, 2PL modeline ait Q3 analizi, modelin yerel bağımsızlık varsayımını büyük ölçüde karşıladığını, madde yanıtları arasında model dışı korelasyonların bulunmadığını ve testin psikometrik olarak sağlam bir yapıya sahip olduğunu ortaya koymaktadır. Bu bulgular, testin yapı geçerliğini ve tek boyutluluk varsayımına uygunluğunu desteklemektedir.
## Q3 summary statistics:
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.163 -0.051 -0.027 -0.028 -0.003 0.105
##
## madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1 1.000 -0.042 -0.015 -0.022 -0.086 -0.124 -0.163 -0.056
## madde_2 -0.042 1.000 0.040 -0.038 -0.059 -0.022 -0.033 -0.015
## madde_3 -0.015 0.040 1.000 0.029 -0.047 -0.030 -0.057 0.008
## madde_4 -0.022 -0.038 0.029 1.000 -0.020 -0.001 -0.034 -0.074
## madde_5 -0.086 -0.059 -0.047 -0.020 1.000 -0.001 -0.026 -0.067
## madde_6 -0.124 -0.022 -0.030 -0.001 -0.001 1.000 0.105 -0.048
## madde_7 -0.163 -0.033 -0.057 -0.034 -0.026 0.105 1.000 0.023
## madde_8 -0.056 -0.015 0.008 -0.074 -0.067 -0.048 0.023 1.000
## madde_9 -0.050 -0.066 -0.024 0.013 -0.066 -0.021 -0.060 -0.083
## madde_10 -0.007 -0.036 0.004 -0.059 -0.113 -0.075 0.001 0.035
## madde_11 -0.052 0.034 -0.060 -0.046 -0.051 -0.016 -0.038 -0.022
## madde_12 -0.092 0.022 -0.035 -0.026 -0.040 -0.078 -0.005 0.014
## madde_13 -0.016 -0.004 -0.004 -0.037 -0.040 0.060 -0.024 0.004
## madde_14 -0.019 0.025 0.030 -0.016 0.001 0.000 -0.035 -0.062
## madde_15 -0.069 0.005 -0.027 -0.013 -0.057 -0.060 -0.046 -0.082
## madde_16 -0.068 -0.023 -0.041 -0.084 -0.024 -0.119 0.002 -0.034
## madde_17 -0.019 0.003 0.004 -0.054 -0.096 -0.084 -0.020 -0.035
## madde_18 -0.038 -0.045 -0.009 -0.065 -0.047 -0.010 -0.031 -0.015
## madde_19 -0.083 -0.010 -0.036 -0.038 -0.080 -0.016 -0.016 -0.001
## madde_20 -0.014 -0.003 0.020 -0.066 -0.110 -0.028 -0.102 -0.043
## madde_21 -0.007 0.009 0.000 -0.043 -0.043 -0.035 -0.066 0.011
## madde_22 -0.021 -0.044 -0.042 -0.022 -0.026 -0.055 -0.033 -0.065
## madde_23 -0.017 0.023 -0.017 -0.007 -0.045 -0.005 -0.021 -0.073
## madde_24 -0.060 -0.062 -0.015 -0.097 0.018 0.016 -0.007 -0.034
## madde_25 -0.077 -0.049 -0.015 -0.020 -0.024 0.015 -0.025 0.015
## madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1 -0.050 -0.007 -0.052 -0.092 -0.016 -0.019 -0.069 -0.068
## madde_2 -0.066 -0.036 0.034 0.022 -0.004 0.025 0.005 -0.023
## madde_3 -0.024 0.004 -0.060 -0.035 -0.004 0.030 -0.027 -0.041
## madde_4 0.013 -0.059 -0.046 -0.026 -0.037 -0.016 -0.013 -0.084
## madde_5 -0.066 -0.113 -0.051 -0.040 -0.040 0.001 -0.057 -0.024
## madde_6 -0.021 -0.075 -0.016 -0.078 0.060 0.000 -0.060 -0.119
## madde_7 -0.060 0.001 -0.038 -0.005 -0.024 -0.035 -0.046 0.002
## madde_8 -0.083 0.035 -0.022 0.014 0.004 -0.062 -0.082 -0.034
## madde_9 1.000 -0.023 0.023 0.017 0.037 0.016 0.006 -0.037
## madde_10 -0.023 1.000 -0.039 -0.078 -0.014 -0.026 -0.061 -0.118
## madde_11 0.023 -0.039 1.000 -0.032 0.056 -0.040 0.042 0.032
## madde_12 0.017 -0.078 -0.032 1.000 0.030 -0.040 -0.015 -0.052
## madde_13 0.037 -0.014 0.056 0.030 1.000 0.091 0.013 -0.033
## madde_14 0.016 -0.026 -0.040 -0.040 0.091 1.000 -0.004 -0.011
## madde_15 0.006 -0.061 0.042 -0.015 0.013 -0.004 1.000 0.010
## madde_16 -0.037 -0.118 0.032 -0.052 -0.033 -0.011 0.010 1.000
## madde_17 -0.012 -0.057 -0.018 -0.013 -0.011 0.020 -0.003 -0.010
## madde_18 0.023 0.052 -0.044 -0.001 -0.018 -0.033 -0.074 -0.079
## madde_19 0.005 -0.021 -0.036 -0.002 -0.065 0.009 -0.052 0.004
## madde_20 -0.028 -0.004 -0.043 0.015 0.002 -0.003 -0.057 -0.035
## madde_21 -0.023 -0.035 -0.038 -0.003 -0.066 -0.064 -0.056 -0.062
## madde_22 0.025 0.009 -0.010 -0.059 -0.035 -0.026 -0.003 -0.030
## madde_23 0.028 -0.039 -0.015 0.006 0.013 -0.026 -0.012 -0.104
## madde_24 0.001 -0.035 -0.013 -0.073 -0.060 -0.025 -0.053 -0.036
## madde_25 -0.037 -0.044 -0.046 -0.044 0.001 0.009 0.009 -0.073
## madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1 -0.019 -0.038 -0.083 -0.014 -0.007 -0.021 -0.017
## madde_2 0.003 -0.045 -0.010 -0.003 0.009 -0.044 0.023
## madde_3 0.004 -0.009 -0.036 0.020 0.000 -0.042 -0.017
## madde_4 -0.054 -0.065 -0.038 -0.066 -0.043 -0.022 -0.007
## madde_5 -0.096 -0.047 -0.080 -0.110 -0.043 -0.026 -0.045
## madde_6 -0.084 -0.010 -0.016 -0.028 -0.035 -0.055 -0.005
## madde_7 -0.020 -0.031 -0.016 -0.102 -0.066 -0.033 -0.021
## madde_8 -0.035 -0.015 -0.001 -0.043 0.011 -0.065 -0.073
## madde_9 -0.012 0.023 0.005 -0.028 -0.023 0.025 0.028
## madde_10 -0.057 0.052 -0.021 -0.004 -0.035 0.009 -0.039
## madde_11 -0.018 -0.044 -0.036 -0.043 -0.038 -0.010 -0.015
## madde_12 -0.013 -0.001 -0.002 0.015 -0.003 -0.059 0.006
## madde_13 -0.011 -0.018 -0.065 0.002 -0.066 -0.035 0.013
## madde_14 0.020 -0.033 0.009 -0.003 -0.064 -0.026 -0.026
## madde_15 -0.003 -0.074 -0.052 -0.057 -0.056 -0.003 -0.012
## madde_16 -0.010 -0.079 0.004 -0.035 -0.062 -0.030 -0.104
## madde_17 1.000 -0.039 0.047 -0.048 0.039 -0.040 -0.009
## madde_18 -0.039 1.000 -0.048 -0.036 -0.074 0.045 -0.011
## madde_19 0.047 -0.048 1.000 -0.078 -0.050 -0.059 -0.052
## madde_20 -0.048 -0.036 -0.078 1.000 -0.066 -0.058 0.011
## madde_21 0.039 -0.074 -0.050 -0.066 1.000 -0.119 -0.035
## madde_22 -0.040 0.045 -0.059 -0.058 -0.119 1.000 0.027
## madde_23 -0.009 -0.011 -0.052 0.011 -0.035 0.027 1.000
## madde_24 -0.026 -0.040 -0.042 0.009 -0.047 -0.002 -0.034
## madde_25 -0.014 -0.052 -0.001 -0.052 -0.036 -0.043 -0.060
## madde_24 madde_25
## madde_1 -0.060 -0.077
## madde_2 -0.062 -0.049
## madde_3 -0.015 -0.015
## madde_4 -0.097 -0.020
## madde_5 0.018 -0.024
## madde_6 0.016 0.015
## madde_7 -0.007 -0.025
## madde_8 -0.034 0.015
## madde_9 0.001 -0.037
## madde_10 -0.035 -0.044
## madde_11 -0.013 -0.046
## madde_12 -0.073 -0.044
## madde_13 -0.060 0.001
## madde_14 -0.025 0.009
## madde_15 -0.053 0.009
## madde_16 -0.036 -0.073
## madde_17 -0.026 -0.014
## madde_18 -0.040 -0.052
## madde_19 -0.042 -0.001
## madde_20 0.009 -0.052
## madde_21 -0.047 -0.036
## madde_22 -0.002 -0.043
## madde_23 -0.034 -0.060
## madde_24 1.000 -0.116
## madde_25 -0.116 1.000
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.162783 -0.051456 -0.026887 -0.027639 -0.003316 0.105412
library(kableExtra)
q3_3pl_df <- as.data.frame(q3_3pl)
q3_3pl_df$Madde <- rownames(q3_3pl_df)
q3_3pl_df <- q3_3pl_df[, c(ncol(q3_3pl_df), 1:(ncol(q3_3pl_df) - 1))]
q3_3pl_df %>% kable(format = "html", digits = 3, caption = "3PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_3pl))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")| Madde | madde_1 | madde_2 | madde_3 | madde_4 | madde_5 | madde_6 | madde_7 | madde_8 | madde_9 | madde_10 | madde_11 | madde_12 | madde_13 | madde_14 | madde_15 | madde_16 | madde_17 | madde_18 | madde_19 | madde_20 | madde_21 | madde_22 | madde_23 | madde_24 | madde_25 | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| madde_1 | madde_1 | 1.000 | -0.042 | -0.015 | -0.022 | -0.086 | -0.124 | -0.163 | -0.056 | -0.050 | -0.007 | -0.052 | -0.092 | -0.016 | -0.019 | -0.069 | -0.068 | -0.019 | -0.038 | -0.083 | -0.014 | -0.007 | -0.021 | -0.017 | -0.060 | -0.077 |
| madde_2 | madde_2 | -0.042 | 1.000 | 0.040 | -0.038 | -0.059 | -0.022 | -0.033 | -0.015 | -0.066 | -0.036 | 0.034 | 0.022 | -0.004 | 0.025 | 0.005 | -0.023 | 0.003 | -0.045 | -0.010 | -0.003 | 0.009 | -0.044 | 0.023 | -0.062 | -0.049 |
| madde_3 | madde_3 | -0.015 | 0.040 | 1.000 | 0.029 | -0.047 | -0.030 | -0.057 | 0.008 | -0.024 | 0.004 | -0.060 | -0.035 | -0.004 | 0.030 | -0.027 | -0.041 | 0.004 | -0.009 | -0.036 | 0.020 | 0.000 | -0.042 | -0.017 | -0.015 | -0.015 |
| madde_4 | madde_4 | -0.022 | -0.038 | 0.029 | 1.000 | -0.020 | -0.001 | -0.034 | -0.074 | 0.013 | -0.059 | -0.046 | -0.026 | -0.037 | -0.016 | -0.013 | -0.084 | -0.054 | -0.065 | -0.038 | -0.066 | -0.043 | -0.022 | -0.007 | -0.097 | -0.020 |
| madde_5 | madde_5 | -0.086 | -0.059 | -0.047 | -0.020 | 1.000 | -0.001 | -0.026 | -0.067 | -0.066 | -0.113 | -0.051 | -0.040 | -0.040 | 0.001 | -0.057 | -0.024 | -0.096 | -0.047 | -0.080 | -0.110 | -0.043 | -0.026 | -0.045 | 0.018 | -0.024 |
| madde_6 | madde_6 | -0.124 | -0.022 | -0.030 | -0.001 | -0.001 | 1.000 | 0.105 | -0.048 | -0.021 | -0.075 | -0.016 | -0.078 | 0.060 | 0.000 | -0.060 | -0.119 | -0.084 | -0.010 | -0.016 | -0.028 | -0.035 | -0.055 | -0.005 | 0.016 | 0.015 |
| madde_7 | madde_7 | -0.163 | -0.033 | -0.057 | -0.034 | -0.026 | 0.105 | 1.000 | 0.023 | -0.060 | 0.001 | -0.038 | -0.005 | -0.024 | -0.035 | -0.046 | 0.002 | -0.020 | -0.031 | -0.016 | -0.102 | -0.066 | -0.033 | -0.021 | -0.007 | -0.025 |
| madde_8 | madde_8 | -0.056 | -0.015 | 0.008 | -0.074 | -0.067 | -0.048 | 0.023 | 1.000 | -0.083 | 0.035 | -0.022 | 0.014 | 0.004 | -0.062 | -0.082 | -0.034 | -0.035 | -0.015 | -0.001 | -0.043 | 0.011 | -0.065 | -0.073 | -0.034 | 0.015 |
| madde_9 | madde_9 | -0.050 | -0.066 | -0.024 | 0.013 | -0.066 | -0.021 | -0.060 | -0.083 | 1.000 | -0.023 | 0.023 | 0.017 | 0.037 | 0.016 | 0.006 | -0.037 | -0.012 | 0.023 | 0.005 | -0.028 | -0.023 | 0.025 | 0.028 | 0.001 | -0.037 |
| madde_10 | madde_10 | -0.007 | -0.036 | 0.004 | -0.059 | -0.113 | -0.075 | 0.001 | 0.035 | -0.023 | 1.000 | -0.039 | -0.078 | -0.014 | -0.026 | -0.061 | -0.118 | -0.057 | 0.052 | -0.021 | -0.004 | -0.035 | 0.009 | -0.039 | -0.035 | -0.044 |
| madde_11 | madde_11 | -0.052 | 0.034 | -0.060 | -0.046 | -0.051 | -0.016 | -0.038 | -0.022 | 0.023 | -0.039 | 1.000 | -0.032 | 0.056 | -0.040 | 0.042 | 0.032 | -0.018 | -0.044 | -0.036 | -0.043 | -0.038 | -0.010 | -0.015 | -0.013 | -0.046 |
| madde_12 | madde_12 | -0.092 | 0.022 | -0.035 | -0.026 | -0.040 | -0.078 | -0.005 | 0.014 | 0.017 | -0.078 | -0.032 | 1.000 | 0.030 | -0.040 | -0.015 | -0.052 | -0.013 | -0.001 | -0.002 | 0.015 | -0.003 | -0.059 | 0.006 | -0.073 | -0.044 |
| madde_13 | madde_13 | -0.016 | -0.004 | -0.004 | -0.037 | -0.040 | 0.060 | -0.024 | 0.004 | 0.037 | -0.014 | 0.056 | 0.030 | 1.000 | 0.091 | 0.013 | -0.033 | -0.011 | -0.018 | -0.065 | 0.002 | -0.066 | -0.035 | 0.013 | -0.060 | 0.001 |
| madde_14 | madde_14 | -0.019 | 0.025 | 0.030 | -0.016 | 0.001 | 0.000 | -0.035 | -0.062 | 0.016 | -0.026 | -0.040 | -0.040 | 0.091 | 1.000 | -0.004 | -0.011 | 0.020 | -0.033 | 0.009 | -0.003 | -0.064 | -0.026 | -0.026 | -0.025 | 0.009 |
| madde_15 | madde_15 | -0.069 | 0.005 | -0.027 | -0.013 | -0.057 | -0.060 | -0.046 | -0.082 | 0.006 | -0.061 | 0.042 | -0.015 | 0.013 | -0.004 | 1.000 | 0.010 | -0.003 | -0.074 | -0.052 | -0.057 | -0.056 | -0.003 | -0.012 | -0.053 | 0.009 |
| madde_16 | madde_16 | -0.068 | -0.023 | -0.041 | -0.084 | -0.024 | -0.119 | 0.002 | -0.034 | -0.037 | -0.118 | 0.032 | -0.052 | -0.033 | -0.011 | 0.010 | 1.000 | -0.010 | -0.079 | 0.004 | -0.035 | -0.062 | -0.030 | -0.104 | -0.036 | -0.073 |
| madde_17 | madde_17 | -0.019 | 0.003 | 0.004 | -0.054 | -0.096 | -0.084 | -0.020 | -0.035 | -0.012 | -0.057 | -0.018 | -0.013 | -0.011 | 0.020 | -0.003 | -0.010 | 1.000 | -0.039 | 0.047 | -0.048 | 0.039 | -0.040 | -0.009 | -0.026 | -0.014 |
| madde_18 | madde_18 | -0.038 | -0.045 | -0.009 | -0.065 | -0.047 | -0.010 | -0.031 | -0.015 | 0.023 | 0.052 | -0.044 | -0.001 | -0.018 | -0.033 | -0.074 | -0.079 | -0.039 | 1.000 | -0.048 | -0.036 | -0.074 | 0.045 | -0.011 | -0.040 | -0.052 |
| madde_19 | madde_19 | -0.083 | -0.010 | -0.036 | -0.038 | -0.080 | -0.016 | -0.016 | -0.001 | 0.005 | -0.021 | -0.036 | -0.002 | -0.065 | 0.009 | -0.052 | 0.004 | 0.047 | -0.048 | 1.000 | -0.078 | -0.050 | -0.059 | -0.052 | -0.042 | -0.001 |
| madde_20 | madde_20 | -0.014 | -0.003 | 0.020 | -0.066 | -0.110 | -0.028 | -0.102 | -0.043 | -0.028 | -0.004 | -0.043 | 0.015 | 0.002 | -0.003 | -0.057 | -0.035 | -0.048 | -0.036 | -0.078 | 1.000 | -0.066 | -0.058 | 0.011 | 0.009 | -0.052 |
| madde_21 | madde_21 | -0.007 | 0.009 | 0.000 | -0.043 | -0.043 | -0.035 | -0.066 | 0.011 | -0.023 | -0.035 | -0.038 | -0.003 | -0.066 | -0.064 | -0.056 | -0.062 | 0.039 | -0.074 | -0.050 | -0.066 | 1.000 | -0.119 | -0.035 | -0.047 | -0.036 |
| madde_22 | madde_22 | -0.021 | -0.044 | -0.042 | -0.022 | -0.026 | -0.055 | -0.033 | -0.065 | 0.025 | 0.009 | -0.010 | -0.059 | -0.035 | -0.026 | -0.003 | -0.030 | -0.040 | 0.045 | -0.059 | -0.058 | -0.119 | 1.000 | 0.027 | -0.002 | -0.043 |
| madde_23 | madde_23 | -0.017 | 0.023 | -0.017 | -0.007 | -0.045 | -0.005 | -0.021 | -0.073 | 0.028 | -0.039 | -0.015 | 0.006 | 0.013 | -0.026 | -0.012 | -0.104 | -0.009 | -0.011 | -0.052 | 0.011 | -0.035 | 0.027 | 1.000 | -0.034 | -0.060 |
| madde_24 | madde_24 | -0.060 | -0.062 | -0.015 | -0.097 | 0.018 | 0.016 | -0.007 | -0.034 | 0.001 | -0.035 | -0.013 | -0.073 | -0.060 | -0.025 | -0.053 | -0.036 | -0.026 | -0.040 | -0.042 | 0.009 | -0.047 | -0.002 | -0.034 | 1.000 | -0.116 |
| madde_25 | madde_25 | -0.077 | -0.049 | -0.015 | -0.020 | -0.024 | 0.015 | -0.025 | 0.015 | -0.037 | -0.044 | -0.046 | -0.044 | 0.001 | 0.009 | 0.009 | -0.073 | -0.014 | -0.052 | -0.001 | -0.052 | -0.036 | -0.043 | -0.060 | -0.116 | 1.000 |
Yukarıda sunulan tablo, üç parametreli lojistik model (3PL) kapsamında elde edilen Yen Q3 artıklık korelasyonlarına ilişkin sonuçları göstermektedir. Yen Q3 istatistiği, her bir madde çifti için modelden beklenen ve gözlenen yanıtlar arasındaki artıkların korelasyonlarını ifade eder. Bu korelasyonlar, yerel bağımsızlık varsayımının geçerliğini değerlendirmek amacıyla kullanılır. Yerel bağımsızlık varsayımı, modelde yer alan her bir maddenin yalnızca bireyin gizil yetenek düzeyi (θ) tarafından belirlendiğini ve maddeler arasında doğrudan korelasyon olmadığını öngörmektedir (Yen, 1993).
3PL modeli, ayırt edicilik (a), güçlük (b) ve alt asimptot (g) olmak üzere üç parametre içerdiği için, model uyumu açısından esneklik sağlar ve özellikle tahmine dayalı yanıtların etkisini dengelemeyi amaçlar. Bu esnek yapıya rağmen, Q3 istatistikleri üzerinden modelin yerel bağımsızlık varsayımını sağlayıp sağlamadığı kontrol edilmelidir.
Q3 özet istatistiklerine göre: minimum değer \(-0.163\), maksimum değer \(0.105\), ortalama \(-0.027\), ve medyan değer \(-0.027\) olarak hesaplanmıştır. Bu değerler, literatürde sıklıkla kullanılan \(Q3 > 0.20\) sınırının oldukça altında kalmaktadır (Christensen et al., 2017). Ortalama değerin sıfıra oldukça yakın olması, Q3 değerlerinin sistematik bir artıklık taşımadığını ve modelin yerel bağımsızlığı büyük ölçüde sağladığını göstermektedir.
Ayrıca Q3 değerlerinin dağılımına bakıldığında, negatif ve düşük pozitif korelasyonlar ağırlıktadır. Bu durum, modelin maddeler arası ilişkiyi iyi açıkladığını, artıklıkların rastlantısal düzeyde kaldığını ve madde yanıtlarının bireyin yeterlik düzeyine göre bağımsız olarak modellendiğini göstermektedir. Bu bulgu, 3PL modelinin sadece parametrik esneklik sağlamakla kalmadığını, aynı zamanda psikometrik varsayımlara da uygunluk gösterdiğini ortaya koymaktadır.
Sonuç olarak, 3PL modeli altında elde edilen Q3 istatistikleri, test maddeleri arasında anlamlı yerel bağımlılık bulunmadığını, modelin tek boyutluluk ve yerel bağımsızlık varsayımlarını büyük ölçüde sağladığını ve bu nedenle testin psikometrik geçerliğinin yüksek olduğunu göstermektedir.
madde_param_rasch <- coef(rasch_model, IRTpars = TRUE, simplify = TRUE)$items
madde_df_rasch <- as.data.frame(madde_param_rasch)
madde_df_rasch$Madde <- rownames(madde_df_rasch)library(kableExtra)
madde_df_rasch %>% select(Madde, b) %>% kable(digits = 3, format = "html", caption = "Rasch Modeline Gore Madde Gucluk (b) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")| Madde | b | |
|---|---|---|
| madde_1 | madde_1 | -0.432 |
| madde_2 | madde_2 | 0.230 |
| madde_3 | madde_3 | 0.127 |
| madde_4 | madde_4 | 0.217 |
| madde_5 | madde_5 | -0.396 |
| madde_6 | madde_6 | 0.140 |
| madde_7 | madde_7 | 0.178 |
| madde_8 | madde_8 | 0.030 |
| madde_9 | madde_9 | 0.423 |
| madde_10 | madde_10 | -0.319 |
| madde_11 | madde_11 | 0.037 |
| madde_12 | madde_12 | 0.136 |
| madde_13 | madde_13 | 0.595 |
| madde_14 | madde_14 | 1.081 |
| madde_15 | madde_15 | 0.178 |
| madde_16 | madde_16 | 0.149 |
| madde_17 | madde_17 | -0.383 |
| madde_18 | madde_18 | 0.120 |
| madde_19 | madde_19 | 0.315 |
| madde_20 | madde_20 | -0.261 |
| madde_21 | madde_21 | 0.420 |
| madde_22 | madde_22 | 0.901 |
| madde_23 | madde_23 | 0.034 |
| madde_24 | madde_24 | 0.046 |
| madde_25 | madde_25 | 0.354 |
birey_df_rasch <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_param_rasch)),
Yetenek = birey_param_rasch[,1])
birey_df_rasch %>% kable(digits = 3, format = "html", caption = "Rasch Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")| Birey | Yetenek |
|---|---|
| Kişi_1 | -0.683 |
| Kişi_2 | -0.683 |
| Kişi_3 | 0.484 |
| Kişi_4 | -0.683 |
| Kişi_5 | -0.847 |
| Kişi_6 | -0.847 |
| Kişi_7 | -0.084 |
| Kişi_8 | 1.644 |
| Kişi_9 | -0.084 |
| Kişi_10 | -1.631 |
| Kişi_11 | 0.199 |
| Kişi_12 | 0.780 |
| Kişi_13 | -0.526 |
| Kişi_14 | -0.847 |
| Kişi_15 | -0.375 |
| Kişi_16 | 0.780 |
| Kişi_17 | -0.526 |
| Kişi_18 | 1.267 |
| Kişi_19 | -0.084 |
| Kişi_20 | -0.526 |
| Kişi_21 | -0.228 |
| Kişi_22 | 0.780 |
| Kişi_23 | -0.375 |
| Kişi_24 | 0.058 |
| Kişi_25 | -0.683 |
| Kişi_26 | -0.228 |
| Kişi_27 | -0.375 |
| Kişi_28 | -0.683 |
| Kişi_29 | 0.341 |
| Kişi_30 | -0.526 |
| Kişi_31 | 0.199 |
| Kişi_32 | -0.526 |
| Kişi_33 | 0.199 |
| Kişi_34 | 0.484 |
| Kişi_35 | -1.021 |
| Kişi_36 | -1.021 |
| Kişi_37 | -0.084 |
| Kişi_38 | -0.847 |
| Kişi_39 | -0.847 |
| Kişi_40 | -1.021 |
| Kişi_41 | -1.021 |
| Kişi_42 | -0.228 |
| Kişi_43 | 0.935 |
| Kişi_44 | 1.267 |
| Kişi_45 | -1.878 |
| Kişi_46 | -0.526 |
| Kişi_47 | -0.683 |
| Kişi_48 | -0.084 |
| Kişi_49 | 2.096 |
| Kişi_50 | 0.199 |
| Kişi_51 | -0.526 |
| Kişi_52 | 0.058 |
| Kişi_53 | 0.058 |
| Kişi_54 | -0.683 |
| Kişi_55 | -0.847 |
| Kişi_56 | -0.228 |
| Kişi_57 | -1.207 |
| Kişi_58 | 0.630 |
| Kişi_59 | -1.409 |
| Kişi_60 | -0.683 |
| Kişi_61 | -1.409 |
| Kişi_62 | -0.228 |
| Kişi_63 | -0.683 |
| Kişi_64 | 0.935 |
| Kişi_65 | -0.683 |
| Kişi_66 | -0.683 |
| Kişi_67 | -0.084 |
| Kişi_68 | -0.375 |
| Kişi_69 | -1.207 |
| Kişi_70 | -0.375 |
| Kişi_71 | 2.364 |
| Kişi_72 | -0.683 |
| Kişi_73 | -1.409 |
| Kişi_74 | -0.683 |
| Kişi_75 | 0.199 |
| Kişi_76 | 0.199 |
| Kişi_77 | -0.526 |
| Kişi_78 | 1.267 |
| Kişi_79 | 1.644 |
| Kişi_80 | -0.228 |
| Kişi_81 | -0.683 |
| Kişi_82 | -0.375 |
| Kişi_83 | -0.375 |
| Kişi_84 | 0.484 |
| Kişi_85 | -0.683 |
| Kişi_86 | -1.021 |
| Kişi_87 | -0.375 |
| Kişi_88 | -0.847 |
| Kişi_89 | -0.683 |
| Kişi_90 | -1.021 |
| Kişi_91 | 0.484 |
| Kişi_92 | 1.096 |
| Kişi_93 | -0.228 |
| Kişi_94 | -1.207 |
| Kişi_95 | 0.630 |
| Kişi_96 | -0.526 |
| Kişi_97 | 0.199 |
| Kişi_98 | -1.021 |
| Kişi_99 | -0.683 |
| Kişi_100 | -0.375 |
| Kişi_101 | -1.631 |
| Kişi_102 | -0.847 |
| Kişi_103 | -0.084 |
| Kişi_104 | -1.409 |
| Kişi_105 | -0.847 |
| Kişi_106 | -0.683 |
| Kişi_107 | -0.228 |
| Kişi_108 | 0.199 |
| Kişi_109 | -0.683 |
| Kişi_110 | 1.267 |
| Kişi_111 | -1.207 |
| Kişi_112 | 0.484 |
| Kişi_113 | -0.526 |
| Kişi_114 | -0.084 |
| Kişi_115 | 0.935 |
| Kişi_116 | -0.526 |
| Kişi_117 | -1.021 |
| Kişi_118 | -0.084 |
| Kişi_119 | -0.683 |
| Kişi_120 | -0.375 |
| Kişi_121 | 0.199 |
| Kişi_122 | -1.021 |
| Kişi_123 | 0.341 |
| Kişi_124 | -0.683 |
| Kişi_125 | -0.375 |
| Kişi_126 | 0.630 |
| Kişi_127 | -0.526 |
| Kişi_128 | 0.780 |
| Kişi_129 | 0.935 |
| Kişi_130 | -0.683 |
| Kişi_131 | -0.526 |
| Kişi_132 | -0.375 |
| Kişi_133 | 0.630 |
| Kişi_134 | 2.096 |
| Kişi_135 | -0.526 |
| Kişi_136 | -0.228 |
| Kişi_137 | 0.199 |
| Kişi_138 | 1.448 |
| Kişi_139 | -0.228 |
| Kişi_140 | 1.267 |
| Kişi_141 | -0.683 |
| Kişi_142 | -0.375 |
| Kişi_143 | -0.526 |
| Kişi_144 | -0.084 |
| Kişi_145 | -0.084 |
| Kişi_146 | 0.780 |
| Kişi_147 | -0.526 |
| Kişi_148 | 1.267 |
| Kişi_149 | -0.375 |
| Kişi_150 | 0.058 |
| Kişi_151 | 0.341 |
| Kişi_152 | -0.375 |
| Kişi_153 | 1.644 |
| Kişi_154 | -0.375 |
| Kişi_155 | 2.096 |
| Kişi_156 | -0.526 |
| Kişi_157 | -0.526 |
| Kişi_158 | 0.199 |
| Kişi_159 | -1.021 |
| Kişi_160 | -0.375 |
| Kişi_161 | 0.780 |
| Kişi_162 | -0.526 |
| Kişi_163 | -0.683 |
| Kişi_164 | -0.683 |
| Kişi_165 | -0.084 |
| Kişi_166 | 0.484 |
| Kişi_167 | -0.084 |
| Kişi_168 | 0.058 |
| Kişi_169 | -0.683 |
| Kişi_170 | -0.228 |
| Kişi_171 | 0.199 |
| Kişi_172 | -0.683 |
| Kişi_173 | -1.207 |
| Kişi_174 | -0.683 |
| Kişi_175 | 0.058 |
| Kişi_176 | 1.096 |
| Kişi_177 | -0.526 |
| Kişi_178 | 0.484 |
| Kişi_179 | -0.683 |
| Kişi_180 | -0.375 |
| Kişi_181 | -0.847 |
| Kişi_182 | 1.267 |
| Kişi_183 | 0.058 |
| Kişi_184 | -0.683 |
| Kişi_185 | 0.484 |
| Kişi_186 | -0.683 |
| Kişi_187 | 1.267 |
| Kişi_188 | -0.847 |
| Kişi_189 | -1.021 |
| Kişi_190 | 1.096 |
| Kişi_191 | 2.096 |
| Kişi_192 | -0.683 |
| Kişi_193 | 0.935 |
| Kişi_194 | 0.341 |
| Kişi_195 | 0.780 |
| Kişi_196 | -0.847 |
| Kişi_197 | -0.084 |
| Kişi_198 | 0.199 |
| Kişi_199 | -0.228 |
| Kişi_200 | 0.341 |
| Kişi_201 | -0.375 |
| Kişi_202 | -1.021 |
| Kişi_203 | 0.630 |
| Kişi_204 | -0.084 |
| Kişi_205 | -0.526 |
| Kişi_206 | 0.484 |
| Kişi_207 | -0.847 |
| Kişi_208 | -0.847 |
| Kişi_209 | -1.021 |
| Kişi_210 | -0.084 |
| Kişi_211 | -1.021 |
| Kişi_212 | -1.207 |
| Kişi_213 | -1.021 |
| Kişi_214 | 0.341 |
| Kişi_215 | -0.526 |
| Kişi_216 | -1.409 |
| Kişi_217 | -0.847 |
| Kişi_218 | -0.375 |
| Kişi_219 | -0.228 |
| Kişi_220 | 0.630 |
| Kişi_221 | 0.780 |
| Kişi_222 | 0.058 |
| Kişi_223 | 0.484 |
| Kişi_224 | 0.780 |
| Kişi_225 | -0.526 |
| Kişi_226 | -0.847 |
| Kişi_227 | 1.267 |
| Kişi_228 | -0.526 |
| Kişi_229 | -0.526 |
| Kişi_230 | 0.780 |
| Kişi_231 | -0.526 |
| Kişi_232 | -0.526 |
| Kişi_233 | 0.780 |
| Kişi_234 | -1.207 |
| Kişi_235 | -0.847 |
| Kişi_236 | -0.683 |
| Kişi_237 | 0.484 |
| Kişi_238 | 0.058 |
| Kişi_239 | -0.683 |
| Kişi_240 | 0.058 |
| Kişi_241 | -0.375 |
| Kişi_242 | -0.526 |
| Kişi_243 | 0.058 |
| Kişi_244 | 0.199 |
| Kişi_245 | -0.683 |
| Kişi_246 | -0.228 |
| Kişi_247 | -1.021 |
| Kişi_248 | -0.228 |
| Kişi_249 | -0.683 |
| Kişi_250 | -0.228 |
| Kişi_251 | -0.683 |
| Kişi_252 | 0.935 |
| Kişi_253 | -0.683 |
| Kişi_254 | -0.375 |
| Kişi_255 | -0.084 |
| Kişi_256 | 0.199 |
| Kişi_257 | -0.375 |
| Kişi_258 | -0.526 |
| Kişi_259 | -0.084 |
| Kişi_260 | -1.207 |
| Kişi_261 | -0.375 |
| Kişi_262 | 0.780 |
| Kişi_263 | -0.526 |
| Kişi_264 | 0.935 |
| Kişi_265 | -1.021 |
| Kişi_266 | 0.058 |
| Kişi_267 | 0.935 |
| Kişi_268 | -0.526 |
| Kişi_269 | -0.847 |
| Kişi_270 | 1.096 |
| Kişi_271 | -0.228 |
| Kişi_272 | -0.228 |
| Kişi_273 | 0.341 |
| Kişi_274 | -0.375 |
| Kişi_275 | -0.375 |
| Kişi_276 | 0.058 |
| Kişi_277 | -0.847 |
| Kişi_278 | -0.526 |
| Kişi_279 | -1.021 |
| Kişi_280 | -0.526 |
| Kişi_281 | -0.084 |
| Kişi_282 | 0.058 |
| Kişi_283 | -1.409 |
| Kişi_284 | -0.228 |
| Kişi_285 | 0.484 |
| Kişi_286 | -0.228 |
| Kişi_287 | -0.526 |
| Kişi_288 | -0.526 |
| Kişi_289 | -1.021 |
| Kişi_290 | -1.207 |
| Kişi_291 | -1.207 |
| Kişi_292 | -0.683 |
| Kişi_293 | -0.228 |
| Kişi_294 | 0.058 |
| Kişi_295 | -0.847 |
| Kişi_296 | -1.021 |
| Kişi_297 | -0.683 |
| Kişi_298 | 0.341 |
| Kişi_299 | -1.021 |
| Kişi_300 | -0.847 |
| Kişi_301 | -0.847 |
| Kişi_302 | -0.683 |
| Kişi_303 | -0.084 |
| Kişi_304 | -0.526 |
| Kişi_305 | 0.058 |
| Kişi_306 | -0.228 |
| Kişi_307 | 0.199 |
| Kişi_308 | -0.228 |
| Kişi_309 | -0.228 |
| Kişi_310 | -0.526 |
| Kişi_311 | -0.375 |
| Kişi_312 | -1.021 |
| Kişi_313 | -0.683 |
| Kişi_314 | -0.375 |
| Kişi_315 | -0.228 |
| Kişi_316 | 0.630 |
| Kişi_317 | -0.084 |
| Kişi_318 | 0.484 |
| Kişi_319 | 0.780 |
| Kişi_320 | -0.228 |
| Kişi_321 | -0.228 |
| Kişi_322 | -0.084 |
| Kişi_323 | -0.847 |
| Kişi_324 | -0.526 |
| Kişi_325 | -0.847 |
| Kişi_326 | -0.375 |
| Kişi_327 | 0.484 |
| Kişi_328 | 2.364 |
| Kişi_329 | -0.084 |
| Kişi_330 | -0.084 |
| Kişi_331 | -0.228 |
| Kişi_332 | -0.228 |
| Kişi_333 | 0.484 |
| Kişi_334 | 0.484 |
| Kişi_335 | -0.228 |
| Kişi_336 | -0.683 |
| Kişi_337 | -1.409 |
| Kişi_338 | 0.630 |
| Kişi_339 | -1.021 |
| Kişi_340 | 1.096 |
| Kişi_341 | 1.096 |
| Kişi_342 | 1.096 |
| Kişi_343 | -0.375 |
| Kişi_344 | -1.021 |
| Kişi_345 | 2.364 |
| Kişi_346 | -0.847 |
| Kişi_347 | -0.847 |
| Kişi_348 | 0.199 |
| Kişi_349 | 1.448 |
| Kişi_350 | 0.780 |
| Kişi_351 | 0.199 |
| Kişi_352 | -0.375 |
| Kişi_353 | 0.484 |
| Kişi_354 | 0.630 |
| Kişi_355 | 0.630 |
| Kişi_356 | -0.375 |
| Kişi_357 | 1.096 |
| Kişi_358 | -0.375 |
| Kişi_359 | -0.526 |
| Kişi_360 | 0.780 |
| Kişi_361 | 0.935 |
| Kişi_362 | 0.199 |
| Kişi_363 | -0.683 |
| Kişi_364 | -0.526 |
| Kişi_365 | -0.375 |
| Kişi_366 | 0.630 |
| Kişi_367 | -0.526 |
| Kişi_368 | -0.683 |
| Kişi_369 | 1.267 |
| Kişi_370 | -0.683 |
| Kişi_371 | -0.228 |
| Kişi_372 | 1.267 |
| Kişi_373 | -0.847 |
| Kişi_374 | -0.228 |
| Kişi_375 | 1.096 |
| Kişi_376 | -1.021 |
| Kişi_377 | 0.058 |
| Kişi_378 | 0.484 |
| Kişi_379 | 1.859 |
| Kişi_380 | -0.228 |
| Kişi_381 | -0.228 |
| Kişi_382 | 0.058 |
| Kişi_383 | -0.847 |
| Kişi_384 | 1.267 |
| Kişi_385 | -0.683 |
| Kişi_386 | -0.228 |
| Kişi_387 | 0.199 |
| Kişi_388 | -0.847 |
| Kişi_389 | 0.341 |
| Kişi_390 | -1.021 |
| Kişi_391 | 0.630 |
| Kişi_392 | -1.631 |
| Kişi_393 | -0.526 |
| Kişi_394 | 1.859 |
| Kişi_395 | 0.341 |
| Kişi_396 | 0.341 |
| Kişi_397 | -0.526 |
| Kişi_398 | -0.228 |
| Kişi_399 | -0.526 |
| Kişi_400 | 1.644 |
| Kişi_401 | -1.409 |
| Kişi_402 | -0.228 |
| Kişi_403 | -0.847 |
| Kişi_404 | -0.847 |
| Kişi_405 | 0.058 |
| Kişi_406 | -2.159 |
| Kişi_407 | -1.409 |
| Kişi_408 | -0.847 |
| Kişi_409 | 1.096 |
| Kişi_410 | 1.267 |
| Kişi_411 | 2.364 |
| Kişi_412 | 0.199 |
| Kişi_413 | 0.780 |
| Kişi_414 | 0.935 |
| Kişi_415 | -0.375 |
| Kişi_416 | -0.683 |
| Kişi_417 | 0.935 |
| Kişi_418 | 0.780 |
| Kişi_419 | -0.084 |
| Kişi_420 | -1.409 |
| Kişi_421 | -0.526 |
| Kişi_422 | 0.630 |
| Kişi_423 | 2.364 |
| Kişi_424 | 2.364 |
| Kişi_425 | -0.683 |
| Kişi_426 | -0.375 |
| Kişi_427 | 0.484 |
| Kişi_428 | -1.021 |
| Kişi_429 | -0.526 |
| Kişi_430 | -0.084 |
| Kişi_431 | -0.228 |
| Kişi_432 | 0.341 |
| Kişi_433 | -0.526 |
| Kişi_434 | -0.847 |
| Kişi_435 | -0.375 |
| Kişi_436 | -0.228 |
| Kişi_437 | -0.683 |
| Kişi_438 | 1.644 |
| Kişi_439 | -0.847 |
| Kişi_440 | 0.199 |
| Kişi_441 | 1.448 |
| Kişi_442 | -1.631 |
| Kişi_443 | 1.096 |
| Kişi_444 | 0.341 |
| Kişi_445 | 1.859 |
| Kişi_446 | -0.526 |
| Kişi_447 | -0.847 |
| Kişi_448 | 0.058 |
| Kişi_449 | 0.341 |
| Kişi_450 | -0.847 |
| Kişi_451 | -0.228 |
| Kişi_452 | -0.228 |
| Kişi_453 | -0.526 |
| Kişi_454 | -1.207 |
| Kişi_455 | 0.630 |
| Kişi_456 | -0.683 |
| Kişi_457 | -0.228 |
| Kişi_458 | -0.683 |
| Kişi_459 | -0.375 |
| Kişi_460 | 0.199 |
| Kişi_461 | 0.058 |
| Kişi_462 | -0.084 |
| Kişi_463 | -0.228 |
| Kişi_464 | 0.935 |
| Kişi_465 | -0.847 |
| Kişi_466 | -0.847 |
| Kişi_467 | -1.207 |
| Kişi_468 | 0.058 |
| Kişi_469 | 1.267 |
| Kişi_470 | -0.084 |
| Kişi_471 | -0.228 |
| Kişi_472 | 1.267 |
| Kişi_473 | 0.630 |
| Kişi_474 | 0.484 |
| Kişi_475 | 0.341 |
| Kişi_476 | -1.207 |
| Kişi_477 | -0.375 |
| Kişi_478 | 0.780 |
| Kişi_479 | 0.630 |
| Kişi_480 | -1.021 |
| Kişi_481 | -1.409 |
| Kişi_482 | 0.484 |
| Kişi_483 | -1.207 |
| Kişi_484 | 0.484 |
| Kişi_485 | 2.096 |
| Kişi_486 | 2.096 |
| Kişi_487 | -0.084 |
| Kişi_488 | 0.484 |
| Kişi_489 | -0.526 |
| Kişi_490 | -0.683 |
| Kişi_491 | 0.058 |
| Kişi_492 | -0.228 |
| Kişi_493 | -0.375 |
| Kişi_494 | 0.484 |
| Kişi_495 | -0.683 |
| Kişi_496 | 0.780 |
| Kişi_497 | 1.448 |
| Kişi_498 | 0.341 |
| Kişi_499 | 1.096 |
| Kişi_500 | -1.631 |
| Kişi_501 | 0.058 |
| Kişi_502 | -0.683 |
| Kişi_503 | -0.683 |
| Kişi_504 | 1.267 |
| Kişi_505 | 1.096 |
| Kişi_506 | -1.021 |
| Kişi_507 | 0.341 |
| Kişi_508 | -1.021 |
| Kişi_509 | 0.058 |
| Kişi_510 | 1.096 |
| Kişi_511 | 1.644 |
| Kişi_512 | 1.448 |
| Kişi_513 | -0.683 |
| Kişi_514 | 1.267 |
| Kişi_515 | -0.683 |
| Kişi_516 | -1.021 |
| Kişi_517 | -1.207 |
| Kişi_518 | -0.683 |
| Kişi_519 | 0.484 |
| Kişi_520 | -0.683 |
| Kişi_521 | -0.228 |
| Kişi_522 | -0.526 |
| Kişi_523 | -0.375 |
| Kişi_524 | 0.484 |
| Kişi_525 | -0.375 |
| Kişi_526 | -0.228 |
| Kişi_527 | 1.096 |
| Kişi_528 | 0.630 |
| Kişi_529 | 1.448 |
| Kişi_530 | -0.683 |
| Kişi_531 | -0.526 |
| Kişi_532 | 1.096 |
| Kişi_533 | -1.021 |
| Kişi_534 | -0.847 |
| Kişi_535 | -0.683 |
| Kişi_536 | -0.847 |
| Kişi_537 | -0.228 |
| Kişi_538 | -0.847 |
| Kişi_539 | -0.084 |
| Kişi_540 | 0.341 |
| Kişi_541 | 0.058 |
| Kişi_542 | -0.526 |
| Kişi_543 | 0.058 |
| Kişi_544 | 0.780 |
| Kişi_545 | -0.683 |
| Kişi_546 | -0.375 |
| Kişi_547 | -0.683 |
| Kişi_548 | -0.847 |
| Kişi_549 | -0.228 |
| Kişi_550 | -0.228 |
| Kişi_551 | -0.084 |
| Kişi_552 | 1.448 |
| Kişi_553 | -0.847 |
| Kişi_554 | -0.683 |
| Kişi_555 | -1.409 |
| Kişi_556 | -0.526 |
| Kişi_557 | 0.199 |
| Kişi_558 | -1.021 |
| Kişi_559 | -0.375 |
| Kişi_560 | 0.058 |
| Kişi_561 | -0.526 |
| Kişi_562 | -0.526 |
| Kişi_563 | 0.199 |
| Kişi_564 | -0.375 |
| Kişi_565 | -0.084 |
| Kişi_566 | -1.021 |
| Kişi_567 | -0.847 |
| Kişi_568 | -0.526 |
| Kişi_569 | 0.484 |
| Kişi_570 | 0.199 |
| Kişi_571 | 0.341 |
| Kişi_572 | -0.228 |
| Kişi_573 | -0.228 |
| Kişi_574 | 0.058 |
| Kişi_575 | 1.267 |
| Kişi_576 | 1.267 |
| Kişi_577 | -0.228 |
| Kişi_578 | -0.683 |
| Kişi_579 | -0.228 |
| Kişi_580 | -0.084 |
| Kişi_581 | 0.058 |
| Kişi_582 | -0.084 |
| Kişi_583 | 0.199 |
| Kişi_584 | -0.847 |
| Kişi_585 | -0.683 |
| Kişi_586 | -0.683 |
| Kişi_587 | 1.859 |
| Kişi_588 | 0.199 |
| Kişi_589 | -0.228 |
| Kişi_590 | -0.228 |
| Kişi_591 | 1.859 |
| Kişi_592 | 0.341 |
| Kişi_593 | -0.375 |
| Kişi_594 | 0.341 |
| Kişi_595 | 1.096 |
| Kişi_596 | 0.058 |
| Kişi_597 | -1.021 |
| Kişi_598 | 1.448 |
| Kişi_599 | 1.644 |
| Kişi_600 | 1.096 |
| Kişi_601 | -0.375 |
| Kişi_602 | -0.683 |
| Kişi_603 | -0.375 |
| Kişi_604 | -0.683 |
| Kişi_605 | 1.448 |
| Kişi_606 | -0.847 |
| Kişi_607 | 0.058 |
| Kişi_608 | 1.644 |
| Kişi_609 | -1.021 |
| Kişi_610 | 0.935 |
| Kişi_611 | 1.267 |
| Kişi_612 | -0.526 |
| Kişi_613 | 0.484 |
| Kişi_614 | -0.228 |
| Kişi_615 | 0.780 |
| Kişi_616 | -0.375 |
| Kişi_617 | -0.375 |
| Kişi_618 | -0.375 |
| Kişi_619 | -0.847 |
| Kişi_620 | 0.484 |
| Kişi_621 | 0.058 |
| Kişi_622 | 0.058 |
| Kişi_623 | 1.448 |
| Kişi_624 | -0.683 |
| Kişi_625 | -1.021 |
| Kişi_626 | -0.084 |
| Kişi_627 | -0.375 |
| Kişi_628 | -0.084 |
| Kişi_629 | -0.683 |
| Kişi_630 | 0.780 |
| Kişi_631 | 0.058 |
| Kişi_632 | 0.199 |
| Kişi_633 | -0.683 |
| Kişi_634 | 0.780 |
| Kişi_635 | 0.630 |
| Kişi_636 | 0.341 |
| Kişi_637 | 1.096 |
| Kişi_638 | -0.228 |
| Kişi_639 | 0.484 |
| Kişi_640 | 0.484 |
| Kişi_641 | 0.058 |
| Kişi_642 | -0.084 |
| Kişi_643 | 1.644 |
| Kişi_644 | 0.484 |
| Kişi_645 | -0.683 |
| Kişi_646 | -0.228 |
| Kişi_647 | -0.375 |
| Kişi_648 | 0.058 |
| Kişi_649 | -0.375 |
| Kişi_650 | -0.228 |
| Kişi_651 | -1.021 |
| Kişi_652 | -1.021 |
| Kişi_653 | 0.199 |
| Kişi_654 | -0.375 |
| Kişi_655 | -0.847 |
| Kişi_656 | -0.526 |
| Kişi_657 | -0.375 |
| Kişi_658 | -0.228 |
| Kişi_659 | -1.021 |
| Kişi_660 | -0.683 |
| Kişi_661 | -0.526 |
| Kişi_662 | -0.526 |
| Kişi_663 | -1.207 |
| Kişi_664 | -0.683 |
| Kişi_665 | -0.084 |
| Kişi_666 | 0.341 |
| Kişi_667 | -0.847 |
| Kişi_668 | 0.058 |
| Kişi_669 | -0.526 |
| Kişi_670 | -0.228 |
| Kişi_671 | -0.084 |
| Kişi_672 | 0.630 |
| Kişi_673 | -0.375 |
| Kişi_674 | -0.683 |
| Kişi_675 | 1.096 |
| Kişi_676 | -0.847 |
| Kişi_677 | -0.375 |
| Kişi_678 | 0.199 |
| Kişi_679 | -0.084 |
| Kişi_680 | 0.780 |
| Kişi_681 | -0.084 |
| Kişi_682 | 0.199 |
| Kişi_683 | -0.847 |
| Kişi_684 | -0.084 |
| Kişi_685 | -1.207 |
| Kişi_686 | -0.084 |
| Kişi_687 | -0.526 |
| Kişi_688 | 0.058 |
| Kişi_689 | 0.780 |
| Kişi_690 | 1.267 |
| Kişi_691 | 1.267 |
| Kişi_692 | 0.780 |
| Kişi_693 | -0.228 |
| Kişi_694 | -0.683 |
| Kişi_695 | -0.526 |
| Kişi_696 | -1.631 |
| Kişi_697 | 0.630 |
| Kişi_698 | -0.526 |
| Kişi_699 | 0.780 |
| Kişi_700 | -0.084 |
| Kişi_701 | -0.375 |
| Kişi_702 | 0.935 |
| Kişi_703 | 0.341 |
| Kişi_704 | 0.058 |
| Kişi_705 | -0.375 |
| Kişi_706 | -0.847 |
| Kişi_707 | 0.199 |
| Kişi_708 | -0.375 |
| Kişi_709 | 0.341 |
| Kişi_710 | 0.630 |
| Kişi_711 | -0.683 |
| Kişi_712 | -0.847 |
| Kişi_713 | 1.267 |
| Kişi_714 | 0.341 |
| Kişi_715 | -0.847 |
| Kişi_716 | 0.341 |
| Kişi_717 | 1.859 |
| Kişi_718 | -0.375 |
| Kişi_719 | 1.448 |
| Kişi_720 | -1.207 |
| Kişi_721 | 0.341 |
| Kişi_722 | 0.935 |
| Kişi_723 | 0.630 |
| Kişi_724 | -0.683 |
| Kişi_725 | -0.228 |
| Kişi_726 | 2.364 |
| Kişi_727 | 1.096 |
| Kişi_728 | 1.448 |
| Kişi_729 | 0.058 |
| Kişi_730 | -0.375 |
| Kişi_731 | -0.084 |
| Kişi_732 | -0.526 |
| Kişi_733 | 0.058 |
| Kişi_734 | 1.267 |
| Kişi_735 | 1.096 |
| Kişi_736 | -1.207 |
| Kişi_737 | 0.484 |
| Kişi_738 | -0.526 |
| Kişi_739 | 0.935 |
| Kişi_740 | 0.630 |
| Kişi_741 | 0.935 |
| Kişi_742 | 0.058 |
| Kişi_743 | -0.847 |
| Kişi_744 | -0.847 |
| Kişi_745 | 0.058 |
| Kişi_746 | 0.199 |
| Kişi_747 | -0.526 |
| Kişi_748 | -1.207 |
| Kişi_749 | -1.409 |
| Kişi_750 | -1.207 |
| Kişi_751 | -0.683 |
| Kişi_752 | -0.084 |
| Kişi_753 | -0.683 |
| Kişi_754 | 0.780 |
| Kişi_755 | -0.683 |
| Kişi_756 | -0.847 |
| Kişi_757 | -1.021 |
| Kişi_758 | 0.780 |
| Kişi_759 | -1.021 |
| Kişi_760 | -0.228 |
| Kişi_761 | 0.484 |
| Kişi_762 | 1.096 |
| Kişi_763 | 0.058 |
| Kişi_764 | -0.228 |
| Kişi_765 | -0.375 |
| Kişi_766 | -1.021 |
| Kişi_767 | -0.228 |
| Kişi_768 | -0.526 |
| Kişi_769 | -0.375 |
| Kişi_770 | 0.058 |
| Kişi_771 | 0.199 |
| Kişi_772 | 1.448 |
| Kişi_773 | 0.199 |
| Kişi_774 | -0.847 |
| Kişi_775 | -0.084 |
| Kişi_776 | 2.096 |
| Kişi_777 | 0.058 |
| Kişi_778 | -0.228 |
| Kişi_779 | -0.375 |
| Kişi_780 | 1.096 |
| Kişi_781 | 0.484 |
| Kişi_782 | -0.683 |
| Kişi_783 | -0.683 |
| Kişi_784 | -1.021 |
| Kişi_785 | 0.199 |
| Kişi_786 | 0.058 |
| Kişi_787 | -0.683 |
| Kişi_788 | 0.199 |
| Kişi_789 | -0.375 |
| Kişi_790 | -0.084 |
| Kişi_791 | -0.683 |
| Kişi_792 | 1.096 |
| Kişi_793 | -0.375 |
| Kişi_794 | -0.847 |
| Kişi_795 | -0.683 |
| Kişi_796 | -0.847 |
| Kişi_797 | 2.096 |
| Kişi_798 | -0.084 |
| Kişi_799 | 0.341 |
| Kişi_800 | -0.228 |
| Kişi_801 | -1.021 |
| Kişi_802 | -0.847 |
| Kişi_803 | 0.341 |
| Kişi_804 | 0.199 |
| Kişi_805 | 0.199 |
| Kişi_806 | -0.375 |
| Kişi_807 | 0.780 |
| Kişi_808 | 0.058 |
| Kişi_809 | -0.526 |
| Kişi_810 | 1.859 |
| Kişi_811 | 1.448 |
| Kişi_812 | 1.267 |
| Kişi_813 | -0.683 |
| Kişi_814 | -0.683 |
| Kişi_815 | 0.058 |
| Kişi_816 | 0.935 |
| Kişi_817 | 0.630 |
| Kişi_818 | -0.228 |
| Kişi_819 | 0.199 |
| Kişi_820 | 0.935 |
| Kişi_821 | 0.199 |
| Kişi_822 | 0.341 |
| Kişi_823 | 0.199 |
| Kişi_824 | -0.847 |
| Kişi_825 | -0.375 |
| Kişi_826 | 0.199 |
| Kişi_827 | -1.021 |
| Kişi_828 | 0.058 |
| Kişi_829 | -0.526 |
| Kişi_830 | 0.199 |
| Kişi_831 | 0.630 |
| Kişi_832 | 0.780 |
| Kişi_833 | 0.058 |
| Kişi_834 | -0.683 |
| Kişi_835 | 1.267 |
| Kişi_836 | -0.526 |
| Kişi_837 | 0.199 |
| Kişi_838 | -0.084 |
| Kişi_839 | 1.448 |
| Kişi_840 | -0.228 |
| Kişi_841 | 0.484 |
| Kişi_842 | -0.847 |
| Kişi_843 | 0.058 |
| Kişi_844 | -0.228 |
| Kişi_845 | -0.228 |
| Kişi_846 | 1.448 |
| Kişi_847 | -0.084 |
| Kişi_848 | -1.409 |
| Kişi_849 | -1.207 |
| Kişi_850 | 0.630 |
| Kişi_851 | -0.526 |
| Kişi_852 | 0.058 |
| Kişi_853 | 0.935 |
| Kişi_854 | 0.935 |
| Kişi_855 | 0.058 |
| Kişi_856 | -0.228 |
| Kişi_857 | -0.228 |
| Kişi_858 | 0.199 |
| Kişi_859 | -1.021 |
| Kişi_860 | -0.526 |
| Kişi_861 | -0.847 |
| Kişi_862 | -1.409 |
| Kişi_863 | -0.683 |
| Kişi_864 | -0.228 |
| Kişi_865 | -1.021 |
| Kişi_866 | -0.847 |
| Kişi_867 | -0.526 |
| Kişi_868 | -0.228 |
| Kişi_869 | -0.375 |
| Kişi_870 | 0.058 |
| Kişi_871 | -0.526 |
| Kişi_872 | 0.058 |
| Kişi_873 | -0.228 |
| Kişi_874 | -0.526 |
| Kişi_875 | -0.526 |
| Kişi_876 | -1.207 |
| Kişi_877 | -1.207 |
| Kişi_878 | -1.021 |
| Kişi_879 | 0.199 |
| Kişi_880 | -0.847 |
| Kişi_881 | -0.847 |
| Kişi_882 | -1.021 |
| Kişi_883 | 0.058 |
| Kişi_884 | -0.526 |
| Kişi_885 | -1.207 |
| Kişi_886 | -1.207 |
| Kişi_887 | -0.526 |
| Kişi_888 | 0.780 |
| Kişi_889 | -0.683 |
| Kişi_890 | -0.847 |
| Kişi_891 | 0.935 |
| Kişi_892 | -0.375 |
| Kişi_893 | -0.847 |
| Kişi_894 | -0.084 |
| Kişi_895 | 0.058 |
| Kişi_896 | -1.409 |
| Kişi_897 | 0.484 |
| Kişi_898 | -0.526 |
| Kişi_899 | 0.199 |
| Kişi_900 | 0.630 |
| Kişi_901 | -0.228 |
| Kişi_902 | 0.058 |
| Kişi_903 | 0.341 |
| Kişi_904 | -0.228 |
| Kişi_905 | 0.058 |
| Kişi_906 | -0.683 |
| Kişi_907 | 0.630 |
| Kişi_908 | -0.526 |
| Kişi_909 | -0.683 |
| Kişi_910 | 0.630 |
| Kişi_911 | -0.228 |
| Kişi_912 | 0.935 |
| Kişi_913 | 0.630 |
| Kişi_914 | -0.375 |
| Kişi_915 | 0.484 |
| Kişi_916 | -1.878 |
| Kişi_917 | 0.780 |
| Kişi_918 | 0.935 |
| Kişi_919 | -0.375 |
| Kişi_920 | -0.683 |
| Kişi_921 | -1.207 |
| Kişi_922 | 0.199 |
| Kişi_923 | 0.484 |
| Kişi_924 | -0.375 |
| Kişi_925 | -0.228 |
| Kişi_926 | -0.683 |
| Kişi_927 | 0.341 |
| Kişi_928 | -0.375 |
| Kişi_929 | 0.199 |
| Kişi_930 | 1.448 |
| Kişi_931 | 1.267 |
| Kişi_932 | -1.021 |
| Kişi_933 | -1.021 |
| Kişi_934 | -1.021 |
| Kişi_935 | -0.375 |
| Kişi_936 | 0.058 |
| Kişi_937 | -1.207 |
| Kişi_938 | 0.484 |
| Kişi_939 | -0.228 |
| Kişi_940 | 0.630 |
| Kişi_941 | 0.630 |
| Kişi_942 | 0.630 |
| Kişi_943 | -0.526 |
| Kişi_944 | 0.484 |
| Kişi_945 | -0.847 |
| Kişi_946 | -1.207 |
| Kişi_947 | 0.058 |
| Kişi_948 | -0.375 |
| Kişi_949 | 0.935 |
| Kişi_950 | -0.847 |
| Kişi_951 | 0.780 |
| Kişi_952 | -0.228 |
| Kişi_953 | 0.780 |
| Kişi_954 | 0.058 |
| Kişi_955 | 1.859 |
| Kişi_956 | 0.341 |
| Kişi_957 | 1.096 |
| Kişi_958 | 0.058 |
| Kişi_959 | 0.199 |
| Kişi_960 | 0.935 |
| Kişi_961 | 0.341 |
| Kişi_962 | -0.526 |
| Kişi_963 | -1.207 |
| Kişi_964 | 2.096 |
| Kişi_965 | -0.375 |
| Kişi_966 | -0.375 |
| Kişi_967 | 0.630 |
| Kişi_968 | 0.935 |
| Kişi_969 | -0.847 |
| Kişi_970 | -0.847 |
| Kişi_971 | 1.096 |
| Kişi_972 | 1.267 |
| Kişi_973 | -0.375 |
| Kişi_974 | -0.375 |
| Kişi_975 | -0.375 |
| Kişi_976 | -0.526 |
| Kişi_977 | -0.526 |
| Kişi_978 | -1.207 |
| Kişi_979 | 0.935 |
| Kişi_980 | 0.630 |
| Kişi_981 | 0.484 |
| Kişi_982 | 0.484 |
| Kişi_983 | 2.096 |
| Kişi_984 | -0.375 |
| Kişi_985 | -0.084 |
| Kişi_986 | -1.631 |
| Kişi_987 | -0.084 |
| Kişi_988 | -1.409 |
| Kişi_989 | 1.096 |
| Kişi_990 | -0.526 |
| Kişi_991 | 0.199 |
| Kişi_992 | 0.484 |
| Kişi_993 | 1.096 |
| Kişi_994 | -0.526 |
| Kişi_995 | 1.859 |
| Kişi_996 | 0.630 |
| Kişi_997 | 1.267 |
| Kişi_998 | -0.084 |
| Kişi_999 | 1.644 |
| Kişi_1000 | 0.199 |
| Kişi_1001 | 0.199 |
| Kişi_1002 | 1.644 |
| Kişi_1003 | 0.058 |
| Kişi_1004 | -0.228 |
| Kişi_1005 | -0.375 |
| Kişi_1006 | -1.409 |
| Kişi_1007 | -0.526 |
| Kişi_1008 | -0.375 |
| Kişi_1009 | -0.847 |
| Kişi_1010 | 0.780 |
| Kişi_1011 | 0.199 |
| Kişi_1012 | 1.267 |
| Kişi_1013 | -1.207 |
| Kişi_1014 | 0.780 |
| Kişi_1015 | -1.409 |
| Kişi_1016 | 0.341 |
| Kişi_1017 | -0.228 |
| Kişi_1018 | 0.341 |
| Kişi_1019 | 1.096 |
| Kişi_1020 | 0.484 |
| Kişi_1021 | 0.341 |
| Kişi_1022 | -0.375 |
| Kişi_1023 | 0.780 |
| Kişi_1024 | -0.526 |
| Kişi_1025 | 1.859 |
| Kişi_1026 | 2.096 |
| Kişi_1027 | 0.199 |
| Kişi_1028 | 1.267 |
| Kişi_1029 | -0.228 |
| Kişi_1030 | -1.631 |
| Kişi_1031 | 1.096 |
| Kişi_1032 | 1.859 |
| Kişi_1033 | -0.375 |
| Kişi_1034 | -1.207 |
| Kişi_1035 | 2.364 |
| Kişi_1036 | -0.084 |
| Kişi_1037 | 0.484 |
| Kişi_1038 | -0.847 |
| Kişi_1039 | 1.267 |
| Kişi_1040 | -1.021 |
| Kişi_1041 | 0.630 |
| Kişi_1042 | 1.448 |
| Kişi_1043 | 0.341 |
| Kişi_1044 | 0.341 |
| Kişi_1045 | 1.096 |
| Kişi_1046 | -0.526 |
| Kişi_1047 | -1.631 |
| Kişi_1048 | -0.526 |
| Kişi_1049 | -0.084 |
| Kişi_1050 | 0.058 |
| Kişi_1051 | 0.484 |
| Kişi_1052 | -0.847 |
| Kişi_1053 | -0.683 |
| Kişi_1054 | 1.448 |
| Kişi_1055 | 0.484 |
| Kişi_1056 | -0.683 |
| Kişi_1057 | -0.375 |
| Kişi_1058 | 0.780 |
| Kişi_1059 | 1.448 |
| Kişi_1060 | 1.096 |
| Kişi_1061 | 1.448 |
| Kişi_1062 | -0.084 |
| Kişi_1063 | -0.526 |
| Kişi_1064 | -0.084 |
| Kişi_1065 | -0.228 |
| Kişi_1066 | -0.526 |
| Kişi_1067 | 1.096 |
| Kişi_1068 | 0.484 |
| Kişi_1069 | 1.448 |
| Kişi_1070 | -0.375 |
| Kişi_1071 | 1.859 |
| Kişi_1072 | -0.228 |
| Kişi_1073 | -0.228 |
| Kişi_1074 | 0.935 |
| Kişi_1075 | 2.364 |
| Kişi_1076 | -0.084 |
| Kişi_1077 | 0.630 |
| Kişi_1078 | -0.228 |
| Kişi_1079 | 2.364 |
| Kişi_1080 | -0.375 |
| Kişi_1081 | 0.058 |
| Kişi_1082 | 0.058 |
| Kişi_1083 | -0.847 |
| Kişi_1084 | 0.341 |
| Kişi_1085 | -0.847 |
| Kişi_1086 | 0.058 |
| Kişi_1087 | -0.228 |
| Kişi_1088 | 0.630 |
| Kişi_1089 | -1.021 |
| Kişi_1090 | -1.021 |
| Kişi_1091 | -0.847 |
| Kişi_1092 | -0.375 |
| Kişi_1093 | -0.084 |
| Kişi_1094 | -0.228 |
| Kişi_1095 | -1.021 |
| Kişi_1096 | 0.341 |
| Kişi_1097 | -0.228 |
| Kişi_1098 | 0.058 |
| Kişi_1099 | 0.630 |
| Kişi_1100 | 0.341 |
| Kişi_1101 | 0.199 |
| Kişi_1102 | -0.084 |
| Kişi_1103 | 1.859 |
| Kişi_1104 | -0.847 |
| Kişi_1105 | -0.084 |
| Kişi_1106 | -0.228 |
| Kişi_1107 | -0.228 |
| Kişi_1108 | -0.683 |
| Kişi_1109 | -0.375 |
| Kişi_1110 | -0.228 |
| Kişi_1111 | -1.021 |
| Kişi_1112 | -0.375 |
| Kişi_1113 | -0.228 |
| Kişi_1114 | 0.058 |
| Kişi_1115 | 0.780 |
| Kişi_1116 | 0.780 |
| Kişi_1117 | -0.228 |
| Kişi_1118 | -0.084 |
| Kişi_1119 | -0.228 |
| Kişi_1120 | -0.526 |
| Kişi_1121 | 0.058 |
| Kişi_1122 | 1.644 |
| Kişi_1123 | -0.683 |
| Kişi_1124 | -0.084 |
| Kişi_1125 | 1.859 |
| Kişi_1126 | -0.084 |
| Kişi_1127 | -0.375 |
| Kişi_1128 | -0.228 |
| Kişi_1129 | -0.084 |
| Kişi_1130 | 1.267 |
| Kişi_1131 | -0.084 |
| Kişi_1132 | -0.526 |
| Kişi_1133 | 0.058 |
| Kişi_1134 | 1.267 |
| Kişi_1135 | 0.341 |
| Kişi_1136 | 0.935 |
| Kişi_1137 | -1.021 |
| Kişi_1138 | -0.526 |
| Kişi_1139 | -0.375 |
| Kişi_1140 | -0.084 |
| Kişi_1141 | 1.859 |
| Kişi_1142 | -0.375 |
| Kişi_1143 | 0.780 |
| Kişi_1144 | -0.228 |
| Kişi_1145 | -1.021 |
| Kişi_1146 | 0.484 |
| Kişi_1147 | -0.683 |
| Kişi_1148 | -0.228 |
| Kişi_1149 | 0.484 |
| Kişi_1150 | -0.375 |
| Kişi_1151 | -0.526 |
| Kişi_1152 | 0.199 |
| Kişi_1153 | 1.267 |
| Kişi_1154 | -0.847 |
| Kişi_1155 | 1.448 |
| Kişi_1156 | 1.448 |
| Kişi_1157 | -0.375 |
| Kişi_1158 | 0.058 |
| Kişi_1159 | -0.228 |
| Kişi_1160 | -0.526 |
| Kişi_1161 | -0.683 |
| Kişi_1162 | -0.084 |
| Kişi_1163 | -1.409 |
| Kişi_1164 | 1.644 |
| Kişi_1165 | -0.683 |
| Kişi_1166 | 0.341 |
| Kişi_1167 | 0.484 |
| Kişi_1168 | 2.364 |
| Kişi_1169 | -0.526 |
| Kişi_1170 | -1.021 |
| Kişi_1171 | -0.375 |
| Kişi_1172 | -0.683 |
| Kişi_1173 | 0.058 |
| Kişi_1174 | 0.935 |
| Kişi_1175 | -0.683 |
| Kişi_1176 | -1.409 |
| Kişi_1177 | 0.630 |
| Kişi_1178 | -0.375 |
| Kişi_1179 | 0.630 |
| Kişi_1180 | 0.199 |
| Kişi_1181 | 0.935 |
| Kişi_1182 | 0.058 |
| Kişi_1183 | -0.683 |
| Kişi_1184 | 0.058 |
| Kişi_1185 | 0.199 |
| Kişi_1186 | 1.644 |
| Kişi_1187 | -0.526 |
| Kişi_1188 | -0.526 |
| Kişi_1189 | 0.341 |
| Kişi_1190 | -1.409 |
| Kişi_1191 | 0.199 |
| Kişi_1192 | 0.630 |
| Kişi_1193 | -0.084 |
| Kişi_1194 | 0.058 |
| Kişi_1195 | -1.021 |
| Kişi_1196 | 1.644 |
| Kişi_1197 | -0.847 |
| Kişi_1198 | 0.341 |
| Kişi_1199 | -0.084 |
| Kişi_1200 | -0.847 |
| Kişi_1201 | -1.409 |
| Kişi_1202 | 0.199 |
| Kişi_1203 | -0.683 |
| Kişi_1204 | 2.096 |
| Kişi_1205 | 0.341 |
| Kişi_1206 | 0.630 |
| Kişi_1207 | 0.058 |
| Kişi_1208 | 0.630 |
| Kişi_1209 | 0.630 |
| Kişi_1210 | -1.021 |
| Kişi_1211 | -0.084 |
| Kişi_1212 | -0.375 |
| Kişi_1213 | -0.084 |
| Kişi_1214 | -0.847 |
| Kişi_1215 | 0.630 |
| Kişi_1216 | 0.341 |
| Kişi_1217 | 0.199 |
| Kişi_1218 | 0.630 |
| Kişi_1219 | 1.448 |
| Kişi_1220 | -0.526 |
| Kişi_1221 | 0.780 |
| Kişi_1222 | -0.084 |
| Kişi_1223 | -0.228 |
| Kişi_1224 | -1.207 |
| Kişi_1225 | -0.084 |
| Kişi_1226 | -0.526 |
| Kişi_1227 | 0.341 |
| Kişi_1228 | -0.228 |
| Kişi_1229 | 1.859 |
| Kişi_1230 | -1.021 |
| Kişi_1231 | -1.207 |
| Kişi_1232 | -0.526 |
| Kişi_1233 | 0.935 |
| Kişi_1234 | 0.199 |
| Kişi_1235 | 2.096 |
| Kişi_1236 | 2.096 |
| Kişi_1237 | 1.859 |
| Kişi_1238 | 0.058 |
| Kişi_1239 | 1.644 |
| Kişi_1240 | -0.228 |
| Kişi_1241 | 1.096 |
| Kişi_1242 | 1.096 |
| Kişi_1243 | -0.847 |
| Kişi_1244 | 1.096 |
| Kişi_1245 | -0.847 |
| Kişi_1246 | -0.084 |
| Kişi_1247 | 1.267 |
| Kişi_1248 | 0.630 |
| Kişi_1249 | 0.058 |
| Kişi_1250 | -0.683 |
| Kişi_1251 | -1.409 |
| Kişi_1252 | -0.526 |
| Kişi_1253 | 0.058 |
| Kişi_1254 | 0.058 |
| Kişi_1255 | 0.341 |
| Kişi_1256 | -0.375 |
| Kişi_1257 | -0.228 |
| Kişi_1258 | -1.409 |
| Kişi_1259 | -0.683 |
| Kişi_1260 | 0.780 |
| Kişi_1261 | -0.228 |
| Kişi_1262 | 0.780 |
| Kişi_1263 | 0.341 |
| Kişi_1264 | -0.683 |
| Kişi_1265 | -0.526 |
| Kişi_1266 | 0.935 |
| Kişi_1267 | 0.199 |
| Kişi_1268 | 1.267 |
| Kişi_1269 | 1.859 |
| Kişi_1270 | 0.935 |
| Kişi_1271 | 0.058 |
| Kişi_1272 | -1.631 |
| Kişi_1273 | -0.683 |
| Kişi_1274 | -0.228 |
| Kişi_1275 | -0.683 |
| Kişi_1276 | -1.409 |
| Kişi_1277 | -0.228 |
| Kişi_1278 | 1.096 |
| Kişi_1279 | 0.630 |
| Kişi_1280 | -0.683 |
| Kişi_1281 | 0.199 |
| Kişi_1282 | -0.683 |
| Kişi_1283 | 0.630 |
| Kişi_1284 | 0.199 |
| Kişi_1285 | 0.341 |
| Kişi_1286 | 0.058 |
| Kişi_1287 | 1.859 |
| Kişi_1288 | -0.683 |
| Kişi_1289 | -0.375 |
| Kişi_1290 | 0.630 |
| Kişi_1291 | -0.084 |
| Kişi_1292 | 0.484 |
| Kişi_1293 | 0.484 |
| Kişi_1294 | 0.484 |
| Kişi_1295 | 0.484 |
| Kişi_1296 | 0.341 |
| Kişi_1297 | 0.780 |
| Kişi_1298 | 0.341 |
| Kişi_1299 | 2.364 |
| Kişi_1300 | -0.847 |
| Kişi_1301 | 0.199 |
| Kişi_1302 | -0.228 |
| Kişi_1303 | 0.199 |
| Kişi_1304 | -0.375 |
| Kişi_1305 | 0.484 |
| Kişi_1306 | 1.267 |
| Kişi_1307 | 0.058 |
| Kişi_1308 | -0.375 |
| Kişi_1309 | 0.484 |
| Kişi_1310 | 1.644 |
| Kişi_1311 | -0.228 |
| Kişi_1312 | -0.228 |
| Kişi_1313 | -0.375 |
| Kişi_1314 | 0.630 |
| Kişi_1315 | -0.683 |
| Kişi_1316 | -0.228 |
| Kişi_1317 | -0.375 |
| Kişi_1318 | 0.935 |
| Kişi_1319 | 0.341 |
| Kişi_1320 | 0.630 |
| Kişi_1321 | -0.375 |
| Kişi_1322 | 0.935 |
| Kişi_1323 | -0.084 |
| Kişi_1324 | 0.199 |
| Kişi_1325 | 0.630 |
| Kişi_1326 | -1.207 |
| Kişi_1327 | 0.484 |
| Kişi_1328 | 0.199 |
| Kişi_1329 | 0.630 |
| Kişi_1330 | 1.096 |
| Kişi_1331 | -0.228 |
| Kişi_1332 | 0.058 |
| Kişi_1333 | -0.375 |
| Kişi_1334 | 0.935 |
| Kişi_1335 | -0.683 |
| Kişi_1336 | 1.267 |
| Kişi_1337 | -0.847 |
| Kişi_1338 | -0.526 |
| Kişi_1339 | -0.228 |
| Kişi_1340 | -0.847 |
| Kişi_1341 | 1.267 |
| Kişi_1342 | -0.084 |
| Kişi_1343 | -0.228 |
| Kişi_1344 | 0.199 |
| Kişi_1345 | 0.484 |
| Kişi_1346 | 0.780 |
| Kişi_1347 | -0.375 |
| Kişi_1348 | 0.780 |
| Kişi_1349 | 1.096 |
| Kişi_1350 | 0.341 |
| Kişi_1351 | 1.859 |
| Kişi_1352 | 0.199 |
| Kişi_1353 | 0.199 |
| Kişi_1354 | 2.096 |
| Kişi_1355 | 0.341 |
| Kişi_1356 | 0.935 |
| Kişi_1357 | -0.084 |
| Kişi_1358 | 2.364 |
| Kişi_1359 | 1.448 |
| Kişi_1360 | 1.096 |
| Kişi_1361 | 2.364 |
| Kişi_1362 | -0.526 |
| Kişi_1363 | 0.780 |
| Kişi_1364 | 1.267 |
| Kişi_1365 | 0.341 |
| Kişi_1366 | 1.096 |
| Kişi_1367 | 0.058 |
| Kişi_1368 | 1.644 |
| Kişi_1369 | -0.228 |
| Kişi_1370 | 0.780 |
| Kişi_1371 | 0.058 |
| Kişi_1372 | 0.341 |
| Kişi_1373 | -0.526 |
| Kişi_1374 | -0.375 |
| Kişi_1375 | 0.058 |
| Kişi_1376 | -0.847 |
| Kişi_1377 | 0.630 |
| Kişi_1378 | 0.341 |
| Kişi_1379 | -0.526 |
| Kişi_1380 | 0.199 |
| Kişi_1381 | -0.228 |
| Kişi_1382 | 1.644 |
| Kişi_1383 | -0.526 |
| Kişi_1384 | 1.644 |
| Kişi_1385 | 0.630 |
| Kişi_1386 | -0.526 |
| Kişi_1387 | 0.780 |
| Kişi_1388 | 0.780 |
| Kişi_1389 | 0.935 |
| Kişi_1390 | -0.683 |
| Kişi_1391 | -0.526 |
| Kişi_1392 | 0.630 |
| Kişi_1393 | -0.683 |
| Kişi_1394 | -1.021 |
| Kişi_1395 | 0.935 |
| Kişi_1396 | 0.058 |
| Kişi_1397 | -0.084 |
| Kişi_1398 | 0.630 |
| Kişi_1399 | 1.448 |
| Kişi_1400 | -0.228 |
| Kişi_1401 | 0.058 |
| Kişi_1402 | 1.448 |
| Kişi_1403 | -0.526 |
| Kişi_1404 | 1.267 |
| Kişi_1405 | -0.683 |
| Kişi_1406 | 1.448 |
| Kişi_1407 | -1.021 |
| Kişi_1408 | -0.847 |
| Kişi_1409 | 0.780 |
| Kişi_1410 | 1.096 |
| Kişi_1411 | -0.228 |
| Kişi_1412 | 0.484 |
| Kişi_1413 | -0.375 |
| Kişi_1414 | -0.526 |
| Kişi_1415 | -1.021 |
| Kişi_1416 | 0.058 |
| Kişi_1417 | 1.267 |
| Kişi_1418 | 1.859 |
| Kişi_1419 | 0.484 |
| Kişi_1420 | -0.683 |
| Kişi_1421 | 0.341 |
| Kişi_1422 | -1.021 |
| Kişi_1423 | -0.683 |
| Kişi_1424 | -1.021 |
| Kişi_1425 | -0.228 |
| Kişi_1426 | -0.683 |
| Kişi_1427 | 0.935 |
| Kişi_1428 | 0.780 |
| Kişi_1429 | 0.199 |
| Kişi_1430 | -0.084 |
| Kişi_1431 | 0.199 |
| Kişi_1432 | -0.847 |
| Kişi_1433 | -1.207 |
| Kişi_1434 | 0.199 |
| Kişi_1435 | -0.084 |
| Kişi_1436 | 0.199 |
| Kişi_1437 | -0.084 |
| Kişi_1438 | 0.935 |
| Kişi_1439 | 0.058 |
| Kişi_1440 | 2.096 |
| Kişi_1441 | 0.058 |
| Kişi_1442 | 0.935 |
| Kişi_1443 | -1.207 |
| Kişi_1444 | -0.683 |
| Kişi_1445 | -0.084 |
| Kişi_1446 | 0.058 |
| Kişi_1447 | -0.526 |
| Kişi_1448 | 0.484 |
| Kişi_1449 | -0.847 |
| Kişi_1450 | 1.859 |
| Kişi_1451 | 0.058 |
| Kişi_1452 | 1.267 |
| Kişi_1453 | -0.375 |
| Kişi_1454 | -1.409 |
| Kişi_1455 | 1.096 |
| Kişi_1456 | -0.084 |
| Kişi_1457 | -0.375 |
| Kişi_1458 | 0.630 |
| Kişi_1459 | -0.228 |
| Kişi_1460 | -0.526 |
| Kişi_1461 | 0.630 |
| Kişi_1462 | 0.058 |
| Kişi_1463 | -0.084 |
| Kişi_1464 | 0.630 |
| Kişi_1465 | -1.021 |
| Kişi_1466 | 0.199 |
| Kişi_1467 | 1.096 |
| Kişi_1468 | 0.484 |
| Kişi_1469 | -0.526 |
| Kişi_1470 | -0.526 |
| Kişi_1471 | -0.526 |
madde_1pl <- coef(mod_1PL, IRTpars = TRUE, simplify = TRUE)$items
madde_1pl_df <- as.data.frame(madde_1pl)
madde_1pl_df$Madde <- rownames(madde_1pl_df)birey_1pl <- fscores(mod_1PL, method = "EAP")
birey_1pl_df <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_1pl)),
Yetenek = birey_1pl[,1])library(kableExtra)
madde_1pl_df %>% select(Madde, b) %>% kable(digits = 3, format = "html", caption = "1PL Modeline Gore Madde Gucluk (b) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| Madde | b | |
|---|---|---|
| madde_1 | madde_1 | -0.472 |
| madde_2 | madde_2 | 0.253 |
| madde_3 | madde_3 | 0.140 |
| madde_4 | madde_4 | 0.239 |
| madde_5 | madde_5 | -0.433 |
| madde_6 | madde_6 | 0.154 |
| madde_7 | madde_7 | 0.197 |
| madde_8 | madde_8 | 0.035 |
| madde_9 | madde_9 | 0.465 |
| madde_10 | madde_10 | -0.348 |
| madde_11 | madde_11 | 0.042 |
| madde_12 | madde_12 | 0.151 |
| madde_13 | madde_13 | 0.654 |
| madde_14 | madde_14 | 1.186 |
| madde_15 | madde_15 | 0.197 |
| madde_16 | madde_16 | 0.165 |
| madde_17 | madde_17 | -0.419 |
| madde_18 | madde_18 | 0.133 |
| madde_19 | madde_19 | 0.346 |
| madde_20 | madde_20 | -0.284 |
| madde_21 | madde_21 | 0.462 |
| madde_22 | madde_22 | 0.989 |
| madde_23 | madde_23 | 0.038 |
| madde_24 | madde_24 | 0.052 |
| madde_25 | madde_25 | 0.389 |
birey_1pl_df %>% kable(digits = 3, format = "html", caption = "1PL Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| Birey | Yetenek |
|---|---|
| Kişi_1 | -0.747 |
| Kişi_2 | -0.747 |
| Kişi_3 | 0.532 |
| Kişi_4 | -0.747 |
| Kişi_5 | -0.927 |
| Kişi_6 | -0.927 |
| Kişi_7 | -0.091 |
| Kişi_8 | 1.803 |
| Kişi_9 | -0.091 |
| Kişi_10 | -1.786 |
| Kişi_11 | 0.220 |
| Kişi_12 | 0.856 |
| Kişi_13 | -0.575 |
| Kişi_14 | -0.927 |
| Kişi_15 | -0.410 |
| Kişi_16 | 0.856 |
| Kişi_17 | -0.575 |
| Kişi_18 | 1.389 |
| Kişi_19 | -0.091 |
| Kişi_20 | -0.575 |
| Kişi_21 | -0.249 |
| Kişi_22 | 0.856 |
| Kişi_23 | -0.410 |
| Kişi_24 | 0.065 |
| Kişi_25 | -0.747 |
| Kişi_26 | -0.249 |
| Kişi_27 | -0.410 |
| Kişi_28 | -0.747 |
| Kişi_29 | 0.375 |
| Kişi_30 | -0.575 |
| Kişi_31 | 0.220 |
| Kişi_32 | -0.575 |
| Kişi_33 | 0.220 |
| Kişi_34 | 0.532 |
| Kişi_35 | -1.118 |
| Kişi_36 | -1.118 |
| Kişi_37 | -0.091 |
| Kişi_38 | -0.927 |
| Kişi_39 | -0.927 |
| Kişi_40 | -1.118 |
| Kişi_41 | -1.118 |
| Kişi_42 | -0.249 |
| Kişi_43 | 1.025 |
| Kişi_44 | 1.389 |
| Kişi_45 | -2.058 |
| Kişi_46 | -0.575 |
| Kişi_47 | -0.747 |
| Kişi_48 | -0.091 |
| Kişi_49 | 2.299 |
| Kişi_50 | 0.220 |
| Kişi_51 | -0.575 |
| Kişi_52 | 0.065 |
| Kişi_53 | 0.065 |
| Kişi_54 | -0.747 |
| Kişi_55 | -0.927 |
| Kişi_56 | -0.249 |
| Kişi_57 | -1.322 |
| Kişi_58 | 0.692 |
| Kişi_59 | -1.543 |
| Kişi_60 | -0.747 |
| Kişi_61 | -1.543 |
| Kişi_62 | -0.249 |
| Kişi_63 | -0.747 |
| Kişi_64 | 1.025 |
| Kişi_65 | -0.747 |
| Kişi_66 | -0.747 |
| Kişi_67 | -0.091 |
| Kişi_68 | -0.410 |
| Kişi_69 | -1.322 |
| Kişi_70 | -0.410 |
| Kişi_71 | 2.592 |
| Kişi_72 | -0.747 |
| Kişi_73 | -1.543 |
| Kişi_74 | -0.747 |
| Kişi_75 | 0.220 |
| Kişi_76 | 0.220 |
| Kişi_77 | -0.575 |
| Kişi_78 | 1.389 |
| Kişi_79 | 1.803 |
| Kişi_80 | -0.249 |
| Kişi_81 | -0.747 |
| Kişi_82 | -0.410 |
| Kişi_83 | -0.410 |
| Kişi_84 | 0.532 |
| Kişi_85 | -0.747 |
| Kişi_86 | -1.118 |
| Kişi_87 | -0.410 |
| Kişi_88 | -0.927 |
| Kişi_89 | -0.747 |
| Kişi_90 | -1.118 |
| Kişi_91 | 0.532 |
| Kişi_92 | 1.203 |
| Kişi_93 | -0.249 |
| Kişi_94 | -1.322 |
| Kişi_95 | 0.692 |
| Kişi_96 | -0.575 |
| Kişi_97 | 0.220 |
| Kişi_98 | -1.118 |
| Kişi_99 | -0.747 |
| Kişi_100 | -0.410 |
| Kişi_101 | -1.786 |
| Kişi_102 | -0.927 |
| Kişi_103 | -0.091 |
| Kişi_104 | -1.543 |
| Kişi_105 | -0.927 |
| Kişi_106 | -0.747 |
| Kişi_107 | -0.249 |
| Kişi_108 | 0.220 |
| Kişi_109 | -0.747 |
| Kişi_110 | 1.389 |
| Kişi_111 | -1.322 |
| Kişi_112 | 0.532 |
| Kişi_113 | -0.575 |
| Kişi_114 | -0.091 |
| Kişi_115 | 1.025 |
| Kişi_116 | -0.575 |
| Kişi_117 | -1.118 |
| Kişi_118 | -0.091 |
| Kişi_119 | -0.747 |
| Kişi_120 | -0.410 |
| Kişi_121 | 0.220 |
| Kişi_122 | -1.118 |
| Kişi_123 | 0.375 |
| Kişi_124 | -0.747 |
| Kişi_125 | -0.410 |
| Kişi_126 | 0.692 |
| Kişi_127 | -0.575 |
| Kişi_128 | 0.856 |
| Kişi_129 | 1.025 |
| Kişi_130 | -0.747 |
| Kişi_131 | -0.575 |
| Kişi_132 | -0.410 |
| Kişi_133 | 0.692 |
| Kişi_134 | 2.299 |
| Kişi_135 | -0.575 |
| Kişi_136 | -0.249 |
| Kişi_137 | 0.220 |
| Kişi_138 | 1.589 |
| Kişi_139 | -0.249 |
| Kişi_140 | 1.389 |
| Kişi_141 | -0.747 |
| Kişi_142 | -0.410 |
| Kişi_143 | -0.575 |
| Kişi_144 | -0.091 |
| Kişi_145 | -0.091 |
| Kişi_146 | 0.856 |
| Kişi_147 | -0.575 |
| Kişi_148 | 1.389 |
| Kişi_149 | -0.410 |
| Kişi_150 | 0.065 |
| Kişi_151 | 0.375 |
| Kişi_152 | -0.410 |
| Kişi_153 | 1.803 |
| Kişi_154 | -0.410 |
| Kişi_155 | 2.299 |
| Kişi_156 | -0.575 |
| Kişi_157 | -0.575 |
| Kişi_158 | 0.220 |
| Kişi_159 | -1.118 |
| Kişi_160 | -0.410 |
| Kişi_161 | 0.856 |
| Kişi_162 | -0.575 |
| Kişi_163 | -0.747 |
| Kişi_164 | -0.747 |
| Kişi_165 | -0.091 |
| Kişi_166 | 0.532 |
| Kişi_167 | -0.091 |
| Kişi_168 | 0.065 |
| Kişi_169 | -0.747 |
| Kişi_170 | -0.249 |
| Kişi_171 | 0.220 |
| Kişi_172 | -0.747 |
| Kişi_173 | -1.322 |
| Kişi_174 | -0.747 |
| Kişi_175 | 0.065 |
| Kişi_176 | 1.203 |
| Kişi_177 | -0.575 |
| Kişi_178 | 0.532 |
| Kişi_179 | -0.747 |
| Kişi_180 | -0.410 |
| Kişi_181 | -0.927 |
| Kişi_182 | 1.389 |
| Kişi_183 | 0.065 |
| Kişi_184 | -0.747 |
| Kişi_185 | 0.532 |
| Kişi_186 | -0.747 |
| Kişi_187 | 1.389 |
| Kişi_188 | -0.927 |
| Kişi_189 | -1.118 |
| Kişi_190 | 1.203 |
| Kişi_191 | 2.299 |
| Kişi_192 | -0.747 |
| Kişi_193 | 1.025 |
| Kişi_194 | 0.375 |
| Kişi_195 | 0.856 |
| Kişi_196 | -0.927 |
| Kişi_197 | -0.091 |
| Kişi_198 | 0.220 |
| Kişi_199 | -0.249 |
| Kişi_200 | 0.375 |
| Kişi_201 | -0.410 |
| Kişi_202 | -1.118 |
| Kişi_203 | 0.692 |
| Kişi_204 | -0.091 |
| Kişi_205 | -0.575 |
| Kişi_206 | 0.532 |
| Kişi_207 | -0.927 |
| Kişi_208 | -0.927 |
| Kişi_209 | -1.118 |
| Kişi_210 | -0.091 |
| Kişi_211 | -1.118 |
| Kişi_212 | -1.322 |
| Kişi_213 | -1.118 |
| Kişi_214 | 0.375 |
| Kişi_215 | -0.575 |
| Kişi_216 | -1.543 |
| Kişi_217 | -0.927 |
| Kişi_218 | -0.410 |
| Kişi_219 | -0.249 |
| Kişi_220 | 0.692 |
| Kişi_221 | 0.856 |
| Kişi_222 | 0.065 |
| Kişi_223 | 0.532 |
| Kişi_224 | 0.856 |
| Kişi_225 | -0.575 |
| Kişi_226 | -0.927 |
| Kişi_227 | 1.389 |
| Kişi_228 | -0.575 |
| Kişi_229 | -0.575 |
| Kişi_230 | 0.856 |
| Kişi_231 | -0.575 |
| Kişi_232 | -0.575 |
| Kişi_233 | 0.856 |
| Kişi_234 | -1.322 |
| Kişi_235 | -0.927 |
| Kişi_236 | -0.747 |
| Kişi_237 | 0.532 |
| Kişi_238 | 0.065 |
| Kişi_239 | -0.747 |
| Kişi_240 | 0.065 |
| Kişi_241 | -0.410 |
| Kişi_242 | -0.575 |
| Kişi_243 | 0.065 |
| Kişi_244 | 0.220 |
| Kişi_245 | -0.747 |
| Kişi_246 | -0.249 |
| Kişi_247 | -1.118 |
| Kişi_248 | -0.249 |
| Kişi_249 | -0.747 |
| Kişi_250 | -0.249 |
| Kişi_251 | -0.747 |
| Kişi_252 | 1.025 |
| Kişi_253 | -0.747 |
| Kişi_254 | -0.410 |
| Kişi_255 | -0.091 |
| Kişi_256 | 0.220 |
| Kişi_257 | -0.410 |
| Kişi_258 | -0.575 |
| Kişi_259 | -0.091 |
| Kişi_260 | -1.322 |
| Kişi_261 | -0.410 |
| Kişi_262 | 0.856 |
| Kişi_263 | -0.575 |
| Kişi_264 | 1.025 |
| Kişi_265 | -1.118 |
| Kişi_266 | 0.065 |
| Kişi_267 | 1.025 |
| Kişi_268 | -0.575 |
| Kişi_269 | -0.927 |
| Kişi_270 | 1.203 |
| Kişi_271 | -0.249 |
| Kişi_272 | -0.249 |
| Kişi_273 | 0.375 |
| Kişi_274 | -0.410 |
| Kişi_275 | -0.410 |
| Kişi_276 | 0.065 |
| Kişi_277 | -0.927 |
| Kişi_278 | -0.575 |
| Kişi_279 | -1.118 |
| Kişi_280 | -0.575 |
| Kişi_281 | -0.091 |
| Kişi_282 | 0.065 |
| Kişi_283 | -1.543 |
| Kişi_284 | -0.249 |
| Kişi_285 | 0.532 |
| Kişi_286 | -0.249 |
| Kişi_287 | -0.575 |
| Kişi_288 | -0.575 |
| Kişi_289 | -1.118 |
| Kişi_290 | -1.322 |
| Kişi_291 | -1.322 |
| Kişi_292 | -0.747 |
| Kişi_293 | -0.249 |
| Kişi_294 | 0.065 |
| Kişi_295 | -0.927 |
| Kişi_296 | -1.118 |
| Kişi_297 | -0.747 |
| Kişi_298 | 0.375 |
| Kişi_299 | -1.118 |
| Kişi_300 | -0.927 |
| Kişi_301 | -0.927 |
| Kişi_302 | -0.747 |
| Kişi_303 | -0.091 |
| Kişi_304 | -0.575 |
| Kişi_305 | 0.065 |
| Kişi_306 | -0.249 |
| Kişi_307 | 0.220 |
| Kişi_308 | -0.249 |
| Kişi_309 | -0.249 |
| Kişi_310 | -0.575 |
| Kişi_311 | -0.410 |
| Kişi_312 | -1.118 |
| Kişi_313 | -0.747 |
| Kişi_314 | -0.410 |
| Kişi_315 | -0.249 |
| Kişi_316 | 0.692 |
| Kişi_317 | -0.091 |
| Kişi_318 | 0.532 |
| Kişi_319 | 0.856 |
| Kişi_320 | -0.249 |
| Kişi_321 | -0.249 |
| Kişi_322 | -0.091 |
| Kişi_323 | -0.927 |
| Kişi_324 | -0.575 |
| Kişi_325 | -0.927 |
| Kişi_326 | -0.410 |
| Kişi_327 | 0.532 |
| Kişi_328 | 2.592 |
| Kişi_329 | -0.091 |
| Kişi_330 | -0.091 |
| Kişi_331 | -0.249 |
| Kişi_332 | -0.249 |
| Kişi_333 | 0.532 |
| Kişi_334 | 0.532 |
| Kişi_335 | -0.249 |
| Kişi_336 | -0.747 |
| Kişi_337 | -1.543 |
| Kişi_338 | 0.692 |
| Kişi_339 | -1.118 |
| Kişi_340 | 1.203 |
| Kişi_341 | 1.203 |
| Kişi_342 | 1.203 |
| Kişi_343 | -0.410 |
| Kişi_344 | -1.118 |
| Kişi_345 | 2.592 |
| Kişi_346 | -0.927 |
| Kişi_347 | -0.927 |
| Kişi_348 | 0.220 |
| Kişi_349 | 1.589 |
| Kişi_350 | 0.856 |
| Kişi_351 | 0.220 |
| Kişi_352 | -0.410 |
| Kişi_353 | 0.532 |
| Kişi_354 | 0.692 |
| Kişi_355 | 0.692 |
| Kişi_356 | -0.410 |
| Kişi_357 | 1.203 |
| Kişi_358 | -0.410 |
| Kişi_359 | -0.575 |
| Kişi_360 | 0.856 |
| Kişi_361 | 1.025 |
| Kişi_362 | 0.220 |
| Kişi_363 | -0.747 |
| Kişi_364 | -0.575 |
| Kişi_365 | -0.410 |
| Kişi_366 | 0.692 |
| Kişi_367 | -0.575 |
| Kişi_368 | -0.747 |
| Kişi_369 | 1.389 |
| Kişi_370 | -0.747 |
| Kişi_371 | -0.249 |
| Kişi_372 | 1.389 |
| Kişi_373 | -0.927 |
| Kişi_374 | -0.249 |
| Kişi_375 | 1.203 |
| Kişi_376 | -1.118 |
| Kişi_377 | 0.065 |
| Kişi_378 | 0.532 |
| Kişi_379 | 2.038 |
| Kişi_380 | -0.249 |
| Kişi_381 | -0.249 |
| Kişi_382 | 0.065 |
| Kişi_383 | -0.927 |
| Kişi_384 | 1.389 |
| Kişi_385 | -0.747 |
| Kişi_386 | -0.249 |
| Kişi_387 | 0.220 |
| Kişi_388 | -0.927 |
| Kişi_389 | 0.375 |
| Kişi_390 | -1.118 |
| Kişi_391 | 0.692 |
| Kişi_392 | -1.786 |
| Kişi_393 | -0.575 |
| Kişi_394 | 2.038 |
| Kişi_395 | 0.375 |
| Kişi_396 | 0.375 |
| Kişi_397 | -0.575 |
| Kişi_398 | -0.249 |
| Kişi_399 | -0.575 |
| Kişi_400 | 1.803 |
| Kişi_401 | -1.543 |
| Kişi_402 | -0.249 |
| Kişi_403 | -0.927 |
| Kişi_404 | -0.927 |
| Kişi_405 | 0.065 |
| Kişi_406 | -2.366 |
| Kişi_407 | -1.543 |
| Kişi_408 | -0.927 |
| Kişi_409 | 1.203 |
| Kişi_410 | 1.389 |
| Kişi_411 | 2.592 |
| Kişi_412 | 0.220 |
| Kişi_413 | 0.856 |
| Kişi_414 | 1.025 |
| Kişi_415 | -0.410 |
| Kişi_416 | -0.747 |
| Kişi_417 | 1.025 |
| Kişi_418 | 0.856 |
| Kişi_419 | -0.091 |
| Kişi_420 | -1.543 |
| Kişi_421 | -0.575 |
| Kişi_422 | 0.692 |
| Kişi_423 | 2.592 |
| Kişi_424 | 2.592 |
| Kişi_425 | -0.747 |
| Kişi_426 | -0.410 |
| Kişi_427 | 0.532 |
| Kişi_428 | -1.118 |
| Kişi_429 | -0.575 |
| Kişi_430 | -0.091 |
| Kişi_431 | -0.249 |
| Kişi_432 | 0.375 |
| Kişi_433 | -0.575 |
| Kişi_434 | -0.927 |
| Kişi_435 | -0.410 |
| Kişi_436 | -0.249 |
| Kişi_437 | -0.747 |
| Kişi_438 | 1.803 |
| Kişi_439 | -0.927 |
| Kişi_440 | 0.220 |
| Kişi_441 | 1.589 |
| Kişi_442 | -1.786 |
| Kişi_443 | 1.203 |
| Kişi_444 | 0.375 |
| Kişi_445 | 2.038 |
| Kişi_446 | -0.575 |
| Kişi_447 | -0.927 |
| Kişi_448 | 0.065 |
| Kişi_449 | 0.375 |
| Kişi_450 | -0.927 |
| Kişi_451 | -0.249 |
| Kişi_452 | -0.249 |
| Kişi_453 | -0.575 |
| Kişi_454 | -1.322 |
| Kişi_455 | 0.692 |
| Kişi_456 | -0.747 |
| Kişi_457 | -0.249 |
| Kişi_458 | -0.747 |
| Kişi_459 | -0.410 |
| Kişi_460 | 0.220 |
| Kişi_461 | 0.065 |
| Kişi_462 | -0.091 |
| Kişi_463 | -0.249 |
| Kişi_464 | 1.025 |
| Kişi_465 | -0.927 |
| Kişi_466 | -0.927 |
| Kişi_467 | -1.322 |
| Kişi_468 | 0.065 |
| Kişi_469 | 1.389 |
| Kişi_470 | -0.091 |
| Kişi_471 | -0.249 |
| Kişi_472 | 1.389 |
| Kişi_473 | 0.692 |
| Kişi_474 | 0.532 |
| Kişi_475 | 0.375 |
| Kişi_476 | -1.322 |
| Kişi_477 | -0.410 |
| Kişi_478 | 0.856 |
| Kişi_479 | 0.692 |
| Kişi_480 | -1.118 |
| Kişi_481 | -1.543 |
| Kişi_482 | 0.532 |
| Kişi_483 | -1.322 |
| Kişi_484 | 0.532 |
| Kişi_485 | 2.299 |
| Kişi_486 | 2.299 |
| Kişi_487 | -0.091 |
| Kişi_488 | 0.532 |
| Kişi_489 | -0.575 |
| Kişi_490 | -0.747 |
| Kişi_491 | 0.065 |
| Kişi_492 | -0.249 |
| Kişi_493 | -0.410 |
| Kişi_494 | 0.532 |
| Kişi_495 | -0.747 |
| Kişi_496 | 0.856 |
| Kişi_497 | 1.589 |
| Kişi_498 | 0.375 |
| Kişi_499 | 1.203 |
| Kişi_500 | -1.786 |
| Kişi_501 | 0.065 |
| Kişi_502 | -0.747 |
| Kişi_503 | -0.747 |
| Kişi_504 | 1.389 |
| Kişi_505 | 1.203 |
| Kişi_506 | -1.118 |
| Kişi_507 | 0.375 |
| Kişi_508 | -1.118 |
| Kişi_509 | 0.065 |
| Kişi_510 | 1.203 |
| Kişi_511 | 1.803 |
| Kişi_512 | 1.589 |
| Kişi_513 | -0.747 |
| Kişi_514 | 1.389 |
| Kişi_515 | -0.747 |
| Kişi_516 | -1.118 |
| Kişi_517 | -1.322 |
| Kişi_518 | -0.747 |
| Kişi_519 | 0.532 |
| Kişi_520 | -0.747 |
| Kişi_521 | -0.249 |
| Kişi_522 | -0.575 |
| Kişi_523 | -0.410 |
| Kişi_524 | 0.532 |
| Kişi_525 | -0.410 |
| Kişi_526 | -0.249 |
| Kişi_527 | 1.203 |
| Kişi_528 | 0.692 |
| Kişi_529 | 1.589 |
| Kişi_530 | -0.747 |
| Kişi_531 | -0.575 |
| Kişi_532 | 1.203 |
| Kişi_533 | -1.118 |
| Kişi_534 | -0.927 |
| Kişi_535 | -0.747 |
| Kişi_536 | -0.927 |
| Kişi_537 | -0.249 |
| Kişi_538 | -0.927 |
| Kişi_539 | -0.091 |
| Kişi_540 | 0.375 |
| Kişi_541 | 0.065 |
| Kişi_542 | -0.575 |
| Kişi_543 | 0.065 |
| Kişi_544 | 0.856 |
| Kişi_545 | -0.747 |
| Kişi_546 | -0.410 |
| Kişi_547 | -0.747 |
| Kişi_548 | -0.927 |
| Kişi_549 | -0.249 |
| Kişi_550 | -0.249 |
| Kişi_551 | -0.091 |
| Kişi_552 | 1.589 |
| Kişi_553 | -0.927 |
| Kişi_554 | -0.747 |
| Kişi_555 | -1.543 |
| Kişi_556 | -0.575 |
| Kişi_557 | 0.220 |
| Kişi_558 | -1.118 |
| Kişi_559 | -0.410 |
| Kişi_560 | 0.065 |
| Kişi_561 | -0.575 |
| Kişi_562 | -0.575 |
| Kişi_563 | 0.220 |
| Kişi_564 | -0.410 |
| Kişi_565 | -0.091 |
| Kişi_566 | -1.118 |
| Kişi_567 | -0.927 |
| Kişi_568 | -0.575 |
| Kişi_569 | 0.532 |
| Kişi_570 | 0.220 |
| Kişi_571 | 0.375 |
| Kişi_572 | -0.249 |
| Kişi_573 | -0.249 |
| Kişi_574 | 0.065 |
| Kişi_575 | 1.389 |
| Kişi_576 | 1.389 |
| Kişi_577 | -0.249 |
| Kişi_578 | -0.747 |
| Kişi_579 | -0.249 |
| Kişi_580 | -0.091 |
| Kişi_581 | 0.065 |
| Kişi_582 | -0.091 |
| Kişi_583 | 0.220 |
| Kişi_584 | -0.927 |
| Kişi_585 | -0.747 |
| Kişi_586 | -0.747 |
| Kişi_587 | 2.038 |
| Kişi_588 | 0.220 |
| Kişi_589 | -0.249 |
| Kişi_590 | -0.249 |
| Kişi_591 | 2.038 |
| Kişi_592 | 0.375 |
| Kişi_593 | -0.410 |
| Kişi_594 | 0.375 |
| Kişi_595 | 1.203 |
| Kişi_596 | 0.065 |
| Kişi_597 | -1.118 |
| Kişi_598 | 1.589 |
| Kişi_599 | 1.803 |
| Kişi_600 | 1.203 |
| Kişi_601 | -0.410 |
| Kişi_602 | -0.747 |
| Kişi_603 | -0.410 |
| Kişi_604 | -0.747 |
| Kişi_605 | 1.589 |
| Kişi_606 | -0.927 |
| Kişi_607 | 0.065 |
| Kişi_608 | 1.803 |
| Kişi_609 | -1.118 |
| Kişi_610 | 1.025 |
| Kişi_611 | 1.389 |
| Kişi_612 | -0.575 |
| Kişi_613 | 0.532 |
| Kişi_614 | -0.249 |
| Kişi_615 | 0.856 |
| Kişi_616 | -0.410 |
| Kişi_617 | -0.410 |
| Kişi_618 | -0.410 |
| Kişi_619 | -0.927 |
| Kişi_620 | 0.532 |
| Kişi_621 | 0.065 |
| Kişi_622 | 0.065 |
| Kişi_623 | 1.589 |
| Kişi_624 | -0.747 |
| Kişi_625 | -1.118 |
| Kişi_626 | -0.091 |
| Kişi_627 | -0.410 |
| Kişi_628 | -0.091 |
| Kişi_629 | -0.747 |
| Kişi_630 | 0.856 |
| Kişi_631 | 0.065 |
| Kişi_632 | 0.220 |
| Kişi_633 | -0.747 |
| Kişi_634 | 0.856 |
| Kişi_635 | 0.692 |
| Kişi_636 | 0.375 |
| Kişi_637 | 1.203 |
| Kişi_638 | -0.249 |
| Kişi_639 | 0.532 |
| Kişi_640 | 0.532 |
| Kişi_641 | 0.065 |
| Kişi_642 | -0.091 |
| Kişi_643 | 1.803 |
| Kişi_644 | 0.532 |
| Kişi_645 | -0.747 |
| Kişi_646 | -0.249 |
| Kişi_647 | -0.410 |
| Kişi_648 | 0.065 |
| Kişi_649 | -0.410 |
| Kişi_650 | -0.249 |
| Kişi_651 | -1.118 |
| Kişi_652 | -1.118 |
| Kişi_653 | 0.220 |
| Kişi_654 | -0.410 |
| Kişi_655 | -0.927 |
| Kişi_656 | -0.575 |
| Kişi_657 | -0.410 |
| Kişi_658 | -0.249 |
| Kişi_659 | -1.118 |
| Kişi_660 | -0.747 |
| Kişi_661 | -0.575 |
| Kişi_662 | -0.575 |
| Kişi_663 | -1.322 |
| Kişi_664 | -0.747 |
| Kişi_665 | -0.091 |
| Kişi_666 | 0.375 |
| Kişi_667 | -0.927 |
| Kişi_668 | 0.065 |
| Kişi_669 | -0.575 |
| Kişi_670 | -0.249 |
| Kişi_671 | -0.091 |
| Kişi_672 | 0.692 |
| Kişi_673 | -0.410 |
| Kişi_674 | -0.747 |
| Kişi_675 | 1.203 |
| Kişi_676 | -0.927 |
| Kişi_677 | -0.410 |
| Kişi_678 | 0.220 |
| Kişi_679 | -0.091 |
| Kişi_680 | 0.856 |
| Kişi_681 | -0.091 |
| Kişi_682 | 0.220 |
| Kişi_683 | -0.927 |
| Kişi_684 | -0.091 |
| Kişi_685 | -1.322 |
| Kişi_686 | -0.091 |
| Kişi_687 | -0.575 |
| Kişi_688 | 0.065 |
| Kişi_689 | 0.856 |
| Kişi_690 | 1.389 |
| Kişi_691 | 1.389 |
| Kişi_692 | 0.856 |
| Kişi_693 | -0.249 |
| Kişi_694 | -0.747 |
| Kişi_695 | -0.575 |
| Kişi_696 | -1.786 |
| Kişi_697 | 0.692 |
| Kişi_698 | -0.575 |
| Kişi_699 | 0.856 |
| Kişi_700 | -0.091 |
| Kişi_701 | -0.410 |
| Kişi_702 | 1.025 |
| Kişi_703 | 0.375 |
| Kişi_704 | 0.065 |
| Kişi_705 | -0.410 |
| Kişi_706 | -0.927 |
| Kişi_707 | 0.220 |
| Kişi_708 | -0.410 |
| Kişi_709 | 0.375 |
| Kişi_710 | 0.692 |
| Kişi_711 | -0.747 |
| Kişi_712 | -0.927 |
| Kişi_713 | 1.389 |
| Kişi_714 | 0.375 |
| Kişi_715 | -0.927 |
| Kişi_716 | 0.375 |
| Kişi_717 | 2.038 |
| Kişi_718 | -0.410 |
| Kişi_719 | 1.589 |
| Kişi_720 | -1.322 |
| Kişi_721 | 0.375 |
| Kişi_722 | 1.025 |
| Kişi_723 | 0.692 |
| Kişi_724 | -0.747 |
| Kişi_725 | -0.249 |
| Kişi_726 | 2.592 |
| Kişi_727 | 1.203 |
| Kişi_728 | 1.589 |
| Kişi_729 | 0.065 |
| Kişi_730 | -0.410 |
| Kişi_731 | -0.091 |
| Kişi_732 | -0.575 |
| Kişi_733 | 0.065 |
| Kişi_734 | 1.389 |
| Kişi_735 | 1.203 |
| Kişi_736 | -1.322 |
| Kişi_737 | 0.532 |
| Kişi_738 | -0.575 |
| Kişi_739 | 1.025 |
| Kişi_740 | 0.692 |
| Kişi_741 | 1.025 |
| Kişi_742 | 0.065 |
| Kişi_743 | -0.927 |
| Kişi_744 | -0.927 |
| Kişi_745 | 0.065 |
| Kişi_746 | 0.220 |
| Kişi_747 | -0.575 |
| Kişi_748 | -1.322 |
| Kişi_749 | -1.543 |
| Kişi_750 | -1.322 |
| Kişi_751 | -0.747 |
| Kişi_752 | -0.091 |
| Kişi_753 | -0.747 |
| Kişi_754 | 0.856 |
| Kişi_755 | -0.747 |
| Kişi_756 | -0.927 |
| Kişi_757 | -1.118 |
| Kişi_758 | 0.856 |
| Kişi_759 | -1.118 |
| Kişi_760 | -0.249 |
| Kişi_761 | 0.532 |
| Kişi_762 | 1.203 |
| Kişi_763 | 0.065 |
| Kişi_764 | -0.249 |
| Kişi_765 | -0.410 |
| Kişi_766 | -1.118 |
| Kişi_767 | -0.249 |
| Kişi_768 | -0.575 |
| Kişi_769 | -0.410 |
| Kişi_770 | 0.065 |
| Kişi_771 | 0.220 |
| Kişi_772 | 1.589 |
| Kişi_773 | 0.220 |
| Kişi_774 | -0.927 |
| Kişi_775 | -0.091 |
| Kişi_776 | 2.299 |
| Kişi_777 | 0.065 |
| Kişi_778 | -0.249 |
| Kişi_779 | -0.410 |
| Kişi_780 | 1.203 |
| Kişi_781 | 0.532 |
| Kişi_782 | -0.747 |
| Kişi_783 | -0.747 |
| Kişi_784 | -1.118 |
| Kişi_785 | 0.220 |
| Kişi_786 | 0.065 |
| Kişi_787 | -0.747 |
| Kişi_788 | 0.220 |
| Kişi_789 | -0.410 |
| Kişi_790 | -0.091 |
| Kişi_791 | -0.747 |
| Kişi_792 | 1.203 |
| Kişi_793 | -0.410 |
| Kişi_794 | -0.927 |
| Kişi_795 | -0.747 |
| Kişi_796 | -0.927 |
| Kişi_797 | 2.299 |
| Kişi_798 | -0.091 |
| Kişi_799 | 0.375 |
| Kişi_800 | -0.249 |
| Kişi_801 | -1.118 |
| Kişi_802 | -0.927 |
| Kişi_803 | 0.375 |
| Kişi_804 | 0.220 |
| Kişi_805 | 0.220 |
| Kişi_806 | -0.410 |
| Kişi_807 | 0.856 |
| Kişi_808 | 0.065 |
| Kişi_809 | -0.575 |
| Kişi_810 | 2.038 |
| Kişi_811 | 1.589 |
| Kişi_812 | 1.389 |
| Kişi_813 | -0.747 |
| Kişi_814 | -0.747 |
| Kişi_815 | 0.065 |
| Kişi_816 | 1.025 |
| Kişi_817 | 0.692 |
| Kişi_818 | -0.249 |
| Kişi_819 | 0.220 |
| Kişi_820 | 1.025 |
| Kişi_821 | 0.220 |
| Kişi_822 | 0.375 |
| Kişi_823 | 0.220 |
| Kişi_824 | -0.927 |
| Kişi_825 | -0.410 |
| Kişi_826 | 0.220 |
| Kişi_827 | -1.118 |
| Kişi_828 | 0.065 |
| Kişi_829 | -0.575 |
| Kişi_830 | 0.220 |
| Kişi_831 | 0.692 |
| Kişi_832 | 0.856 |
| Kişi_833 | 0.065 |
| Kişi_834 | -0.747 |
| Kişi_835 | 1.389 |
| Kişi_836 | -0.575 |
| Kişi_837 | 0.220 |
| Kişi_838 | -0.091 |
| Kişi_839 | 1.589 |
| Kişi_840 | -0.249 |
| Kişi_841 | 0.532 |
| Kişi_842 | -0.927 |
| Kişi_843 | 0.065 |
| Kişi_844 | -0.249 |
| Kişi_845 | -0.249 |
| Kişi_846 | 1.589 |
| Kişi_847 | -0.091 |
| Kişi_848 | -1.543 |
| Kişi_849 | -1.322 |
| Kişi_850 | 0.692 |
| Kişi_851 | -0.575 |
| Kişi_852 | 0.065 |
| Kişi_853 | 1.025 |
| Kişi_854 | 1.025 |
| Kişi_855 | 0.065 |
| Kişi_856 | -0.249 |
| Kişi_857 | -0.249 |
| Kişi_858 | 0.220 |
| Kişi_859 | -1.118 |
| Kişi_860 | -0.575 |
| Kişi_861 | -0.927 |
| Kişi_862 | -1.543 |
| Kişi_863 | -0.747 |
| Kişi_864 | -0.249 |
| Kişi_865 | -1.118 |
| Kişi_866 | -0.927 |
| Kişi_867 | -0.575 |
| Kişi_868 | -0.249 |
| Kişi_869 | -0.410 |
| Kişi_870 | 0.065 |
| Kişi_871 | -0.575 |
| Kişi_872 | 0.065 |
| Kişi_873 | -0.249 |
| Kişi_874 | -0.575 |
| Kişi_875 | -0.575 |
| Kişi_876 | -1.322 |
| Kişi_877 | -1.322 |
| Kişi_878 | -1.118 |
| Kişi_879 | 0.220 |
| Kişi_880 | -0.927 |
| Kişi_881 | -0.927 |
| Kişi_882 | -1.118 |
| Kişi_883 | 0.065 |
| Kişi_884 | -0.575 |
| Kişi_885 | -1.322 |
| Kişi_886 | -1.322 |
| Kişi_887 | -0.575 |
| Kişi_888 | 0.856 |
| Kişi_889 | -0.747 |
| Kişi_890 | -0.927 |
| Kişi_891 | 1.025 |
| Kişi_892 | -0.410 |
| Kişi_893 | -0.927 |
| Kişi_894 | -0.091 |
| Kişi_895 | 0.065 |
| Kişi_896 | -1.543 |
| Kişi_897 | 0.532 |
| Kişi_898 | -0.575 |
| Kişi_899 | 0.220 |
| Kişi_900 | 0.692 |
| Kişi_901 | -0.249 |
| Kişi_902 | 0.065 |
| Kişi_903 | 0.375 |
| Kişi_904 | -0.249 |
| Kişi_905 | 0.065 |
| Kişi_906 | -0.747 |
| Kişi_907 | 0.692 |
| Kişi_908 | -0.575 |
| Kişi_909 | -0.747 |
| Kişi_910 | 0.692 |
| Kişi_911 | -0.249 |
| Kişi_912 | 1.025 |
| Kişi_913 | 0.692 |
| Kişi_914 | -0.410 |
| Kişi_915 | 0.532 |
| Kişi_916 | -2.058 |
| Kişi_917 | 0.856 |
| Kişi_918 | 1.025 |
| Kişi_919 | -0.410 |
| Kişi_920 | -0.747 |
| Kişi_921 | -1.322 |
| Kişi_922 | 0.220 |
| Kişi_923 | 0.532 |
| Kişi_924 | -0.410 |
| Kişi_925 | -0.249 |
| Kişi_926 | -0.747 |
| Kişi_927 | 0.375 |
| Kişi_928 | -0.410 |
| Kişi_929 | 0.220 |
| Kişi_930 | 1.589 |
| Kişi_931 | 1.389 |
| Kişi_932 | -1.118 |
| Kişi_933 | -1.118 |
| Kişi_934 | -1.118 |
| Kişi_935 | -0.410 |
| Kişi_936 | 0.065 |
| Kişi_937 | -1.322 |
| Kişi_938 | 0.532 |
| Kişi_939 | -0.249 |
| Kişi_940 | 0.692 |
| Kişi_941 | 0.692 |
| Kişi_942 | 0.692 |
| Kişi_943 | -0.575 |
| Kişi_944 | 0.532 |
| Kişi_945 | -0.927 |
| Kişi_946 | -1.322 |
| Kişi_947 | 0.065 |
| Kişi_948 | -0.410 |
| Kişi_949 | 1.025 |
| Kişi_950 | -0.927 |
| Kişi_951 | 0.856 |
| Kişi_952 | -0.249 |
| Kişi_953 | 0.856 |
| Kişi_954 | 0.065 |
| Kişi_955 | 2.038 |
| Kişi_956 | 0.375 |
| Kişi_957 | 1.203 |
| Kişi_958 | 0.065 |
| Kişi_959 | 0.220 |
| Kişi_960 | 1.025 |
| Kişi_961 | 0.375 |
| Kişi_962 | -0.575 |
| Kişi_963 | -1.322 |
| Kişi_964 | 2.299 |
| Kişi_965 | -0.410 |
| Kişi_966 | -0.410 |
| Kişi_967 | 0.692 |
| Kişi_968 | 1.025 |
| Kişi_969 | -0.927 |
| Kişi_970 | -0.927 |
| Kişi_971 | 1.203 |
| Kişi_972 | 1.389 |
| Kişi_973 | -0.410 |
| Kişi_974 | -0.410 |
| Kişi_975 | -0.410 |
| Kişi_976 | -0.575 |
| Kişi_977 | -0.575 |
| Kişi_978 | -1.322 |
| Kişi_979 | 1.025 |
| Kişi_980 | 0.692 |
| Kişi_981 | 0.532 |
| Kişi_982 | 0.532 |
| Kişi_983 | 2.299 |
| Kişi_984 | -0.410 |
| Kişi_985 | -0.091 |
| Kişi_986 | -1.786 |
| Kişi_987 | -0.091 |
| Kişi_988 | -1.543 |
| Kişi_989 | 1.203 |
| Kişi_990 | -0.575 |
| Kişi_991 | 0.220 |
| Kişi_992 | 0.532 |
| Kişi_993 | 1.203 |
| Kişi_994 | -0.575 |
| Kişi_995 | 2.038 |
| Kişi_996 | 0.692 |
| Kişi_997 | 1.389 |
| Kişi_998 | -0.091 |
| Kişi_999 | 1.803 |
| Kişi_1000 | 0.220 |
| Kişi_1001 | 0.220 |
| Kişi_1002 | 1.803 |
| Kişi_1003 | 0.065 |
| Kişi_1004 | -0.249 |
| Kişi_1005 | -0.410 |
| Kişi_1006 | -1.543 |
| Kişi_1007 | -0.575 |
| Kişi_1008 | -0.410 |
| Kişi_1009 | -0.927 |
| Kişi_1010 | 0.856 |
| Kişi_1011 | 0.220 |
| Kişi_1012 | 1.389 |
| Kişi_1013 | -1.322 |
| Kişi_1014 | 0.856 |
| Kişi_1015 | -1.543 |
| Kişi_1016 | 0.375 |
| Kişi_1017 | -0.249 |
| Kişi_1018 | 0.375 |
| Kişi_1019 | 1.203 |
| Kişi_1020 | 0.532 |
| Kişi_1021 | 0.375 |
| Kişi_1022 | -0.410 |
| Kişi_1023 | 0.856 |
| Kişi_1024 | -0.575 |
| Kişi_1025 | 2.038 |
| Kişi_1026 | 2.299 |
| Kişi_1027 | 0.220 |
| Kişi_1028 | 1.389 |
| Kişi_1029 | -0.249 |
| Kişi_1030 | -1.786 |
| Kişi_1031 | 1.203 |
| Kişi_1032 | 2.038 |
| Kişi_1033 | -0.410 |
| Kişi_1034 | -1.322 |
| Kişi_1035 | 2.592 |
| Kişi_1036 | -0.091 |
| Kişi_1037 | 0.532 |
| Kişi_1038 | -0.927 |
| Kişi_1039 | 1.389 |
| Kişi_1040 | -1.118 |
| Kişi_1041 | 0.692 |
| Kişi_1042 | 1.589 |
| Kişi_1043 | 0.375 |
| Kişi_1044 | 0.375 |
| Kişi_1045 | 1.203 |
| Kişi_1046 | -0.575 |
| Kişi_1047 | -1.786 |
| Kişi_1048 | -0.575 |
| Kişi_1049 | -0.091 |
| Kişi_1050 | 0.065 |
| Kişi_1051 | 0.532 |
| Kişi_1052 | -0.927 |
| Kişi_1053 | -0.747 |
| Kişi_1054 | 1.589 |
| Kişi_1055 | 0.532 |
| Kişi_1056 | -0.747 |
| Kişi_1057 | -0.410 |
| Kişi_1058 | 0.856 |
| Kişi_1059 | 1.589 |
| Kişi_1060 | 1.203 |
| Kişi_1061 | 1.589 |
| Kişi_1062 | -0.091 |
| Kişi_1063 | -0.575 |
| Kişi_1064 | -0.091 |
| Kişi_1065 | -0.249 |
| Kişi_1066 | -0.575 |
| Kişi_1067 | 1.203 |
| Kişi_1068 | 0.532 |
| Kişi_1069 | 1.589 |
| Kişi_1070 | -0.410 |
| Kişi_1071 | 2.038 |
| Kişi_1072 | -0.249 |
| Kişi_1073 | -0.249 |
| Kişi_1074 | 1.025 |
| Kişi_1075 | 2.592 |
| Kişi_1076 | -0.091 |
| Kişi_1077 | 0.692 |
| Kişi_1078 | -0.249 |
| Kişi_1079 | 2.592 |
| Kişi_1080 | -0.410 |
| Kişi_1081 | 0.065 |
| Kişi_1082 | 0.065 |
| Kişi_1083 | -0.927 |
| Kişi_1084 | 0.375 |
| Kişi_1085 | -0.927 |
| Kişi_1086 | 0.065 |
| Kişi_1087 | -0.249 |
| Kişi_1088 | 0.692 |
| Kişi_1089 | -1.118 |
| Kişi_1090 | -1.118 |
| Kişi_1091 | -0.927 |
| Kişi_1092 | -0.410 |
| Kişi_1093 | -0.091 |
| Kişi_1094 | -0.249 |
| Kişi_1095 | -1.118 |
| Kişi_1096 | 0.375 |
| Kişi_1097 | -0.249 |
| Kişi_1098 | 0.065 |
| Kişi_1099 | 0.692 |
| Kişi_1100 | 0.375 |
| Kişi_1101 | 0.220 |
| Kişi_1102 | -0.091 |
| Kişi_1103 | 2.038 |
| Kişi_1104 | -0.927 |
| Kişi_1105 | -0.091 |
| Kişi_1106 | -0.249 |
| Kişi_1107 | -0.249 |
| Kişi_1108 | -0.747 |
| Kişi_1109 | -0.410 |
| Kişi_1110 | -0.249 |
| Kişi_1111 | -1.118 |
| Kişi_1112 | -0.410 |
| Kişi_1113 | -0.249 |
| Kişi_1114 | 0.065 |
| Kişi_1115 | 0.856 |
| Kişi_1116 | 0.856 |
| Kişi_1117 | -0.249 |
| Kişi_1118 | -0.091 |
| Kişi_1119 | -0.249 |
| Kişi_1120 | -0.575 |
| Kişi_1121 | 0.065 |
| Kişi_1122 | 1.803 |
| Kişi_1123 | -0.747 |
| Kişi_1124 | -0.091 |
| Kişi_1125 | 2.038 |
| Kişi_1126 | -0.091 |
| Kişi_1127 | -0.410 |
| Kişi_1128 | -0.249 |
| Kişi_1129 | -0.091 |
| Kişi_1130 | 1.389 |
| Kişi_1131 | -0.091 |
| Kişi_1132 | -0.575 |
| Kişi_1133 | 0.065 |
| Kişi_1134 | 1.389 |
| Kişi_1135 | 0.375 |
| Kişi_1136 | 1.025 |
| Kişi_1137 | -1.118 |
| Kişi_1138 | -0.575 |
| Kişi_1139 | -0.410 |
| Kişi_1140 | -0.091 |
| Kişi_1141 | 2.038 |
| Kişi_1142 | -0.410 |
| Kişi_1143 | 0.856 |
| Kişi_1144 | -0.249 |
| Kişi_1145 | -1.118 |
| Kişi_1146 | 0.532 |
| Kişi_1147 | -0.747 |
| Kişi_1148 | -0.249 |
| Kişi_1149 | 0.532 |
| Kişi_1150 | -0.410 |
| Kişi_1151 | -0.575 |
| Kişi_1152 | 0.220 |
| Kişi_1153 | 1.389 |
| Kişi_1154 | -0.927 |
| Kişi_1155 | 1.589 |
| Kişi_1156 | 1.589 |
| Kişi_1157 | -0.410 |
| Kişi_1158 | 0.065 |
| Kişi_1159 | -0.249 |
| Kişi_1160 | -0.575 |
| Kişi_1161 | -0.747 |
| Kişi_1162 | -0.091 |
| Kişi_1163 | -1.543 |
| Kişi_1164 | 1.803 |
| Kişi_1165 | -0.747 |
| Kişi_1166 | 0.375 |
| Kişi_1167 | 0.532 |
| Kişi_1168 | 2.592 |
| Kişi_1169 | -0.575 |
| Kişi_1170 | -1.118 |
| Kişi_1171 | -0.410 |
| Kişi_1172 | -0.747 |
| Kişi_1173 | 0.065 |
| Kişi_1174 | 1.025 |
| Kişi_1175 | -0.747 |
| Kişi_1176 | -1.543 |
| Kişi_1177 | 0.692 |
| Kişi_1178 | -0.410 |
| Kişi_1179 | 0.692 |
| Kişi_1180 | 0.220 |
| Kişi_1181 | 1.025 |
| Kişi_1182 | 0.065 |
| Kişi_1183 | -0.747 |
| Kişi_1184 | 0.065 |
| Kişi_1185 | 0.220 |
| Kişi_1186 | 1.803 |
| Kişi_1187 | -0.575 |
| Kişi_1188 | -0.575 |
| Kişi_1189 | 0.375 |
| Kişi_1190 | -1.543 |
| Kişi_1191 | 0.220 |
| Kişi_1192 | 0.692 |
| Kişi_1193 | -0.091 |
| Kişi_1194 | 0.065 |
| Kişi_1195 | -1.118 |
| Kişi_1196 | 1.803 |
| Kişi_1197 | -0.927 |
| Kişi_1198 | 0.375 |
| Kişi_1199 | -0.091 |
| Kişi_1200 | -0.927 |
| Kişi_1201 | -1.543 |
| Kişi_1202 | 0.220 |
| Kişi_1203 | -0.747 |
| Kişi_1204 | 2.299 |
| Kişi_1205 | 0.375 |
| Kişi_1206 | 0.692 |
| Kişi_1207 | 0.065 |
| Kişi_1208 | 0.692 |
| Kişi_1209 | 0.692 |
| Kişi_1210 | -1.118 |
| Kişi_1211 | -0.091 |
| Kişi_1212 | -0.410 |
| Kişi_1213 | -0.091 |
| Kişi_1214 | -0.927 |
| Kişi_1215 | 0.692 |
| Kişi_1216 | 0.375 |
| Kişi_1217 | 0.220 |
| Kişi_1218 | 0.692 |
| Kişi_1219 | 1.589 |
| Kişi_1220 | -0.575 |
| Kişi_1221 | 0.856 |
| Kişi_1222 | -0.091 |
| Kişi_1223 | -0.249 |
| Kişi_1224 | -1.322 |
| Kişi_1225 | -0.091 |
| Kişi_1226 | -0.575 |
| Kişi_1227 | 0.375 |
| Kişi_1228 | -0.249 |
| Kişi_1229 | 2.038 |
| Kişi_1230 | -1.118 |
| Kişi_1231 | -1.322 |
| Kişi_1232 | -0.575 |
| Kişi_1233 | 1.025 |
| Kişi_1234 | 0.220 |
| Kişi_1235 | 2.299 |
| Kişi_1236 | 2.299 |
| Kişi_1237 | 2.038 |
| Kişi_1238 | 0.065 |
| Kişi_1239 | 1.803 |
| Kişi_1240 | -0.249 |
| Kişi_1241 | 1.203 |
| Kişi_1242 | 1.203 |
| Kişi_1243 | -0.927 |
| Kişi_1244 | 1.203 |
| Kişi_1245 | -0.927 |
| Kişi_1246 | -0.091 |
| Kişi_1247 | 1.389 |
| Kişi_1248 | 0.692 |
| Kişi_1249 | 0.065 |
| Kişi_1250 | -0.747 |
| Kişi_1251 | -1.543 |
| Kişi_1252 | -0.575 |
| Kişi_1253 | 0.065 |
| Kişi_1254 | 0.065 |
| Kişi_1255 | 0.375 |
| Kişi_1256 | -0.410 |
| Kişi_1257 | -0.249 |
| Kişi_1258 | -1.543 |
| Kişi_1259 | -0.747 |
| Kişi_1260 | 0.856 |
| Kişi_1261 | -0.249 |
| Kişi_1262 | 0.856 |
| Kişi_1263 | 0.375 |
| Kişi_1264 | -0.747 |
| Kişi_1265 | -0.575 |
| Kişi_1266 | 1.025 |
| Kişi_1267 | 0.220 |
| Kişi_1268 | 1.389 |
| Kişi_1269 | 2.038 |
| Kişi_1270 | 1.025 |
| Kişi_1271 | 0.065 |
| Kişi_1272 | -1.786 |
| Kişi_1273 | -0.747 |
| Kişi_1274 | -0.249 |
| Kişi_1275 | -0.747 |
| Kişi_1276 | -1.543 |
| Kişi_1277 | -0.249 |
| Kişi_1278 | 1.203 |
| Kişi_1279 | 0.692 |
| Kişi_1280 | -0.747 |
| Kişi_1281 | 0.220 |
| Kişi_1282 | -0.747 |
| Kişi_1283 | 0.692 |
| Kişi_1284 | 0.220 |
| Kişi_1285 | 0.375 |
| Kişi_1286 | 0.065 |
| Kişi_1287 | 2.038 |
| Kişi_1288 | -0.747 |
| Kişi_1289 | -0.410 |
| Kişi_1290 | 0.692 |
| Kişi_1291 | -0.091 |
| Kişi_1292 | 0.532 |
| Kişi_1293 | 0.532 |
| Kişi_1294 | 0.532 |
| Kişi_1295 | 0.532 |
| Kişi_1296 | 0.375 |
| Kişi_1297 | 0.856 |
| Kişi_1298 | 0.375 |
| Kişi_1299 | 2.592 |
| Kişi_1300 | -0.927 |
| Kişi_1301 | 0.220 |
| Kişi_1302 | -0.249 |
| Kişi_1303 | 0.220 |
| Kişi_1304 | -0.410 |
| Kişi_1305 | 0.532 |
| Kişi_1306 | 1.389 |
| Kişi_1307 | 0.065 |
| Kişi_1308 | -0.410 |
| Kişi_1309 | 0.532 |
| Kişi_1310 | 1.803 |
| Kişi_1311 | -0.249 |
| Kişi_1312 | -0.249 |
| Kişi_1313 | -0.410 |
| Kişi_1314 | 0.692 |
| Kişi_1315 | -0.747 |
| Kişi_1316 | -0.249 |
| Kişi_1317 | -0.410 |
| Kişi_1318 | 1.025 |
| Kişi_1319 | 0.375 |
| Kişi_1320 | 0.692 |
| Kişi_1321 | -0.410 |
| Kişi_1322 | 1.025 |
| Kişi_1323 | -0.091 |
| Kişi_1324 | 0.220 |
| Kişi_1325 | 0.692 |
| Kişi_1326 | -1.322 |
| Kişi_1327 | 0.532 |
| Kişi_1328 | 0.220 |
| Kişi_1329 | 0.692 |
| Kişi_1330 | 1.203 |
| Kişi_1331 | -0.249 |
| Kişi_1332 | 0.065 |
| Kişi_1333 | -0.410 |
| Kişi_1334 | 1.025 |
| Kişi_1335 | -0.747 |
| Kişi_1336 | 1.389 |
| Kişi_1337 | -0.927 |
| Kişi_1338 | -0.575 |
| Kişi_1339 | -0.249 |
| Kişi_1340 | -0.927 |
| Kişi_1341 | 1.389 |
| Kişi_1342 | -0.091 |
| Kişi_1343 | -0.249 |
| Kişi_1344 | 0.220 |
| Kişi_1345 | 0.532 |
| Kişi_1346 | 0.856 |
| Kişi_1347 | -0.410 |
| Kişi_1348 | 0.856 |
| Kişi_1349 | 1.203 |
| Kişi_1350 | 0.375 |
| Kişi_1351 | 2.038 |
| Kişi_1352 | 0.220 |
| Kişi_1353 | 0.220 |
| Kişi_1354 | 2.299 |
| Kişi_1355 | 0.375 |
| Kişi_1356 | 1.025 |
| Kişi_1357 | -0.091 |
| Kişi_1358 | 2.592 |
| Kişi_1359 | 1.589 |
| Kişi_1360 | 1.203 |
| Kişi_1361 | 2.592 |
| Kişi_1362 | -0.575 |
| Kişi_1363 | 0.856 |
| Kişi_1364 | 1.389 |
| Kişi_1365 | 0.375 |
| Kişi_1366 | 1.203 |
| Kişi_1367 | 0.065 |
| Kişi_1368 | 1.803 |
| Kişi_1369 | -0.249 |
| Kişi_1370 | 0.856 |
| Kişi_1371 | 0.065 |
| Kişi_1372 | 0.375 |
| Kişi_1373 | -0.575 |
| Kişi_1374 | -0.410 |
| Kişi_1375 | 0.065 |
| Kişi_1376 | -0.927 |
| Kişi_1377 | 0.692 |
| Kişi_1378 | 0.375 |
| Kişi_1379 | -0.575 |
| Kişi_1380 | 0.220 |
| Kişi_1381 | -0.249 |
| Kişi_1382 | 1.803 |
| Kişi_1383 | -0.575 |
| Kişi_1384 | 1.803 |
| Kişi_1385 | 0.692 |
| Kişi_1386 | -0.575 |
| Kişi_1387 | 0.856 |
| Kişi_1388 | 0.856 |
| Kişi_1389 | 1.025 |
| Kişi_1390 | -0.747 |
| Kişi_1391 | -0.575 |
| Kişi_1392 | 0.692 |
| Kişi_1393 | -0.747 |
| Kişi_1394 | -1.118 |
| Kişi_1395 | 1.025 |
| Kişi_1396 | 0.065 |
| Kişi_1397 | -0.091 |
| Kişi_1398 | 0.692 |
| Kişi_1399 | 1.589 |
| Kişi_1400 | -0.249 |
| Kişi_1401 | 0.065 |
| Kişi_1402 | 1.589 |
| Kişi_1403 | -0.575 |
| Kişi_1404 | 1.389 |
| Kişi_1405 | -0.747 |
| Kişi_1406 | 1.589 |
| Kişi_1407 | -1.118 |
| Kişi_1408 | -0.927 |
| Kişi_1409 | 0.856 |
| Kişi_1410 | 1.203 |
| Kişi_1411 | -0.249 |
| Kişi_1412 | 0.532 |
| Kişi_1413 | -0.410 |
| Kişi_1414 | -0.575 |
| Kişi_1415 | -1.118 |
| Kişi_1416 | 0.065 |
| Kişi_1417 | 1.389 |
| Kişi_1418 | 2.038 |
| Kişi_1419 | 0.532 |
| Kişi_1420 | -0.747 |
| Kişi_1421 | 0.375 |
| Kişi_1422 | -1.118 |
| Kişi_1423 | -0.747 |
| Kişi_1424 | -1.118 |
| Kişi_1425 | -0.249 |
| Kişi_1426 | -0.747 |
| Kişi_1427 | 1.025 |
| Kişi_1428 | 0.856 |
| Kişi_1429 | 0.220 |
| Kişi_1430 | -0.091 |
| Kişi_1431 | 0.220 |
| Kişi_1432 | -0.927 |
| Kişi_1433 | -1.322 |
| Kişi_1434 | 0.220 |
| Kişi_1435 | -0.091 |
| Kişi_1436 | 0.220 |
| Kişi_1437 | -0.091 |
| Kişi_1438 | 1.025 |
| Kişi_1439 | 0.065 |
| Kişi_1440 | 2.299 |
| Kişi_1441 | 0.065 |
| Kişi_1442 | 1.025 |
| Kişi_1443 | -1.322 |
| Kişi_1444 | -0.747 |
| Kişi_1445 | -0.091 |
| Kişi_1446 | 0.065 |
| Kişi_1447 | -0.575 |
| Kişi_1448 | 0.532 |
| Kişi_1449 | -0.927 |
| Kişi_1450 | 2.038 |
| Kişi_1451 | 0.065 |
| Kişi_1452 | 1.389 |
| Kişi_1453 | -0.410 |
| Kişi_1454 | -1.543 |
| Kişi_1455 | 1.203 |
| Kişi_1456 | -0.091 |
| Kişi_1457 | -0.410 |
| Kişi_1458 | 0.692 |
| Kişi_1459 | -0.249 |
| Kişi_1460 | -0.575 |
| Kişi_1461 | 0.692 |
| Kişi_1462 | 0.065 |
| Kişi_1463 | -0.091 |
| Kişi_1464 | 0.692 |
| Kişi_1465 | -1.118 |
| Kişi_1466 | 0.220 |
| Kişi_1467 | 1.203 |
| Kişi_1468 | 0.532 |
| Kişi_1469 | -0.575 |
| Kişi_1470 | -0.575 |
| Kişi_1471 | -0.575 |
Madde güçlük parametreleri (b) \(-0.472\) ile \(1.186\) arasında değişmektedir. Bu değer, her bir maddenin ne kadar zor olduğunu belirtmekte olup, 0 noktasına yakın olan maddeler ortalama düzeyde güçlük içerirken, pozitif değerlere sahip olan maddeler daha zor, negatif değerlere sahip olanlar ise daha kolay olarak yorumlanmaktadır. Örneğin; madde_14 (\(b = 1.186\)) en zor madde iken, madde_1 (\(b = -0.472\)) en kolay madde olarak öne çıkmaktadır. Bu dağılım, ölçeğin geniş bir yetenek düzeyini kapsadığını ve ölçeğin işlevsel ayırt ediciliğini güçlendirdiğini göstermektedir.
Alt (g) ve üst (u) asimptot değerleri sırasıyla 0 ve 1 olarak sabitlenmiştir; bu da madde karakteristik eğrilerinin Rasch modeline uygun olarak iki uç noktaya (0 ve 1) asimptotik olarak yaklaştığını gösterir. Başka bir deyişle, Rasch modeli bağlamında herhangi bir şans başarısı (g) veya mükemmel başarı dışı durum (u) modele dahil edilmemiştir; bu da modelin deterministik yapısına uygunluk sağlar (Embretson & Reise, 2000).
Sonuç olarak, elde edilen parametreler Rasch model varsayımlarına uygunluk göstermektedir: sabit ayırt edicilik, değişen güçlük düzeyleri ve sabit uç noktalar. Bu yapı, hem ölçme geçerliği hem de madde kalibrasyonu açısından güçlü bir temel sağlamaktadır. Rasch modeliyle elde edilen bu parametreler, bireylerin yetenek düzeylerinin madde yanıtları üzerinden nesnel ve karşılaştırılabilir biçimde tahmin edilebileceği anlamına gelir.
library(ggplot2)
ggplot(madde_1pl_df, aes(x = Madde, y = b)) +
geom_bar(stat = "identity", fill = "steelblue") +
geom_hline(yintercept = 0, linetype = "dashed", color = "red") +
labs(
title = "1PL Modeline Göre Madde Güçlük (b) Parametrelerinin Dağılımı",
x = "Madde",
y = "Güçlük (b) Değeri") +
theme_minimal() +
theme(axis.text.x = element_text(angle = 45, hjust = 1))Yukarıda sunulan grafik, Rasch modeline göre tahmin edilen 25 maddeye ait güçlük parametrelerinin (b) dağılımını görsel olarak sunmaktadır. Madde güçlük parametresi, bir bireyin ilgili maddeyi doğru yanıtlayabilmesi için sahip olması gereken yetenek düzeyini (θ) ifade eder. Bu bağlamda, b değeri arttıkça madde daha zor hale gelirken, azaldıkça daha kolay bir madde halini alır (Embretson & Reise, 2000).
Grafikte dikkat çeken en yüksek güçlük değerine sahip maddeler arasında madde_14 (\(b ≈ 1.186\)) ve madde_22 (\(b ≈ 0.989\)) yer almaktadır. Bu maddelerin çözülmesi, ortalama yetenek düzeyinin oldukça üzerinde bir yetkinlik gerektirmektedir. Buna karşın madde_1 (\(b ≈ -0.472\)), madde_5 (\(b ≈ -0.433\)) ve madde_10 (\(b ≈ -0.348\)) gibi maddeler, düşük güçlük seviyelerine sahiptir ve ortalama altı yetenek düzeyine sahip bireyler tarafından bile doğru yanıtlanabilir niteliktedir.
Grafikteki kırmızı kesikli çizgi, güçlük parametresinin ortalamasını temsil eden referans çizgidir (\(θ = 0\)). Bu çizginin üstünde yer alan sütunlar daha zor, altında yer alanlar daha kolay maddelere işaret etmektedir. Madde güçlüklerinin hem negatif hem de pozitif değerlere yayılmış olması, testin geniş bir yetenek yelpazesine hitap ettiğini ve ölçeğin dağılım açısından dengeli olduğunu göstermektedir. Bu durum, Rasch modeline dayalı ölçümün hem düşük hem yüksek yetenek seviyelerinde ayrım gücünü koruduğunu ve madde setinin yeterince heterojen olduğunu ortaya koyar (Bond & Fox, 2015).
Sonuç olarak, madde güçlüklerinin bu şekilde yayılması, testin geçerlik ve güvenirlik açısından dengeli bir ölçme aracı olduğunu, bireyleri farklı yetenek düzeylerinde doğru sınıflandırabileceğini ve Rasch modelinin temel varsayımlarına uygunluk gösterdiğini desteklemektedir.
madde_2pl <- coef(mod_2PL, IRTpars = TRUE, simplify = TRUE)$items
madde_2pl_df <- as.data.frame(madde_2pl)
madde_2pl_df$Madde <- rownames(madde_2pl_df)birey_2pl <- fscores(mod_2PL, method = "EAP")
birey_2pl_df <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_2pl)),
Yetenek = birey_2pl[, 1])library(kableExtra)
madde_2pl_df %>% select(Madde, a, b) %>% kable(digits = 3, format = "html", caption = "2PL Modeline Gore Madde Parametreleri (a: Ayırt Edicilik, b: Güçlük)") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")| Madde | a | b | |
|---|---|---|---|
| madde_1 | madde_1 | 1.364 | -0.382 |
| madde_2 | madde_2 | 0.780 | 0.290 |
| madde_3 | madde_3 | 0.414 | 0.306 |
| madde_4 | madde_4 | 1.008 | 0.215 |
| madde_5 | madde_5 | 1.157 | -0.380 |
| madde_6 | madde_6 | 0.931 | 0.148 |
| madde_7 | madde_7 | 0.938 | 0.189 |
| madde_8 | madde_8 | 0.845 | 0.038 |
| madde_9 | madde_9 | 0.605 | 0.662 |
| madde_10 | madde_10 | 1.096 | -0.316 |
| madde_11 | madde_11 | 0.759 | 0.054 |
| madde_12 | madde_12 | 1.016 | 0.132 |
| madde_13 | madde_13 | 0.555 | 0.996 |
| madde_14 | madde_14 | 0.518 | 1.906 |
| madde_15 | madde_15 | 0.919 | 0.193 |
| madde_16 | madde_16 | 1.277 | 0.112 |
| madde_17 | madde_17 | 1.010 | -0.396 |
| madde_18 | madde_18 | 1.036 | 0.113 |
| madde_19 | madde_19 | 0.930 | 0.338 |
| madde_20 | madde_20 | 1.148 | -0.255 |
| madde_21 | madde_21 | 1.221 | 0.362 |
| madde_22 | madde_22 | 1.058 | 0.882 |
| madde_23 | madde_23 | 0.921 | 0.035 |
| madde_24 | madde_24 | 0.914 | 0.050 |
| madde_25 | madde_25 | 1.038 | 0.346 |
birey_2pl_df %>% kable(digits = 3, format = "html", caption = "2PL Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")| Birey | Yetenek |
|---|---|
| Kişi_1 | -0.800 |
| Kişi_2 | -0.721 |
| Kişi_3 | 0.510 |
| Kişi_4 | -0.812 |
| Kişi_5 | -1.057 |
| Kişi_6 | -0.985 |
| Kişi_7 | -0.011 |
| Kişi_8 | 1.852 |
| Kişi_9 | -0.112 |
| Kişi_10 | -1.774 |
| Kişi_11 | 0.217 |
| Kişi_12 | 0.937 |
| Kişi_13 | -0.575 |
| Kişi_14 | -1.052 |
| Kişi_15 | -0.266 |
| Kişi_16 | 0.781 |
| Kişi_17 | -0.598 |
| Kişi_18 | 1.138 |
| Kişi_19 | -0.131 |
| Kişi_20 | -0.521 |
| Kişi_21 | -0.352 |
| Kişi_22 | 0.957 |
| Kişi_23 | -0.489 |
| Kişi_24 | 0.116 |
| Kişi_25 | -0.883 |
| Kişi_26 | -0.280 |
| Kişi_27 | -0.279 |
| Kişi_28 | -0.687 |
| Kişi_29 | 0.460 |
| Kişi_30 | -0.726 |
| Kişi_31 | 0.167 |
| Kişi_32 | -0.802 |
| Kişi_33 | 0.136 |
| Kişi_34 | 0.673 |
| Kişi_35 | -1.158 |
| Kişi_36 | -0.903 |
| Kişi_37 | -0.231 |
| Kişi_38 | -1.075 |
| Kişi_39 | -0.910 |
| Kişi_40 | -1.089 |
| Kişi_41 | -1.247 |
| Kişi_42 | -0.261 |
| Kişi_43 | 1.124 |
| Kişi_44 | 1.517 |
| Kişi_45 | -2.182 |
| Kişi_46 | -0.581 |
| Kişi_47 | -0.816 |
| Kişi_48 | -0.216 |
| Kişi_49 | 2.133 |
| Kişi_50 | 0.132 |
| Kişi_51 | -0.593 |
| Kişi_52 | -0.122 |
| Kişi_53 | -0.178 |
| Kişi_54 | -0.570 |
| Kişi_55 | -0.996 |
| Kişi_56 | -0.244 |
| Kişi_57 | -1.357 |
| Kişi_58 | 0.673 |
| Kişi_59 | -1.589 |
| Kişi_60 | -0.801 |
| Kişi_61 | -1.407 |
| Kişi_62 | -0.177 |
| Kişi_63 | -0.681 |
| Kişi_64 | 1.010 |
| Kişi_65 | -0.873 |
| Kişi_66 | -0.857 |
| Kişi_67 | 0.067 |
| Kişi_68 | -0.220 |
| Kişi_69 | -1.349 |
| Kişi_70 | -0.431 |
| Kişi_71 | 2.552 |
| Kişi_72 | -0.639 |
| Kişi_73 | -1.482 |
| Kişi_74 | -0.809 |
| Kişi_75 | -0.046 |
| Kişi_76 | 0.052 |
| Kişi_77 | -0.663 |
| Kişi_78 | 1.420 |
| Kişi_79 | 1.815 |
| Kişi_80 | -0.280 |
| Kişi_81 | -0.672 |
| Kişi_82 | -0.403 |
| Kişi_83 | -0.247 |
| Kişi_84 | 0.521 |
| Kişi_85 | -0.744 |
| Kişi_86 | -0.977 |
| Kişi_87 | -0.510 |
| Kişi_88 | -0.789 |
| Kişi_89 | -0.718 |
| Kişi_90 | -1.044 |
| Kişi_91 | 0.515 |
| Kişi_92 | 1.020 |
| Kişi_93 | -0.184 |
| Kişi_94 | -1.416 |
| Kişi_95 | 0.600 |
| Kişi_96 | -0.564 |
| Kişi_97 | 0.101 |
| Kişi_98 | -1.328 |
| Kişi_99 | -0.950 |
| Kişi_100 | -0.475 |
| Kişi_101 | -1.693 |
| Kişi_102 | -1.087 |
| Kişi_103 | -0.096 |
| Kişi_104 | -1.651 |
| Kişi_105 | -0.891 |
| Kişi_106 | -0.673 |
| Kişi_107 | -0.266 |
| Kişi_108 | 0.393 |
| Kişi_109 | -0.629 |
| Kişi_110 | 1.354 |
| Kişi_111 | -1.269 |
| Kişi_112 | 0.588 |
| Kişi_113 | -0.613 |
| Kişi_114 | -0.075 |
| Kişi_115 | 0.951 |
| Kişi_116 | -0.647 |
| Kişi_117 | -1.070 |
| Kişi_118 | 0.016 |
| Kişi_119 | -0.796 |
| Kişi_120 | -0.481 |
| Kişi_121 | 0.217 |
| Kişi_122 | -1.078 |
| Kişi_123 | 0.334 |
| Kişi_124 | -0.817 |
| Kişi_125 | -0.468 |
| Kişi_126 | 0.597 |
| Kişi_127 | -0.657 |
| Kişi_128 | 0.973 |
| Kişi_129 | 1.016 |
| Kişi_130 | -0.790 |
| Kişi_131 | -0.536 |
| Kişi_132 | -0.434 |
| Kişi_133 | 0.660 |
| Kişi_134 | 2.372 |
| Kişi_135 | -0.524 |
| Kişi_136 | -0.211 |
| Kişi_137 | 0.227 |
| Kişi_138 | 1.399 |
| Kişi_139 | -0.339 |
| Kişi_140 | 1.356 |
| Kişi_141 | -0.833 |
| Kişi_142 | -0.408 |
| Kişi_143 | -0.475 |
| Kişi_144 | -0.076 |
| Kişi_145 | -0.076 |
| Kişi_146 | 1.001 |
| Kişi_147 | -0.723 |
| Kişi_148 | 1.278 |
| Kişi_149 | -0.409 |
| Kişi_150 | 0.137 |
| Kişi_151 | 0.403 |
| Kişi_152 | -0.434 |
| Kişi_153 | 1.847 |
| Kişi_154 | -0.395 |
| Kişi_155 | 2.407 |
| Kişi_156 | -0.731 |
| Kişi_157 | -0.522 |
| Kişi_158 | 0.299 |
| Kişi_159 | -1.041 |
| Kişi_160 | -0.510 |
| Kişi_161 | 0.785 |
| Kişi_162 | -0.489 |
| Kişi_163 | -0.741 |
| Kişi_164 | -0.845 |
| Kişi_165 | -0.073 |
| Kişi_166 | 0.746 |
| Kişi_167 | 0.064 |
| Kişi_168 | 0.151 |
| Kişi_169 | -0.768 |
| Kişi_170 | -0.423 |
| Kişi_171 | 0.117 |
| Kişi_172 | -0.865 |
| Kişi_173 | -1.518 |
| Kişi_174 | -0.883 |
| Kişi_175 | 0.083 |
| Kişi_176 | 1.316 |
| Kişi_177 | -0.527 |
| Kişi_178 | 0.460 |
| Kişi_179 | -0.862 |
| Kişi_180 | -0.300 |
| Kişi_181 | -0.979 |
| Kişi_182 | 1.251 |
| Kişi_183 | 0.073 |
| Kişi_184 | -0.748 |
| Kişi_185 | 0.603 |
| Kişi_186 | -0.706 |
| Kişi_187 | 1.342 |
| Kişi_188 | -0.992 |
| Kişi_189 | -1.004 |
| Kişi_190 | 1.211 |
| Kişi_191 | 2.214 |
| Kişi_192 | -0.992 |
| Kişi_193 | 0.897 |
| Kişi_194 | 0.294 |
| Kişi_195 | 0.810 |
| Kişi_196 | -0.870 |
| Kişi_197 | -0.163 |
| Kişi_198 | 0.209 |
| Kişi_199 | -0.233 |
| Kişi_200 | 0.389 |
| Kişi_201 | -0.308 |
| Kişi_202 | -1.178 |
| Kişi_203 | 0.784 |
| Kişi_204 | -0.206 |
| Kişi_205 | -0.709 |
| Kişi_206 | 0.624 |
| Kişi_207 | -0.887 |
| Kişi_208 | -0.818 |
| Kişi_209 | -1.077 |
| Kişi_210 | -0.072 |
| Kişi_211 | -1.056 |
| Kişi_212 | -1.242 |
| Kişi_213 | -0.979 |
| Kişi_214 | 0.204 |
| Kişi_215 | -0.555 |
| Kişi_216 | -1.570 |
| Kişi_217 | -0.810 |
| Kişi_218 | -0.543 |
| Kişi_219 | -0.192 |
| Kişi_220 | 0.661 |
| Kişi_221 | 0.908 |
| Kişi_222 | 0.080 |
| Kişi_223 | 0.481 |
| Kişi_224 | 0.927 |
| Kişi_225 | -0.482 |
| Kişi_226 | -1.003 |
| Kişi_227 | 1.321 |
| Kişi_228 | -0.695 |
| Kişi_229 | -0.570 |
| Kişi_230 | 0.954 |
| Kişi_231 | -0.783 |
| Kişi_232 | -0.480 |
| Kişi_233 | 0.663 |
| Kişi_234 | -1.456 |
| Kişi_235 | -0.878 |
| Kişi_236 | -0.627 |
| Kişi_237 | 0.541 |
| Kişi_238 | 0.117 |
| Kişi_239 | -0.796 |
| Kişi_240 | -0.043 |
| Kişi_241 | -0.454 |
| Kişi_242 | -0.637 |
| Kişi_243 | -0.038 |
| Kişi_244 | 0.105 |
| Kişi_245 | -0.661 |
| Kişi_246 | -0.326 |
| Kişi_247 | -1.101 |
| Kişi_248 | -0.293 |
| Kişi_249 | -0.684 |
| Kişi_250 | -0.294 |
| Kişi_251 | -0.598 |
| Kişi_252 | 1.109 |
| Kişi_253 | -0.704 |
| Kişi_254 | -0.472 |
| Kişi_255 | -0.191 |
| Kişi_256 | 0.193 |
| Kişi_257 | -0.295 |
| Kişi_258 | -0.490 |
| Kişi_259 | 0.012 |
| Kişi_260 | -1.406 |
| Kişi_261 | -0.465 |
| Kişi_262 | 0.800 |
| Kişi_263 | -0.648 |
| Kişi_264 | 0.984 |
| Kişi_265 | -1.015 |
| Kişi_266 | 0.103 |
| Kişi_267 | 0.961 |
| Kişi_268 | -0.639 |
| Kişi_269 | -0.833 |
| Kişi_270 | 1.087 |
| Kişi_271 | -0.098 |
| Kişi_272 | -0.478 |
| Kişi_273 | 0.340 |
| Kişi_274 | -0.354 |
| Kişi_275 | -0.430 |
| Kişi_276 | -0.025 |
| Kişi_277 | -0.977 |
| Kişi_278 | -0.627 |
| Kişi_279 | -1.075 |
| Kişi_280 | -0.796 |
| Kişi_281 | -0.066 |
| Kişi_282 | -0.005 |
| Kişi_283 | -1.665 |
| Kişi_284 | -0.359 |
| Kişi_285 | 0.522 |
| Kişi_286 | -0.145 |
| Kişi_287 | -0.538 |
| Kişi_288 | -0.693 |
| Kişi_289 | -1.135 |
| Kişi_290 | -1.240 |
| Kişi_291 | -1.245 |
| Kişi_292 | -0.657 |
| Kişi_293 | -0.293 |
| Kişi_294 | -0.004 |
| Kişi_295 | -0.904 |
| Kişi_296 | -1.065 |
| Kişi_297 | -0.874 |
| Kişi_298 | 0.346 |
| Kişi_299 | -1.040 |
| Kişi_300 | -0.919 |
| Kişi_301 | -1.001 |
| Kişi_302 | -0.624 |
| Kişi_303 | 0.067 |
| Kişi_304 | -0.680 |
| Kişi_305 | 0.045 |
| Kişi_306 | -0.257 |
| Kişi_307 | 0.212 |
| Kişi_308 | -0.288 |
| Kişi_309 | -0.207 |
| Kişi_310 | -0.728 |
| Kişi_311 | -0.355 |
| Kişi_312 | -1.076 |
| Kişi_313 | -0.675 |
| Kişi_314 | -0.479 |
| Kişi_315 | -0.245 |
| Kişi_316 | 0.729 |
| Kişi_317 | -0.183 |
| Kişi_318 | 0.643 |
| Kişi_319 | 0.803 |
| Kişi_320 | -0.311 |
| Kişi_321 | -0.308 |
| Kişi_322 | -0.017 |
| Kişi_323 | -0.940 |
| Kişi_324 | -0.643 |
| Kişi_325 | -1.069 |
| Kişi_326 | -0.479 |
| Kişi_327 | 0.431 |
| Kişi_328 | 2.552 |
| Kişi_329 | -0.107 |
| Kişi_330 | -0.094 |
| Kişi_331 | -0.156 |
| Kişi_332 | -0.262 |
| Kişi_333 | 0.590 |
| Kişi_334 | 0.735 |
| Kişi_335 | -0.387 |
| Kişi_336 | -0.698 |
| Kişi_337 | -1.496 |
| Kişi_338 | 0.692 |
| Kişi_339 | -1.093 |
| Kişi_340 | 1.261 |
| Kişi_341 | 1.262 |
| Kişi_342 | 1.090 |
| Kişi_343 | -0.552 |
| Kişi_344 | -1.024 |
| Kişi_345 | 2.552 |
| Kişi_346 | -1.151 |
| Kişi_347 | -0.782 |
| Kişi_348 | 0.262 |
| Kişi_349 | 1.491 |
| Kişi_350 | 0.879 |
| Kişi_351 | 0.137 |
| Kişi_352 | -0.302 |
| Kişi_353 | 0.465 |
| Kişi_354 | 0.685 |
| Kişi_355 | 0.791 |
| Kişi_356 | -0.330 |
| Kişi_357 | 1.296 |
| Kişi_358 | -0.566 |
| Kişi_359 | -0.618 |
| Kişi_360 | 0.982 |
| Kişi_361 | 1.104 |
| Kişi_362 | 0.230 |
| Kişi_363 | -0.613 |
| Kişi_364 | -0.519 |
| Kişi_365 | -0.409 |
| Kişi_366 | 0.449 |
| Kişi_367 | -0.676 |
| Kişi_368 | -0.629 |
| Kişi_369 | 1.225 |
| Kişi_370 | -0.771 |
| Kişi_371 | -0.418 |
| Kişi_372 | 1.395 |
| Kişi_373 | -0.893 |
| Kişi_374 | -0.327 |
| Kişi_375 | 1.138 |
| Kişi_376 | -1.147 |
| Kişi_377 | 0.079 |
| Kişi_378 | 0.658 |
| Kişi_379 | 2.082 |
| Kişi_380 | -0.220 |
| Kişi_381 | -0.382 |
| Kişi_382 | 0.082 |
| Kişi_383 | -0.738 |
| Kişi_384 | 1.184 |
| Kişi_385 | -0.887 |
| Kişi_386 | -0.207 |
| Kişi_387 | 0.236 |
| Kişi_388 | -0.995 |
| Kişi_389 | 0.504 |
| Kişi_390 | -1.202 |
| Kişi_391 | 0.632 |
| Kişi_392 | -1.719 |
| Kişi_393 | -0.518 |
| Kişi_394 | 1.912 |
| Kişi_395 | 0.362 |
| Kişi_396 | 0.457 |
| Kişi_397 | -0.538 |
| Kişi_398 | -0.197 |
| Kişi_399 | -0.621 |
| Kişi_400 | 1.602 |
| Kişi_401 | -1.411 |
| Kişi_402 | -0.357 |
| Kişi_403 | -0.901 |
| Kişi_404 | -0.925 |
| Kişi_405 | -0.002 |
| Kişi_406 | -2.325 |
| Kişi_407 | -1.376 |
| Kişi_408 | -0.978 |
| Kişi_409 | 1.251 |
| Kişi_410 | 1.305 |
| Kişi_411 | 2.552 |
| Kişi_412 | 0.219 |
| Kişi_413 | 0.838 |
| Kişi_414 | 0.899 |
| Kişi_415 | -0.435 |
| Kişi_416 | -0.611 |
| Kişi_417 | 0.945 |
| Kişi_418 | 1.055 |
| Kişi_419 | -0.354 |
| Kişi_420 | -1.460 |
| Kişi_421 | -0.427 |
| Kişi_422 | 0.727 |
| Kişi_423 | 2.552 |
| Kişi_424 | 2.552 |
| Kişi_425 | -0.848 |
| Kişi_426 | -0.525 |
| Kişi_427 | 0.365 |
| Kişi_428 | -1.032 |
| Kişi_429 | -0.676 |
| Kişi_430 | -0.353 |
| Kişi_431 | -0.217 |
| Kişi_432 | 0.491 |
| Kişi_433 | -0.665 |
| Kişi_434 | -1.079 |
| Kişi_435 | -0.350 |
| Kişi_436 | -0.283 |
| Kişi_437 | -0.728 |
| Kişi_438 | 1.878 |
| Kişi_439 | -0.957 |
| Kişi_440 | 0.172 |
| Kişi_441 | 1.601 |
| Kişi_442 | -1.674 |
| Kişi_443 | 1.178 |
| Kişi_444 | 0.473 |
| Kişi_445 | 2.133 |
| Kişi_446 | -0.566 |
| Kişi_447 | -0.874 |
| Kişi_448 | 0.018 |
| Kişi_449 | 0.345 |
| Kişi_450 | -0.736 |
| Kişi_451 | -0.416 |
| Kişi_452 | -0.198 |
| Kişi_453 | -0.766 |
| Kişi_454 | -1.395 |
| Kişi_455 | 0.669 |
| Kişi_456 | -0.951 |
| Kişi_457 | -0.273 |
| Kişi_458 | -0.598 |
| Kişi_459 | -0.360 |
| Kişi_460 | 0.251 |
| Kişi_461 | 0.035 |
| Kişi_462 | -0.007 |
| Kişi_463 | -0.133 |
| Kişi_464 | 0.863 |
| Kişi_465 | -0.845 |
| Kişi_466 | -0.984 |
| Kişi_467 | -1.272 |
| Kişi_468 | 0.045 |
| Kişi_469 | 1.390 |
| Kişi_470 | -0.121 |
| Kişi_471 | -0.246 |
| Kişi_472 | 1.546 |
| Kişi_473 | 0.599 |
| Kişi_474 | 0.757 |
| Kişi_475 | 0.431 |
| Kişi_476 | -1.405 |
| Kişi_477 | -0.407 |
| Kişi_478 | 0.765 |
| Kişi_479 | 0.546 |
| Kişi_480 | -1.200 |
| Kişi_481 | -1.551 |
| Kişi_482 | 0.543 |
| Kişi_483 | -1.352 |
| Kişi_484 | 0.408 |
| Kişi_485 | 2.205 |
| Kişi_486 | 2.407 |
| Kişi_487 | -0.014 |
| Kişi_488 | 0.590 |
| Kişi_489 | -0.517 |
| Kişi_490 | -0.842 |
| Kişi_491 | 0.182 |
| Kişi_492 | -0.167 |
| Kişi_493 | -0.423 |
| Kişi_494 | 0.558 |
| Kişi_495 | -0.655 |
| Kişi_496 | 0.884 |
| Kişi_497 | 1.521 |
| Kişi_498 | 0.439 |
| Kişi_499 | 1.075 |
| Kişi_500 | -1.639 |
| Kişi_501 | -0.186 |
| Kişi_502 | -0.649 |
| Kişi_503 | -0.674 |
| Kişi_504 | 1.471 |
| Kişi_505 | 1.152 |
| Kişi_506 | -1.089 |
| Kişi_507 | 0.435 |
| Kişi_508 | -1.139 |
| Kişi_509 | 0.001 |
| Kişi_510 | 1.184 |
| Kişi_511 | 1.700 |
| Kişi_512 | 1.612 |
| Kişi_513 | -0.753 |
| Kişi_514 | 1.402 |
| Kişi_515 | -0.767 |
| Kişi_516 | -1.080 |
| Kişi_517 | -1.100 |
| Kişi_518 | -0.825 |
| Kişi_519 | 0.543 |
| Kişi_520 | -0.778 |
| Kişi_521 | -0.198 |
| Kişi_522 | -0.606 |
| Kişi_523 | -0.444 |
| Kişi_524 | 0.465 |
| Kişi_525 | -0.313 |
| Kişi_526 | -0.225 |
| Kişi_527 | 1.232 |
| Kişi_528 | 0.576 |
| Kişi_529 | 1.538 |
| Kişi_530 | -0.591 |
| Kişi_531 | -0.603 |
| Kişi_532 | 1.088 |
| Kişi_533 | -1.142 |
| Kişi_534 | -1.050 |
| Kişi_535 | -0.751 |
| Kişi_536 | -1.011 |
| Kişi_537 | -0.157 |
| Kişi_538 | -0.948 |
| Kişi_539 | 0.043 |
| Kişi_540 | 0.558 |
| Kişi_541 | 0.069 |
| Kişi_542 | -0.546 |
| Kişi_543 | 0.074 |
| Kişi_544 | 0.853 |
| Kişi_545 | -0.691 |
| Kişi_546 | -0.467 |
| Kişi_547 | -0.721 |
| Kişi_548 | -0.978 |
| Kişi_549 | -0.239 |
| Kişi_550 | -0.247 |
| Kişi_551 | -0.030 |
| Kişi_552 | 1.551 |
| Kişi_553 | -0.859 |
| Kişi_554 | -0.723 |
| Kişi_555 | -1.602 |
| Kişi_556 | -0.679 |
| Kişi_557 | 0.373 |
| Kişi_558 | -1.280 |
| Kişi_559 | -0.409 |
| Kişi_560 | 0.070 |
| Kişi_561 | -0.395 |
| Kişi_562 | -0.744 |
| Kişi_563 | 0.276 |
| Kişi_564 | -0.475 |
| Kişi_565 | -0.066 |
| Kişi_566 | -1.142 |
| Kişi_567 | -1.170 |
| Kişi_568 | -0.703 |
| Kişi_569 | 0.691 |
| Kişi_570 | 0.231 |
| Kişi_571 | 0.460 |
| Kişi_572 | -0.061 |
| Kişi_573 | -0.376 |
| Kişi_574 | 0.136 |
| Kişi_575 | 1.614 |
| Kişi_576 | 1.427 |
| Kişi_577 | -0.243 |
| Kişi_578 | -0.883 |
| Kişi_579 | -0.337 |
| Kişi_580 | -0.111 |
| Kişi_581 | 0.216 |
| Kişi_582 | -0.183 |
| Kişi_583 | 0.183 |
| Kişi_584 | -0.893 |
| Kişi_585 | -0.622 |
| Kişi_586 | -0.646 |
| Kişi_587 | 2.164 |
| Kişi_588 | 0.051 |
| Kişi_589 | -0.376 |
| Kişi_590 | -0.278 |
| Kişi_591 | 1.968 |
| Kişi_592 | 0.107 |
| Kişi_593 | -0.589 |
| Kişi_594 | 0.298 |
| Kişi_595 | 1.232 |
| Kişi_596 | -0.079 |
| Kişi_597 | -1.077 |
| Kişi_598 | 1.660 |
| Kişi_599 | 1.845 |
| Kişi_600 | 1.248 |
| Kişi_601 | -0.435 |
| Kişi_602 | -0.624 |
| Kişi_603 | -0.475 |
| Kişi_604 | -0.639 |
| Kişi_605 | 1.748 |
| Kişi_606 | -0.990 |
| Kişi_607 | -0.036 |
| Kişi_608 | 1.982 |
| Kişi_609 | -1.183 |
| Kişi_610 | 1.190 |
| Kişi_611 | 1.521 |
| Kişi_612 | -0.522 |
| Kişi_613 | 0.490 |
| Kişi_614 | -0.108 |
| Kişi_615 | 0.953 |
| Kişi_616 | -0.276 |
| Kişi_617 | -0.323 |
| Kişi_618 | -0.444 |
| Kişi_619 | -0.965 |
| Kişi_620 | 0.555 |
| Kişi_621 | 0.178 |
| Kişi_622 | 0.186 |
| Kişi_623 | 1.796 |
| Kişi_624 | -0.808 |
| Kişi_625 | -1.137 |
| Kişi_626 | -0.126 |
| Kişi_627 | -0.489 |
| Kişi_628 | -0.187 |
| Kişi_629 | -0.846 |
| Kişi_630 | 0.850 |
| Kişi_631 | -0.051 |
| Kişi_632 | 0.356 |
| Kişi_633 | -0.699 |
| Kişi_634 | 0.893 |
| Kişi_635 | 0.589 |
| Kişi_636 | 0.364 |
| Kişi_637 | 1.380 |
| Kişi_638 | -0.321 |
| Kişi_639 | 0.566 |
| Kişi_640 | 0.432 |
| Kişi_641 | 0.027 |
| Kişi_642 | -0.164 |
| Kişi_643 | 1.803 |
| Kişi_644 | 0.630 |
| Kişi_645 | -0.645 |
| Kişi_646 | -0.324 |
| Kişi_647 | -0.367 |
| Kişi_648 | 0.017 |
| Kişi_649 | -0.554 |
| Kişi_650 | -0.383 |
| Kişi_651 | -1.036 |
| Kişi_652 | -1.156 |
| Kişi_653 | 0.116 |
| Kişi_654 | -0.595 |
| Kişi_655 | -1.008 |
| Kişi_656 | -0.635 |
| Kişi_657 | -0.259 |
| Kişi_658 | -0.335 |
| Kişi_659 | -1.130 |
| Kişi_660 | -0.712 |
| Kişi_661 | -0.694 |
| Kişi_662 | -0.495 |
| Kişi_663 | -1.379 |
| Kişi_664 | -0.835 |
| Kişi_665 | 0.029 |
| Kişi_666 | 0.321 |
| Kişi_667 | -0.933 |
| Kişi_668 | 0.052 |
| Kişi_669 | -0.548 |
| Kişi_670 | -0.359 |
| Kişi_671 | 0.087 |
| Kişi_672 | 0.704 |
| Kişi_673 | -0.220 |
| Kişi_674 | -0.773 |
| Kişi_675 | 1.375 |
| Kişi_676 | -0.993 |
| Kişi_677 | -0.301 |
| Kişi_678 | 0.059 |
| Kişi_679 | -0.255 |
| Kişi_680 | 0.941 |
| Kişi_681 | -0.142 |
| Kişi_682 | 0.303 |
| Kişi_683 | -0.924 |
| Kişi_684 | -0.023 |
| Kişi_685 | -1.263 |
| Kişi_686 | 0.054 |
| Kişi_687 | -0.469 |
| Kişi_688 | -0.026 |
| Kişi_689 | 0.863 |
| Kişi_690 | 1.258 |
| Kişi_691 | 1.476 |
| Kişi_692 | 0.769 |
| Kişi_693 | -0.111 |
| Kişi_694 | -0.663 |
| Kişi_695 | -0.519 |
| Kişi_696 | -1.718 |
| Kişi_697 | 0.546 |
| Kişi_698 | -0.422 |
| Kişi_699 | 1.040 |
| Kişi_700 | -0.144 |
| Kişi_701 | -0.315 |
| Kişi_702 | 0.874 |
| Kişi_703 | 0.272 |
| Kişi_704 | 0.188 |
| Kişi_705 | -0.435 |
| Kişi_706 | -0.892 |
| Kişi_707 | 0.306 |
| Kişi_708 | -0.297 |
| Kişi_709 | 0.375 |
| Kişi_710 | 0.592 |
| Kişi_711 | -0.904 |
| Kişi_712 | -0.787 |
| Kişi_713 | 1.394 |
| Kişi_714 | 0.538 |
| Kişi_715 | -0.991 |
| Kişi_716 | 0.564 |
| Kişi_717 | 2.179 |
| Kişi_718 | -0.411 |
| Kişi_719 | 1.449 |
| Kişi_720 | -1.376 |
| Kişi_721 | 0.382 |
| Kişi_722 | 1.008 |
| Kişi_723 | 0.703 |
| Kişi_724 | -0.844 |
| Kişi_725 | -0.397 |
| Kişi_726 | 2.552 |
| Kişi_727 | 1.163 |
| Kişi_728 | 1.646 |
| Kişi_729 | 0.028 |
| Kişi_730 | -0.437 |
| Kişi_731 | -0.035 |
| Kişi_732 | -0.635 |
| Kişi_733 | -0.148 |
| Kişi_734 | 1.431 |
| Kişi_735 | 1.051 |
| Kişi_736 | -1.182 |
| Kişi_737 | 0.568 |
| Kişi_738 | -0.614 |
| Kişi_739 | 1.119 |
| Kişi_740 | 0.684 |
| Kişi_741 | 1.124 |
| Kişi_742 | 0.061 |
| Kişi_743 | -0.958 |
| Kişi_744 | -0.910 |
| Kişi_745 | 0.118 |
| Kişi_746 | 0.097 |
| Kişi_747 | -0.660 |
| Kişi_748 | -1.311 |
| Kişi_749 | -1.434 |
| Kişi_750 | -1.428 |
| Kişi_751 | -0.834 |
| Kişi_752 | -0.084 |
| Kişi_753 | -0.675 |
| Kişi_754 | 0.862 |
| Kişi_755 | -0.876 |
| Kişi_756 | -0.920 |
| Kişi_757 | -0.925 |
| Kişi_758 | 0.850 |
| Kişi_759 | -1.189 |
| Kişi_760 | -0.435 |
| Kişi_761 | 0.473 |
| Kişi_762 | 1.137 |
| Kişi_763 | -0.123 |
| Kişi_764 | -0.187 |
| Kişi_765 | -0.547 |
| Kişi_766 | -1.123 |
| Kişi_767 | -0.312 |
| Kişi_768 | -0.705 |
| Kişi_769 | -0.270 |
| Kişi_770 | 0.111 |
| Kişi_771 | 0.169 |
| Kişi_772 | 1.597 |
| Kişi_773 | 0.073 |
| Kişi_774 | -0.886 |
| Kişi_775 | -0.027 |
| Kişi_776 | 2.343 |
| Kişi_777 | 0.040 |
| Kişi_778 | -0.224 |
| Kişi_779 | -0.296 |
| Kişi_780 | 0.980 |
| Kişi_781 | 0.660 |
| Kişi_782 | -0.812 |
| Kişi_783 | -0.630 |
| Kişi_784 | -1.167 |
| Kişi_785 | 0.346 |
| Kişi_786 | -0.033 |
| Kişi_787 | -0.728 |
| Kişi_788 | 0.012 |
| Kişi_789 | -0.436 |
| Kişi_790 | -0.135 |
| Kişi_791 | -0.720 |
| Kişi_792 | 1.309 |
| Kişi_793 | -0.417 |
| Kişi_794 | -0.956 |
| Kişi_795 | -0.795 |
| Kişi_796 | -0.767 |
| Kişi_797 | 2.407 |
| Kişi_798 | -0.070 |
| Kişi_799 | 0.356 |
| Kişi_800 | -0.333 |
| Kişi_801 | -0.999 |
| Kişi_802 | -0.869 |
| Kişi_803 | 0.564 |
| Kişi_804 | 0.169 |
| Kişi_805 | 0.242 |
| Kişi_806 | -0.517 |
| Kişi_807 | 0.738 |
| Kişi_808 | -0.043 |
| Kişi_809 | -0.594 |
| Kişi_810 | 2.126 |
| Kişi_811 | 1.410 |
| Kişi_812 | 1.343 |
| Kişi_813 | -0.766 |
| Kişi_814 | -0.589 |
| Kişi_815 | 0.311 |
| Kişi_816 | 1.026 |
| Kişi_817 | 0.760 |
| Kişi_818 | -0.254 |
| Kişi_819 | 0.150 |
| Kişi_820 | 0.811 |
| Kişi_821 | 0.316 |
| Kişi_822 | 0.189 |
| Kişi_823 | 0.160 |
| Kişi_824 | -1.026 |
| Kişi_825 | -0.361 |
| Kişi_826 | 0.201 |
| Kişi_827 | -0.979 |
| Kişi_828 | 0.178 |
| Kişi_829 | -0.673 |
| Kişi_830 | 0.105 |
| Kişi_831 | 0.807 |
| Kişi_832 | 0.929 |
| Kişi_833 | 0.154 |
| Kişi_834 | -0.747 |
| Kişi_835 | 1.707 |
| Kişi_836 | -0.654 |
| Kişi_837 | 0.118 |
| Kişi_838 | -0.157 |
| Kişi_839 | 1.781 |
| Kişi_840 | -0.118 |
| Kişi_841 | 0.709 |
| Kişi_842 | -0.902 |
| Kişi_843 | 0.043 |
| Kişi_844 | -0.114 |
| Kişi_845 | -0.259 |
| Kişi_846 | 1.659 |
| Kişi_847 | -0.121 |
| Kişi_848 | -1.680 |
| Kişi_849 | -1.326 |
| Kişi_850 | 0.754 |
| Kişi_851 | -0.518 |
| Kişi_852 | 0.112 |
| Kişi_853 | 0.902 |
| Kişi_854 | 1.077 |
| Kişi_855 | 0.122 |
| Kişi_856 | -0.236 |
| Kişi_857 | -0.236 |
| Kişi_858 | 0.223 |
| Kişi_859 | -1.125 |
| Kişi_860 | -0.564 |
| Kişi_861 | -0.837 |
| Kişi_862 | -1.374 |
| Kişi_863 | -0.741 |
| Kişi_864 | -0.173 |
| Kişi_865 | -1.151 |
| Kişi_866 | -1.060 |
| Kişi_867 | -0.519 |
| Kişi_868 | -0.221 |
| Kişi_869 | -0.466 |
| Kişi_870 | 0.165 |
| Kişi_871 | -0.483 |
| Kişi_872 | -0.037 |
| Kişi_873 | -0.204 |
| Kişi_874 | -0.784 |
| Kişi_875 | -0.490 |
| Kişi_876 | -1.193 |
| Kişi_877 | -1.134 |
| Kişi_878 | -1.043 |
| Kişi_879 | 0.308 |
| Kişi_880 | -0.862 |
| Kişi_881 | -0.963 |
| Kişi_882 | -0.990 |
| Kişi_883 | -0.040 |
| Kişi_884 | -0.439 |
| Kişi_885 | -1.374 |
| Kişi_886 | -1.467 |
| Kişi_887 | -0.433 |
| Kişi_888 | 0.952 |
| Kişi_889 | -0.731 |
| Kişi_890 | -0.736 |
| Kişi_891 | 0.864 |
| Kişi_892 | -0.375 |
| Kişi_893 | -0.914 |
| Kişi_894 | -0.074 |
| Kişi_895 | 0.161 |
| Kişi_896 | -1.496 |
| Kişi_897 | 0.503 |
| Kişi_898 | -0.569 |
| Kişi_899 | 0.223 |
| Kişi_900 | 0.644 |
| Kişi_901 | -0.200 |
| Kişi_902 | -0.024 |
| Kişi_903 | 0.518 |
| Kişi_904 | -0.433 |
| Kişi_905 | 0.122 |
| Kişi_906 | -0.717 |
| Kişi_907 | 0.765 |
| Kişi_908 | -0.429 |
| Kişi_909 | -0.727 |
| Kişi_910 | 0.750 |
| Kişi_911 | -0.425 |
| Kişi_912 | 0.844 |
| Kişi_913 | 0.469 |
| Kişi_914 | -0.529 |
| Kişi_915 | 0.735 |
| Kişi_916 | -2.135 |
| Kişi_917 | 0.940 |
| Kişi_918 | 1.095 |
| Kişi_919 | -0.486 |
| Kişi_920 | -0.633 |
| Kişi_921 | -1.317 |
| Kişi_922 | 0.185 |
| Kişi_923 | 0.484 |
| Kişi_924 | -0.386 |
| Kişi_925 | -0.437 |
| Kişi_926 | -0.625 |
| Kişi_927 | 0.287 |
| Kişi_928 | -0.445 |
| Kişi_929 | 0.205 |
| Kişi_930 | 1.714 |
| Kişi_931 | 1.391 |
| Kişi_932 | -1.236 |
| Kişi_933 | -1.236 |
| Kişi_934 | -1.114 |
| Kişi_935 | -0.443 |
| Kişi_936 | 0.014 |
| Kişi_937 | -1.150 |
| Kişi_938 | 0.563 |
| Kişi_939 | -0.172 |
| Kişi_940 | 0.715 |
| Kişi_941 | 0.512 |
| Kişi_942 | 0.482 |
| Kişi_943 | -0.521 |
| Kişi_944 | 0.435 |
| Kişi_945 | -1.114 |
| Kişi_946 | -1.136 |
| Kişi_947 | 0.222 |
| Kişi_948 | -0.563 |
| Kişi_949 | 0.917 |
| Kişi_950 | -0.863 |
| Kişi_951 | 0.794 |
| Kişi_952 | -0.349 |
| Kişi_953 | 0.664 |
| Kişi_954 | 0.197 |
| Kişi_955 | 1.909 |
| Kişi_956 | 0.217 |
| Kişi_957 | 1.221 |
| Kişi_958 | -0.030 |
| Kişi_959 | 0.126 |
| Kişi_960 | 1.058 |
| Kişi_961 | 0.416 |
| Kişi_962 | -0.704 |
| Kişi_963 | -1.377 |
| Kişi_964 | 2.236 |
| Kişi_965 | -0.295 |
| Kişi_966 | -0.387 |
| Kişi_967 | 0.834 |
| Kişi_968 | 1.082 |
| Kişi_969 | -0.779 |
| Kişi_970 | -0.802 |
| Kişi_971 | 1.112 |
| Kişi_972 | 1.323 |
| Kişi_973 | -0.435 |
| Kişi_974 | -0.442 |
| Kişi_975 | -0.337 |
| Kişi_976 | -0.628 |
| Kişi_977 | -0.733 |
| Kişi_978 | -1.097 |
| Kişi_979 | 1.167 |
| Kişi_980 | 0.670 |
| Kişi_981 | 0.577 |
| Kişi_982 | 0.401 |
| Kişi_983 | 2.150 |
| Kişi_984 | -0.577 |
| Kişi_985 | -0.091 |
| Kişi_986 | -1.895 |
| Kişi_987 | -0.055 |
| Kişi_988 | -1.571 |
| Kişi_989 | 1.155 |
| Kişi_990 | -0.712 |
| Kişi_991 | 0.135 |
| Kişi_992 | 0.506 |
| Kişi_993 | 1.130 |
| Kişi_994 | -0.468 |
| Kişi_995 | 1.967 |
| Kişi_996 | 0.588 |
| Kişi_997 | 1.385 |
| Kişi_998 | 0.055 |
| Kişi_999 | 1.954 |
| Kişi_1000 | 0.067 |
| Kişi_1001 | 0.139 |
| Kişi_1002 | 2.016 |
| Kişi_1003 | 0.074 |
| Kişi_1004 | -0.266 |
| Kişi_1005 | -0.389 |
| Kişi_1006 | -1.664 |
| Kişi_1007 | -0.511 |
| Kişi_1008 | -0.451 |
| Kişi_1009 | -0.903 |
| Kişi_1010 | 0.745 |
| Kişi_1011 | 0.075 |
| Kişi_1012 | 1.442 |
| Kişi_1013 | -1.371 |
| Kişi_1014 | 0.865 |
| Kişi_1015 | -1.508 |
| Kişi_1016 | 0.297 |
| Kişi_1017 | -0.129 |
| Kişi_1018 | 0.286 |
| Kişi_1019 | 1.271 |
| Kişi_1020 | 0.551 |
| Kişi_1021 | 0.449 |
| Kişi_1022 | -0.338 |
| Kişi_1023 | 0.882 |
| Kişi_1024 | -0.763 |
| Kişi_1025 | 1.849 |
| Kişi_1026 | 2.372 |
| Kişi_1027 | 0.233 |
| Kişi_1028 | 1.408 |
| Kişi_1029 | -0.099 |
| Kişi_1030 | -1.713 |
| Kişi_1031 | 1.192 |
| Kişi_1032 | 2.012 |
| Kişi_1033 | -0.401 |
| Kişi_1034 | -1.459 |
| Kişi_1035 | 2.552 |
| Kişi_1036 | -0.167 |
| Kişi_1037 | 0.571 |
| Kişi_1038 | -0.866 |
| Kişi_1039 | 1.254 |
| Kişi_1040 | -1.216 |
| Kişi_1041 | 0.653 |
| Kişi_1042 | 1.621 |
| Kişi_1043 | 0.301 |
| Kişi_1044 | 0.347 |
| Kişi_1045 | 1.164 |
| Kişi_1046 | -0.672 |
| Kişi_1047 | -1.989 |
| Kişi_1048 | -0.540 |
| Kişi_1049 | -0.020 |
| Kişi_1050 | 0.133 |
| Kişi_1051 | 0.443 |
| Kişi_1052 | -0.911 |
| Kişi_1053 | -0.911 |
| Kişi_1054 | 1.628 |
| Kişi_1055 | 0.462 |
| Kişi_1056 | -0.782 |
| Kişi_1057 | -0.555 |
| Kişi_1058 | 0.971 |
| Kişi_1059 | 1.789 |
| Kişi_1060 | 1.285 |
| Kişi_1061 | 1.554 |
| Kişi_1062 | 0.033 |
| Kişi_1063 | -0.781 |
| Kişi_1064 | -0.046 |
| Kişi_1065 | -0.109 |
| Kişi_1066 | -0.609 |
| Kişi_1067 | 1.097 |
| Kişi_1068 | 0.615 |
| Kişi_1069 | 1.471 |
| Kişi_1070 | -0.403 |
| Kişi_1071 | 1.973 |
| Kişi_1072 | -0.132 |
| Kişi_1073 | -0.340 |
| Kişi_1074 | 1.123 |
| Kişi_1075 | 2.552 |
| Kişi_1076 | -0.013 |
| Kişi_1077 | 0.728 |
| Kişi_1078 | -0.168 |
| Kişi_1079 | 2.552 |
| Kişi_1080 | -0.556 |
| Kişi_1081 | 0.036 |
| Kişi_1082 | 0.241 |
| Kişi_1083 | -0.781 |
| Kişi_1084 | 0.280 |
| Kişi_1085 | -1.003 |
| Kişi_1086 | 0.205 |
| Kişi_1087 | -0.402 |
| Kişi_1088 | 0.617 |
| Kişi_1089 | -1.213 |
| Kişi_1090 | -0.981 |
| Kişi_1091 | -0.878 |
| Kişi_1092 | -0.214 |
| Kişi_1093 | 0.055 |
| Kişi_1094 | -0.191 |
| Kişi_1095 | -1.104 |
| Kişi_1096 | 0.254 |
| Kişi_1097 | -0.157 |
| Kişi_1098 | 0.182 |
| Kişi_1099 | 0.755 |
| Kişi_1100 | 0.499 |
| Kişi_1101 | 0.155 |
| Kişi_1102 | -0.005 |
| Kişi_1103 | 2.019 |
| Kişi_1104 | -0.917 |
| Kişi_1105 | -0.259 |
| Kişi_1106 | -0.337 |
| Kişi_1107 | -0.050 |
| Kişi_1108 | -0.835 |
| Kişi_1109 | -0.412 |
| Kişi_1110 | -0.279 |
| Kişi_1111 | -1.022 |
| Kişi_1112 | -0.310 |
| Kişi_1113 | -0.291 |
| Kişi_1114 | 0.040 |
| Kişi_1115 | 0.836 |
| Kişi_1116 | 0.988 |
| Kişi_1117 | -0.408 |
| Kişi_1118 | -0.086 |
| Kişi_1119 | -0.314 |
| Kişi_1120 | -0.674 |
| Kişi_1121 | 0.019 |
| Kişi_1122 | 2.057 |
| Kişi_1123 | -0.622 |
| Kişi_1124 | -0.256 |
| Kişi_1125 | 2.126 |
| Kişi_1126 | -0.053 |
| Kişi_1127 | -0.372 |
| Kişi_1128 | -0.206 |
| Kişi_1129 | 0.001 |
| Kişi_1130 | 1.578 |
| Kişi_1131 | -0.081 |
| Kişi_1132 | -0.587 |
| Kişi_1133 | 0.275 |
| Kişi_1134 | 1.267 |
| Kişi_1135 | 0.272 |
| Kişi_1136 | 1.183 |
| Kişi_1137 | -1.051 |
| Kişi_1138 | -0.654 |
| Kişi_1139 | -0.404 |
| Kişi_1140 | 0.023 |
| Kişi_1141 | 2.238 |
| Kişi_1142 | -0.277 |
| Kişi_1143 | 0.879 |
| Kişi_1144 | -0.479 |
| Kişi_1145 | -1.006 |
| Kişi_1146 | 0.495 |
| Kişi_1147 | -0.790 |
| Kişi_1148 | -0.354 |
| Kişi_1149 | 0.437 |
| Kişi_1150 | -0.334 |
| Kişi_1151 | -0.426 |
| Kişi_1152 | 0.282 |
| Kişi_1153 | 1.289 |
| Kişi_1154 | -1.088 |
| Kişi_1155 | 1.816 |
| Kişi_1156 | 1.446 |
| Kişi_1157 | -0.259 |
| Kişi_1158 | -0.010 |
| Kişi_1159 | -0.135 |
| Kişi_1160 | -0.679 |
| Kişi_1161 | -0.713 |
| Kişi_1162 | -0.296 |
| Kişi_1163 | -1.640 |
| Kişi_1164 | 1.693 |
| Kişi_1165 | -0.608 |
| Kişi_1166 | 0.403 |
| Kişi_1167 | 0.677 |
| Kişi_1168 | 2.552 |
| Kişi_1169 | -0.467 |
| Kişi_1170 | -1.281 |
| Kişi_1171 | -0.561 |
| Kişi_1172 | -0.825 |
| Kişi_1173 | 0.001 |
| Kişi_1174 | 0.963 |
| Kişi_1175 | -0.690 |
| Kişi_1176 | -1.641 |
| Kişi_1177 | 0.781 |
| Kişi_1178 | -0.368 |
| Kişi_1179 | 0.558 |
| Kişi_1180 | 0.205 |
| Kişi_1181 | 1.086 |
| Kişi_1182 | 0.092 |
| Kişi_1183 | -0.850 |
| Kişi_1184 | 0.197 |
| Kişi_1185 | 0.313 |
| Kişi_1186 | 1.797 |
| Kişi_1187 | -0.535 |
| Kişi_1188 | -0.504 |
| Kişi_1189 | 0.226 |
| Kişi_1190 | -1.554 |
| Kişi_1191 | 0.247 |
| Kişi_1192 | 0.883 |
| Kişi_1193 | -0.060 |
| Kişi_1194 | -0.093 |
| Kişi_1195 | -0.840 |
| Kişi_1196 | 1.834 |
| Kişi_1197 | -0.765 |
| Kişi_1198 | 0.484 |
| Kişi_1199 | -0.031 |
| Kişi_1200 | -0.893 |
| Kişi_1201 | -1.588 |
| Kişi_1202 | 0.116 |
| Kişi_1203 | -0.807 |
| Kişi_1204 | 2.293 |
| Kişi_1205 | 0.339 |
| Kişi_1206 | 0.714 |
| Kişi_1207 | -0.038 |
| Kişi_1208 | 0.676 |
| Kişi_1209 | 0.671 |
| Kişi_1210 | -1.087 |
| Kişi_1211 | -0.082 |
| Kişi_1212 | -0.412 |
| Kişi_1213 | 0.029 |
| Kişi_1214 | -0.833 |
| Kişi_1215 | 0.760 |
| Kişi_1216 | 0.339 |
| Kişi_1217 | 0.198 |
| Kişi_1218 | 0.774 |
| Kişi_1219 | 1.649 |
| Kişi_1220 | -0.452 |
| Kişi_1221 | 0.882 |
| Kişi_1222 | -0.136 |
| Kişi_1223 | -0.277 |
| Kişi_1224 | -1.300 |
| Kişi_1225 | -0.143 |
| Kişi_1226 | -0.675 |
| Kişi_1227 | 0.325 |
| Kişi_1228 | -0.206 |
| Kişi_1229 | 1.828 |
| Kişi_1230 | -1.109 |
| Kişi_1231 | -1.354 |
| Kişi_1232 | -0.633 |
| Kişi_1233 | 1.051 |
| Kişi_1234 | 0.017 |
| Kişi_1235 | 2.244 |
| Kişi_1236 | 2.372 |
| Kişi_1237 | 2.034 |
| Kişi_1238 | -0.164 |
| Kişi_1239 | 1.829 |
| Kişi_1240 | -0.276 |
| Kişi_1241 | 1.184 |
| Kişi_1242 | 0.989 |
| Kişi_1243 | -0.833 |
| Kişi_1244 | 1.226 |
| Kişi_1245 | -1.015 |
| Kişi_1246 | -0.043 |
| Kişi_1247 | 1.453 |
| Kişi_1248 | 0.660 |
| Kişi_1249 | 0.098 |
| Kişi_1250 | -0.544 |
| Kişi_1251 | -1.448 |
| Kişi_1252 | -0.521 |
| Kişi_1253 | -0.068 |
| Kişi_1254 | 0.100 |
| Kişi_1255 | 0.439 |
| Kişi_1256 | -0.397 |
| Kişi_1257 | -0.125 |
| Kişi_1258 | -1.629 |
| Kişi_1259 | -0.643 |
| Kişi_1260 | 0.895 |
| Kişi_1261 | -0.096 |
| Kişi_1262 | 0.701 |
| Kişi_1263 | 0.379 |
| Kişi_1264 | -0.671 |
| Kişi_1265 | -0.522 |
| Kişi_1266 | 1.016 |
| Kişi_1267 | 0.148 |
| Kişi_1268 | 1.543 |
| Kişi_1269 | 2.115 |
| Kişi_1270 | 1.072 |
| Kişi_1271 | 0.059 |
| Kişi_1272 | -1.822 |
| Kişi_1273 | -0.806 |
| Kişi_1274 | -0.287 |
| Kişi_1275 | -0.960 |
| Kişi_1276 | -1.502 |
| Kişi_1277 | -0.343 |
| Kişi_1278 | 1.249 |
| Kişi_1279 | 0.761 |
| Kişi_1280 | -0.850 |
| Kişi_1281 | 0.205 |
| Kişi_1282 | -0.726 |
| Kişi_1283 | 0.668 |
| Kişi_1284 | 0.166 |
| Kişi_1285 | 0.394 |
| Kişi_1286 | 0.049 |
| Kişi_1287 | 2.026 |
| Kişi_1288 | -0.857 |
| Kişi_1289 | -0.347 |
| Kişi_1290 | 0.681 |
| Kişi_1291 | -0.087 |
| Kişi_1292 | 0.635 |
| Kişi_1293 | 0.349 |
| Kişi_1294 | 0.546 |
| Kişi_1295 | 0.550 |
| Kişi_1296 | 0.195 |
| Kişi_1297 | 0.894 |
| Kişi_1298 | 0.398 |
| Kişi_1299 | 2.552 |
| Kişi_1300 | -0.754 |
| Kişi_1301 | 0.245 |
| Kişi_1302 | -0.320 |
| Kişi_1303 | 0.262 |
| Kişi_1304 | -0.515 |
| Kişi_1305 | 0.589 |
| Kişi_1306 | 1.605 |
| Kişi_1307 | 0.212 |
| Kişi_1308 | -0.383 |
| Kişi_1309 | 0.317 |
| Kişi_1310 | 1.943 |
| Kişi_1311 | -0.017 |
| Kişi_1312 | -0.406 |
| Kişi_1313 | -0.338 |
| Kişi_1314 | 0.715 |
| Kişi_1315 | -0.672 |
| Kişi_1316 | -0.389 |
| Kişi_1317 | -0.487 |
| Kişi_1318 | 1.081 |
| Kişi_1319 | 0.311 |
| Kişi_1320 | 0.813 |
| Kişi_1321 | -0.410 |
| Kişi_1322 | 0.960 |
| Kişi_1323 | -0.185 |
| Kişi_1324 | 0.171 |
| Kişi_1325 | 0.622 |
| Kişi_1326 | -1.237 |
| Kişi_1327 | 0.549 |
| Kişi_1328 | 0.183 |
| Kişi_1329 | 0.728 |
| Kişi_1330 | 1.215 |
| Kişi_1331 | -0.089 |
| Kişi_1332 | -0.048 |
| Kişi_1333 | -0.280 |
| Kişi_1334 | 1.124 |
| Kişi_1335 | -0.782 |
| Kişi_1336 | 1.507 |
| Kişi_1337 | -1.067 |
| Kişi_1338 | -0.545 |
| Kişi_1339 | -0.221 |
| Kişi_1340 | -0.837 |
| Kişi_1341 | 1.295 |
| Kişi_1342 | -0.166 |
| Kişi_1343 | -0.057 |
| Kişi_1344 | 0.324 |
| Kişi_1345 | 0.613 |
| Kişi_1346 | 0.638 |
| Kişi_1347 | -0.309 |
| Kişi_1348 | 0.867 |
| Kişi_1349 | 1.267 |
| Kişi_1350 | 0.579 |
| Kişi_1351 | 2.082 |
| Kişi_1352 | 0.321 |
| Kişi_1353 | 0.161 |
| Kişi_1354 | 2.171 |
| Kişi_1355 | 0.471 |
| Kişi_1356 | 1.011 |
| Kişi_1357 | -0.115 |
| Kişi_1358 | 2.552 |
| Kişi_1359 | 1.811 |
| Kişi_1360 | 1.130 |
| Kişi_1361 | 2.552 |
| Kişi_1362 | -0.682 |
| Kişi_1363 | 0.989 |
| Kişi_1364 | 1.469 |
| Kişi_1365 | 0.520 |
| Kişi_1366 | 1.219 |
| Kişi_1367 | 0.106 |
| Kişi_1368 | 1.777 |
| Kişi_1369 | -0.237 |
| Kişi_1370 | 0.919 |
| Kişi_1371 | -0.011 |
| Kişi_1372 | 0.333 |
| Kişi_1373 | -0.469 |
| Kişi_1374 | -0.212 |
| Kişi_1375 | 0.017 |
| Kişi_1376 | -0.967 |
| Kişi_1377 | 0.888 |
| Kişi_1378 | 0.376 |
| Kişi_1379 | -0.580 |
| Kişi_1380 | 0.440 |
| Kişi_1381 | -0.256 |
| Kişi_1382 | 1.639 |
| Kişi_1383 | -0.492 |
| Kişi_1384 | 1.926 |
| Kişi_1385 | 0.476 |
| Kişi_1386 | -0.576 |
| Kişi_1387 | 1.000 |
| Kişi_1388 | 0.898 |
| Kişi_1389 | 1.078 |
| Kişi_1390 | -0.686 |
| Kişi_1391 | -0.582 |
| Kişi_1392 | 0.651 |
| Kişi_1393 | -0.727 |
| Kişi_1394 | -1.274 |
| Kişi_1395 | 1.008 |
| Kişi_1396 | 0.077 |
| Kişi_1397 | -0.139 |
| Kişi_1398 | 0.799 |
| Kişi_1399 | 1.663 |
| Kişi_1400 | -0.219 |
| Kişi_1401 | 0.253 |
| Kişi_1402 | 1.741 |
| Kişi_1403 | -0.541 |
| Kişi_1404 | 1.371 |
| Kişi_1405 | -0.737 |
| Kişi_1406 | 1.717 |
| Kişi_1407 | -1.146 |
| Kişi_1408 | -0.990 |
| Kişi_1409 | 0.900 |
| Kişi_1410 | 1.012 |
| Kişi_1411 | -0.160 |
| Kişi_1412 | 0.608 |
| Kişi_1413 | -0.531 |
| Kişi_1414 | -0.773 |
| Kişi_1415 | -1.054 |
| Kişi_1416 | 0.119 |
| Kişi_1417 | 1.425 |
| Kişi_1418 | 2.075 |
| Kişi_1419 | 0.676 |
| Kişi_1420 | -0.655 |
| Kişi_1421 | 0.334 |
| Kişi_1422 | -0.983 |
| Kişi_1423 | -0.787 |
| Kişi_1424 | -1.118 |
| Kişi_1425 | -0.353 |
| Kişi_1426 | -0.678 |
| Kişi_1427 | 1.011 |
| Kişi_1428 | 0.989 |
| Kişi_1429 | 0.189 |
| Kişi_1430 | -0.085 |
| Kişi_1431 | 0.214 |
| Kişi_1432 | -1.023 |
| Kişi_1433 | -1.185 |
| Kişi_1434 | 0.254 |
| Kişi_1435 | -0.069 |
| Kişi_1436 | 0.148 |
| Kişi_1437 | 0.046 |
| Kişi_1438 | 0.883 |
| Kişi_1439 | 0.009 |
| Kişi_1440 | 2.372 |
| Kişi_1441 | -0.069 |
| Kişi_1442 | 1.104 |
| Kişi_1443 | -1.326 |
| Kişi_1444 | -0.645 |
| Kişi_1445 | -0.076 |
| Kişi_1446 | 0.117 |
| Kişi_1447 | -0.610 |
| Kişi_1448 | 0.608 |
| Kişi_1449 | -0.950 |
| Kişi_1450 | 2.057 |
| Kişi_1451 | 0.021 |
| Kişi_1452 | 1.441 |
| Kişi_1453 | -0.455 |
| Kişi_1454 | -1.710 |
| Kişi_1455 | 1.303 |
| Kişi_1456 | -0.149 |
| Kişi_1457 | -0.320 |
| Kişi_1458 | 0.683 |
| Kişi_1459 | -0.192 |
| Kişi_1460 | -0.551 |
| Kişi_1461 | 0.588 |
| Kişi_1462 | 0.069 |
| Kişi_1463 | -0.111 |
| Kişi_1464 | 0.715 |
| Kişi_1465 | -0.958 |
| Kişi_1466 | 0.115 |
| Kişi_1467 | 1.434 |
| Kişi_1468 | 0.592 |
| Kişi_1469 | -0.720 |
| Kişi_1470 | -0.545 |
| Kişi_1471 | -0.582 |
Yukarıdaki çıktı, iki parametreli lojistik model (2PL) kapsamında tahmin edilen madde parametrelerini göstermektedir. Bu modelde her bir madde için iki temel parametre tahmin edilir: ayırt edicilik katsayısı (a) ve güçlük parametresi (b). Ayrıca g ve u parametreleri sırasıyla alt ve üst asimptotları temsil eder ve bu modelde sabit olarak (0 ve 1) bırakılmıştır; yani cevap olasılığı yalnızca a ve b parametrelerine dayalıdır (Embretson & Reise, 2000).
Ayırt edicilik parametresi, bir maddenin bireyleri yetenek düzeyine göre ne derece ayırt edebildiğini gösterir. Bu değer \(0.414\) ile \(1.364\) arasında değişmektedir. Özellikle madde_1 (\(a = 1.364\)) ve madde_21 (\(a = 1.221\)) yüksek ayırt edicilik katsayısına sahip olup, bu maddeler bireylerin yetenek düzeyleri arasında güçlü bir ayrım yapmaktadır. Buna karşılık, madde_3 (\(a = 0.414\)) ve madde_13 (\(a = 0.555\)) gibi maddeler görece düşük ayırt edicilik düzeyine sahip olup, ölçme gücü daha sınırlıdır. Genellikle \(a > 0.80\) olarak kabul edilen eşiğin üzerindeki maddeler ölçme açısından güvenilirdir (Baker, 2001).
Güçlük parametreleri \(-0.396\) ile \(0.996\) arasında değişmektedir. Bu değerler, testin orta düzeyde bir güçlük aralığına sahip olduğunu göstermektedir. madde_14 ve madde_13 gibi maddeler görece daha yüksek güçlük düzeyine sahiptir (\(b ≈ 0.996\)), yani bu maddeleri doğru yanıtlayabilmek için ortalamanın üzerinde bir yetenek düzeyi gereklidir. Öte yandan, madde_1 (\(b = -0.382\)), madde_17 (\(b = -0.396\)) gibi maddeler daha kolay olup, daha düşük yetenek düzeyindeki bireyler tarafından doğru yanıtlanabilir.
Bu sonuçlar, testin hem düşük hem de yüksek düzeyde yeteneğe sahip bireyleri ayırt edebilecek ölçme gücüne sahip olduğunu ortaya koymaktadır. Ayırt edicilik ve güçlük parametrelerinin dağılımı, testin geçerlik ve güvenirlik açısından yeterli olduğunu, madde kalitesinin genel olarak yüksek düzeyde olduğunu göstermektedir. Ayrıca \(g = 0\) ve \(u = 1\) olarak sabitlenen asimptot değerleri, modelin 2PL formuna uygun biçimde yorumlandığını teyit etmektedir.
library(ggplot2)
ggplot(madde_2pl_df, aes(x = Madde, y = b)) +
geom_bar(stat = "identity", fill = "steelblue") +
geom_hline(yintercept = 0, linetype = "dashed", color = "red") +
labs(
title = "2PL Modeline Göre Madde Güçlük (b) Parametrelerinin Dağılımı",
x = "Madde",
y = "Güçlük (b) Değeri") +
theme_minimal() +
theme(axis.text.x = element_text(angle = 45, hjust = 1))Yukarıda sunulan grafik, iki parametreli lojistik model (2PL) kapsamında tahmin edilen 25 maddeye ait güçlük parametrelerinin (b) dağılımını görsel olarak sunmaktadır. Güçlük parametresi, bir maddenin doğru yanıtlanması için gereken bireysel yetenek düzeyini (θ) ifade eder. b parametresi pozitif olduğunda madde daha zor, negatif olduğunda ise daha kolay olarak kabul edilir (Embretson & Reise, 2000).
Grafikte dikkat çeken en yüksek b değerine sahip maddeler madde_13 (\(b ≈ 0.996\)) ve madde_14 (\(b ≈ 0.996\)) olup, bu maddeler testin en zor soruları arasında yer almaktadır. Bu maddelerin doğru yanıtlanabilmesi için bireylerin ortalamanın oldukça üzerinde bir yetenek düzeyine sahip olması beklenir. Buna karşılık madde_1 (\(b = -0.382\)), madde_10 (\(b = -0.316\)) ve madde_17 (\(b = -0.396\)) gibi maddeler negatif güçlük değerleriyle, düşük yetenek düzeyine sahip bireyler tarafından dahi doğru yanıtlanabilir niteliktedir.
Grafikte yer alan kırmızı kesikli çizgi, referans noktası olan \(b = 0\)’ı göstermekte olup, bu çizgi ortalama güçlük düzeyini ifade eder. Maddelerin bu referans çizgisine göre dağılımı, testin farklı yetenek düzeylerini ölçme kapasitesine sahip olduğunu ve madde güçlüklerinin homojen bir şekilde dağılmadığını ortaya koymaktadır. Bu çeşitlilik, testin hem düşük hem de yüksek yeterlik düzeyindeki bireyleri doğru sınıflandırma açısından avantaj sağladığını göstermektedir (Baker, 2001).
Sonuç olarak, güçlük parametrelerinin dağılımı, testin ölçme aralığının dengeli, yeteneğe duyarlı ve madde kalitesinin heterojen olduğunu göstermektedir. Bu durum, testin hem geçerlik hem de güvenirlik açısından güçlü bir psikometrik yapı sergilediğini desteklemektedir.
madde_3pl <- coef(mod_3PL, IRTpars = TRUE, simplify = TRUE)$items
madde_3pl_df <- as.data.frame(madde_3pl)
madde_3pl_df$Madde <- rownames(madde_3pl_df)birey_3pl <- fscores(mod_3PL, method = "EAP")
birey_3pl_df <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_3pl)),
Yetenek = birey_3pl[, 1])library(kableExtra)
madde_3pl_df %>% select(Madde, a, b, g) %>% kable(digits = 3, format = "html", caption = "3PL Modeline Gore Madde Parametreleri (a: Ayırt Edicilik, b: Güçlük, g: Tahmin Şansı)") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| Madde | a | b | g | |
|---|---|---|---|---|
| madde_1 | madde_1 | 1.521 | -0.222 | 0.065 |
| madde_2 | madde_2 | 1.777 | 1.025 | 0.282 |
| madde_3 | madde_3 | 1.690 | 1.542 | 0.382 |
| madde_4 | madde_4 | 1.274 | 0.481 | 0.106 |
| madde_5 | madde_5 | 1.272 | -0.259 | 0.040 |
| madde_6 | madde_6 | 1.236 | 0.544 | 0.149 |
| madde_7 | madde_7 | 1.752 | 0.761 | 0.234 |
| madde_8 | madde_8 | 1.422 | 0.688 | 0.240 |
| madde_9 | madde_9 | 1.574 | 1.355 | 0.277 |
| madde_10 | madde_10 | 1.606 | 0.261 | 0.236 |
| madde_11 | madde_11 | 1.390 | 0.857 | 0.276 |
| madde_12 | madde_12 | 2.159 | 0.760 | 0.264 |
| madde_13 | madde_13 | 2.460 | 1.520 | 0.297 |
| madde_14 | madde_14 | 1.430 | 1.910 | 0.191 |
| madde_15 | madde_15 | 1.403 | 0.676 | 0.189 |
| madde_16 | madde_16 | 1.569 | 0.326 | 0.089 |
| madde_17 | madde_17 | 2.532 | 0.597 | 0.387 |
| madde_18 | madde_18 | 1.704 | 0.632 | 0.213 |
| madde_19 | madde_19 | 1.599 | 0.801 | 0.195 |
| madde_20 | madde_20 | 1.983 | 0.372 | 0.266 |
| madde_21 | madde_21 | 2.277 | 0.728 | 0.177 |
| madde_22 | madde_22 | 2.826 | 1.094 | 0.168 |
| madde_23 | madde_23 | 2.029 | 0.799 | 0.299 |
| madde_24 | madde_24 | 1.645 | 0.652 | 0.239 |
| madde_25 | madde_25 | 1.801 | 0.753 | 0.183 |
birey_3pl_df %>% kable(digits = 3, format = "html", caption = "3PL Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| Birey | Yetenek |
|---|---|
| Kişi_1 | -1.153 |
| Kişi_2 | -0.734 |
| Kişi_3 | 0.500 |
| Kişi_4 | -0.702 |
| Kişi_5 | -1.383 |
| Kişi_6 | -1.333 |
| Kişi_7 | 0.104 |
| Kişi_8 | 1.762 |
| Kişi_9 | 0.017 |
| Kişi_10 | -1.469 |
| Kişi_11 | 0.286 |
| Kişi_12 | 0.870 |
| Kişi_13 | -0.405 |
| Kişi_14 | -1.168 |
| Kişi_15 | -0.117 |
| Kişi_16 | 0.791 |
| Kişi_17 | -0.664 |
| Kişi_18 | 1.256 |
| Kişi_19 | -0.041 |
| Kişi_20 | -0.525 |
| Kişi_21 | -0.604 |
| Kişi_22 | 0.902 |
| Kişi_23 | -0.423 |
| Kişi_24 | 0.229 |
| Kişi_25 | -0.998 |
| Kişi_26 | -0.208 |
| Kişi_27 | -0.143 |
| Kişi_28 | -0.666 |
| Kişi_29 | 0.509 |
| Kişi_30 | -0.905 |
| Kişi_31 | 0.200 |
| Kişi_32 | -1.104 |
| Kişi_33 | 0.181 |
| Kişi_34 | 0.724 |
| Kişi_35 | -0.969 |
| Kişi_36 | -0.775 |
| Kişi_37 | -0.184 |
| Kişi_38 | -1.318 |
| Kişi_39 | -0.807 |
| Kişi_40 | -1.166 |
| Kişi_41 | -1.374 |
| Kişi_42 | -0.276 |
| Kişi_43 | 1.052 |
| Kişi_44 | 1.403 |
| Kişi_45 | -1.568 |
| Kişi_46 | -0.390 |
| Kişi_47 | -1.158 |
| Kişi_48 | -0.486 |
| Kişi_49 | 2.124 |
| Kişi_50 | 0.198 |
| Kişi_51 | -0.404 |
| Kişi_52 | -0.125 |
| Kişi_53 | -0.157 |
| Kişi_54 | -0.379 |
| Kişi_55 | -0.809 |
| Kişi_56 | -0.461 |
| Kişi_57 | -1.121 |
| Kişi_58 | 0.707 |
| Kişi_59 | -1.419 |
| Kişi_60 | -0.846 |
| Kişi_61 | -1.008 |
| Kişi_62 | -0.182 |
| Kişi_63 | -0.503 |
| Kişi_64 | 1.044 |
| Kişi_65 | -0.981 |
| Kişi_66 | -0.748 |
| Kişi_67 | 0.129 |
| Kişi_68 | -0.142 |
| Kişi_69 | -1.366 |
| Kişi_70 | -0.557 |
| Kişi_71 | 2.464 |
| Kişi_72 | -0.866 |
| Kişi_73 | -1.433 |
| Kişi_74 | -0.881 |
| Kişi_75 | -0.146 |
| Kişi_76 | -0.031 |
| Kişi_77 | -0.718 |
| Kişi_78 | 1.392 |
| Kişi_79 | 1.567 |
| Kişi_80 | -0.397 |
| Kişi_81 | -0.855 |
| Kişi_82 | -0.342 |
| Kişi_83 | -0.249 |
| Kişi_84 | 0.527 |
| Kişi_85 | -0.849 |
| Kişi_86 | -1.001 |
| Kişi_87 | -0.489 |
| Kişi_88 | -0.845 |
| Kişi_89 | -0.662 |
| Kişi_90 | -0.977 |
| Kişi_91 | 0.568 |
| Kişi_92 | 1.024 |
| Kişi_93 | -0.129 |
| Kişi_94 | -1.353 |
| Kişi_95 | 0.620 |
| Kişi_96 | -0.484 |
| Kişi_97 | 0.147 |
| Kişi_98 | -1.417 |
| Kişi_99 | -1.071 |
| Kişi_100 | -0.411 |
| Kişi_101 | -1.400 |
| Kişi_102 | -1.059 |
| Kişi_103 | -0.075 |
| Kişi_104 | -1.464 |
| Kişi_105 | -0.785 |
| Kişi_106 | -0.444 |
| Kişi_107 | -0.441 |
| Kişi_108 | 0.485 |
| Kişi_109 | -0.466 |
| Kişi_110 | 1.302 |
| Kişi_111 | -0.970 |
| Kişi_112 | 0.669 |
| Kişi_113 | -1.099 |
| Kişi_114 | -0.029 |
| Kişi_115 | 0.870 |
| Kişi_116 | -0.609 |
| Kişi_117 | -0.981 |
| Kişi_118 | 0.073 |
| Kişi_119 | -0.900 |
| Kişi_120 | -0.385 |
| Kişi_121 | 0.244 |
| Kişi_122 | -0.797 |
| Kişi_123 | 0.443 |
| Kişi_124 | -0.938 |
| Kişi_125 | -0.681 |
| Kişi_126 | 0.658 |
| Kişi_127 | -1.032 |
| Kişi_128 | 0.924 |
| Kişi_129 | 0.936 |
| Kişi_130 | -1.196 |
| Kişi_131 | -0.366 |
| Kişi_132 | -0.417 |
| Kişi_133 | 0.669 |
| Kişi_134 | 2.182 |
| Kişi_135 | -0.467 |
| Kişi_136 | -0.131 |
| Kişi_137 | 0.289 |
| Kişi_138 | 1.387 |
| Kişi_139 | -0.257 |
| Kişi_140 | 1.408 |
| Kişi_141 | -0.704 |
| Kişi_142 | -0.275 |
| Kişi_143 | -0.426 |
| Kişi_144 | 0.006 |
| Kişi_145 | 0.006 |
| Kişi_146 | 0.982 |
| Kişi_147 | -0.938 |
| Kişi_148 | 1.251 |
| Kişi_149 | -0.358 |
| Kişi_150 | 0.238 |
| Kişi_151 | 0.463 |
| Kişi_152 | -0.355 |
| Kişi_153 | 1.711 |
| Kişi_154 | -0.324 |
| Kişi_155 | 2.140 |
| Kişi_156 | -1.099 |
| Kişi_157 | -0.502 |
| Kişi_158 | 0.401 |
| Kişi_159 | -0.921 |
| Kişi_160 | -0.481 |
| Kişi_161 | 0.861 |
| Kişi_162 | -0.385 |
| Kişi_163 | -0.638 |
| Kişi_164 | -0.855 |
| Kişi_165 | -0.026 |
| Kişi_166 | 0.773 |
| Kişi_167 | 0.186 |
| Kişi_168 | 0.237 |
| Kişi_169 | -0.947 |
| Kişi_170 | -0.470 |
| Kişi_171 | 0.216 |
| Kişi_172 | -0.994 |
| Kişi_173 | -1.365 |
| Kişi_174 | -1.003 |
| Kişi_175 | 0.198 |
| Kişi_176 | 1.165 |
| Kişi_177 | -0.578 |
| Kişi_178 | 0.471 |
| Kişi_179 | -0.965 |
| Kişi_180 | -0.162 |
| Kişi_181 | -1.114 |
| Kişi_182 | 1.173 |
| Kişi_183 | 0.152 |
| Kişi_184 | -1.198 |
| Kişi_185 | 0.705 |
| Kişi_186 | -0.713 |
| Kişi_187 | 1.295 |
| Kişi_188 | -1.050 |
| Kişi_189 | -1.031 |
| Kişi_190 | 1.022 |
| Kişi_191 | 2.182 |
| Kişi_192 | -1.135 |
| Kişi_193 | 0.971 |
| Kişi_194 | 0.330 |
| Kişi_195 | 0.859 |
| Kişi_196 | -0.673 |
| Kişi_197 | -0.090 |
| Kişi_198 | 0.307 |
| Kişi_199 | -0.223 |
| Kişi_200 | 0.444 |
| Kişi_201 | -0.165 |
| Kişi_202 | -1.141 |
| Kişi_203 | 0.794 |
| Kişi_204 | -0.200 |
| Kişi_205 | -1.122 |
| Kişi_206 | 0.631 |
| Kişi_207 | -0.904 |
| Kişi_208 | -0.794 |
| Kişi_209 | -0.766 |
| Kişi_210 | 0.037 |
| Kişi_211 | -0.885 |
| Kişi_212 | -1.117 |
| Kişi_213 | -0.760 |
| Kişi_214 | 0.221 |
| Kişi_215 | -0.527 |
| Kişi_216 | -1.305 |
| Kişi_217 | -1.009 |
| Kişi_218 | -0.811 |
| Kişi_219 | -0.127 |
| Kişi_220 | 0.675 |
| Kişi_221 | 0.962 |
| Kişi_222 | 0.180 |
| Kişi_223 | 0.483 |
| Kişi_224 | 0.908 |
| Kişi_225 | -0.306 |
| Kişi_226 | -1.113 |
| Kişi_227 | 1.224 |
| Kişi_228 | -0.563 |
| Kişi_229 | -0.686 |
| Kişi_230 | 0.876 |
| Kişi_231 | -0.942 |
| Kişi_232 | -0.445 |
| Kişi_233 | 0.661 |
| Kişi_234 | -1.318 |
| Kişi_235 | -0.915 |
| Kişi_236 | -0.577 |
| Kişi_237 | 0.587 |
| Kişi_238 | 0.230 |
| Kişi_239 | -0.880 |
| Kişi_240 | -0.007 |
| Kişi_241 | -0.379 |
| Kişi_242 | -0.543 |
| Kişi_243 | 0.030 |
| Kişi_244 | 0.097 |
| Kişi_245 | -0.510 |
| Kişi_246 | -0.442 |
| Kişi_247 | -0.846 |
| Kişi_248 | -0.259 |
| Kişi_249 | -0.696 |
| Kişi_250 | -0.341 |
| Kişi_251 | -0.571 |
| Kişi_252 | 1.005 |
| Kişi_253 | -0.599 |
| Kişi_254 | -0.385 |
| Kişi_255 | -0.298 |
| Kişi_256 | 0.293 |
| Kişi_257 | -0.350 |
| Kişi_258 | -0.350 |
| Kişi_259 | 0.107 |
| Kişi_260 | -1.083 |
| Kişi_261 | -0.569 |
| Kişi_262 | 0.838 |
| Kişi_263 | -0.858 |
| Kişi_264 | 0.978 |
| Kişi_265 | -0.709 |
| Kişi_266 | 0.141 |
| Kişi_267 | 0.946 |
| Kişi_268 | -0.881 |
| Kişi_269 | -0.515 |
| Kişi_270 | 1.133 |
| Kişi_271 | 0.038 |
| Kişi_272 | -0.612 |
| Kişi_273 | 0.440 |
| Kişi_274 | -0.479 |
| Kişi_275 | -0.565 |
| Kişi_276 | -0.094 |
| Kişi_277 | -0.927 |
| Kişi_278 | -0.715 |
| Kişi_279 | -1.205 |
| Kişi_280 | -1.059 |
| Kişi_281 | -0.041 |
| Kişi_282 | 0.068 |
| Kişi_283 | -1.210 |
| Kişi_284 | -0.410 |
| Kişi_285 | 0.516 |
| Kişi_286 | -0.007 |
| Kişi_287 | -0.633 |
| Kişi_288 | -0.862 |
| Kişi_289 | -1.061 |
| Kişi_290 | -1.441 |
| Kişi_291 | -1.368 |
| Kişi_292 | -0.599 |
| Kişi_293 | -0.239 |
| Kişi_294 | -0.040 |
| Kişi_295 | -1.020 |
| Kişi_296 | -0.990 |
| Kişi_297 | -1.024 |
| Kişi_298 | 0.391 |
| Kişi_299 | -0.786 |
| Kişi_300 | -0.749 |
| Kişi_301 | -0.965 |
| Kişi_302 | -0.468 |
| Kişi_303 | 0.193 |
| Kişi_304 | -0.835 |
| Kişi_305 | 0.145 |
| Kişi_306 | -0.307 |
| Kişi_307 | 0.322 |
| Kişi_308 | -0.356 |
| Kişi_309 | -0.083 |
| Kişi_310 | -0.647 |
| Kişi_311 | -0.300 |
| Kişi_312 | -1.119 |
| Kişi_313 | -0.513 |
| Kişi_314 | -0.509 |
| Kişi_315 | -0.204 |
| Kişi_316 | 0.728 |
| Kişi_317 | -0.185 |
| Kişi_318 | 0.638 |
| Kişi_319 | 0.840 |
| Kişi_320 | -0.262 |
| Kişi_321 | -0.396 |
| Kişi_322 | 0.083 |
| Kişi_323 | -0.787 |
| Kişi_324 | -0.954 |
| Kişi_325 | -1.322 |
| Kişi_326 | -0.408 |
| Kişi_327 | 0.454 |
| Kişi_328 | 2.464 |
| Kişi_329 | -0.009 |
| Kişi_330 | -0.030 |
| Kişi_331 | -0.108 |
| Kişi_332 | -0.174 |
| Kişi_333 | 0.605 |
| Kişi_334 | 0.764 |
| Kişi_335 | -0.373 |
| Kişi_336 | -0.504 |
| Kişi_337 | -1.197 |
| Kişi_338 | 0.742 |
| Kişi_339 | -1.160 |
| Kişi_340 | 1.234 |
| Kişi_341 | 1.209 |
| Kişi_342 | 1.144 |
| Kişi_343 | -0.769 |
| Kişi_344 | -0.749 |
| Kişi_345 | 2.464 |
| Kişi_346 | -1.223 |
| Kişi_347 | -0.557 |
| Kişi_348 | 0.372 |
| Kişi_349 | 1.454 |
| Kişi_350 | 0.846 |
| Kişi_351 | 0.203 |
| Kişi_352 | -0.099 |
| Kişi_353 | 0.516 |
| Kişi_354 | 0.688 |
| Kişi_355 | 0.803 |
| Kişi_356 | -0.210 |
| Kişi_357 | 1.239 |
| Kişi_358 | -0.678 |
| Kişi_359 | -0.842 |
| Kişi_360 | 0.935 |
| Kişi_361 | 1.017 |
| Kişi_362 | 0.297 |
| Kişi_363 | -0.397 |
| Kişi_364 | -0.582 |
| Kişi_365 | -0.525 |
| Kişi_366 | 0.558 |
| Kişi_367 | -0.683 |
| Kişi_368 | -0.389 |
| Kişi_369 | 1.234 |
| Kişi_370 | -0.920 |
| Kişi_371 | -0.416 |
| Kişi_372 | 1.406 |
| Kişi_373 | -0.839 |
| Kişi_374 | -0.412 |
| Kişi_375 | 1.091 |
| Kişi_376 | -1.266 |
| Kişi_377 | 0.175 |
| Kişi_378 | 0.677 |
| Kişi_379 | 1.919 |
| Kişi_380 | -0.313 |
| Kişi_381 | -0.814 |
| Kişi_382 | 0.135 |
| Kişi_383 | -0.534 |
| Kişi_384 | 1.146 |
| Kişi_385 | -1.016 |
| Kişi_386 | -0.104 |
| Kişi_387 | 0.295 |
| Kişi_388 | -0.937 |
| Kişi_389 | 0.614 |
| Kişi_390 | -1.332 |
| Kişi_391 | 0.725 |
| Kişi_392 | -1.442 |
| Kişi_393 | -0.333 |
| Kişi_394 | 1.756 |
| Kişi_395 | 0.409 |
| Kişi_396 | 0.483 |
| Kişi_397 | -0.735 |
| Kişi_398 | -0.076 |
| Kişi_399 | -0.489 |
| Kişi_400 | 1.339 |
| Kişi_401 | -1.073 |
| Kişi_402 | -0.360 |
| Kişi_403 | -1.174 |
| Kişi_404 | -0.932 |
| Kişi_405 | 0.078 |
| Kişi_406 | -1.578 |
| Kişi_407 | -1.019 |
| Kişi_408 | -1.227 |
| Kişi_409 | 1.113 |
| Kişi_410 | 1.169 |
| Kişi_411 | 2.464 |
| Kişi_412 | 0.265 |
| Kişi_413 | 0.779 |
| Kişi_414 | 1.032 |
| Kişi_415 | -0.322 |
| Kişi_416 | -0.574 |
| Kişi_417 | 0.925 |
| Kişi_418 | 0.974 |
| Kişi_419 | -0.534 |
| Kişi_420 | -1.261 |
| Kişi_421 | -0.252 |
| Kişi_422 | 0.768 |
| Kişi_423 | 2.464 |
| Kişi_424 | 2.464 |
| Kişi_425 | -1.329 |
| Kişi_426 | -0.468 |
| Kişi_427 | 0.460 |
| Kişi_428 | -0.945 |
| Kişi_429 | -0.727 |
| Kişi_430 | -0.671 |
| Kişi_431 | -0.125 |
| Kişi_432 | 0.539 |
| Kişi_433 | -1.125 |
| Kişi_434 | -1.074 |
| Kişi_435 | -0.327 |
| Kişi_436 | -0.434 |
| Kişi_437 | -1.015 |
| Kişi_438 | 1.587 |
| Kişi_439 | -1.273 |
| Kişi_440 | 0.246 |
| Kişi_441 | 1.514 |
| Kişi_442 | -1.512 |
| Kişi_443 | 1.238 |
| Kişi_444 | 0.517 |
| Kişi_445 | 1.956 |
| Kişi_446 | -0.457 |
| Kişi_447 | -0.672 |
| Kişi_448 | 0.084 |
| Kişi_449 | 0.437 |
| Kişi_450 | -0.548 |
| Kişi_451 | -0.544 |
| Kişi_452 | -0.118 |
| Kişi_453 | -1.246 |
| Kişi_454 | -1.230 |
| Kişi_455 | 0.705 |
| Kişi_456 | -1.269 |
| Kişi_457 | -0.194 |
| Kişi_458 | -0.519 |
| Kişi_459 | -0.169 |
| Kişi_460 | 0.305 |
| Kişi_461 | 0.128 |
| Kişi_462 | 0.101 |
| Kişi_463 | -0.138 |
| Kişi_464 | 0.901 |
| Kişi_465 | -1.038 |
| Kişi_466 | -1.310 |
| Kişi_467 | -0.918 |
| Kişi_468 | 0.152 |
| Kişi_469 | 1.391 |
| Kişi_470 | -0.054 |
| Kişi_471 | -0.246 |
| Kişi_472 | 1.377 |
| Kişi_473 | 0.662 |
| Kişi_474 | 0.778 |
| Kişi_475 | 0.493 |
| Kişi_476 | -1.335 |
| Kişi_477 | -0.547 |
| Kişi_478 | 0.778 |
| Kişi_479 | 0.662 |
| Kişi_480 | -1.414 |
| Kişi_481 | -1.506 |
| Kişi_482 | 0.548 |
| Kişi_483 | -1.116 |
| Kişi_484 | 0.449 |
| Kişi_485 | 2.085 |
| Kişi_486 | 2.140 |
| Kişi_487 | 0.059 |
| Kişi_488 | 0.629 |
| Kişi_489 | -0.455 |
| Kişi_490 | -0.964 |
| Kişi_491 | 0.279 |
| Kişi_492 | -0.014 |
| Kişi_493 | -0.385 |
| Kişi_494 | 0.548 |
| Kişi_495 | -0.885 |
| Kişi_496 | 0.882 |
| Kişi_497 | 1.488 |
| Kişi_498 | 0.533 |
| Kişi_499 | 1.061 |
| Kişi_500 | -1.168 |
| Kişi_501 | -0.455 |
| Kişi_502 | -0.447 |
| Kişi_503 | -0.535 |
| Kişi_504 | 1.289 |
| Kişi_505 | 1.168 |
| Kişi_506 | -1.170 |
| Kişi_507 | 0.482 |
| Kişi_508 | -1.224 |
| Kişi_509 | 0.084 |
| Kişi_510 | 1.147 |
| Kişi_511 | 1.654 |
| Kişi_512 | 1.422 |
| Kişi_513 | -1.121 |
| Kişi_514 | 1.392 |
| Kişi_515 | -1.159 |
| Kişi_516 | -1.063 |
| Kişi_517 | -0.788 |
| Kişi_518 | -0.746 |
| Kişi_519 | 0.537 |
| Kişi_520 | -0.862 |
| Kişi_521 | -0.097 |
| Kişi_522 | -0.479 |
| Kişi_523 | -0.558 |
| Kişi_524 | 0.494 |
| Kişi_525 | -0.318 |
| Kişi_526 | -0.330 |
| Kişi_527 | 1.128 |
| Kişi_528 | 0.623 |
| Kişi_529 | 1.396 |
| Kişi_530 | -0.600 |
| Kişi_531 | -0.501 |
| Kişi_532 | 1.050 |
| Kişi_533 | -1.009 |
| Kişi_534 | -1.112 |
| Kişi_535 | -1.002 |
| Kişi_536 | -1.206 |
| Kişi_537 | -0.091 |
| Kişi_538 | -0.981 |
| Kişi_539 | 0.154 |
| Kişi_540 | 0.606 |
| Kişi_541 | 0.134 |
| Kişi_542 | -0.476 |
| Kişi_543 | 0.167 |
| Kişi_544 | 0.805 |
| Kişi_545 | -0.499 |
| Kişi_546 | -0.595 |
| Kişi_547 | -0.516 |
| Kişi_548 | -1.007 |
| Kişi_549 | -0.249 |
| Kişi_550 | -0.258 |
| Kişi_551 | 0.076 |
| Kişi_552 | 1.505 |
| Kişi_553 | -1.034 |
| Kişi_554 | -0.859 |
| Kişi_555 | -1.370 |
| Kişi_556 | -0.806 |
| Kişi_557 | 0.449 |
| Kişi_558 | -1.337 |
| Kişi_559 | -0.486 |
| Kişi_560 | 0.133 |
| Kişi_561 | -0.330 |
| Kişi_562 | -0.772 |
| Kişi_563 | 0.378 |
| Kişi_564 | -0.624 |
| Kişi_565 | -0.064 |
| Kişi_566 | -1.118 |
| Kişi_567 | -1.190 |
| Kişi_568 | -0.774 |
| Kişi_569 | 0.704 |
| Kişi_570 | 0.309 |
| Kişi_571 | 0.530 |
| Kişi_572 | 0.017 |
| Kişi_573 | -0.421 |
| Kişi_574 | 0.263 |
| Kişi_575 | 1.381 |
| Kişi_576 | 1.375 |
| Kişi_577 | -0.146 |
| Kişi_578 | -0.734 |
| Kişi_579 | -0.256 |
| Kişi_580 | -0.085 |
| Kişi_581 | 0.296 |
| Kişi_582 | -0.244 |
| Kişi_583 | 0.267 |
| Kişi_584 | -0.919 |
| Kişi_585 | -0.632 |
| Kişi_586 | -0.731 |
| Kişi_587 | 1.925 |
| Kişi_588 | -0.009 |
| Kişi_589 | -0.441 |
| Kişi_590 | -0.220 |
| Kişi_591 | 1.948 |
| Kişi_592 | -0.047 |
| Kişi_593 | -0.669 |
| Kişi_594 | 0.400 |
| Kişi_595 | 1.155 |
| Kişi_596 | -0.307 |
| Kişi_597 | -0.899 |
| Kişi_598 | 1.460 |
| Kişi_599 | 1.578 |
| Kişi_600 | 1.114 |
| Kişi_601 | -0.431 |
| Kişi_602 | -0.626 |
| Kişi_603 | -0.517 |
| Kişi_604 | -0.580 |
| Kişi_605 | 1.536 |
| Kişi_606 | -0.898 |
| Kişi_607 | 0.025 |
| Kişi_608 | 1.695 |
| Kişi_609 | -1.096 |
| Kişi_610 | 1.073 |
| Kişi_611 | 1.272 |
| Kişi_612 | -0.498 |
| Kişi_613 | 0.535 |
| Kişi_614 | 0.016 |
| Kişi_615 | 0.867 |
| Kişi_616 | -0.094 |
| Kişi_617 | -0.285 |
| Kişi_618 | -0.659 |
| Kişi_619 | -1.091 |
| Kişi_620 | 0.602 |
| Kişi_621 | 0.272 |
| Kişi_622 | 0.304 |
| Kişi_623 | 1.544 |
| Kişi_624 | -1.023 |
| Kişi_625 | -1.104 |
| Kişi_626 | -0.108 |
| Kişi_627 | -0.688 |
| Kişi_628 | -0.170 |
| Kişi_629 | -0.818 |
| Kişi_630 | 0.952 |
| Kişi_631 | -0.060 |
| Kişi_632 | 0.444 |
| Kişi_633 | -0.660 |
| Kişi_634 | 0.856 |
| Kişi_635 | 0.621 |
| Kişi_636 | 0.431 |
| Kişi_637 | 1.269 |
| Kişi_638 | -0.517 |
| Kişi_639 | 0.592 |
| Kişi_640 | 0.484 |
| Kişi_641 | -0.125 |
| Kişi_642 | -0.194 |
| Kişi_643 | 1.594 |
| Kişi_644 | 0.718 |
| Kişi_645 | -1.152 |
| Kişi_646 | -0.503 |
| Kişi_647 | -0.296 |
| Kişi_648 | 0.036 |
| Kişi_649 | -0.796 |
| Kişi_650 | -0.588 |
| Kişi_651 | -0.937 |
| Kişi_652 | -0.996 |
| Kişi_653 | 0.142 |
| Kişi_654 | -0.882 |
| Kişi_655 | -0.829 |
| Kişi_656 | -0.512 |
| Kişi_657 | -0.092 |
| Kişi_658 | -0.297 |
| Kişi_659 | -0.837 |
| Kişi_660 | -1.017 |
| Kişi_661 | -0.812 |
| Kişi_662 | -0.552 |
| Kişi_663 | -1.389 |
| Kişi_664 | -0.733 |
| Kişi_665 | 0.087 |
| Kişi_666 | 0.439 |
| Kişi_667 | -0.963 |
| Kişi_668 | 0.073 |
| Kişi_669 | -0.461 |
| Kişi_670 | -0.350 |
| Kişi_671 | 0.218 |
| Kişi_672 | 0.723 |
| Kişi_673 | -0.076 |
| Kişi_674 | -0.834 |
| Kişi_675 | 1.261 |
| Kişi_676 | -0.969 |
| Kişi_677 | -0.277 |
| Kişi_678 | 0.126 |
| Kişi_679 | -0.391 |
| Kişi_680 | 0.866 |
| Kişi_681 | -0.107 |
| Kişi_682 | 0.416 |
| Kişi_683 | -0.908 |
| Kişi_684 | 0.104 |
| Kişi_685 | -1.311 |
| Kişi_686 | 0.190 |
| Kişi_687 | -0.407 |
| Kişi_688 | 0.053 |
| Kişi_689 | 0.870 |
| Kişi_690 | 1.304 |
| Kişi_691 | 1.241 |
| Kişi_692 | 0.838 |
| Kişi_693 | 0.038 |
| Kişi_694 | -0.562 |
| Kişi_695 | -0.396 |
| Kişi_696 | -1.449 |
| Kişi_697 | 0.646 |
| Kişi_698 | -0.233 |
| Kişi_699 | 1.074 |
| Kişi_700 | -0.219 |
| Kişi_701 | -0.175 |
| Kişi_702 | 0.821 |
| Kişi_703 | 0.345 |
| Kişi_704 | 0.267 |
| Kişi_705 | -0.387 |
| Kişi_706 | -0.831 |
| Kişi_707 | 0.357 |
| Kişi_708 | -0.145 |
| Kişi_709 | 0.439 |
| Kişi_710 | 0.637 |
| Kişi_711 | -0.941 |
| Kişi_712 | -0.637 |
| Kişi_713 | 1.294 |
| Kişi_714 | 0.592 |
| Kişi_715 | -0.975 |
| Kişi_716 | 0.618 |
| Kişi_717 | 1.940 |
| Kişi_718 | -0.387 |
| Kişi_719 | 1.520 |
| Kişi_720 | -1.278 |
| Kişi_721 | 0.444 |
| Kişi_722 | 1.106 |
| Kişi_723 | 0.696 |
| Kişi_724 | -1.137 |
| Kişi_725 | -0.761 |
| Kişi_726 | 2.464 |
| Kişi_727 | 1.116 |
| Kişi_728 | 1.412 |
| Kişi_729 | 0.090 |
| Kişi_730 | -0.457 |
| Kişi_731 | 0.033 |
| Kişi_732 | -0.536 |
| Kişi_733 | -0.202 |
| Kişi_734 | 1.389 |
| Kişi_735 | 1.134 |
| Kişi_736 | -0.945 |
| Kişi_737 | 0.632 |
| Kişi_738 | -0.571 |
| Kişi_739 | 1.125 |
| Kişi_740 | 0.673 |
| Kişi_741 | 1.105 |
| Kişi_742 | 0.131 |
| Kişi_743 | -1.082 |
| Kişi_744 | -1.124 |
| Kişi_745 | 0.184 |
| Kişi_746 | 0.124 |
| Kişi_747 | -0.692 |
| Kişi_748 | -1.431 |
| Kişi_749 | -1.357 |
| Kişi_750 | -1.423 |
| Kişi_751 | -1.263 |
| Kişi_752 | -0.149 |
| Kişi_753 | -0.700 |
| Kişi_754 | 0.819 |
| Kişi_755 | -0.823 |
| Kişi_756 | -0.958 |
| Kişi_757 | -0.655 |
| Kişi_758 | 0.851 |
| Kişi_759 | -1.398 |
| Kişi_760 | -0.645 |
| Kişi_761 | 0.566 |
| Kişi_762 | 1.088 |
| Kişi_763 | -0.078 |
| Kişi_764 | -0.107 |
| Kişi_765 | -0.442 |
| Kişi_766 | -0.905 |
| Kişi_767 | -0.378 |
| Kişi_768 | -0.827 |
| Kişi_769 | -0.161 |
| Kişi_770 | 0.153 |
| Kişi_771 | 0.175 |
| Kişi_772 | 1.446 |
| Kişi_773 | 0.053 |
| Kişi_774 | -0.580 |
| Kişi_775 | 0.083 |
| Kişi_776 | 2.145 |
| Kişi_777 | 0.101 |
| Kişi_778 | -0.182 |
| Kişi_779 | -0.252 |
| Kişi_780 | 1.051 |
| Kişi_781 | 0.708 |
| Kişi_782 | -0.748 |
| Kişi_783 | -0.397 |
| Kişi_784 | -1.191 |
| Kişi_785 | 0.454 |
| Kişi_786 | -0.050 |
| Kişi_787 | -1.046 |
| Kişi_788 | -0.036 |
| Kişi_789 | -0.655 |
| Kişi_790 | -0.047 |
| Kişi_791 | -0.786 |
| Kişi_792 | 1.222 |
| Kişi_793 | -0.312 |
| Kişi_794 | -1.245 |
| Kişi_795 | -0.875 |
| Kişi_796 | -0.715 |
| Kişi_797 | 2.140 |
| Kişi_798 | -0.118 |
| Kişi_799 | 0.459 |
| Kişi_800 | -0.375 |
| Kişi_801 | -0.791 |
| Kişi_802 | -1.019 |
| Kişi_803 | 0.645 |
| Kişi_804 | 0.216 |
| Kişi_805 | 0.266 |
| Kişi_806 | -0.799 |
| Kişi_807 | 0.789 |
| Kişi_808 | -0.194 |
| Kişi_809 | -0.803 |
| Kişi_810 | 1.900 |
| Kişi_811 | 1.397 |
| Kişi_812 | 1.196 |
| Kişi_813 | -0.950 |
| Kişi_814 | -0.452 |
| Kişi_815 | 0.385 |
| Kişi_816 | 0.976 |
| Kişi_817 | 0.849 |
| Kişi_818 | -0.224 |
| Kişi_819 | 0.184 |
| Kişi_820 | 0.845 |
| Kişi_821 | 0.390 |
| Kişi_822 | 0.221 |
| Kişi_823 | 0.164 |
| Kişi_824 | -1.229 |
| Kişi_825 | -0.269 |
| Kişi_826 | 0.243 |
| Kişi_827 | -0.657 |
| Kişi_828 | 0.254 |
| Kişi_829 | -0.737 |
| Kişi_830 | 0.159 |
| Kişi_831 | 0.880 |
| Kişi_832 | 0.894 |
| Kişi_833 | 0.216 |
| Kişi_834 | -0.711 |
| Kişi_835 | 1.421 |
| Kişi_836 | -0.610 |
| Kişi_837 | 0.174 |
| Kişi_838 | -0.405 |
| Kişi_839 | 1.567 |
| Kişi_840 | 0.013 |
| Kişi_841 | 0.758 |
| Kişi_842 | -1.319 |
| Kişi_843 | 0.101 |
| Kişi_844 | -0.017 |
| Kişi_845 | -0.210 |
| Kişi_846 | 1.463 |
| Kişi_847 | -0.168 |
| Kişi_848 | -1.495 |
| Kişi_849 | -1.336 |
| Kişi_850 | 0.788 |
| Kişi_851 | -0.397 |
| Kişi_852 | 0.181 |
| Kişi_853 | 1.000 |
| Kişi_854 | 1.083 |
| Kişi_855 | 0.204 |
| Kişi_856 | -0.263 |
| Kişi_857 | -0.263 |
| Kişi_858 | 0.318 |
| Kişi_859 | -1.064 |
| Kişi_860 | -0.413 |
| Kişi_861 | -0.822 |
| Kişi_862 | -1.425 |
| Kişi_863 | -0.733 |
| Kişi_864 | -0.017 |
| Kişi_865 | -1.192 |
| Kişi_866 | -1.236 |
| Kişi_867 | -0.604 |
| Kişi_868 | -0.226 |
| Kişi_869 | -0.714 |
| Kişi_870 | 0.240 |
| Kişi_871 | -0.306 |
| Kişi_872 | -0.019 |
| Kişi_873 | -0.076 |
| Kişi_874 | -0.889 |
| Kişi_875 | -0.448 |
| Kişi_876 | -1.182 |
| Kişi_877 | -0.816 |
| Kişi_878 | -1.011 |
| Kişi_879 | 0.374 |
| Kişi_880 | -0.693 |
| Kişi_881 | -1.172 |
| Kişi_882 | -1.310 |
| Kişi_883 | 0.010 |
| Kişi_884 | -0.331 |
| Kişi_885 | -1.094 |
| Kişi_886 | -1.460 |
| Kişi_887 | -0.333 |
| Kişi_888 | 0.889 |
| Kişi_889 | -0.567 |
| Kişi_890 | -0.769 |
| Kişi_891 | 0.939 |
| Kişi_892 | -0.398 |
| Kişi_893 | -0.780 |
| Kişi_894 | 0.024 |
| Kişi_895 | 0.227 |
| Kişi_896 | -1.412 |
| Kişi_897 | 0.594 |
| Kişi_898 | -0.536 |
| Kişi_899 | 0.334 |
| Kişi_900 | 0.732 |
| Kişi_901 | -0.138 |
| Kişi_902 | -0.063 |
| Kişi_903 | 0.609 |
| Kişi_904 | -0.744 |
| Kişi_905 | 0.227 |
| Kişi_906 | -1.017 |
| Kişi_907 | 0.752 |
| Kişi_908 | -0.483 |
| Kişi_909 | -0.540 |
| Kişi_910 | 0.792 |
| Kişi_911 | -0.828 |
| Kişi_912 | 0.985 |
| Kişi_913 | 0.551 |
| Kişi_914 | -0.846 |
| Kişi_915 | 0.710 |
| Kişi_916 | -1.575 |
| Kişi_917 | 0.900 |
| Kişi_918 | 0.960 |
| Kişi_919 | -0.550 |
| Kişi_920 | -0.478 |
| Kişi_921 | -1.257 |
| Kişi_922 | 0.263 |
| Kişi_923 | 0.540 |
| Kişi_924 | -0.264 |
| Kişi_925 | -0.460 |
| Kişi_926 | -0.424 |
| Kişi_927 | 0.356 |
| Kişi_928 | -0.499 |
| Kişi_929 | 0.305 |
| Kişi_930 | 1.518 |
| Kişi_931 | 1.396 |
| Kişi_932 | -1.281 |
| Kişi_933 | -1.281 |
| Kişi_934 | -1.309 |
| Kişi_935 | -0.824 |
| Kişi_936 | 0.103 |
| Kişi_937 | -0.825 |
| Kişi_938 | 0.575 |
| Kişi_939 | -0.111 |
| Kişi_940 | 0.692 |
| Kişi_941 | 0.504 |
| Kişi_942 | 0.535 |
| Kişi_943 | -0.495 |
| Kişi_944 | 0.481 |
| Kişi_945 | -1.247 |
| Kişi_946 | -0.829 |
| Kişi_947 | 0.309 |
| Kişi_948 | -0.717 |
| Kişi_949 | 1.016 |
| Kişi_950 | -1.021 |
| Kişi_951 | 0.870 |
| Kişi_952 | -0.346 |
| Kişi_953 | 0.697 |
| Kişi_954 | 0.300 |
| Kişi_955 | 1.736 |
| Kişi_956 | 0.270 |
| Kişi_957 | 1.235 |
| Kişi_958 | -0.068 |
| Kişi_959 | 0.091 |
| Kişi_960 | 1.074 |
| Kişi_961 | 0.461 |
| Kişi_962 | -0.870 |
| Kişi_963 | -1.140 |
| Kişi_964 | 2.096 |
| Kişi_965 | -0.203 |
| Kişi_966 | -0.375 |
| Kişi_967 | 0.849 |
| Kişi_968 | 1.133 |
| Kişi_969 | -0.508 |
| Kişi_970 | -0.679 |
| Kişi_971 | 1.168 |
| Kişi_972 | 1.126 |
| Kişi_973 | -0.390 |
| Kişi_974 | -0.465 |
| Kişi_975 | -0.225 |
| Kişi_976 | -0.688 |
| Kişi_977 | -0.849 |
| Kişi_978 | -0.836 |
| Kişi_979 | 1.055 |
| Kişi_980 | 0.655 |
| Kişi_981 | 0.621 |
| Kişi_982 | 0.462 |
| Kişi_983 | 2.000 |
| Kişi_984 | -0.739 |
| Kişi_985 | -0.060 |
| Kişi_986 | -1.549 |
| Kişi_987 | 0.034 |
| Kişi_988 | -1.364 |
| Kişi_989 | 1.072 |
| Kişi_990 | -0.767 |
| Kişi_991 | 0.217 |
| Kişi_992 | 0.538 |
| Kişi_993 | 1.042 |
| Kişi_994 | -0.303 |
| Kişi_995 | 1.939 |
| Kişi_996 | 0.623 |
| Kişi_997 | 1.413 |
| Kişi_998 | 0.192 |
| Kişi_999 | 1.631 |
| Kişi_1000 | 0.064 |
| Kişi_1001 | 0.175 |
| Kişi_1002 | 1.669 |
| Kişi_1003 | 0.092 |
| Kişi_1004 | -0.171 |
| Kişi_1005 | -0.289 |
| Kişi_1006 | -1.457 |
| Kişi_1007 | -0.354 |
| Kişi_1008 | -0.694 |
| Kişi_1009 | -1.358 |
| Kişi_1010 | 0.762 |
| Kişi_1011 | 0.089 |
| Kişi_1012 | 1.218 |
| Kişi_1013 | -1.385 |
| Kişi_1014 | 0.886 |
| Kişi_1015 | -1.500 |
| Kişi_1016 | 0.364 |
| Kişi_1017 | -0.107 |
| Kişi_1018 | 0.306 |
| Kişi_1019 | 1.155 |
| Kişi_1020 | 0.655 |
| Kişi_1021 | 0.509 |
| Kişi_1022 | -0.197 |
| Kişi_1023 | 0.798 |
| Kişi_1024 | -0.861 |
| Kişi_1025 | 1.923 |
| Kişi_1026 | 2.182 |
| Kişi_1027 | 0.305 |
| Kişi_1028 | 1.256 |
| Kişi_1029 | 0.033 |
| Kişi_1030 | -1.421 |
| Kişi_1031 | 1.225 |
| Kişi_1032 | 1.888 |
| Kişi_1033 | -0.341 |
| Kişi_1034 | -1.448 |
| Kişi_1035 | 2.464 |
| Kişi_1036 | -0.222 |
| Kişi_1037 | 0.627 |
| Kişi_1038 | -0.622 |
| Kişi_1039 | 1.179 |
| Kişi_1040 | -0.976 |
| Kişi_1041 | 0.728 |
| Kişi_1042 | 1.499 |
| Kişi_1043 | 0.383 |
| Kişi_1044 | 0.372 |
| Kişi_1045 | 1.184 |
| Kişi_1046 | -0.930 |
| Kişi_1047 | -1.545 |
| Kişi_1048 | -0.573 |
| Kişi_1049 | 0.117 |
| Kişi_1050 | 0.237 |
| Kişi_1051 | 0.460 |
| Kişi_1052 | -0.908 |
| Kişi_1053 | -0.850 |
| Kişi_1054 | 1.533 |
| Kişi_1055 | 0.520 |
| Kişi_1056 | -0.785 |
| Kişi_1057 | -0.613 |
| Kişi_1058 | 0.925 |
| Kişi_1059 | 1.505 |
| Kişi_1060 | 1.333 |
| Kişi_1061 | 1.399 |
| Kişi_1062 | 0.139 |
| Kişi_1063 | -1.134 |
| Kişi_1064 | 0.023 |
| Kişi_1065 | -0.003 |
| Kişi_1066 | -0.574 |
| Kişi_1067 | 1.188 |
| Kişi_1068 | 0.675 |
| Kişi_1069 | 1.323 |
| Kişi_1070 | -0.509 |
| Kişi_1071 | 1.783 |
| Kişi_1072 | -0.059 |
| Kişi_1073 | -0.341 |
| Kişi_1074 | 1.037 |
| Kişi_1075 | 2.464 |
| Kişi_1076 | 0.094 |
| Kişi_1077 | 0.778 |
| Kişi_1078 | -0.141 |
| Kişi_1079 | 2.464 |
| Kişi_1080 | -0.759 |
| Kişi_1081 | 0.108 |
| Kişi_1082 | 0.334 |
| Kişi_1083 | -0.668 |
| Kişi_1084 | 0.350 |
| Kişi_1085 | -1.084 |
| Kişi_1086 | 0.293 |
| Kişi_1087 | -0.662 |
| Kişi_1088 | 0.575 |
| Kişi_1089 | -1.444 |
| Kişi_1090 | -0.736 |
| Kişi_1091 | -0.829 |
| Kişi_1092 | -0.043 |
| Kişi_1093 | 0.173 |
| Kişi_1094 | -0.159 |
| Kişi_1095 | -1.055 |
| Kişi_1096 | 0.286 |
| Kişi_1097 | 0.007 |
| Kişi_1098 | 0.286 |
| Kişi_1099 | 0.781 |
| Kişi_1100 | 0.517 |
| Kişi_1101 | 0.187 |
| Kişi_1102 | 0.039 |
| Kişi_1103 | 1.858 |
| Kişi_1104 | -0.964 |
| Kişi_1105 | -0.515 |
| Kişi_1106 | -0.263 |
| Kişi_1107 | 0.076 |
| Kişi_1108 | -0.808 |
| Kişi_1109 | -0.383 |
| Kişi_1110 | -0.468 |
| Kişi_1111 | -1.102 |
| Kişi_1112 | -0.250 |
| Kişi_1113 | -0.233 |
| Kişi_1114 | 0.088 |
| Kişi_1115 | 0.830 |
| Kişi_1116 | 0.997 |
| Kişi_1117 | -0.439 |
| Kişi_1118 | 0.005 |
| Kişi_1119 | -0.600 |
| Kişi_1120 | -1.033 |
| Kişi_1121 | 0.055 |
| Kişi_1122 | 1.754 |
| Kişi_1123 | -0.522 |
| Kişi_1124 | -0.361 |
| Kişi_1125 | 1.900 |
| Kişi_1126 | 0.085 |
| Kişi_1127 | -0.381 |
| Kişi_1128 | -0.090 |
| Kişi_1129 | 0.106 |
| Kişi_1130 | 1.442 |
| Kişi_1131 | -0.025 |
| Kişi_1132 | -0.473 |
| Kişi_1133 | 0.385 |
| Kişi_1134 | 1.231 |
| Kişi_1135 | 0.318 |
| Kişi_1136 | 1.099 |
| Kişi_1137 | -1.008 |
| Kişi_1138 | -0.770 |
| Kişi_1139 | -0.528 |
| Kişi_1140 | 0.150 |
| Kişi_1141 | 1.940 |
| Kişi_1142 | -0.165 |
| Kişi_1143 | 0.882 |
| Kişi_1144 | -0.679 |
| Kişi_1145 | -1.212 |
| Kişi_1146 | 0.545 |
| Kişi_1147 | -1.137 |
| Kişi_1148 | -0.457 |
| Kişi_1149 | 0.438 |
| Kişi_1150 | -0.210 |
| Kişi_1151 | -0.372 |
| Kişi_1152 | 0.353 |
| Kişi_1153 | 1.210 |
| Kişi_1154 | -1.269 |
| Kişi_1155 | 1.517 |
| Kişi_1156 | 1.348 |
| Kişi_1157 | -0.127 |
| Kişi_1158 | -0.069 |
| Kişi_1159 | -0.062 |
| Kişi_1160 | -0.875 |
| Kişi_1161 | -0.590 |
| Kişi_1162 | -0.418 |
| Kişi_1163 | -1.459 |
| Kişi_1164 | 1.493 |
| Kişi_1165 | -0.494 |
| Kişi_1166 | 0.452 |
| Kişi_1167 | 0.719 |
| Kişi_1168 | 2.464 |
| Kişi_1169 | -0.290 |
| Kişi_1170 | -1.253 |
| Kişi_1171 | -0.907 |
| Kişi_1172 | -1.292 |
| Kişi_1173 | 0.012 |
| Kişi_1174 | 1.033 |
| Kişi_1175 | -0.508 |
| Kişi_1176 | -1.381 |
| Kişi_1177 | 0.798 |
| Kişi_1178 | -0.401 |
| Kişi_1179 | 0.617 |
| Kişi_1180 | 0.254 |
| Kişi_1181 | 0.976 |
| Kişi_1182 | 0.145 |
| Kişi_1183 | -1.268 |
| Kişi_1184 | 0.291 |
| Kişi_1185 | 0.403 |
| Kişi_1186 | 1.584 |
| Kişi_1187 | -0.529 |
| Kişi_1188 | -0.405 |
| Kişi_1189 | 0.273 |
| Kişi_1190 | -1.349 |
| Kişi_1191 | 0.361 |
| Kişi_1192 | 0.924 |
| Kişi_1193 | 0.026 |
| Kişi_1194 | -0.119 |
| Kişi_1195 | -0.489 |
| Kişi_1196 | 1.724 |
| Kişi_1197 | -0.689 |
| Kişi_1198 | 0.553 |
| Kişi_1199 | 0.056 |
| Kişi_1200 | -1.148 |
| Kişi_1201 | -1.386 |
| Kişi_1202 | 0.201 |
| Kişi_1203 | -0.765 |
| Kişi_1204 | 2.169 |
| Kişi_1205 | 0.405 |
| Kişi_1206 | 0.795 |
| Kişi_1207 | -0.025 |
| Kişi_1208 | 0.726 |
| Kişi_1209 | 0.697 |
| Kişi_1210 | -0.894 |
| Kişi_1211 | -0.035 |
| Kişi_1212 | -0.478 |
| Kişi_1213 | 0.132 |
| Kişi_1214 | -0.732 |
| Kişi_1215 | 0.756 |
| Kişi_1216 | 0.412 |
| Kişi_1217 | 0.283 |
| Kişi_1218 | 0.782 |
| Kişi_1219 | 1.523 |
| Kişi_1220 | -0.303 |
| Kişi_1221 | 0.955 |
| Kişi_1222 | -0.245 |
| Kişi_1223 | -0.489 |
| Kişi_1224 | -1.092 |
| Kişi_1225 | -0.240 |
| Kişi_1226 | -0.943 |
| Kişi_1227 | 0.414 |
| Kişi_1228 | -0.237 |
| Kişi_1229 | 1.915 |
| Kişi_1230 | -1.347 |
| Kişi_1231 | -1.431 |
| Kişi_1232 | -1.004 |
| Kişi_1233 | 0.989 |
| Kişi_1234 | 0.008 |
| Kişi_1235 | 2.115 |
| Kişi_1236 | 2.182 |
| Kişi_1237 | 1.914 |
| Kişi_1238 | -0.302 |
| Kişi_1239 | 1.697 |
| Kişi_1240 | -0.301 |
| Kişi_1241 | 1.175 |
| Kişi_1242 | 1.013 |
| Kişi_1243 | -0.888 |
| Kişi_1244 | 1.246 |
| Kişi_1245 | -0.925 |
| Kişi_1246 | -0.077 |
| Kişi_1247 | 1.311 |
| Kişi_1248 | 0.714 |
| Kişi_1249 | 0.134 |
| Kişi_1250 | -0.346 |
| Kişi_1251 | -1.450 |
| Kişi_1252 | -0.316 |
| Kişi_1253 | -0.043 |
| Kişi_1254 | 0.154 |
| Kişi_1255 | 0.534 |
| Kişi_1256 | -0.504 |
| Kişi_1257 | -0.075 |
| Kişi_1258 | -1.480 |
| Kişi_1259 | -0.696 |
| Kişi_1260 | 0.949 |
| Kişi_1261 | 0.048 |
| Kişi_1262 | 0.790 |
| Kişi_1263 | 0.445 |
| Kişi_1264 | -0.541 |
| Kişi_1265 | -0.619 |
| Kişi_1266 | 0.959 |
| Kişi_1267 | 0.195 |
| Kişi_1268 | 1.469 |
| Kişi_1269 | 1.771 |
| Kişi_1270 | 1.044 |
| Kişi_1271 | 0.065 |
| Kişi_1272 | -1.515 |
| Kişi_1273 | -0.772 |
| Kişi_1274 | -0.186 |
| Kişi_1275 | -1.131 |
| Kişi_1276 | -1.100 |
| Kişi_1277 | -0.275 |
| Kişi_1278 | 1.234 |
| Kişi_1279 | 0.772 |
| Kişi_1280 | -1.109 |
| Kişi_1281 | 0.286 |
| Kişi_1282 | -0.721 |
| Kişi_1283 | 0.687 |
| Kişi_1284 | 0.269 |
| Kişi_1285 | 0.450 |
| Kişi_1286 | 0.091 |
| Kişi_1287 | 1.857 |
| Kişi_1288 | -1.109 |
| Kişi_1289 | -0.237 |
| Kişi_1290 | 0.643 |
| Kişi_1291 | -0.067 |
| Kişi_1292 | 0.639 |
| Kişi_1293 | 0.412 |
| Kişi_1294 | 0.633 |
| Kişi_1295 | 0.542 |
| Kişi_1296 | 0.199 |
| Kişi_1297 | 0.854 |
| Kişi_1298 | 0.506 |
| Kişi_1299 | 2.464 |
| Kişi_1300 | -0.593 |
| Kişi_1301 | 0.308 |
| Kişi_1302 | -0.322 |
| Kişi_1303 | 0.345 |
| Kişi_1304 | -0.731 |
| Kişi_1305 | 0.649 |
| Kişi_1306 | 1.320 |
| Kişi_1307 | 0.331 |
| Kişi_1308 | -0.273 |
| Kişi_1309 | 0.338 |
| Kişi_1310 | 1.769 |
| Kişi_1311 | 0.139 |
| Kişi_1312 | -0.506 |
| Kişi_1313 | -0.390 |
| Kişi_1314 | 0.732 |
| Kişi_1315 | -0.546 |
| Kişi_1316 | -0.455 |
| Kişi_1317 | -0.687 |
| Kişi_1318 | 1.105 |
| Kişi_1319 | 0.437 |
| Kişi_1320 | 0.908 |
| Kişi_1321 | -0.381 |
| Kişi_1322 | 1.015 |
| Kişi_1323 | -0.214 |
| Kişi_1324 | 0.221 |
| Kişi_1325 | 0.823 |
| Kişi_1326 | -0.980 |
| Kişi_1327 | 0.572 |
| Kişi_1328 | 0.238 |
| Kişi_1329 | 0.773 |
| Kişi_1330 | 1.010 |
| Kişi_1331 | 0.058 |
| Kişi_1332 | -0.113 |
| Kişi_1333 | -0.137 |
| Kişi_1334 | 1.053 |
| Kişi_1335 | -1.177 |
| Kişi_1336 | 1.339 |
| Kişi_1337 | -0.948 |
| Kişi_1338 | -0.683 |
| Kişi_1339 | -0.245 |
| Kişi_1340 | -1.111 |
| Kişi_1341 | 1.305 |
| Kişi_1342 | -0.126 |
| Kişi_1343 | -0.005 |
| Kişi_1344 | 0.426 |
| Kişi_1345 | 0.635 |
| Kişi_1346 | 0.622 |
| Kişi_1347 | -0.172 |
| Kişi_1348 | 0.747 |
| Kişi_1349 | 1.109 |
| Kişi_1350 | 0.595 |
| Kişi_1351 | 1.919 |
| Kişi_1352 | 0.379 |
| Kişi_1353 | 0.178 |
| Kişi_1354 | 2.051 |
| Kişi_1355 | 0.564 |
| Kişi_1356 | 1.035 |
| Kişi_1357 | -0.015 |
| Kişi_1358 | 2.464 |
| Kişi_1359 | 1.534 |
| Kişi_1360 | 1.190 |
| Kişi_1361 | 2.464 |
| Kişi_1362 | -1.059 |
| Kişi_1363 | 0.916 |
| Kişi_1364 | 1.270 |
| Kişi_1365 | 0.589 |
| Kişi_1366 | 1.200 |
| Kişi_1367 | 0.176 |
| Kişi_1368 | 1.694 |
| Kişi_1369 | -0.175 |
| Kişi_1370 | 0.897 |
| Kişi_1371 | 0.032 |
| Kişi_1372 | 0.372 |
| Kişi_1373 | -0.427 |
| Kişi_1374 | -0.046 |
| Kişi_1375 | 0.074 |
| Kişi_1376 | -1.268 |
| Kişi_1377 | 0.892 |
| Kişi_1378 | 0.430 |
| Kişi_1379 | -0.932 |
| Kişi_1380 | 0.504 |
| Kişi_1381 | -0.137 |
| Kişi_1382 | 1.656 |
| Kişi_1383 | -0.479 |
| Kişi_1384 | 1.686 |
| Kişi_1385 | 0.563 |
| Kişi_1386 | -0.983 |
| Kişi_1387 | 0.919 |
| Kişi_1388 | 0.994 |
| Kişi_1389 | 0.933 |
| Kişi_1390 | -0.408 |
| Kişi_1391 | -0.554 |
| Kişi_1392 | 0.627 |
| Kişi_1393 | -0.753 |
| Kişi_1394 | -1.367 |
| Kişi_1395 | 0.928 |
| Kişi_1396 | 0.152 |
| Kişi_1397 | -0.076 |
| Kişi_1398 | 0.815 |
| Kişi_1399 | 1.479 |
| Kişi_1400 | -0.461 |
| Kişi_1401 | 0.343 |
| Kişi_1402 | 1.487 |
| Kişi_1403 | -0.940 |
| Kişi_1404 | 1.250 |
| Kişi_1405 | -0.876 |
| Kişi_1406 | 1.563 |
| Kişi_1407 | -1.352 |
| Kişi_1408 | -1.039 |
| Kişi_1409 | 0.893 |
| Kişi_1410 | 1.013 |
| Kişi_1411 | -0.008 |
| Kişi_1412 | 0.691 |
| Kişi_1413 | -0.573 |
| Kişi_1414 | -0.982 |
| Kişi_1415 | -1.194 |
| Kişi_1416 | 0.177 |
| Kişi_1417 | 1.361 |
| Kişi_1418 | 1.810 |
| Kişi_1419 | 0.773 |
| Kişi_1420 | -0.431 |
| Kişi_1421 | 0.384 |
| Kişi_1422 | -0.700 |
| Kişi_1423 | -1.154 |
| Kişi_1424 | -1.131 |
| Kişi_1425 | -0.475 |
| Kişi_1426 | -0.553 |
| Kişi_1427 | 0.904 |
| Kişi_1428 | 0.886 |
| Kişi_1429 | 0.208 |
| Kişi_1430 | -0.082 |
| Kişi_1431 | 0.230 |
| Kişi_1432 | -1.118 |
| Kişi_1433 | -0.935 |
| Kişi_1434 | 0.307 |
| Kişi_1435 | 0.043 |
| Kişi_1436 | 0.204 |
| Kişi_1437 | 0.171 |
| Kişi_1438 | 0.955 |
| Kişi_1439 | 0.018 |
| Kişi_1440 | 2.182 |
| Kişi_1441 | -0.204 |
| Kişi_1442 | 1.026 |
| Kişi_1443 | -1.286 |
| Kişi_1444 | -0.752 |
| Kişi_1445 | 0.035 |
| Kişi_1446 | 0.223 |
| Kişi_1447 | -0.687 |
| Kişi_1448 | 0.737 |
| Kişi_1449 | -0.966 |
| Kişi_1450 | 1.888 |
| Kişi_1451 | 0.057 |
| Kişi_1452 | 1.207 |
| Kişi_1453 | -0.583 |
| Kişi_1454 | -1.471 |
| Kişi_1455 | 1.226 |
| Kişi_1456 | -0.179 |
| Kişi_1457 | -0.277 |
| Kişi_1458 | 0.705 |
| Kişi_1459 | -0.169 |
| Kişi_1460 | -0.434 |
| Kişi_1461 | 0.709 |
| Kişi_1462 | 0.131 |
| Kişi_1463 | -0.133 |
| Kişi_1464 | 0.804 |
| Kişi_1465 | -0.647 |
| Kişi_1466 | 0.156 |
| Kişi_1467 | 1.284 |
| Kişi_1468 | 0.662 |
| Kişi_1469 | -1.072 |
| Kişi_1470 | -0.560 |
| Kişi_1471 | -0.384 |
Yukarıda sunulan tablo, üç parametreli lojistik model (3PL) kapsamında tahmin edilen 25 maddeye ait dört temel madde parametresini göstermektedir: ayırt edicilik (a), güçlük (b), alt asimptot (g) ve üst asimptot (u). Bu parametreler, bireyin yetenek düzeyine (θ) bağlı olarak bir maddeyi doğru yanıtlamasının olasılığını modellemek amacıyla kullanılır (Embretson & Reise, 2000). 3PL modeli, özellikle testlerin düşük yetenek düzeyindeki bireyler için şansa bağlı başarı ihtimalini (g) hesaba katması bakımından, 1PL ve 2PL modellerden daha esnektir.
Ayırt edicilik değerleri \(1.006\) ile \(2.826\) arasında değişmektedir. Bu dağılım, maddelerin büyük ölçüde bireyleri yetenek düzeylerine göre ayırt edebilme kapasitesine sahip olduğunu göstermektedir. Özellikle madde_22 (\(a = 2.826\)), madde_17 (\(a = 2.532\)) ve madde_13 (\(a = 2.460\)) gibi maddeler yüksek ayırt edicilik katsayılarına sahiptir ve bireylerin küçük yetenek farklarına göre bile yanıt olasılığını keskin biçimde değiştirebilmektedir. Bu durum, bu maddelerin ölçme gücünün yüksek olduğunu gösterir.
Güçlük düzeyleri \(-0.481\) ile \(1.910\) arasında değişmekte olup, testin hem kolay hem de zor maddeleri kapsadığını ortaya koymaktadır. madde_14 (\(b = 1.910\)) ve madde_13 (\(b = 1.520\)) gibi yüksek güçlük katsayısına sahip maddeler yalnızca yüksek yetenek düzeyine sahip bireyler tarafından doğru yanıtlanabilirken, madde_5 (\(b = -0.297\)) gibi düşük b değerine sahip maddeler daha düşük yetenek düzeyindeki bireyler için erişilebilirdir.
Alt asimptot parametresi, özellikle düşük yetenek düzeyine sahip bireylerin maddeyi doğru yanıtlaması olasılığını yansıtır ve genellikle şans başarısı ya da tahmin etkisi olarak yorumlanır. Değerler \(0.040\) ile \(0.387\) arasında değişmektedir. Örneğin; madde_17 (\(g = 0.387\)) oldukça yüksek bir alt asimptot değerine sahiptir, bu da testin bu maddesinde düşük yetenekli bireylerin bile doğru yanıt verme olasılığının görece yüksek olduğunu, dolayısıyla bu maddenin şansa dayalı yanıtlamaya duyarlı olabileceğini göstermektedir. Bu tür maddelerin testin güvenirliğine olan katkısı sınırlı olabilir.
Tüm maddeler için üst asimptot (u) değeri 1 olarak sabitlenmiştir. Bu, yüksek yetenek düzeyine sahip bireylerin maddeyi neredeyse tamamen doğru yanıtlayabileceğini gösterir ve modelin teknik varsayımı gereği belirlenmiş bir durumdur.
3PL modelinin sağladığı bu dört parametre üzerinden yapılan değerlendirme, testin psikometrik açıdan oldukça güçlü bir yapıya sahip olduğunu göstermektedir. Maddeler farklı ayırt edicilik, güçlük ve alt asimptot değerlerine sahip olup, bu çeşitlilik hem ölçme duyarlılığını hem de genel geçerliği artırmaktadır. Ancak alt asimptot değeri yüksek olan maddeler dikkatle incelenmeli ve gerekirse yeniden yapılandırılmalıdır. Testin genel yapısı hem düşük hem yüksek yetenek düzeyindeki bireyleri etkili bir şekilde ölçebilecek potansiyele sahiptir.
library(ggplot2)
ggplot(madde_3pl_df, aes(x = Madde, y = b)) +
geom_bar(stat = "identity", fill = "steelblue") +
geom_hline(yintercept = 0, linetype = "dashed", color = "red") +
labs(
title = "3PL Modeline Göre Madde Güçlük (b) Parametrelerinin Dağılımı",
x = "Madde",
y = "Güçlük (b) Değeri") +
theme_minimal() +
theme(axis.text.x = element_text(angle = 45, hjust = 1))Yukarıda sunulan çubuk grafik, üç parametreli lojistik (3PL) modele göre tahmin edilen 25 maddenin güçlük parametresi (b) dağılımını görselleştirmektedir. Güçlük parametresi, bireyin ilgili maddeyi \(%50\) olasılıkla doğru yanıtlayabilmesi için sahip olması gereken yetenek düzeyini (θ) ifade eder. Pozitif b değerleri daha zor, negatif b değerleri ise daha kolay maddelere işaret eder (Embretson & Reise, 2000).
Grafikte yatay eksende maddeler, dikey eksende ise güçlük parametresi değerleri yer almakta olup, kırmızı kesikli çizgi \(b = 0\) referansına karşılık gelmektedir. Bu referans çizginin üstünde yer alan maddeler ortalama yetenek düzeyinin üzerinde bir performans gerektirirken, altındaki maddeler ortalama altı düzeydeki bireyler tarafından daha yüksek olasılıkla doğru yanıtlanabilir. Örneğin; madde_14 (\(b ≈ 1.91\)) ve madde_13 (\(b ≈ 1.52\)) testin en zor maddeleri arasında yer alırken, madde_5 (\(b ≈ -0.30\)) ve madde_1 (\(b ≈ -0.22\)) daha kolay maddelerdir.
Güçlük değerlerinin genel dağılımı incelendiğinde, maddelerin büyük çoğunluğunun b değerinin 0 ile 1 aralığında yer aldığı görülmektedir. Bu durum, testin büyük ölçüde orta düzeyde yetenek gerektiren maddelerden oluştuğunu, ancak birkaç madde ile hem düşük hem de yüksek yetenek düzeylerinin de kapsandığını göstermektedir. Bu tür bir dağılım, testin farklı yetenek düzeylerine sahip bireyler için ölçme duyarlılığı sağladığını ve genel geçerlik açısından olumlu bir yapıya sahip olduğunu göstermektedir.
Sonuç olarak, 3PL model kapsamında elde edilen b parametresi dağılımı, testin madde güçlük düzeylerinde yeterli çeşitliliğe sahip olduğunu ortaya koymakta; bu da testin hem kolay hem zor maddeler içerdiğini ve geniş bir yetenek aralığında ayırt edici ölçüm sağlayabileceğini göstermektedir.
Yukarıda sunulan grafik, 1PL model kapsamında tahmin edilen madde karakteristik eğrilerini (Item Characteristic Curves - ICC) göstermektedir. Her bir panel, ilgili maddeye ait olasılık fonksiyonunu temsil etmekte olup, bireylerin yetenek düzeyleri (θ) arttıkça ilgili maddeyi doğru yanıtlamaları beklenen olasılığı \((P(θ))\) göstermektedir. Eksenler, yatayda bireylerin yetenek düzeylerini (θ), dikeyde ise doğru yanıt verme olasılığını \((P(θ))\) ifade etmektedir.
Rasch modelinde tüm maddelerin ayırt edicilik parametresi (a) sabit olduğundan, eğrilerin yatay eksendeki eğim değerleri benzerdir; farklılıklar yalnızca yatay eksen üzerindeki kayma ile, yani güçlük parametresi (b) ile ilgilidir. Bu grafiklerde görülen sağa veya sola kaymalar, ilgili maddenin ne kadar zor veya kolay olduğunu ortaya koymaktadır. Örneğin; madde_14 ve madde_22’nin eğrileri daha sağda konumlanmıştır; bu da bu maddelerin, ortalamanın üzerinde yetenek düzeyine sahip bireyler tarafından daha yüksek olasılıkla doğru yanıtlandığını, dolayısıyla daha zor maddeler olduğunu gösterir. Buna karşılık, madde_1, madde_5 ve madde_10 gibi maddeler daha solda konumlanarak düşük yetenek düzeyindeki bireyler için dahi daha yüksek doğru yanıt olasılığı sunduğunu, yani daha kolay olduklarını ifade eder.
Eğrilerin tümü düzgün S-şeklinde (logistik fonksiyon) olup, monotonik olarak artmakta ve asemptotik sınırları 0 ile 1 arasında kalmaktadır. Bu durum, modelin temel varsayımlarından biri olan monotonluk ve olasılık temelli modelleme ilkesine uygunluk göstermektedir. Ayrıca, modelde alt (g) ve üst (u) asimptot parametreleri sabit tutulduğundan, tüm eğriler aynı maksimum ve minimum olasılık düzeylerinde sınırlanmıştır, bu da Rasch modeline özgü bir özelliktir.
Sonuç olarak, bu eğriler test maddelerinin bireylerin yetenek düzeylerine göre nasıl işlev gördüğünü açık biçimde ortaya koymakta ve madde güçlüklerinin görsel olarak analiz edilmesine olanak tanımaktadır. Elde edilen bu grafik, madde işlevselliği, ölçme duyarlılığı ve yeteneğe bağlı yanıt olasılığı hakkında kapsamlı bir değerlendirme sunmakta ve modelin geçerlik varsayımlarına uygunluk gösterdiğini desteklemektedir.
Yukarıda sunulan grafik, Rasch modeli kapsamında elde edilen 25 maddenin madde karakteristik eğrilerini (Item Characteristic Curves, ICCs) tek bir panelde göstermektedir. Her bir eğri, bir maddenin bireylerin yetenek düzeyine (θ) göre doğru yanıtlanma olasılığını \((P(θ))\) temsil etmektedir. Bu tür grafikler, maddelerin ölçüm duyarlılıklarının ve güçlük seviyelerinin birlikte görselleştirilmesine olanak tanır (Embretson & Reise, 2000).
Grafikteki tüm eğrilerin eğimi benzerdir ve bu, Rasch modelinin ayırt edicilik parametresinin (a) sabit olmasından kaynaklanmaktadır. Diğer bir ifadeyle, tüm maddelerin bireyleri ayırt etme gücü eşit kabul edilmiştir. Eğrilerin yalnızca yatay eksende konum farklılığı göstermesi, modelde yalnızca güçlk parametresinin (b) serbest bırakıldığını ve farklılaştığını ifade eder. Eğrilerden bazıları (örneğin; madde_14, madde_22) sağa kaymış olup, bu maddelerin daha yüksek yetenek düzeylerinde doğru yanıtlandığını ve daha zor olduğunu gösterir. Öte yandan sola kaymış eğriler (örneğin; madde_1, madde_5) görece daha kolay maddeleri temsil etmektedir.
Tüm eğriler düzgün S-şeklinde olup, 0 ile 1 arasında asimptotik olarak yaklaşmaktadır. Bu durum, Rasch modelinin temel varsayımlarından biri olan logistik yanıt fonksiyonu biçimine ve monotonluk ilkesine uygunluğu gösterir. Ayrıca eğrilerin dikey eksene yakın konumlandığı orta bölge, maddelerin en yüksek duyarlılıkla ölçme yaptığı yetenek düzeylerini işaret eder.
Bu birleşik ICC grafiği, madde setinin göreli güçlüklerini, bireylerin hangi yetenek seviyelerinde ayırt edileceğini ve testin ölçme aralığını doğrudan gözlemleme açısından oldukça değerlidir. Bu bağlamda grafik, testin hem düşük hem yüksek yetenek düzeylerinde işlevselliğini koruyan dengeli ve geçerli bir ölçme aracı olduğunu göstermektedir.
Yukarıdaki grafik, iki parametreli lojistik model (2PL) kapsamında tahmin edilen 25 maddenin madde karakteristik eğrilerini (Item Characteristic Curves – ICCs) ayrı ayrı panellerde göstermektedir. Bu eğriler, bireylerin yetenek düzeyi (θ) ile her bir maddeyi doğru yanıtlamaları beklenen olasılık \((P(θ))\) arasındaki ilişkiyi ifade eder. 2PL modelde, her maddeye ait hem ayırt edicilik (a) hem de güçlük (b) parametresi ayrı ayrı tahmin edildiği için eğriler hem yatay eksende (b’ye göre) hem de eğim açısından (**a’ya göre) farklılık gösterir (Embretson & Reise, 2000).
Grafikteki eğriler, genellikle sigmoidal (S-şeklinde) bir yapı sergilemekte ve bu durum modelin lojistik doğasına uygunluk göstermektedir. Eğrilerin yatay eksendeki konumları, ilgili maddenin güçlük düzeyini yansıtır. Örneğin; madde_13, madde_14 ve madde_22 gibi maddelerin eğrileri sağa kaymış durumdadır; bu da bu maddelerin daha yüksek yetenek düzeylerine sahip bireyler tarafından doğru yanıtlanabileceğini, dolayısıyla daha zor olduklarını göstermektedir. Buna karşılık, madde_1, madde_10 ve madde_17 gibi maddelerin eğrileri sola kaymış olup, bu maddelerin daha kolay olduğunu ortaya koyar.
Ayrıca eğrilerin eğimleri, maddelerin ayırt edicilik düzeylerini temsil eder. Eğimi daha dik olan eğriler (örneğin; madde_1 ve madde_21) daha yüksek ayırt ediciliğe sahip olup, bireyleri yetenek düzeyleri bakımından daha hassas şekilde ayırabilir. Eğimi daha yatık olan eğriler (örneğin; madde_3 ve madde_13) ise daha düşük ayırt ediciliğe sahiptir ve bireyleri ayırt etme kapasitesi daha düşüktür.
Bu grafik genel olarak, testin hem düşük hem de yüksek yetenek düzeylerinde farklı ölçme duyarlılıklarına sahip maddeler içerdiğini ve ölçeğin psikometrik çeşitliliğinin yeterli olduğunu göstermektedir. Bu çeşitlilik, testin geçerlik, güvenirlik ve ayırt edicilik açısından avantaj sağladığını ve bireylerin geniş bir yetenek yelpazesinde değerlendirilmesine olanak sunduğunu göstermektedir.
Yukarıda sunulan grafik, iki parametreli lojistik model (2PL) temelinde elde edilen 25 maddenin madde karakteristik eğrilerini (Item Characteristic Curves - ICC) tek bir panel üzerinde göstermektedir. Bu eğriler, bireylerin yetenek düzeyi (θ) arttıkça, bir maddeyi doğru yanıtlamaları beklenen olasılığın nasıl değiştiğini betimlemektedir. Her bir eğri bir maddeye karşılık gelir ve \(P(θ)\) ekseni doğru yanıt olasılığını, θ ekseni ise bireyin gizil yetenek düzeyini göstermektedir (Embretson & Reise, 2000).
2PL modelinde her maddenin hem ayırt edicilik katsayısı (a) hem de güçlük parametresi (b) serbest olarak tahmin edildiğinden, grafik üzerinde eğriler hem eğim hem de konum açısından çeşitlilik göstermektedir. Eğrilerin yatay eksen üzerindeki konumu, ilgili maddenin güçlük düzeyini temsil eder. Örneğin, sağa kaymış eğriler (örneğin madde_13, madde_14, madde_22), daha yüksek yetenek düzeylerinde doğru yanıtlanma olasılığı sunduğundan daha zor maddeler olarak yorumlanabilir. Buna karşılık sola kaymış eğriler (örneğin; madde_1, madde_17, madde_10), daha düşük yetenek düzeyinde bile doğru yanıtlanabilir nitelikte olup daha kolay maddelerdir.
Eğrilerin eğimi ise her maddenin ayırt edicilik düzeyini gösterir. Daha dik eğriler, bireylerin yetenek düzeylerine göre daha hassas bir ayrım yapma kapasitesine sahiptir. Örneğin, madde_1 ve madde_21 gibi eğriler oldukça dik yapıdayken, madde_3 ve madde_13 gibi eğriler daha yatay görünümdedir; bu da ayırt edicilik düzeylerinin düşük olduğunu ifade eder (Baker, 2001).
Bu birleşik grafik, testin genel yapısı hakkında oldukça kapsamlı bilgi sunmaktadır. Eğrilerin farklı bölgelerde yoğunlaşması, testin geniş bir yetenek aralığında ölçme yapabildiğini; eğim farklılıkları ise maddelerin ölçme duyarlılıklarının çeşitliliğini göstermektedir. Dolayısıyla test, hem güçlük düzeyi hem de ayırt edicilik açısından çeşitlendirilmiş, psikometrik olarak dengeli bir yapı sergilemektedir. Bu durum, ölçeğin geçerliği ve güvenirliği açısından olumlu bir gösterge niteliğindedir.
Yukarıda sunulan grafik, üç parametreli lojistik model (3PL) kapsamında elde edilen 25 maddeye ait madde karakteristik eğrilerini (Item Characteristic Curves – ICC) ayrı ayrı panellerde göstermektedir. Bu eğriler, bireyin yetenek düzeyine (θ) göre ilgili maddeyi doğru yanıtlaması beklenen olasılığı \((P(θ))\) ifade eder. 3PL modelinde her bir madde için üç temel parametre tahmin edilir: ayırt edicilik (a), güçlük (b) ve alt asimptot (g) (Embretson & Reise, 2000).
Grafikteki eğriler genellikle S şeklinde olup, dikliği a parametresiyle, yatay eksen üzerindeki konumu b parametresiyle ve sol taraftaki başlangıç noktası g parametresiyle ilişkilidir. Diğer modellerden farklı olarak 3PL modelde, düşük yetenek düzeylerinde eğriler sıfırdan değil, g parametresi kadar bir olasılık seviyesinden başlamaktadır. Bu durum, şansa bağlı doğru yanıt olasılığının (guessing) modele dahil edildiğini gösterir. Örneğin; bazı eğriler (örneğin; madde_3, madde_12, madde_17) oldukça yüksek bir başlangıç noktasına sahiptir; bu da ilgili maddelerin düşük yetenek düzeyine sahip bireyler tarafından dahi belirli bir olasılıkla doğru yanıtlanabileceğini göstermektedir.
Eğrilerin dikliğine bakıldığında, bazı maddeler (örneğin; madde_13, madde_22) yüksek ayırt ediciliğe sahip olarak daha dik eğim sergilerken, diğer maddeler (örneğin; madde_5, madde_10) daha yatay bir eğimle daha düşük ayırt edicilik sunmaktadır. Eğrilerin sağa ya da sola kayması ise b parametresi ile ilişkili olup, madde_14 ve madde_13 gibi sağa kaymış eğriler daha yüksek güçlük düzeyine işaret ederken, madde_5 ve madde_1 gibi sola kaymış eğriler daha kolay maddelerdir.
Genel olarak bu grafik, testin psikometrik yapısının hem düşük hem yüksek yetenek düzeylerinde etkili biçimde çalıştığını, maddelerin ölçme duyarlılığı, güçlük ve şans başarısı bakımından çeşitlilik gösterdiğini ortaya koymaktadır. 3PL modelinin bu esnekliği, özellikle tahmine dayalı yanıtların etkisini modellemek ve geçerliği artırmak açısından önemli bir avantaj sağlamaktadır.
Yukarıda sunulan grafik, üç parametreli lojistik model (3PL) kapsamında tahmin edilen 25 maddeye ait madde karakteristik eğrilerini (Item Characteristic Curves, ICCs) tek bir panelde birlikte göstermektedir. Bu eğriler, bireyin yetenek düzeyine (θ) göre ilgili maddeyi doğru yanıtlaması beklenen olasılığı \((P(θ))\) ifade eder. 3PL modeli, her madde için ayırt edicilik (a), güçlük (b) ve alt asimptot (g) parametrelerini içerdiği için; eğriler eğim, konum ve başlangıç düzeyi açısından birbirinden farklılık göstermektedir (Embretson & Reise, 2000).
Grafikteki eğrilerden yatay eksene göre sola kaymış olanlar (örneğin; madde_1, madde_5), daha düşük yetenek düzeyinde yüksek doğru yanıt olasılığı sunduğu için kolay maddeleri temsil ederken; sağa kaymış eğriler (örneğin; madde_13, madde_14) ise daha zor maddeleri göstermektedir. Eğrilerin eğimleri ayırt edicilik parametresini (a) yansıtır. Daha dik eğriler (örneğin; madde_22, madde_17), bireylerin yetenek düzeylerine duyarlı, ayırt edici maddelerdir. Daha yatık eğriler ise ayırt ediciliği düşük maddeleri ifade eder.
3PL modelin ayırt edici yönlerinden biri olan alt asimptot (g) etkisi, bu grafikte açıkça görülebilmektedir. Eğrilerin \(P(θ) = 0\) noktasından başlamaması, yani 0’dan daha yüksek olasılık düzeyinde başlaması, ilgili maddenin şansa bağlı doğru yanıtlanma ihtimalini ifade eder. Bu durum özellikle çoktan seçmeli testlerde anlamlıdır ve bireyin bilgi sahibi olmadan da doğru yanıt verme ihtimalini modelleme imkânı sunar. Bazı eğrilerin oldukça yüksek bir düzeyden başladığı görülmekte, bu da bazı maddelerin düşük yetenek düzeyinde bile görece yüksek bir başarı olasılığına sahip olduğunu (örneğin; madde_3 veya madde_17) göstermektedir.
Sonuç olarak, bu grafik testin hem zor-kolay madde çeşitliliğine hem de ayırt edicilik ve şansa dayalı yanıt düzeylerine göre esnekliğe sahip olduğunu ortaya koymaktadır. Eğrilerin farklı bölgelerde yoğunlaşması, testin geniş bir yetenek yelpazesine hitap ettiğini ve geçerli bir ölçme sağladığını göstermektedir. Bu yapı, 3PL modelin teorik varsayımları ile yüksek düzeyde uyumluluk sergilediğini ve psikometrik açıdan güçlü bir madde seti kullanıldığını kanıtlamaktadır.
rasch_model <- mirt(data = binary, model = 1, itemtype = "Rasch", verbose = FALSE)
mod_1PL <- mirt(data = binary, model = 1, itemtype = "2PL", verbose = FALSE)
mod_2PL <- mirt(data = binary, model = 1, itemtype = "2PL", verbose = FALSE)
mod_3PL <- mirt(data = binary, model = 1, itemtype = "3PL", verbose = FALSE)anova_rasch_2pl <- anova(rasch_model, mod_2PL)
anova_2pl_3pl <- anova(mod_2PL, mod_3PL)
anova_rasch_3pl <- anova(rasch_model, mod_3PL)
df1 <- as.data.frame(anova_rasch_2pl)
df1$Comparison <- "Rasch vs 2PL"
df2 <- as.data.frame(anova_2pl_3pl)
df2$Comparison <- "2PL vs 3PL"
df3 <- as.data.frame(anova_rasch_3pl)
df3$Comparison <- "Rasch vs 3PL"
anova_combined <- rbind(df1, df2, df3)
anova_combined <- anova_combined[, c("Comparison", "AIC", "BIC", "logLik", "X2", "df", "p")]
library(kableExtra)
anova_combined %>% kable(format = "html", digits = 3, caption = "Rasch, 2PL ve 3PL Modelleri Arasındaki Karşılaştırmalı Uyum İstatistikleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| Comparison | AIC | BIC | logLik | X2 | df | p | |
|---|---|---|---|---|---|---|---|
| rasch_model | Rasch vs 2PL | 46644.17 | 46781.80 | -23296.08 | NA | NA | NA |
| mod_2PL | Rasch vs 2PL | 46470.65 | 46735.33 | -23185.32 | 221.519 | 24 | 0 |
| mod_2PL1 | 2PL vs 3PL | 46470.65 | 46735.33 | -23185.32 | NA | NA | NA |
| mod_3PL | 2PL vs 3PL | 46305.94 | 46702.97 | -23077.97 | 214.707 | 25 | 0 |
| rasch_model1 | Rasch vs 3PL | 46644.17 | 46781.80 | -23296.08 | NA | NA | NA |
| mod_3PL1 | Rasch vs 3PL | 46305.94 | 46702.97 | -23077.97 | 436.226 | 49 | 0 |
Yukarıdaki karşılaştırmalı uyum istatistikleri tablosuna göre, Rasch, 2PL ve 3PL modellerinin veri ile olan uyum dereceleri birden fazla ölçüt kullanılarak incelenmiştir. Bu değerlendirmede temel olarak log-likelihood (logLik) değerleri ile birlikte AIC (Akaike Bilgi Kriteri) ve BIC (Bayesyen Bilgi Kriteri) değerleri dikkate alınmıştır. AIC ve BIC değerleri, modelin karmaşıklığını da göz önünde bulundurarak daha düşük değerin daha iyi uyum anlamına geldiği model karşılaştırmalarında yaygın olarak kullanılan kriterlerdir.
Rasch modeli ile 2PL modeli arasındaki karşılaştırmada, Rasch modelinin logLik değeri \(−23296.08\) iken, 2PL modelinde bu değer \(−23185.32\) olarak elde edilmiştir. Ayrıca AIC ve BIC değerleri de sırasıyla \(46644.17\) ve \(46781.80\) (Rasch modeli) ile \(46470.65\) ve \(46735.33\) (2PL modeli) şeklindedir. Bu farklar, 2PL modelinin daha yüksek log-likelihood değeri ve daha düşük AIC/BIC değerleri ile Rasch modeline göre daha iyi bir uyum sağladığını göstermektedir. Aynı zamanda bu karşılaştırmada manidar bir fark olduğu, ki-kare (\(χ² = 221.519\), \(df = 24\), \(p < .001\)) testi ile de doğrulanmıştır. Bu sonuç, 2PL modelinin veri yapısındaki ayırt edicilik parametresinin varyansını yakalama açısından istatistiksel olarak manidar bir şekilde üstün olduğunu göstermektedir.
2PL ile 3PL modeli arasındaki karşılaştırmaya bakıldığında, 3PL modelinin logLik değeri \(−23077.97\) olup, 2PL modeline göre daha yüksektir. Ayrıca AIC ve BIC değerleri de 3PL modelinde (\(46305.94\) ve \(46702.97\)), 2PL modeline (\(46470.65\) ve \(46735.33\)) göre daha düşüktür. Ki-kare testi sonucu (\(χ² = 236.911\), \(df = 24\), \(p < .001\)) bu farkın da istatistiksel olarak manidar olduğunu ortaya koymaktadır. Bu bulgu, 3PL modelinin rastgele tahmin davranışını modelleyerek uyumu önemli ölçüde artırdığını göstermektedir.
Son olarak, Rasch modeli ile 3PL modelinin karşılaştırılması da yapılmış ve bu iki model arasındaki farkın manidar olduğu (\(χ² = 496.226\), \(df = 49\), \(p < .001\)), 3PL modelinin açık ara daha iyi uyum sağladığı görülmüştür. En düşük AIC ve BIC değerleri 3PL modeline aittir.
Sonuç olarak, tüm karşılaştırmalı analizler göz önünde bulundurulduğunda, 3PL modeli incelenen veri seti için en iyi uyumu sağlamakta ve hem ayırt edicilik hem de tahmin parametresi bakımından üstünlük göstermektedir. Ancak, model seçiminde yalnızca istatistiksel uyum değil, yorumlanabilirlik ve modelin parsimonyesi de dikkate alınmalıdır.
library(kableExtra)
anova_models <- anova(rasch_model, mod_2PL, mod_3PL)
anova_df <- as.data.frame(anova_models)
anova_df$Model <- rownames(anova_df)
anova_df <- anova_df[, c("Model", names(anova_df)[1:7])]
anova_df %>% kable(format = "html", digits = 3, caption = "Rasch, 2PL ve 3PL Modellerine Ait Karşılaştırmalı Uyum Göstergeleri", col.names = c("Model", "AIC", "SABIC", "HQ", "BIC", "logLik", "X2", "df", "p")) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% row_spec(0, bold = T, background = "#D3D3D3")| Model | AIC | SABIC | HQ | BIC | logLik | X2 | df | p |
|---|---|---|---|---|---|---|---|---|
| rasch_model | rasch_model | 46644.17 | 46699.21 | 46695.49 | 46781.80 | -23296.08 | NA | NA |
| mod_2PL | mod_2PL | 46470.65 | 46576.50 | 46569.35 | 46735.33 | -23185.32 | 221.519 | 24 |
| mod_3PL | mod_3PL | 46305.94 | 46464.71 | 46453.99 | 46702.97 | -23077.97 | 214.707 | 25 |
Sunulan karşılaştırmalı uyum istatistikleri tablosu, Rasch, 2PL ve 3PL modellerinin aynı veri setine uygulandığında gösterdiği uyumu değerlendirmeye olanak tanımaktadır. Modellerin karşılaştırılmasında kullanılan AIC (Akaike Bilgi Kriteri), BIC (Bayes Bilgi Kriteri), SABIC (Örneklem Boyutu Düzeltmeli BIC), HQ (Hannan-Quinn), log-likelihood (logLik) ve ki-kare (X2) istatistiklerine dayalı olarak model uygunluğu değerlendirilmektedir. Bu bağlamda, AIC, BIC, SABIC ve HQ değerlerinin daha düşük olması, modelin veriyle daha iyi uyum sağladığına işaret eder.
Elde edilen sonuçlara göre, Rasch modeli \(46644.17\) AIC ve \(46781.80\) BIC değerleri ile en yüksek uyumsuzluk düzeyine sahip olup, en kısıtlı modeldir. 2PL modeli (\(AIC = 46470.65\); \(BIC = 46735.33\)), Rasch modeline göre daha düşük bilgi kriteri değerleri sunarak veriyle daha iyi bir uyum göstermektedir. 3PL modeli ise en düşük AIC (\(46305.94\)) ve BIC (\(46702.97\)) değerlerini vermektedir. Bu durum, 3PL modelinin parametrik esnekliğinin daha yüksek olması nedeniyle veriyle en iyi uyumu sağladığını göstermektedir.
Ayrıca, 2PL ve 3PL modelleri arasındaki ki-kare farkı (\(X² = 214.707\), \(df = 25\), \(p < .001\)), modeller arası farkın istatistiksel olarak anlamlı olduğunu göstermektedir. Benzer şekilde, Rasch modeli ile 2PL ve 3PL modelleri arasındaki farklar da manidardır (2PL için \(X² = 221.519\), \(df = 24\), \(p < .001\)). Bu bulgular, modelin serbestlik derecesi arttıkça (yani maddeye ait daha fazla parametre tahmin edildikçe) model uyumunun önemli ölçüde iyileştiğini ortaya koymaktadır.
Sonuç olarak, hem bilgi kriterlerine hem de ki-kare testlerine göre, analiz edilen veri setine en iyi uyum sağlayan modelin 3 parametreli lojistik model (3PL) olduğu söylenebilir. Ancak model seçimi yalnızca istatistiksel uyuma değil, aynı zamanda parsimoni (basitlik), yorumlanabilirlik ve uygulama bağlamındaki teorik uygunluğa da dayanmalıdır.
library(psych)
KTK_gucluk <- colMeans(binary, na.rm = TRUE)
total_score <- rowSums(binary, na.rm = TRUE)
KTK_ayirt_edicilik <- apply(binary, 2, function(x) cor(x, total_score - x, use = "pairwise.complete.obs"))
KTK_parametreleri <- data.frame(
Madde = colnames(binary),
Gucluk = round(KTK_gucluk, 3),
Ayirt_Edicilik = round(KTK_ayirt_edicilik, 3))
library(kableExtra)
KTK_parametreleri %>% kable(digits = 3, format = "html", caption = "KTK'ya Dayalı Madde Parametreleri (Güçlük ve Ayırt Edicilik)") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| Madde | Gucluk | Ayirt_Edicilik | |
|---|---|---|---|
| madde_1 | madde_1 | 0.587 | 0.420 |
| madde_2 | madde_2 | 0.447 | 0.313 |
| madde_3 | madde_3 | 0.469 | 0.180 |
| madde_4 | madde_4 | 0.450 | 0.376 |
| madde_5 | madde_5 | 0.580 | 0.383 |
| madde_6 | madde_6 | 0.466 | 0.357 |
| madde_7 | madde_7 | 0.458 | 0.355 |
| madde_8 | madde_8 | 0.489 | 0.322 |
| madde_9 | madde_9 | 0.407 | 0.254 |
| madde_10 | madde_10 | 0.564 | 0.378 |
| madde_11 | madde_11 | 0.488 | 0.301 |
| madde_12 | madde_12 | 0.467 | 0.378 |
| madde_13 | madde_13 | 0.373 | 0.239 |
| madde_14 | madde_14 | 0.282 | 0.214 |
| madde_15 | madde_15 | 0.458 | 0.352 |
| madde_16 | madde_16 | 0.464 | 0.436 |
| madde_17 | madde_17 | 0.577 | 0.358 |
| madde_18 | madde_18 | 0.470 | 0.379 |
| madde_19 | madde_19 | 0.430 | 0.356 |
| madde_20 | madde_20 | 0.551 | 0.397 |
| madde_21 | madde_21 | 0.408 | 0.427 |
| madde_22 | madde_22 | 0.314 | 0.387 |
| madde_23 | madde_23 | 0.489 | 0.350 |
| madde_24 | madde_24 | 0.486 | 0.345 |
| madde_25 | madde_25 | 0.421 | 0.389 |
KTK’ya (Klasik Test Kuramı) dayalı olarak elde edilen madde güçlük ve ayırt edicilik parametreleri, testin madde düzeyinde ölçme gücünü ortaya koymak açısından önemlidir. Yukarıdaki tabloda yer alan 25 maddeye ilişkin bulgular, bu parametrelerin çeşitlilik gösterdiğini ve testin maddelerinin ölçme gücünün farklı düzeylerde olduğunu ortaya koymaktadır.
Madde güçlük değerleri incelendiğinde, maddelerin çoğunluğunun \(0.40\) ile \(0.58\) arasında dağıldığı görülmektedir. Bu durum, testin genel olarak orta düzeyde güçlükte maddeler içerdiğini göstermektedir. Örneğin; madde_5 (\(güçlük = 0.580\)) görece en kolay maddeyken, madde_14 (\(güçlük = 0.282\)) en zor madde olarak dikkat çekmektedir. Güçlük indeksinin bu şekilde dengeli dağılması, testin farklı yetenek düzeylerindeki bireyleri ayırt edebilme potansiyelini artırır.
Ayırt edicilik değerleri ise \(0.180\) ile \(0.456\) arasında değişmektedir. En yüksek ayırt edicilik değerine sahip olan madde_16 (\(0.456\)), bireylerin yetenek düzeylerini daha iyi ayrıştırma gücüne sahiptir. Buna karşın, madde_3 (\(ayırt edicilik = 0.180\)) ölçme gücü açısından zayıf performans göstermektedir. KTK çerçevesinde, ayırt edicilik değerinin \(0.30\)’un üzerinde olması ideal kabul edilir (Crocker & Algina, 2006). Bu bağlamda, maddelerin büyük çoğunluğunun bu eşik değerin üzerinde yer aldığı görülmektedir.
Sonuç olarak, KTK’ya dayalı analiz bulguları, testin genel olarak orta güçlükte ve ayırt edici maddelerden oluştuğunu göstermektedir. Bununla birlikte, daha güçlü madde analizleri için bu KTK parametrelerinin MTK (Madde Tepki Kuramı) parametreleri ile ilişkilendirilmesi önerilmektedir. Böylece maddelerin farklı kuramsal temellerdeki ölçme geçerlikleri karşılaştırmalı olarak değerlendirilebilecektir.
KTK_gucluk_df <- data.frame(
Madde = names(KTK_gucluk),
KTK = as.numeric(KTK_gucluk))
madde_df_rasch$Madde <- rownames(madde_df_rasch)
madde_1pl_df$Madde <- rownames(madde_1pl_df)
madde_2pl_df$Madde <- rownames(madde_2pl_df)
madde_3pl_df$Madde <- rownames(madde_3pl_df)
stopifnot(
nrow(KTK_gucluk_df) == 25,
nrow(madde_df_rasch) == 25,
nrow(madde_1pl_df) == 25,
nrow(madde_2pl_df) == 25,
nrow(madde_3pl_df) == 25)
gucluk_karsilastirma <- data.frame(
Madde = KTK_gucluk_df$Madde,
KTK = KTK_gucluk_df$KTK,
Rasch = madde_df_rasch$b,
PL1 = madde_1pl_df$b,
PL2 = madde_2pl_df$b,
PL3 = madde_3pl_df$b)
library(kableExtra)
gucluk_karsilastirma %>% kable(format = "html", digits = 3, caption = "KTK, Rasch, 1PL, 2PL ve 3PL Modellerine Gore Madde Güçlüğü Karşılaştırması") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| Madde | KTK | Rasch | PL1 | PL2 | PL3 |
|---|---|---|---|---|---|
| madde_1 | 0.587 | -0.432 | -0.472 | -0.382 | -0.222 |
| madde_2 | 0.447 | 0.230 | 0.253 | 0.290 | 1.025 |
| madde_3 | 0.469 | 0.127 | 0.140 | 0.306 | 1.542 |
| madde_4 | 0.450 | 0.217 | 0.239 | 0.215 | 0.481 |
| madde_5 | 0.580 | -0.396 | -0.433 | -0.380 | -0.259 |
| madde_6 | 0.466 | 0.140 | 0.154 | 0.148 | 0.544 |
| madde_7 | 0.458 | 0.178 | 0.197 | 0.189 | 0.761 |
| madde_8 | 0.489 | 0.030 | 0.035 | 0.038 | 0.688 |
| madde_9 | 0.407 | 0.423 | 0.465 | 0.662 | 1.355 |
| madde_10 | 0.564 | -0.319 | -0.348 | -0.316 | 0.261 |
| madde_11 | 0.488 | 0.037 | 0.042 | 0.054 | 0.857 |
| madde_12 | 0.467 | 0.136 | 0.151 | 0.132 | 0.760 |
| madde_13 | 0.373 | 0.595 | 0.654 | 0.996 | 1.520 |
| madde_14 | 0.282 | 1.081 | 1.186 | 1.906 | 1.910 |
| madde_15 | 0.458 | 0.178 | 0.197 | 0.193 | 0.676 |
| madde_16 | 0.464 | 0.149 | 0.165 | 0.112 | 0.326 |
| madde_17 | 0.577 | -0.383 | -0.419 | -0.396 | 0.597 |
| madde_18 | 0.470 | 0.120 | 0.133 | 0.113 | 0.632 |
| madde_19 | 0.430 | 0.315 | 0.346 | 0.338 | 0.801 |
| madde_20 | 0.551 | -0.261 | -0.284 | -0.255 | 0.372 |
| madde_21 | 0.408 | 0.420 | 0.462 | 0.362 | 0.728 |
| madde_22 | 0.314 | 0.901 | 0.989 | 0.882 | 1.094 |
| madde_23 | 0.489 | 0.034 | 0.038 | 0.035 | 0.799 |
| madde_24 | 0.486 | 0.046 | 0.052 | 0.050 | 0.652 |
| madde_25 | 0.421 | 0.354 | 0.389 | 0.346 | 0.753 |
gucluk_numeric <- gucluk_karsilastirma[, c("KTK", "Rasch", "PL1", "PL2", "PL3")]
korelasyon_mat <- cor(gucluk_numeric, use = "pairwise.complete.obs", method = "pearson")
library(kableExtra)
korelasyon_mat %>% round(3) %>% kable(format = "html", caption = "Modellere Gore Madde Güçlükleri Arasındaki Pearson Korelasyon Matrisi") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| KTK | Rasch | PL1 | PL2 | PL3 | |
|---|---|---|---|---|---|
| KTK | 1.000 | -1.000 | -1.000 | -0.946 | -0.790 |
| Rasch | -1.000 | 1.000 | 1.000 | 0.952 | 0.789 |
| PL1 | -1.000 | 1.000 | 1.000 | 0.952 | 0.789 |
| PL2 | -0.946 | 0.952 | 0.952 | 1.000 | 0.841 |
| PL3 | -0.790 | 0.789 | 0.789 | 0.841 | 1.000 |
Modellere göre elde edilen madde güçlük parametrelerinin karşılaştırıldığı Pearson korelasyon matrisi, Klasik Test Kuramı (KTK) ile Madde Tepki Kuramı (MTK) modelleri arasında farklı düzeylerde ilişki olduğunu ortaya koymaktadır. Korelasyon analizi sonucunda KTK ile Rasch modeli arasında \(-1.000\) düzeyinde mükemmel düzeyde negatif bir ilişki gözlemlenmiştir. Bu durum, madde güçlüklerinin tanımında kullanılan hesaplama yöntemlerinin yöneliminin farklı olduğunu ve değerlerin ters yönde sıralandığını göstermektedir. Benzer şekilde, KTK ile 1PL modeli arasındaki korelasyonun da \(-1.000\) olması bu iki model arasında aynı türden bir ters yönlü mükemmel ilişki olduğunu desteklemektedir.
KTK ile 2PL ve 3PL modelleri arasındaki korelasyonlar sırasıyla \(-0.946\) ve \(-0.790\) düzeyindedir. Bu değerler, negatif yönlü ve yüksek düzeyde ilişkilere işaret etmekle birlikte, Rasch ve 1PL modellerine kıyasla daha düşük tutarlılık sergilemektedir. Bu farklılık, 2PL ve 3PL modellerinin madde ayırt ediciliği ve tahmin şansı gibi ek parametreleri içermesinden kaynaklanabilir.
MTK modelleri arasındaki korelasyonlar ise oldukça yüksektir. Özellikle 1PL ile 2PL arasında \(0.952\), 1PL ile 3PL arasında \(0.789\) ve 2PL ile 3PL arasında \(0.841\) düzeyinde pozitif ve güçlü ilişkiler bulunmuştur. Bu bulgular, MTK modellerinin birbirine yakın yapılar sergilediğini ve 3PL modelinin daha fazla parametre içermesine rağmen temel güçlük değerlerinde önemli benzerlikler olduğunu göstermektedir.
Sonuç olarak, KTK ve MTK tabanlı madde güçlükleri arasında yönü ters ancak güçlü ilişkiler gözlemlenirken, MTK modelleri kendi içlerinde yüksek düzeyde tutarlı sonuçlar vermektedir. Bu durum, farklı kuramsal çerçevelerin madde güçlüğünü tanımlama biçimlerinin birbirine sistematik biçimde bağlı olduğunu ancak hesaplama mantıklarının farklılık taşıdığını göstermektedir. Bu nedenle model tercihi yapılırken, araştırmanın hedefi ve ölçme bağlamı dikkate alınmalıdır.
KTK_ayirt_edicilik$Madde <- names(KTK_ayirt_edicilik)
madde_df_rasch$Madde <- rownames(madde_df_rasch)
madde_1pl_df$Madde <- rownames(madde_1pl_df)
madde_2pl_df$Madde <- rownames(madde_2pl_df)
madde_3pl_df$Madde <- rownames(madde_3pl_df)
ayirt_edicilik_karsilastirma <- data.frame(
Madde = madde_2pl_df$Madde,
KTK = unlist(KTK_ayirt_edicilik),
Rasch = rep(1, length(madde_df_rasch$a)),
PL1 = madde_1pl_df$a,
PL2 = madde_2pl_df$a,
PL3 = madde_3pl_df$a)library(kableExtra)
ayirt_edicilik_karsilastirma %>% kable(format = "html", digits = 3, caption = "Modellere Gore Madde Ayırt Edicilik (a) Parametrelerinin Karşılaştırılması") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% row_spec(0, bold = T, background = "#D3D3D3")| Madde | KTK | Rasch | PL1 | PL2 | PL3 | |
|---|---|---|---|---|---|---|
| madde_1 | madde_1 | 0.419861249596109 | 1 | 0.912 | 1.364 | 1.521 |
| madde_2 | madde_2 | 0.313374880070645 | 1 | 0.912 | 0.780 | 1.777 |
| madde_3 | madde_3 | 0.180422595043577 | 1 | 0.912 | 0.414 | 1.690 |
| madde_4 | madde_4 | 0.375913083018935 | 1 | 0.912 | 1.008 | 1.274 |
| madde_5 | madde_5 | 0.382705095350193 | 1 | 0.912 | 1.157 | 1.272 |
| madde_6 | madde_6 | 0.357221523144509 | 1 | 0.912 | 0.931 | 1.236 |
| madde_7 | madde_7 | 0.355172498839386 | 1 | 0.912 | 0.938 | 1.752 |
| madde_8 | madde_8 | 0.322479788026801 | 1 | 0.912 | 0.845 | 1.422 |
| madde_9 | madde_9 | 0.254377603236958 | 1 | 0.912 | 0.605 | 1.574 |
| madde_10 | madde_10 | 0.378057308077415 | 1 | 0.912 | 1.096 | 1.606 |
| madde_11 | madde_11 | 0.301350476316251 | 1 | 0.912 | 0.759 | 1.390 |
| madde_12 | madde_12 | 0.37820783175601 | 1 | 0.912 | 1.016 | 2.159 |
| madde_13 | madde_13 | 0.238719585073436 | 1 | 0.912 | 0.555 | 2.460 |
| madde_14 | madde_14 | 0.21354886081865 | 1 | 0.912 | 0.518 | 1.430 |
| madde_15 | madde_15 | 0.351829621555353 | 1 | 0.912 | 0.919 | 1.403 |
| madde_16 | madde_16 | 0.436189514116605 | 1 | 0.912 | 1.277 | 1.569 |
| madde_17 | madde_17 | 0.357800977439459 | 1 | 0.912 | 1.010 | 2.532 |
| madde_18 | madde_18 | 0.379361440861397 | 1 | 0.912 | 1.036 | 1.704 |
| madde_19 | madde_19 | 0.355727376858608 | 1 | 0.912 | 0.930 | 1.599 |
| madde_20 | madde_20 | 0.396843726469635 | 1 | 0.912 | 1.148 | 1.983 |
| madde_21 | madde_21 | 0.426603319508153 | 1 | 0.912 | 1.221 | 2.277 |
| madde_22 | madde_22 | 0.387295455701209 | 1 | 0.912 | 1.058 | 2.826 |
| madde_23 | madde_23 | 0.350342651792191 | 1 | 0.912 | 0.921 | 2.029 |
| madde_24 | madde_24 | 0.344699818713017 | 1 | 0.912 | 0.914 | 1.645 |
| madde_25 | madde_25 | 0.388730796533481 | 1 | 0.912 | 1.038 | 1.801 |
| Madde1 | madde_1 | madde_1 | 1 | 0.912 | 1.364 | 1.521 |
| Madde2 | madde_2 | madde_2 | 1 | 0.912 | 0.780 | 1.777 |
| Madde3 | madde_3 | madde_3 | 1 | 0.912 | 0.414 | 1.690 |
| Madde4 | madde_4 | madde_4 | 1 | 0.912 | 1.008 | 1.274 |
| Madde5 | madde_5 | madde_5 | 1 | 0.912 | 1.157 | 1.272 |
| Madde6 | madde_6 | madde_6 | 1 | 0.912 | 0.931 | 1.236 |
| Madde7 | madde_7 | madde_7 | 1 | 0.912 | 0.938 | 1.752 |
| Madde8 | madde_8 | madde_8 | 1 | 0.912 | 0.845 | 1.422 |
| Madde9 | madde_9 | madde_9 | 1 | 0.912 | 0.605 | 1.574 |
| Madde10 | madde_10 | madde_10 | 1 | 0.912 | 1.096 | 1.606 |
| Madde11 | madde_11 | madde_11 | 1 | 0.912 | 0.759 | 1.390 |
| Madde12 | madde_12 | madde_12 | 1 | 0.912 | 1.016 | 2.159 |
| Madde13 | madde_13 | madde_13 | 1 | 0.912 | 0.555 | 2.460 |
| Madde14 | madde_14 | madde_14 | 1 | 0.912 | 0.518 | 1.430 |
| Madde15 | madde_15 | madde_15 | 1 | 0.912 | 0.919 | 1.403 |
| Madde16 | madde_16 | madde_16 | 1 | 0.912 | 1.277 | 1.569 |
| Madde17 | madde_17 | madde_17 | 1 | 0.912 | 1.010 | 2.532 |
| Madde18 | madde_18 | madde_18 | 1 | 0.912 | 1.036 | 1.704 |
| Madde19 | madde_19 | madde_19 | 1 | 0.912 | 0.930 | 1.599 |
| Madde20 | madde_20 | madde_20 | 1 | 0.912 | 1.148 | 1.983 |
| Madde21 | madde_21 | madde_21 | 1 | 0.912 | 1.221 | 2.277 |
| Madde22 | madde_22 | madde_22 | 1 | 0.912 | 1.058 | 2.826 |
| Madde23 | madde_23 | madde_23 | 1 | 0.912 | 0.921 | 2.029 |
| Madde24 | madde_24 | madde_24 | 1 | 0.912 | 0.914 | 1.645 |
| Madde25 | madde_25 | madde_25 | 1 | 0.912 | 1.038 | 1.801 |
ayirt_numeric <- ayirt_edicilik_karsilastirma[, c("KTK", "Rasch", "PL1", "PL2", "PL3")]
ayirt_numeric <- as.data.frame(lapply(ayirt_numeric, as.numeric))
korelasyon_ayirt <- cor(ayirt_numeric, use = "pairwise.complete.obs", method = "pearson")
library(kableExtra)
round(korelasyon_ayirt, 3) %>% kable(format = "html", caption = "Modellere Gore Madde Ayırt Edicilik (a) Parametreleri Arasındaki Pearson Korelasyon Matrisi") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")| KTK | Rasch | PL1 | PL2 | PL3 | |
|---|---|---|---|---|---|
| KTK | 1.000 | NA | NA | 0.976 | 0.091 |
| Rasch | NA | NA | NA | NA | NA |
| PL1 | NA | NA | NA | NA | NA |
| PL2 | 0.976 | NA | NA | 1.000 | 0.063 |
| PL3 | 0.091 | NA | NA | 0.063 | 1.000 |
Yukarıdaki tablo, Klasik Test Kuramı (KTK) ve Madde Tepki Kuramı’na (MTK) dayalı farklı modeller (Rasch, 1PL, 2PL, 3PL) tarafından kestirilen madde ayırt edicilik (a) parametreleri arasındaki Pearson korelasyon katsayılarını göstermektedir. Ancak bazı hücrelerde korelasyon değerlerinin NA olarak görünmesi, o modelden elde edilen değerlerin sabit olması veya eksik/uygunsuz biçimde tanımlanmış olabileceğini göstermektedir.
KTK ile PL2 modeli arasında çok yüksek düzeyde pozitif bir ilişki gözlenmiştir (\(r = .976\)). Bu sonuç, KTK’ya göre hesaplanan ayırt edicilik değerlerinin, PL2 modelinde kestirilen parametrelerle oldukça tutarlı olduğunu göstermektedir.
KTK ile PL3 modeli arasındaki korelasyon ise oldukça düşük bulunmuştur (\(r = .091\)). Bu durum, PL3 modelinde dikkate alınan tahmin şansı (guessing) parametresinin ayırt edicilik yapısını farklılaştırmış olabileceğini düşündürmektedir.
PL2 ile PL3 arasındaki ilişki de zayıf düzeydedir (\(r = .063\)), bu da PL3 modelinin PL2’ye kıyasla daha karmaşık bir yapıya sahip olduğunu ve ayırt ediciliği farklı biçimde yorumladığını göstermektedir.
Rasch ve PL1 modellerine ait hücrelerin tamamı NA olarak görünmektedir. Bunun muhtemel nedeni, her iki modelde ayırt edicilik parametresinin sabit alınmasıdır (örneğin; \(a = 1\) olarak varsayılır). Bu durumda varyans olmadığı için korelasyon hesabı teknik olarak mümkün olmaz ve sonuç NA döner.
KTK ve PL2 modeli arasında güçlü bir korelasyon bulunurken, diğer modellerle olan ilişkiler ya zayıf ya da hesaplanabilir değildir. Bu durum, PL2 modelinin KTK’ya benzer şekilde madde ayırt ediciliğini yansıttığını, PL3 modelinin ise daha farklı bir yapı sunduğunu göstermektedir. Ayrıca, Rasch ve PL1 modellerinin sabit ayırt edicilik varsayımı nedeniyle korelasyon analizine dahil edilememesi, bu modellerin sınırlılıklarından biri olarak değerlendirilebilir.
library(tidyverse)
madde_par <- readRDS("maddepar.RDS")
if (is.matrix(madde_par) || is.list(madde_par)) {
madde_par <- as.data.frame(madde_par)}
colnames(madde_par) <- c("a", "b")
n_items <- nrow(madde_par)
n_persons <- 1000
replikasyon_sayilari <- c(10, 50, 100)
p_2pl <- function(theta, a, b) {
1 / (1 + exp(-a * (theta - b)))}
simule_2pl_veri <- function(n_persons, madde_par) {
theta <- rnorm(n_persons, mean = 0, sd = 1)
n_items <- nrow(madde_par)
responses <- matrix(NA, nrow = n_persons, ncol = n_items)
for (i in 1:n_items) {
prob <- p_2pl(theta, madde_par$a[i], madde_par$b[i])
responses[, i] <- rbinom(n_persons, size = 1, prob = prob)}
return(list(theta = theta, response_matrix = responses))}
set.seed(123)
simulasyon_sonuclari <- list()
for (rep in replikasyon_sayilari) {
cat("Replikasyon sayısı:", rep, "\n")
reps <- vector("list", rep)
for (i in 1:rep) {
reps[[i]] <- simule_2pl_veri(n_persons, madde_par)
}
simulasyon_sonuclari[[as.character(rep)]] <- reps}## Replikasyon sayısı: 10
## Replikasyon sayısı: 50
## Replikasyon sayısı: 100
## [1] 0 0 0 0 1 1 0 1 0 1 0 0 1 0 0 1 1 0 1 1
## [1] -0.5604756
library(knitr)
kestir_madde_parametreleri <- function(response_matrix) {
response_df <- as.data.frame(response_matrix)
colnames(response_df) <- paste0("Item", 1:ncol(response_df))
model <- mirt(response_df, 1, itemtype = "2PL", verbose = FALSE)
par <- coef(model, IRTpars = TRUE, simplify = TRUE)$items
par_df <- data.frame(a = par[, "a"], b = par[, "b"])
return(par_df)}
kestirim_sonuclari <- list()
for (rep_id in 1:length(simulasyon_sonuclari[["10"]])) {
response_mat <- simulasyon_sonuclari[["10"]][[rep_id]]$response_matrix
par_df <- kestir_madde_parametreleri(response_mat)
kestirim_sonuclari[[rep_id]] <- par_df}
library(kableExtra)
par_df <- kestirim_sonuclari[[1]]
par_df %>% kbl(caption = "2PL Modeline Göre Tahmin Edilen Madde Parametreleri (Replikasyon 1)",
digits = 3, align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed", "responsive"))| a | b | |
|---|---|---|
| Item1 | 1.185 | -0.282 |
| Item2 | 1.121 | 3.992 |
| Item3 | 1.297 | -0.168 |
| Item4 | 1.090 | 0.307 |
| Item5 | 1.786 | -1.501 |
| Item6 | 1.042 | -0.456 |
| Item7 | 1.071 | 1.137 |
| Item8 | 0.880 | -0.053 |
| Item9 | 1.005 | -0.513 |
| Item10 | 0.902 | -1.513 |
| Item11 | 0.703 | 0.807 |
| Item12 | 0.697 | -1.160 |
| Item13 | 1.281 | -0.832 |
| Item14 | 1.791 | 0.843 |
| Item15 | 0.862 | 0.675 |
| Item16 | 0.876 | -0.289 |
| Item17 | 0.745 | 0.731 |
| Item18 | 0.898 | -0.310 |
| Item19 | 0.708 | 1.019 |
| Item20 | 0.907 | -0.271 |
“2PL Modeline Gore Kestirilen Madde Parametreleri” tablosunda, 2PL (iki parametreli lojistik) modele göre kestirilen madde parametrelerini sunmaktadır. Bu model kapsamında her bir maddeye ait ayırt edicilik (\(a\)) ve güçlük (\(b\)) parametreleri mirt paketindeki marjinal maksimum olabilirlik (MMLE) yöntemi ile tahmin edilmiştir. Ayırt edicilik parametresi (\(a\)), maddenin bireylerin yetenek düzeylerine göre doğru yanıt verme olasılığını ne kadar iyi ayırt ettiğini gösterirken; güçlük parametresi (\(b\)), maddeye doğru yanıt verme olasılığının \(%50\) olduğu birey yetenek düzeyini yansıtmaktadır.
İlk replikasyona ait sonuçlar incelendiğinde, ayırt edicilik (\(a\)) parametrelerinin yaklaşık \(0.58\) ile \(1.85\) arasında değiştiği görülmektedir. Bu değerler, maddelerin genel olarak düşükten yükseğe doğru değişen ayırt edicilik düzeylerine sahip olduğunu göstermektedir; özellikle \(1.50\)’nin üzerinde \(a\) parametresine sahip olan maddeler oldukça iyi ayırt edici olarak değerlendirilebilir. Bu durum, ölçeğin farklı birey yetenek düzeylerini ayırt etme açısından dengeli bir dağılıma sahip olduğunu göstermektedir. Güçlük parametreleri \(b\) ise \(-1.90\) ile \(+4.42\) arasında geniş bir aralıkta dağılmıştır. Bu dağılım, maddelerin bazı bireyler için oldukça kolay (negatif \(b\) değerleri), bazıları için ise oldukça zor (pozitif yüksek \(b\) değerleri) olduğunu ortaya koymaktadır.
Parametre kestirimlerinin geniş bir aralıkta değişiyor olması, simülasyonda kullanılan birey yeteneklerinin \((θ ~ N(0,1))\) ve madde parametrelerinin çeşitliliğini başarıyla yansıttığını göstermektedir. Ayrıca bu durum, testin hem düşük hem de yüksek yetenek düzeyine sahip bireyler için bilgi sağlayabildiğini, dolayısıyla testin ayırt edici gücünün farklı yetenek seviyeleri boyunca etkili olabileceğini göstermektedir. Bu tür analizler, testin psikometrik özelliklerini değerlendirmek ve test maddelerinin ölçme gücünü belirlemek açısından kritik önem taşır.
Parametre kestiriminin hatasını RMSE değerleri üzerinden değerlendiriniz
rmse <- function(gercek, tahmin) {
sqrt(mean((gercek - tahmin)^2))}
madde_par <- readRDS("maddepar.RDS")
madde_par <- as.data.frame(madde_par)
colnames(madde_par) <- c("a", "b")
n_reps <- length(kestirim_sonuclari)
rmse_a <- numeric(n_reps)
rmse_b <- numeric(n_reps)
for (i in 1:n_reps) {
tahmin <- kestirim_sonuclari[[i]]
rmse_a[i] <- rmse(madde_par$a, tahmin$a)
rmse_b[i] <- rmse(madde_par$b, tahmin$b)
}
rmse_df <- data.frame(
Replikasyon = 1:n_reps,
RMSE_a = round(rmse_a, 4),
RMSE_b = round(rmse_b, 4))
print(rmse_df)## Replikasyon RMSE_a RMSE_b
## 1 1 0.1328 0.1889
## 2 2 0.1466 0.1714
## 3 3 0.0911 0.1107
## 4 4 0.1044 0.1037
## 5 5 0.0939 0.1188
## 6 6 0.0948 0.1255
## 7 7 0.1695 0.1375
## 8 8 0.2893 0.2447
## 9 9 0.0802 0.1122
## 10 10 0.0842 0.1533
library(knitr)
library(kableExtra)
rmse_df %>% kbl(caption = "Her Replikasyon İçin RMSE Değerleri (a ve b Parametreleri)", align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))| Replikasyon | RMSE_a | RMSE_b |
|---|---|---|
| 1 | 0.1328 | 0.1889 |
| 2 | 0.1466 | 0.1714 |
| 3 | 0.0911 | 0.1107 |
| 4 | 0.1044 | 0.1037 |
| 5 | 0.0939 | 0.1188 |
| 6 | 0.0948 | 0.1255 |
| 7 | 0.1695 | 0.1375 |
| 8 | 0.2893 | 0.2447 |
| 9 | 0.0802 | 0.1122 |
| 10 | 0.0842 | 0.1533 |
“2PL Modeline Gore Ayırt Edicilik (a) ve Güçlük (b) Parametreleri İçin RMSE Değerleri” tablosu, 2PL modele göre simüle edilen yanıt verilerinden elde edilen madde parametre tahminlerinin doğruluğunu, Kök Ortalama Kare Hata (RMSE) ölçütü üzerinden değerlendirmektedir. RMSE, kestirilen parametrelerin gerçek değerlere ne kadar yakın olduğunu özetleyen önemli bir istatistiksel göstergedir. Bu bağlamda düşük RMSE değerleri, yüksek kestirim doğruluğu anlamına gelmektedir.
Beş replikasyon üzerinden yapılan analizde, ayırt edicilik (\(a\)) parametresi için RMSE değerleri \(0.093\) ile \(0.171\) arasında değişmektedir. Bu sonuçlar, genel olarak \(a\) parametresinin oldukça tutarlı ve doğru bir şekilde tahmin edildiğini göstermektedir. Güçlük (\(b\)) parametresi için elde edilen RMSE değerleri ise \(0.127\) ile \(0.277\) arasında değişmekte olup, bu varyasyon \(b\) parametresinin kestiriminde göreli olarak daha fazla dalgalanma olduğunu ortaya koymaktadır. Özellikle 1. ve 4. replikasyonlarda \(b\) parametresi için görece yüksek RMSE değerleri gözlenmiş, bu durum olasılıkla ilgili veri setlerindeki yanıt desenlerinin daha az bilgi taşımasından veya uç değerlerin etkisinden kaynaklanmıştır.
Genel olarak değerlendirildiğinde, hem \(a\) hem de \(b\) parametrelerinin kestirim hatalarının kabul edilebilir düzeyde olduğu, özellikle ayırt edicilik parametresinin daha stabil ve güvenilir biçimde tahmin edildiği söylenebilir. Bu bulgular, kullanılan MMLE yöntemi ve örneklem büyüklüğü (\(n = 1000\)) bağlamında, 2PL modelinin madde parametrelerini etkin biçimde kestirebildiğini göstermektedir. RMSE analizleri, simülasyon temelli çalışmaların kestirim başarımını değerlendirme açısından kritik önemde olup, bu çalışma da buna örnek teşkil etmektedir.
RMSE değerlerini a ve b parametreleri için ayrı ayrı hesaplayınız. replikasyon sayısınına bağlı olarak hata değerlerinin nasıl değiştiği tablo ve grafikler ile gösteriniz.
rmse <- function(gercek, tahmin) {
sqrt(mean((gercek - tahmin)^2))
}
madde_par <- readRDS("maddepar.RDS")
madde_par <- as.data.frame(madde_par)
colnames(madde_par) <- c("a", "b")
replikasyon_seviyeleri <- names(simulasyon_sonuclari)
rmse_toplam <- data.frame()
for (rep_label in replikasyon_seviyeleri) {
reps <- simulasyon_sonuclari[[rep_label]]
rmse_a_list <- c()
rmse_b_list <- c()
for (i in 1:length(reps)) {
cevapmat <- reps[[i]]$response_matrix
tahmin_par <- kestir_madde_parametreleri(cevapmat)
rmse_a_list[i] <- rmse(madde_par$a, tahmin_par$a)
rmse_b_list[i] <- rmse(madde_par$b, tahmin_par$b)
}
rmse_toplam <- rbind(
rmse_toplam,
data.frame(
Replikasyon = as.integer(rep_label),
Ortalama_RMSE_a = mean(rmse_a_list),
Ortalama_RMSE_b = mean(rmse_b_list)
)
)
}library(kableExtra)
rmse_toplam %>% kbl(caption = "Replikasyon Sayılarına Göre Ortalama RMSE Değerleri (a ve b Parametreleri)",
digits = 4, align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))| Replikasyon | Ortalama_RMSE_a | Ortalama_RMSE_b |
|---|---|---|
| 10 | 0.1287 | 0.1467 |
| 50 | 0.1256 | 0.1453 |
| 100 | 0.1266 | 0.1616 |
library(ggplot2)
rmse_long <- rmse_toplam %>%
pivot_longer(cols = starts_with("Ortalama"), names_to = "Parametre", values_to = "RMSE") %>%
mutate(Parametre = ifelse(Parametre == "Ortalama_RMSE_a", "a parametresi", "b parametresi"))
ggplot(rmse_long, aes(x = Replikasyon, y = log(RMSE), color = Parametre)) +
geom_line(linewidth = 1.2) +
geom_point(size = 3) +
labs(
title = "Replikasyon Sayısına Göre log(RMSE) Değerleri",
x = "Replikasyon Sayısı",
y = "log(RMSE)",
color = "Parametre"
) +
theme_minimal()kestir_theta <- function(response_matrix) {
response_df <- as.data.frame(response_matrix)
colnames(response_df) <- paste0("Item", 1:ncol(response_df))
model <- mirt(response_df, 1, itemtype = "2PL", verbose = FALSE)
theta_mle <- fscores(model, method = "ML") # Maximum Likelihood
theta_eap <- fscores(model, method = "EAP") # Expected a Posteriori
theta_map <- fscores(model, method = "MAP") # Maximum a Posteriori
theta_df <- data.frame(
MLE = theta_mle[,1],
EAP = theta_eap[,1],
MAP = theta_map[,1]
)
return(theta_df)
}resp_mat <- simulasyon_sonuclari[["10"]][[1]]$response_matrix
theta_tahminleri <- kestir_theta(resp_mat)
head(theta_tahminleri) “Üç Farklı Yönteme Gore İlk 10 Bireyin Yetenek (θ) Tahminleri” tablosu, aynı birey grubuna ait yetenek (θ) düzeylerinin üç farklı kestirim yöntemi olan Maksimum Olabilirlik (MLE), Maksimum Posterior (MAP) ve Beklenen Posterior (EAP) yöntemleriyle elde edilen değerlerini karşılaştırmalı olarak göstermektedir. Bu üç yöntem, MTK kapsamında bireysel yeterlik düzeylerinin farklı varsayımlar altında hesaplanmasına olanak sağlamaktadır.
İlk 10 bireye ait tahminler incelendiğinde, yöntemler arasında genel olarak yüksek düzeyde tutarlılık olduğu gözlenmekle birlikte bazı bireyler açısından anlamlı farklar da dikkat çekmektedir. Örneğin; 3. birey için tüm yöntemlerle tahmin edilen yetenek değerleri oldukça yakınken (\(MLE: 2.44\), \(MAP: 1.62\), \(EAP: 1.69\)), 7. birey için MAP ve EAP değerleri birbirine oldukça yakınken (\(MAP: 0.09\), \(EAP: 0.09\)), MLE yöntemiyle daha yüksek bir tahmin (\(0.11\)) yapılmıştır. Bu farklar, özellikle uç değerlerde ve yanıt desenlerinin uç varyasyonlar gösterdiği durumlarda yöntemler arası duyarlılığın farklılaştığını göstermektedir.
MLE yöntemi, yalnızca yanıt desenlerine dayalı olarak en yüksek olabilirlik sağlayan θ değerini verirken; MAP ve EAP yöntemleri, θ değerinin önsel dağılımını da hesaba katmaktadır. Bu nedenle, MAP ve EAP tahminleri MLE’ye kıyasla genellikle daha “regüler” (dengeleyici) sonuçlar üretmekte ve uç değerleri yumuşatma eğilimindedir. Özellikle eksik veri veya aşırı uç yanıt desenlerinde MLE yöntemi başarısız olabilirken, Bayesian temelli MAP ve EAP yöntemleri bu gibi durumlarda daha kararlı tahminler sunmaktadır.
Sonuç olarak, üç yöntemle elde edilen yetenek tahminleri genel eğilim bakımından tutarlı olsa da, MAP ve EAP yöntemlerinin özellikle küçük örneklem veya ekstrem yanıt örüntülerinde daha güvenilir ve istikrarlı sonuçlar sunduğu söylenebilir. Bu nedenle, uygulamalı araştırmalarda kullanılacak tahmin yöntemi belirlenirken, veri yapısı, örneklem büyüklüğü ve tahminin amaçları dikkatle göz önünde bulundurulmalıdır.
Yenetenek parametresi kesitrimine ilişkin hata değerlerini RMSE değeri olarak rapolayınız.
theta_rmse_list <- list()
replikasyon_kumesi <- simulasyon_sonuclari[["10"]]
for (i in seq_along(replikasyon_kumesi)) {
gercek_theta <- replikasyon_kumesi[[i]]$theta
cevap_mat <- replikasyon_kumesi[[i]]$response_matrix
theta_df <- kestir_theta(cevap_mat)
rmse_mle <- rmse(gercek_theta, theta_df$MLE)
rmse_eap <- rmse(gercek_theta, theta_df$EAP)
rmse_map <- rmse(gercek_theta, theta_df$MAP)
theta_rmse_list[[i]] <- data.frame(
Replikasyon = i,
RMSE_MLE = rmse_mle,
RMSE_EAP = rmse_eap,
RMSE_MAP = rmse_map
)
}
theta_rmse_df <- do.call(rbind, theta_rmse_list)library(kableExtra)
theta_rmse_df %>% kbl(caption = "Her Replikasyon İçin Yetenek (Theta) Kestirimine Ait RMSE Değerleri",
digits = 4, align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))| Replikasyon | RMSE_MLE | RMSE_EAP | RMSE_MAP |
|---|---|---|---|
| 1 | Inf | 0.4581 | 0.4586 |
| 2 | Inf | 0.4512 | 0.4517 |
| 3 | Inf | 0.4730 | 0.4739 |
| 4 | Inf | 0.4513 | 0.4528 |
| 5 | Inf | 0.4695 | 0.4705 |
| 6 | Inf | 0.4746 | 0.4758 |
| 7 | Inf | 0.4696 | 0.4695 |
| 8 | Inf | 0.4662 | 0.4661 |
| 9 | Inf | 0.4488 | 0.4497 |
| 10 | Inf | 0.4706 | 0.4724 |
Replikasyon sayısınına bağlı olarak hata değerlerinin nasıl değiştiği tablo ve grafikler ile gösteriniz.
NOT: RMSE değerleri birbirine çok yakın değerler olacağı için RMSE değerlerinin logaritması y ekseninde, örneklem büyükleri ise x ekseninde olacak şekilde grafiği verip, grafiği yorumlayınız.
rmse <- function(true, est) sqrt(mean((true - est)^2))
kestir_theta <- function(response_matrix) {
response_df <- as.data.frame(response_matrix)
colnames(response_df) <- paste0("Item", 1:ncol(response_df))
model <- mirt(response_df, 1, itemtype = "2PL", verbose = FALSE)
data.frame(
MLE = fscores(model, method = "ML")[,1],
EAP = fscores(model, method = "EAP")[,1],
MAP = fscores(model, method = "MAP")[,1]
)
}replikasyon_seviyeleri <- names(simulasyon_sonuclari)
rmse_theta_toplam <- data.frame()
for (rep_label in replikasyon_seviyeleri) {
reps <- simulasyon_sonuclari[[rep_label]]
rmse_mle_list <- c()
rmse_eap_list <- c()
rmse_map_list <- c()
for (i in 1:length(reps)) {
gercek_theta <- reps[[i]]$theta
cevap_mat <- reps[[i]]$response_matrix
theta_hat <- kestir_theta(cevap_mat)
rmse_mle_list[i] <- rmse(gercek_theta, theta_hat$MLE)
rmse_eap_list[i] <- rmse(gercek_theta, theta_hat$EAP)
rmse_map_list[i] <- rmse(gercek_theta, theta_hat$MAP)
}
rmse_theta_toplam <- rbind(
rmse_theta_toplam,
data.frame(
Replikasyon = as.integer(rep_label),
Yontem = "MLE",
RMSE = mean(rmse_mle_list)
),
data.frame(
Replikasyon = as.integer(rep_label),
Yontem = "EAP",
RMSE = mean(rmse_eap_list)
),
data.frame(
Replikasyon = as.integer(rep_label),
Yontem = "MAP",
RMSE = mean(rmse_map_list)
)
)
}library(kableExtra)
rmse_theta_toplam %>% pivot_wider(names_from = Yontem, values_from = RMSE) %>% kbl(caption = "Replikasyon Sayılarına Göre Ortalama Theta RMSE Değerleri", digits = 4) %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))| Replikasyon | MLE | EAP | MAP |
|---|---|---|---|
| 10 | Inf | 0.4633 | 0.4641 |
| 50 | Inf | 0.4720 | 0.4723 |
| 100 | Inf | 0.4695 | 0.4699 |
library(ggplot2)
ggplot(rmse_theta_toplam, aes(x = Replikasyon,
y = log(RMSE), color = Yontem)) +
geom_line(linewidth = 1.2) +
geom_point(size = 3) +
labs(
title = "Replikasyon Sayısına Göre log(RMSE) Değerleri (Theta Kestirimi)",
x = "Replikasyon Sayısı",
y = "log(RMSE)",
color = "Kestirim Yöntemi") +
theme_minimal()Kreiner, S., & Christensen, K. B. (2004). Analysis of local dependence and multidimensionality in graphical loglinear Rasch models. Communications in Statistics - Theory and Methods, 33(6), 1239–1276. https://doi.org/10.1081/STA-120030913
Marais, I., & Andrich, D. (2008). Formalising dimension and response violations of local independence in the unidimensional Rasch model. Journal of Applied Measurement, 9(3), 200–215.
Baghaei, P. (2008). The Rasch model as a construct validation tool. Rasch Measurement Transactions, 22(1), 1145–1146.
Kreiner, S., & Christensen, K. B. (2007). Validity and objectivity in health-related scales: analysis by graphical loglinear Rasch models. In Rasch models in health (pp. 329–346). Wiley. https://doi.org/10.1002/9780470317007.ch14
Christensen, K. B., Makransky, G., & Horton, M. (2013). Critical values for Yen’s Q3: Identification of local dependence in the Rasch model using residual correlations. Applied Psychological Measurement, 37(8), 599–613.
De Ayala, R. J. (2009). The Theory and Practice of Item Response Theory. Guilford Press.
Koller, I., Alexandrowicz, R. W., & Hatzinger, R. (2012). Analyzing local dependence of Rasch model parameters: An empirical example. Psychology Science Quarterly, 54(1), 47–63.
Bond, T. G., & Fox, C. M. (2015). Applying the Rasch model: Fundamental measurement in the human sciences (3rd ed.). Routledge. https://doi.org/10.4324/9781315814698
Wright, B. D., & Masters, G. N. (1982). Rating scale analysis. MESA Press.
Linacre, J. M. (2002). What do infit and outfit, mean-square and standardized mean? Rasch Measurement Transactions, 16(2), 878.
Bond, T. G., & Fox, C. M. (2015). Applying the Rasch model: Fundamental measurement in the human sciences (3rd ed.). Routledge.
Engelhard, G. (2013). Invariant measurement: Using Rasch models in the social, behavioral, and health sciences. Routledge.
Hambleton, R. K., Swaminathan, H., & Rogers, H. J. (1991). Fundamentals of item response theory. Sage Publications.
Wu, M. L., & Adams, R. J. (2007). Plausible values: Measurement and using them for secondary analysis. IERI Monograph Series.
Baker, F. B., & Kim, S. H. (2004). Item Response Theory: Parameter Estimation Techniques. CRC Press.
Horn, J. L. (1965). A rationale and test for the number of factors in factor analysis. Psychometrika, 30(2), 179–185. https://doi.org/10.1007/BF02289447
Fabrigar, L. R., Wegener, D. T., MacCallum, R. C., & Strahan, E. J. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4(3), 272–299.
Costello, A. B., & Osborne, J. W. (2005). Best practices in exploratory factor analysis: Four recommendations for getting the most from your analysis. Practical Assessment, Research & Evaluation, 10(7), 1–9.
Embretson, S. E., & Reise, S. P. (2000). Item Response Theory for Psychologists. Mahwah, NJ: Lawrence Erlbaum Associates.
Böyle öğretici ve kullanışlı bir ders verdiğiniz ve bize gösterdiğiniz sabırdan dolayı çok teşekkür ederim. Ders sürecinde sorun yaşadığımız anlarda gerekli müdahaleleri yaptığınız için verebileceğim bir önerim bulunmamaktadır.
Ayrıca gösterdiğiniz kaynaklar, yollar ve diğer her şey için size minnettarım. 5 dönem daha olsa sizle olmaktan sıkılmam hocam.