/* Genel yazı tipi ve sayfa ayarları */
body {
  font-family: 'Libre Baskerville', 'Times New Roman', serif; /* Akademik serif yazı tipi */
  font-size: 19px; /* Daha büyük yazı boyutu */
  font-weight: 500; /* Yazılar daha belirgin */
  background-color: #fffde7; /* Tereyağı sarısına yakın açık pastel sarı */
  color: #4e342e; /* Daha koyu kahverengi tonu (yüksek kontrast için) */
}
/* Başlıklar */
h1, h2, h3 {
  color: #f57f17; /* Doygun altın sarısı ton */
  font-weight: 700; /* Daha kalın başlıklar */
  text-transform: uppercase;
  font-family: 'Lora', 'Georgia', serif; /* Akademik ve zarif serif başlık fontu */
}
/* İçindekiler tablosu */
.tocify {
  background-color: #fff8e1; /* Tereyağı sarısı tonu */
  border-radius: 6px;
  padding: 12px;
  font-family: 'Lato', sans-serif; /* Temiz sans-serif font */
  font-size: 17px;
  color: #3e2723; /* Koyu kahverengi metin */
  font-weight: 600;
}
/* Kod bloklarının (chunk) arka planı */
pre {
  background-color: #fff9c4 !important; /* Açık sarı arka plan */
  color: #e65100 !important; /* Koyu kehribar kod yazısı */
  padding: 14px;
  border-radius: 8px;
  font-family: 'Fira Code', 'Courier New', Courier, monospace;
  font-size: 17px;
  font-weight: 600;
}
/* Inline kodlar */
code {
  background-color: #fff59d; /* Yumuşak sarı ton */
  color: #bf360c; /* Derin kehribar */
  padding: 4px 8px;
  border-radius: 4px;
  font-size: 17px;
  font-weight: bold;
}
/* Grafik ve görseller */
img, .figure {
  border: 2px solid #fbc02d; /* Doygun tereyağı sarısı çerçeve */
  border-radius: 10px;
  padding: 6px;
}
  • R KODLAR
library(dplyr)
library(psych)
library(ggplot2)
library(tidyr)
library(tidyverse)
library(QuantPsyc)
library(EFAtools)
library(EFA.MRFA)
library(EFA.dimensions)
library(knitr)
library(data.table)
library(lavaan)
library(lavaanPlot)
library(devtools)
library(DT)
library(tibble)
library(EFAfactors)
library(outliers)
library(foreign)
library(haven)
library(highr)
library(corrplot)
library(semptools)
library(semTools)
library(sur)
library(gtools)
library(irtoys)
library(kableExtra)
library(lattice)
library(ggfortify)
library(latticeExtra)
library(plotly)
library(flextable)
library(purrr)
library(rgl)
library(olsrr)
library(scatterplot3d)
library(broom)
library(GGally)
library(stargazer)
library(effectsize)
library(rockchalk)
library(quartets)
library(flextable)
library(apaTables)
library(officer)
library(MPsychoR)
library(Gifi)
library(mirt)
library(EGAnet)
library(eRm)
library(TAM)
library(ltm)
library(WrightMap)
library(cowplot)
library(reshape2)
library(gridExtra)
library(PerformanceAnalytics)
library(ggpmisc)

1 SORU 1.

  • Elinizde, PISA 2022 uygulamasına ait öğrenci veri seti olan PISA_STU_2021.rds dosyası bulunmaktadır. Bu veri setinde, öğrencilerin öğrenim gördüğü okul türleri STRATUM değişkeniyle temsil edilmekte olup toplamda 36 farklı okul türü yer almaktadır.

  • Veri seti:

load("C:/Users/User/Desktop/PISA_STU_2022.rda")
head(PISA_STU_2021)
  • Aşağıdaki alt görevleri gerçekleştiriniz:

1.0.1 a. Ortalama Matematik Başarısı – Okul Türü Bazında

  • Her bir okul türü (STRATUM) için öğrencilerin ortalama matematik puanlarını hesaplayınız.

  • Ortalama puanları grafiksel olarak görselleştiriniz.

  • Görselleştirmeyi yorumlayarak okul türleri arasında başarı düzeylerindeki farklılıkları açıklayınız.

  • Matematik başarısı için PV1MATH değişkenini kullanınız.

library(dplyr)
library(knitr)
library(kableExtra)
ortalama_matematik <- PISA_STU_2021 %>% group_by(STRATUM) %>% summarise(Ortalama_Matematik_Puani = mean(PV1MATH , na.rm = T)) %>% arrange(desc(Ortalama_Matematik_Puani))
ortalama_matematik %>% kable("html", caption = "Okul Türüne Gore Ortalama Matematik Puanları") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover"))
Okul Türüne Gore Ortalama Matematik Puanları
STRATUM Ortalama_Matematik_Puani
TUR02 634.9970
TUR03 598.9333
TUR08 592.8508
TUR19 574.7473
TUR04 572.5428
TUR09 564.2027
TUR06 545.0522
TUR20 538.6455
TUR05 538.0505
TUR10 533.0574
TUR11 520.8034
TUR28 519.8246
TUR12 502.7373
TUR13 490.5059
TUR21 487.9825
TUR29 485.9579
TUR07 467.9172
TUR14 465.9773
TUR22 455.9994
TUR15 447.8118
TUR30 445.5359
TUR23 433.7689
TUR16 420.8510
TUR32 415.7491
TUR31 411.4161
TUR27 407.8383
TUR17 405.1208
TUR24 399.1761
TUR33 398.5024
TUR34 396.7993
TUR35 382.8453
TUR18 376.2839
TUR26 374.3712
TUR25 371.4056
TUR36 367.9095
TUR01 300.3841
library(ggplot2)
library(plotly)
p <- ggplot(ortalama_matematik, aes(
  x = reorder(STRATUM, Ortalama_Matematik_Puani),
  y = Ortalama_Matematik_Puani,
  text = paste("STRATUM: ", STRATUM,
               "<br>Mean Score: ", round(Ortalama_Matematik_Puani, 1)))) +
  geom_col(fill = "pink", width = 0.5) +
  coord_flip() +
  labs(title = "Okul Turune Gore Ortalama Matematik Puanlari",
       x = "Okul Turu (STRATUM)",
       y = "Ortalama Matematik Puani") +
  theme_minimal(base_size = 16) +
  theme(
    axis.text.y = element_text(size = 8, margin = margin(r = 1)),
    axis.text.x = element_text(size = 13),
    axis.title = element_text(size = 14, face = "bold"),
    plot.title = element_text(size = 18, face = "bold", hjust = 0.5),
    plot.margin = margin(t = 1, r = 1, b = 1, l = 3, unit = "cm"))
ggplotly(p, tooltip = "text")
  • “Okul Türüne Göre Ortalama Matematik Puanları” grafiğinde, 36 farklı okul türüne (STRATUM) ait öğrencilerin ortalama matematik puanları karşılaştırmalı olarak sunulmuştur.

  • En yüksek ortalama puan \(630\)’un üzerinde olup, bu değer TUR02 (635) okul türüne aittir. Onu sırasıyla TUR03 (598.9), TUR08 (592.9), TUR19 (574.7) ve TUR04 (572.5) takip etmektedir; bu okul türlerinde ortalama puanlar \(590\) ile \(630\) arasında değişmektedir.

  • Ortalama başarı düzeyinin orta grubu yaklaşık \(440–480\) puan aralığında toplanmakta olup TUR14 (466), TUR22 (456), TUR15 (447.8) ve TUR30 (445.5) gibi okul türleri bu aralıkta yer almaktadır.

  • En düşük ortalama ise yaklaşık \(300\) puan düzeyindedir ve bu değer TUR01 (300.4) okul türüne aittir.

  • Son sıradaki 9 okul türünün ortalama puanları \(400\)’ün altındadır.

  • Genel dağılım incelendiğinde, okul türleri arasında yaklaşık \(330\) puanlık bir fark gözlenmektedir. Bu durum, dağılımın geniş olduğunu ve başarı düzeyinde heterojenliğin bulunduğunu göstermektedir.


1.1 1.b. Cinsiyete Göre Matematik Başarısı – Okul Türü Bazında

  • Her bir okul türü içinde kız ve erkek öğrencilerin ortalama matematik puanlarını ayrı ayrı hesaplayınız.
  • Bu değerleri bir arada gösteren bir grafik oluşturunuz.
  • Elde ettiğiniz bulgulara dayanarak, okul türlerine göre cinsiyet farklarını kısaca yorumlayınız.
library(dplyr)
library(knitr)
library(kableExtra)
cinsiyet_matematik <- PISA_STU_2021 %>% group_by(STRATUM, ST004D01T) %>% summarise(Ortalama_Matematik = mean(PV1MATH, na.rm = T)) %>% ungroup()
cinsiyet_matematik %>% rename(Cinsiyet = ST004D01T, Okul_Turu = STRATUM) %>% kable("html", caption = "Okul Turu ve Cinsiyete Gore Ortalama Matematik Puanlari") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover"))
Okul Turu ve Cinsiyete Gore Ortalama Matematik Puanlari
Okul_Turu Cinsiyet Ortalama_Matematik
TUR01 1 280.0016
TUR01 2 309.6489
TUR02 1 623.0346
TUR02 2 644.4143
TUR03 1 590.9008
TUR03 2 606.2357
TUR04 1 561.8456
TUR04 2 583.0850
TUR05 1 536.5682
TUR05 2 540.2964
TUR06 1 538.7400
TUR06 2 558.3779
TUR07 1 464.8282
TUR07 2 475.6397
TUR08 1 580.9327
TUR08 2 606.6183
TUR09 1 557.3546
TUR09 2 573.6922
TUR10 1 527.6821
TUR10 2 539.9259
TUR11 1 507.6526
TUR11 2 541.0664
TUR12 1 490.9407
TUR12 2 517.7432
TUR13 1 477.8737
TUR13 2 509.8257
TUR14 1 459.1643
TUR14 2 475.1009
TUR15 1 437.6205
TUR15 2 460.1870
TUR16 1 410.0459
TUR16 2 432.0530
TUR17 1 394.1978
TUR17 2 417.2465
TUR18 1 387.2907
TUR18 2 369.0940
TUR19 1 572.4680
TUR19 2 578.3087
TUR20 1 531.3744
TUR20 2 548.7132
TUR21 1 476.9900
TUR21 2 491.9626
TUR22 1 457.5711
TUR22 2 455.5030
TUR23 1 430.8378
TUR23 2 442.7877
TUR24 1 390.1296
TUR24 2 411.9475
TUR25 1 373.4251
TUR25 2 368.8669
TUR26 2 374.3712
TUR27 1 412.6138
TUR27 2 397.3691
TUR28 1 518.9733
TUR28 2 519.8565
TUR29 1 437.5619
TUR29 2 495.3481
TUR30 1 437.9057
TUR30 2 455.2856
TUR31 1 411.4772
TUR31 2 411.1891
TUR32 1 398.2021
TUR32 2 430.1509
TUR33 1 388.5370
TUR33 2 404.2178
TUR34 1 388.3935
TUR34 2 399.1229
TUR35 1 368.7932
TUR35 2 390.7958
TUR36 1 357.5165
TUR36 2 372.7062
  • Erkek var ama kız yok:
PISA_STU_2021 %>% filter(STRATUM == "TUR26") %>% count(ST004D01T)
library(dplyr)
PISA_STU_2021$ST004D01T <- as_factor(PISA_STU_2021$ST004D01T)
PISA_STU_2021$ST004D01T <- recode(PISA_STU_2021$ST004D01T,
                                  "Male" = "Erkek",
                                  "Female" = "Kız")
library(ggplot2)
library(plotly)
library(dplyr)
library(haven)
PISA_STU_2021$ST004D01T <- as_factor(PISA_STU_2021$ST004D01T)
cinsiyet_matematik <- PISA_STU_2021 %>% group_by(STRATUM, ST004D01T) %>% summarise(Ortalama_Matematik = mean(PV1MATH, na.rm = T)) %>% ungroup()
p <- ggplot(cinsiyet_matematik, aes(x = STRATUM,
                                    y = Ortalama_Matematik,
                                    fill = ST004D01T,
                                    text = paste("Okul Turu: ", STRATUM,
                                                 "<br>Cinsiyet: ", ST004D01T,
                                                 "<br>Ortalama: ", round(Ortalama_Matematik, 1)))) +
  geom_col(position = "dodge", width = 0.5) +
  labs(title = "Okul Turu ve Cinsiyete Gore Ortalama Matematik Puanlari", x = "Okul Turu (STRATUM)", y = "Ortalama Matematik Puani", fill = "Cinsiyet") +
  theme_minimal(base_size = 14) +
  theme(axis.text.x = element_text(angle = 45, hjust = 1))
ggplotly(p, tooltip = "text")
  • “Okul Türü ve Cinsiyete Göre Ortalama Matematik Puanları” grafiğinde, farklı okul türlerine (STRATUM) göre kız ve erkek öğrencilerin ortalama matematik puanları karşılaştırmalı olarak sunulmaktadır.

  • Genel olarak, pek çok okul türünde erkek öğrencilerin ortalama puanları kız öğrencilere kıyasla daha yüksektir.

  • Örneğin; TUR03 (\(x_{erkek} = 606.2\), \(x_{kiz} = 690.9\)), TUR04 (\(x_{erkek} = 583.1\), \(x_{kiz} = 561.8\)), TUR08 (\(x_{erkek} = 606.6\), \(x_{kiz} = 580.9\)) ve TUR09 (\(x_{erkek} = 573.7\), \(x_{kiz} = 557.4\)) gibi okul türlerinde erkek öğrenciler, kız öğrencilere kıyasla belirgin şekilde daha yüksek ortalama matematik puanına sahiptir.

  • Bununla birlikte, TUR18 (\(x_{erkek} = 369.1\), \(x_{kiz} = 387.3\)), TUR25 (\(x_{erkek} = 368.9\), \(x_{kiz} = 373.4\)) gibi bazı okul türlerinde kız öğrencilerin puanları erkek öğrencilerle ya denk düzeyde ya da marjinal olarak daha yüksektir. Ancak bu durum genelleştirilebilir bir eğilimden çok istisnai örnekler olarak kalmaktadır.

  • Bu bağlamda, elde edilen bulgular okul türü temelinde cinsiyetin matematik başarısı üzerinde istatistiksel olarak değişken etkiler gösterebildiğini ortaya koymaktadır.


1.2 1.c. Matematik Kaygısı ile Başarı Arasındaki İlişki (Genel)

  • Öğrencilerin matematik kaygısı (ANXMAT) ile matematik başarısı (PV1MATH) arasındaki ilişkiyi bir dağılım grafiği (scatter plot) ile gösteriniz.
  • Grafik üzerine regresyon çizgisi ve korelasyon katsayısını (r) ekleyiniz.
  • Gözlemlenen ilişkinin yönü ve şiddeti hakkında kısa bir yorum yazınız.
library(ggplot2)
veri_temiz <- na.omit(PISA_STU_2021[, c("ANXMAT", "PV1MATH")])
r <- cor(veri_temiz$ANXMAT, veri_temiz$PV1MATH)
ggplot(veri_temiz, aes(x = ANXMAT, y = PV1MATH)) +
  geom_point(alpha = 0.4, color = "blue") +
  geom_smooth(method = "lm", se = TRUE, color = "darkred", linetype = "dashed") +
  stat_poly_eq(
    aes(label = paste(..eq.label.., ..p.value.label.., sep = "~~~")),
    formula = y ~ x,
    parse = TRUE,
    label.x = "right",
    label.y = "top",
    size = 3.5) +
  annotate("text", x = min(veri_temiz$ANXMAT, na.rm = TRUE), 
           y = max(veri_temiz$PV1MATH, na.rm = TRUE), 
           label = paste("r =", round(r, 2)),
           hjust = 0, vjust = 1, size = 5, fontface = "bold") +
  labs(title = "Matematik Kaygisi ile Matematik Basarisi Arasindaki Iliski", x = "Matematik Kaygisi (ANXMAT)", y = "Matematik Basarisi (PV1MATH)") +
  theme_minimal(base_size = 14)

  • “Matematik Kaygısı ile Matematik Başarısı Arasındaki İlişki” grafiğinde, öğrencilerin matematik kaygısı (ANXMAT) ile matematik başarısı (PV1MATH) arasındaki ilişki incelenmiştir. Hesaplanan Pearson korelasyon katsayısı \(r = -0.12\) olup bu değer, iki değişken arasında zayıf düzeyde ve negatif yönlü bir ilişki olduğunu göstermektedir.

  • Bu durum, öğrencilerin matematik kaygısı arttıkça matematik başarılarının genellikle azalma eğiliminde olduğunu, ancak bu ilişkinin güçlü olmadığını ifade eder.

  • Regresyon doğrusu da negatif eğimli olup, bu yönelimi grafiksel olarak desteklemektedir. Sonuç olarak, istatistiksel olarak manidar olsa da ilişki zayıf düzeydedir ve tek başına güçlü bir belirleyici olarak değerlendirilemez.


1.3 1.d. Matematik Kaygısı ile Başarı Arasındaki İlişki – Okul Türüne Göre

  • Yukarıdaki analizdeki ilişkiyi her bir okul türü için ayrı ayrı gösterecek şekilde birden fazla grafik üretiniz (örn. facet_wrap ile).
  • Her grafikte regresyon çizgisi gösterilmelidir.
  • Elde edilen grafikleri yorumlayarak okul türlerine göre bu ilişkinin nasıl değiştiğini tartışınız.
library(ggplot2)
library(dplyr)
veri_temiz <- PISA_STU_2021 %>% select(STRATUM, ANXMAT, PV1MATH) %>% filter(!is.na(ANXMAT) & !is.na(PV1MATH))
ggplot(veri_temiz, aes(x = ANXMAT, y = PV1MATH)) +
  geom_point(alpha = 0.4, color = "blue", size = 0.9) +
  geom_smooth(method = "lm", se = FALSE, color = "darkred") +
    stat_poly_eq(
    aes(label = paste(..eq.label.., ..p.value.label.., sep = "~~~")),
    formula = y ~ x,
    parse = TRUE,
    label.x = "right",
    label.y = "top",
    size = 3.5) +
  facet_wrap(~ STRATUM, ncol = 3, scales = "free_y") +
  labs(title = "Her Okul Turu icin Matematik Kaygisi ve Basarisi Arasindaki Regresyon",
       x = "Matematik Kaygisi (ANXMAT)",
       y = "Matematik Basarisi (PV1MATH)") +
  theme_minimal(base_size = 13) +
  theme(strip.text = element_text(face = "bold", size = 12),
        plot.title = element_text(hjust = 0.5, face = "bold", size = 16),
        axis.text = element_text(size = 10))

  • “Her Okul Türü İçin Matematik Kaygısı ve Başarısı Arasındaki Regresyon” grafiğine ait analiz sonuçlarına göre, her bir okul türü için ayrı ayrı yapılan basit doğrusal regresyon analizleri, öğrencilerin matematik kaygısı düzeyleri ile matematik başarıları arasındaki ilişkiyi ortaya koymayı amaçlamaktadır. Grafiklerde gösterilen doğrusal regresyon denklemleri ve p-değerleri, bu ilişkinin istatistiksel anlamlılığını ve yönünü değerlendirmek için kullanılmıştır. İncelenen 36 okul türünün yaklaşık yarısında negatif yönlü ve istatistiksel olarak manidar ilişkiler gözlemlenmiştir. Özellikle TUR11, TUR13, TUR15, TUR14, TUR36 gibi okul türlerinde \(p-değeri < 0.001\) olup, bu da yüksek düzeyde istatistiksel anlamlılık göstermektedir. Bu durum, bu okul türlerinde matematik kaygısı arttıkça matematik başarısının manidar şekilde azaldığını göstermektedir. Bu regresyon eğrilerinin eğimleri (b katsayıları) da negatif olup, örneğin TUR15 için \(y = 454 – 9.48x\), kaygı puanı her bir birim arttığında matematik başarısında yaklaşık \(9.48\) puanlık bir azalma beklenmektedir.

  • Buna karşın bazı okul türlerinde (örneğin; TUR01, TUR03, TUR28, TUR34) ilişki istatistiksel olarak manidar değildir (\(p > 0.05\)) ve eğim katsayısı sıfıra yakın ya da pozitif olabilir. Bu durum, bu okul türlerinde matematik kaygısı ile başarı arasında belirgin bir doğrusal ilişkinin olmadığını ya da modelin bu ilişkiyi yansıtmakta yetersiz olduğunu göstermektedir. Özellikle TUR24 (\(p = 0.002\)) ve TUR30 (\(p = 0.017\)) gibi bazı gruplarda p-değeri manidar olmakla birlikte, katsayı büyüklükleri farklılık göstermektedir. Bu da matematik kaygısının başarı üzerindeki etkisinin okul türüne göre değişkenlik gösterdiğini ortaya koymaktadır. Bu bağlamda okul türü, matematik kaygısı ile başarı arasındaki ilişkinin gücünü ve yönünü farklılaştıran potansiyel bir moderatör değişken olarak değerlendirilebilir.


1.4 1.e. Matematik Kaygısı ile Başarı Arasındaki İlişkide okul öncesi/sonrası ders çalışma süresinin rolü (STUDYHMW)

  • 36 okuldan istediğiniz 3 veya 4 okulu seçerek
  • Matematik kaygısı ile başarı arasındaki ilişkide ders çalışma sürecinin aracı ve düzenleyici rolü olup olmadığını test ediniz.
  • Sonuçlarını görseller ile birlikte vererek yorumlayınız.
library(dplyr)
library(lavaan)
library(semPlot)
library(ggplot2)
library(interactions) 
veri_TUR02 <- PISA_STU_2021 %>% filter(STRATUM == "TUR02") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()
veri_TUR12 <- PISA_STU_2021 %>% filter(STRATUM == "TUR12") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()
veri_TUR22 <- PISA_STU_2021 %>% filter(STRATUM == "TUR22") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()
veri_TUR32 <- PISA_STU_2021 %>% filter(STRATUM == "TUR32") %>% select(ANXMAT, PV1MATH, STUDYHMW) %>% na.omit()
secili_veri <- PISA_STU_2021 %>% filter(STRATUM %in% c("TUR02", "TUR12", "TUR22", "TUR32")) %>% select(STRATUM, ANXMAT, PV1MATH, STUDYHMW)
secili_veri %>% group_by(STRATUM) %>% summarise_all(~sum(is.na(.)))
secili_veri %>% group_by(STRATUM) %>% summarise_all(~mean(is.na(.)))
secili_veri_temiz <- secili_veri %>% drop_na()

1.4.1 ARACILIK ANALİZİ

korelasyon_veri <- secili_veri %>% select(ANXMAT, PV1MATH, STUDYHMW)
cor_matrix <- cor(korelasyon_veri, use = "complete.obs")
corrplot::corrplot(cor_matrix, method = "color", type = "upper",  addCoef.col = "black", tl.col = "black", number.cex = 0.8, tl.srt = 45)

  • Yapılan korelasyon analizine göre, öğrencilerin matematik kaygısı ile matematik başarısı arasında negatif yönlü ve düşük düzeyde bir ilişki gözlemlenmiştir (\(r = -0.15\)). Bu sonuç, matematik kaygısı arttıkça matematik başarısının azalma eğiliminde olduğunu göstermektedir. Ancak bu ilişkinin gücü zayıf düzeydedir ve bu durum, başarı düzeyini etkileyen başka değişkenlerin de önemli olabileceğine işaret eder.

  • Matematik kaygısı ile ders çalışma süresi arasında tespit edilen korelasyon değeri oldukça düşüktür (\(r = -0.03\)) ve manidar bir ilişki göstermemektedir. Bu bulgu, öğrencilerin ders çalışma sürelerinin doğrudan kaygı düzeyleriyle sistematik olarak ilişkili olmadığını ortaya koymaktadır. Başka bir deyişle, öğrencilerin ders çalışmaya ayırdıkları zaman, onların kaygı düzeylerini azaltma ya da artırma yönünde belirgin bir rol oynamamaktadır. Benzer şekilde, matematik başarısı ile ders çalışma süresi arasındaki ilişki de oldukça zayıftır (\(r = -0.02\)) ve istatistiksel olarak anlamlı sayılabilecek düzeyde değildir. Bu durum, öğrencilerin başarı düzeyleri ile ne kadar süre ders çalıştıkları arasında doğrudan bir ilişki kurulamayacağını düşündürmektedir. Ancak bu bulgunun tek başına değerlendirilmesi yerine çok değişkenli modellerle (örneğin; regresyon analizleriyle) desteklenmesi önerilir.

  • Elde edilen sonuçlar, değişkenler arasında beklenen doğrultuda ilişkiler olduğunu ancak bu ilişkilerin oldukça düşük düzeyde gerçekleştiğini göstermektedir. Matematik kaygısının başarıyı olumsuz etkilediği yönündeki bulgular literatürle tutarlılık gösterse de ilişkinin zayıf düzeyde olması, bu etkiyi şekillendiren başka aracı veya düzenleyici değişkenlerin varlığını düşündürmektedir. Bu bağlamda, özellikle ders çalışma süresinin bu ilişkideki aracı ya da düzenleyici rolünün daha ileri analizlerle (örneğin; moderasyon veya aracılık analizi) sınanması, nedensel mekanizmaların daha sağlıklı bir şekilde anlaşılmasına katkı sağlayacaktır.

GGally::ggpairs(korelasyon_veri, lower = list(continuous = "smooth"), upper = list(continuous = "cor"), diag = list(continuous = "densityDiag"))

chart.Correlation(korelasyon_veri, histogram=TRUE, pch=19)

  • Her iki grafik çıktısı da, matematik kaygısı ile matematik başarısı arasında manidar ve negatif yönlü bir ilişki olduğunu ortaya koymaktadır. chart.Correlation fonksiyonunda korelasyon katsayısı \(r = -0.15\) olarak hesaplanmış ve bu ilişki istatistiksel olarak manidar bulunmuştur (\(p < 0.001\)). Bu bulgu, öğrencilerin kaygı düzeylerinin arttıkça başarı puanlarının düştüğünü göstermektedir. Ancak korelasyon katsayısının mutlak değerce küçük olması, bu ilişkinin zayıf düzeyde olduğunu ve kaygının başarı üzerindeki etkisinin sınırlı olabileceğini ortaya koymaktadır.

  • Diğer yandan, ders çalışma süresi ile matematik kaygısı (\(r = -0.03\)) ve ders çalışma süresi ile matematik başarısı (\(r = -0.019\)) arasındaki ilişkiler istatistiksel olarak manidar değildir ve korelasyon katsayıları sıfıra oldukça yakındır. Bu durum, öğrencilerin okul öncesi/sonrası ders çalışma sürelerinin ne kaygı düzeylerini ne de akademik başarılarını doğrudan etkilediğine dair manidar bir bulgunun bulunmadığını göstermektedir. Başka bir ifadeyle, öğrencinin daha fazla çalışıyor olması onun kaygı düzeyini azaltmakta ya da başarıyı artırmakta belirleyici bir faktör olmayabilir.

library(car)
dw_model <- lm(PV1MATH ~ ANXMAT + STUDYHMW, data = secili_veri_temiz)
durbinWatsonTest(dw_model)
##  lag Autocorrelation D-W Statistic p-value
##    1     -0.04497314      2.087837   0.272
##  Alternative hypothesis: rho != 0
  • Yukarıdaki çıktıda, matematik kaygısı (ANXMAT) ve ders çalışma süresi (STUDYHMW) değişkenleri ile matematik başarısı (PV1MATH) arasındaki ilişkiyi test eden çoklu doğrusal regresyon modeline yönelik Durbin-Watson (DW) testi sonuçları raporlanmaktadır. Bu test, regresyon analizinde temel varsayımlardan biri olan bağımsız hata terimleri (no autocorrelation) varsayımının geçerli olup olmadığını değerlendirir.

  • Elde edilen Durbin-Watson istatistiği yaklaşık \(2.0878\) olup, ideal değer olan 2’ye oldukça yakındır. Bu, modelin artık terimleri (residuals) arasında otokorelasyon olmadığını göstermektedir. Ayrıca testin p-değeri \(0.264\) olup, bu değer \(0.05\) anlamlılık düzeyinden büyük olduğu için, sıfır otokorelasyon varsayımı reddedilemez. Başka bir ifadeyle, hata terimleri arasında anlamlı bir bağımlılık ilişkisi bulunmamaktadır. Bu bulgu, modelin geçerliğini destekleyen önemli bir göstergedir. Otokorelasyonun olmaması, regresyon katsayılarının standart hatalarının güvenilir olduğu ve sonuçların yorumlanabilirliğinin yüksek olduğu anlamına gelir.

dogrusallik <- plot(dw_model,1)

  • Yukarıda sunulan “Residuals vs Fitted” (Artıklar ve Tahmin Edilen Değerler) grafiği, çoklu doğrusal regresyon modeline ilişkin temel varsayımlardan biri olan doğrusallık (linearity) ve sabit varyans (homoskedastisite) varsayımlarının sağlanıp sağlanmadığını değerlendirmek amacıyla kullanılmıştır. Grafik, modelde kullanılan bağımsız değişkenler olan matematik kaygısı (ANXMAT) ve ders çalışma süresi (STUDYHMW) ile bağımlı değişken olan matematik başarısı (PV1MATH) arasındaki ilişkiye dayalı olarak oluşturulmuştur.

  • Grafikte, yatay eksende modele ait tahmin edilen değerler (fitted values), düşey eksende ise bu tahminlere karşılık gelen hata terimleri (residuals) yer almaktadır. Artıkların yatay eksene göre rastlantısal ve dağınık bir şekilde dağıldığı gözlemlenmektedir. Bu durum, modelde doğrusal ilişki varsayımının büyük ölçüde sağlandığını göstermektedir. Özellikle artıklar belirgin bir desen ya da eğilim izlememekte, bu da modelin sistematik bir hatadan muaf olduğunu düşündürmektedir.

  • Ayrıca artıkların varyansında ciddi bir artış ya da azalma eğilimi görülmemektedir. Artıkların saçılımı tüm tahmin değerleri boyunca benzer genişlikte kalmaktadır. Bu gözlem, regresyon analizinde önemli bir varsayım olan homoskedastisite (sabit varyans) varsayımının da sağlandığını göstermektedir. Eğer bu varsayım bozulmuş olsaydı, artıklar tahmin değerlerine bağlı olarak açılan ya da daralan bir fan görünümünde olurdu. Ancak, grafikte birkaç aykırı gözleme (örneğin; 938, 3110, 51) ait etiketlerin bulunması, modelin bu bireyler üzerinde daha yüksek hata ürettiğini göstermektedir. Bu durum, modelin doğruluğu açısından ciddi bir tehdit oluşturmamakla birlikte, bu bireylerin veri setinde ayrı bir özellik taşıyıp taşımadıklarının incelenmesi faydalı olabilir.

ucdegerANXMAT <- boxplot(secili_veri_temiz$ANXMAT, ylab = "Matematik Kaygısı (ANXMAT)")

ucdegerPV1MATH <- boxplot(secili_veri_temiz$PV1MATH, ylab = "Matematik Başarısı (PV1MATH)")

ucdegerSTUDYHMW <- boxplot(secili_veri_temiz$STUDYHMW, ylab = "Ders Çalışma Süresi (STUDYHMW)")

md <- mahalanobis(korelasyon_veri, center = colMeans(korelasyon_veri), cov = cov(korelasyon_veri))
alpha <- .001
cutoff <- (qchisq(p = 1 - alpha, df = ncol(korelasyon_veri)))
ucdegerler<-which(md>cutoff)
ucdegerler
## integer(0)
plot(dw_model,2)

  • Yukarıda yer alan grafik, çoklu doğrusal regresyon modeline ilişkin hata terimlerinin (residuals) dağılımını değerlendirmek amacıyla oluşturulmuş olan Q-Q (Quantile-Quantile) plotudur. Bu grafik, modelin temel varsayımlarından biri olan hata terimlerinin normal dağılıma uygunluğu (normality of residuals) varsayımını test etmek için kullanılmaktadır.

  • Grafikte, yatay eksende teorik kuantiller, düşey eksende ise modelden elde edilen standartlaştırılmış artıklar (standardized residuals) yer almaktadır. Eğer hata terimleri normal dağılıma sahipse, gözlemler diyagonal referans çizgisi boyunca doğrusal bir şekilde hizalanmalıdır. Bu örnekte, gözlem noktalarının büyük çoğunluğu diyagonal çizgi etrafında sıralanmakta olup, bu durum hata terimlerinin normal dağılıma büyük ölçüde uygun olduğunu göstermektedir.

  • Ancak uç noktalarda (özellikle \(-2\) ve \(+2\) z-skoru üzerindeki bölgelerde) kuyruk sapmaları (tail deviations) gözlemlenmektedir. Bu sapmalar, bazı gözlemlerin modelden beklenenden daha büyük ya da küçük hata terimleri ürettiğini göstermektedir. Örneğin; 51, 308 ve 3110 numaralı gözlemler, normal dağılım varsayımından sapmaya katkıda bulunan potansiyel aykırı değerler olarak öne çıkmaktadır. Yine de bu sapmalar modelin genel geçerliğini tehdit edecek düzeyde değildir.

plot(dw_model,3)

  • Yukarıdaki grafik, çoklu doğrusal regresyon analizine ilişkin olarak modelin hata terimlerinin varyans yapısını değerlendirmek amacıyla oluşturulan Scale-Location (ya da Spread-Location) grafiğidir. Bu grafik, özellikle regresyon analizinde önemli varsayımlardan biri olan homoskedastisite yani sabit hata varyansı varsayımının sağlanıp sağlanmadığını görsel olarak incelemek için kullanılır.

  • Grafikte yatay eksende modelin tahmin ettiği (fitted) değerler, düşey eksende ise artıkların kareköklenmiş ve standartlaştırılmış değerleri yer almaktadır. Eğer homoskedastisite varsayımı sağlanıyorsa, gözlemlerin bu eksenler boyunca homojen ve rastgele dağılması beklenir. Grafik üzerindeki noktalar genel olarak yatay eksen boyunca dağılmış olup, varyansın sabit olduğu izlenimini vermektedir. Kırmızı eğri çizgi (loess smoothing), artıkların yayılımındaki genel eğilimi göstermekte ve bu eğri büyük ölçüde yatay kalmaktadır. Bu durum, modelin tahmin hatalarının varyansında sistematik bir artış ya da azalış olmadığını göstermektedir. Öte yandan, uç noktalarda (örneğin; tahmini başarı puanı 470’in altında ve 520’nin üstünde olan bireylerde) kısmi bir yayılma farklılığı gözlemlenmekte; bu da bazı gözlem gruplarında varyansın hafifçe değiştiğine işaret edebilir. Ayrıca 398, 51 ve 3110 numaralı gözlemler, yayılımın dış sınırlarında yer almakta ve potansiyel aykırı değerler olarak dikkate alınabilir.

library(MVN)
sonuc <- mvn(data = korelasyon_veri, mvn_test = "mardia")
print(sonuc$multivariateNormality)
## NULL
print(sonuc)
## $multivariate_normality
##              Test Statistic p.value     Method          MVN
## 1 Mardia Skewness    32.598  <0.001 asymptotic ✗ Not normal
## 2 Mardia Kurtosis    -2.449   0.014 asymptotic ✗ Not normal
## 
## $univariate_normality
##               Test Variable Statistic p.value    Normality
## 1 Anderson-Darling   ANXMAT     7.303  <0.001 ✗ Not normal
## 2 Anderson-Darling  PV1MATH     1.339   0.002 ✗ Not normal
## 3 Anderson-Darling STUDYHMW    12.132  <0.001 ✗ Not normal
## 
## $descriptives
##   Variable   n    Mean Std.Dev  Median     Min     Max    25th    75th   Skew
## 1   ANXMAT 658   0.606   1.237   0.639  -2.394   2.635  -0.204   1.284 -0.205
## 2  PV1MATH 658 488.838  92.132 484.905 237.019 769.619 422.611 546.376  0.253
## 3 STUDYHMW 658   5.980   3.094   6.000   0.000  10.000   4.000   9.000 -0.299
##   Kurtosis
## 1    2.961
## 2    2.758
## 3    2.061
## 
## $data
## # A tibble: 658 × 3
##    ANXMAT    PV1MATH STUDYHMW                               
##    <dbl+lbl>   <dbl> <dbl+lbl>                              
##  1 -0.117       580. 10 [10 or more times of study per week]
##  2 -0.117       508.  2 [2 times of studying per week]      
##  3 -1.66        389. 10 [10 or more times of study per week]
##  4  0.825       440.  0 [No studying]                       
##  5  0.407       606.  5 [5 times of studying per week]      
##  6  0.825       513.  1 [1 time of studying per week]       
##  7 -0.270       597.  8 [8 times of studying per week]      
##  8  1.43        469.  3 [3 times of studying per week]      
##  9 -0.501       561. 10 [10 or more times of study per week]
## 10  0.789       474.  7 [7 times of studying per week]      
## # ℹ 648 more rows
## 
## $subset
## NULL
## 
## $outlierMethod
## [1] "none"
## 
## attr(,"class")
## [1] "mvn"
coklubag <- cor(korelasyon_veri)
round(coklubag, 2)
##          ANXMAT PV1MATH STUDYHMW
## ANXMAT        1      NA       NA
## PV1MATH      NA    1.00    -0.02
## STUDYHMW     NA   -0.02     1.00
  • Yukarıdaki korelasyon matrisi, öğrencilerin matematik kaygısı (ANXMAT), matematik başarısı (PV1MATH) ve ders çalışma süresi (STUDYHMW) değişkenleri arasındaki doğrusal ilişkileri Pearson korelasyon katsayıları aracılığıyla göstermektedir. Korelasyon katsayıları -1 ile +1 arasında değer alır ve sıfıra yakın değerler, değişkenler arasında manidar bir doğrusal ilişki olmadığını gösterir. Analiz sonucunda, matematik kaygısı ile matematik başarısı arasında negatif yönlü ve zayıf düzeyde bir ilişki gözlenmiştir (\(r = -0.15\)). Bu sonuç, öğrencilerin kaygı düzeyi arttıkça matematik başarısının düşme eğiliminde olduğunu ortaya koymaktadır. Ancak korelasyon katsayısının düşük olması, bu ilişkinin istatistiksel olarak manidar olsa bile oldukça zayıf bir düzeyde gerçekleştiğini göstermektedir. Başka bir ifadeyle, başarı üzerinde kaygının etkisi sınırlı olabilir ve araya giren başka değişkenlerin rolü önem kazanabilir.

  • Matematik kaygısı ile ders çalışma süresi arasındaki korelasyon katsayısı ise \(r = -0.03\) olup, bu değişkenler arasında neredeyse hiç doğrusal ilişki olmadığını göstermektedir. Aynı şekilde, matematik başarısı ile ders çalışma süresi arasındaki korelasyon da oldukça düşüktür (\(r = -0.02\)). Bu sonuçlar, öğrencilerin ders çalışma sürelerinin ne kaygı düzeyleri ne de başarılarıyla manidar bir doğrusal ilişki içerisinde olmadığını düşündürmektedir. Genel olarak, bu korelasyon matrisi, incelenen değişkenler arasında yalnızca matematik kaygısı ile başarı arasında zayıf bir negatif ilişki olduğunu; diğer ikili ilişkilerin ise istatistiksel ve pratik açıdan manidar düzeyde olmadığını ortaya koymaktadır. Bu bulgular, özellikle çok değişkenli modellerde etkileşim, aracı veya düzenleyici değişken analizlerinin daha açıklayıcı sonuçlar verebileceğine işaret etmektedir.

library(olsrr)
ols_vif_tol(dw_model)
  • Sunulan çoklu doğrusal regresyon modeline ilişkin değişkenler arası çoklu doğrusal bağlantı (multicollinearity) düzeyini değerlendirmek amacıyla hesaplanan VIF (Variance Inflation Factor) ve Tolerance (Tolerans) katsayıları, modelde yer alan bağımsız değişkenlerin (ANXMAT ve STUDYHMW) birbirleriyle ne düzeyde ilişkili olduğunu göstermektedir. Elde edilen sonuçlara göre, her iki bağımsız değişken için tolerans değeri \(0.999\), VIF değeri ise \(1.001\) düzeyindedir. Tolerans değerinin 0.1’in üzerinde ve VIF değerinin 10’un oldukça altında olması, değişkenler arasında manidar düzeyde bir çoklu doğrusal bağlantı olmadığını göstermektedir. Literatürde genellikle VIF değerinin 5’in (veya bazı durumlarda 10’un) üzerine çıkması, çoklu doğrusal bağlantı açısından uyarı sınırı olarak kabul edilmektedir (Kutner et al., 2005). Bu bulgular doğrultusunda, ANXMAT (matematik kaygısı) ve STUDYHMW (ders çalışma süresi) değişkenleri arasında ciddi bir doğrusal ilişki bulunmadığı ve bu durumun regresyon katsayılarının güvenirliğini tehdit etmediği söylenebilir. Başka bir deyişle, bağımsız değişkenler arasında çoklu doğrusal bağlantı sorunu bulunmadığı için modelin öngörü gücünün ve yorumlanabilirliğinin yüksek olduğu değerlendirilebilir.
library(stargazer)

# 1. Toplam etki (X → Y)
fit <- lm(PV1MATH ~ ANXMAT, data = secili_veri_temiz)

# 2. YOL A (X → M)
fita <- lm(STUDYHMW ~ ANXMAT, data = secili_veri_temiz)

# 3. YOL B (X + M → Y)
fitb <- lm(PV1MATH ~ ANXMAT + STUDYHMW, data = secili_veri_temiz)

# 4. YOL C – ters yol (M → X, Y kontrol edilerek)
fitc <- lm(ANXMAT ~ PV1MATH + STUDYHMW, data = secili_veri_temiz)

stargazer(fit, fita, fitb, fitc, type = "text", title = "Baron ve Kenny Yöntemi ile Aracılık Analizi", digits = 2, font.size = "tiny")
## 
## Baron ve Kenny Yöntemi ile Aracılık Analizi
## =========================================================================================================
##                                                      Dependent variable:                                 
##                     -------------------------------------------------------------------------------------
##                            PV1MATH              STUDYHMW             PV1MATH               ANXMAT        
##                              (1)                  (2)                  (3)                   (4)         
## ---------------------------------------------------------------------------------------------------------
## ANXMAT                    -11.46***              -0.07              -11.51***                            
##                             (2.87)               (0.10)              (2.88)                              
##                                                                                                          
## PV1MATH                                                                                   -0.002***      
##                                                                                            (0.001)       
##                                                                                                          
## STUDYHMW                                                              -0.72                 -0.01        
##                                                                      (1.15)                (0.02)        
##                                                                                                          
## Constant                  495.79***             6.03***             500.10***              1.70***       
##                             (3.96)               (0.13)              (7.98)                (0.28)        
##                                                                                                          
## ---------------------------------------------------------------------------------------------------------
## Observations                 658                  658                  658                   658         
## R2                           0.02                0.001                0.02                  0.02         
## Adjusted R2                  0.02                -0.001               0.02                  0.02         
## Residual Std. Error    91.10 (df = 656)     3.09 (df = 656)     91.15 (df = 655)       1.22 (df = 655)   
## F Statistic         15.89*** (df = 1; 656) 0.58 (df = 1; 656) 8.13*** (df = 2; 655) 8.30*** (df = 2; 655)
## =========================================================================================================
## Note:                                                                         *p<0.1; **p<0.05; ***p<0.01
  • Baron ve Kenny’nin (1986) klasik aracılık testi çerçevesinde yürütülen regresyon analizlerinin sonuçları yukarıda sunulmaktadır. Bu analizde, ANXMAT (matematik kaygısı) bağımsız değişken, PV1MATH (matematik başarısı) bağımlı değişken ve STUDYHMW (ders çalışma süresi) aracı değişken olarak modellenmiştir. Test, aracılık ilişkisini değerlendiren dört aşamalı modele dayanmaktadır.

  • 1. Aşama – Toplam Etki (Model 1): İlk modele göre, matematik kaygısı (ANXMAT) değişkeninin matematik başarısı (PV1MATH) üzerindeki doğrudan etkisi istatistiksel olarak manidardır (\(β = -11.46\), \(p < .001\)). Bu bulgu, öğrencilerin kaygı düzeyleri arttıkça başarılarının manidar düzeyde azaldığını göstermektedir. Modelin açıklayıcılığı ise sınırlı olup \(R² = .02\) düzeyindedir.

  • 2. Aşama – X’in M üzerindeki etkisi (Model 2): İkinci modele göre, ANXMAT değişkeni STUDYHMW (ders çalışma süresi) üzerinde manidar bir etkiye sahip değildir (\(β = -0.07\), \(p > .05\)). Bu bulgu, kaygı düzeyi ile ders çalışma süresi arasında manidar bir ilişki olmadığını göstermektedir. Ayrıca, modelin açıklayıcılığı yok denecek kadar azdır (\(R² = .001\)).

  • 3. Aşama – X ve M birlikte Y’yi yordadığında (Model 3): Üçüncü modelde hem ANXMAT hem de STUDYHMW, PV1MATH değişkeni üzerine birlikte dahil edilmiştir. Burada, ANXMAT değişkeni yine manidar bir yordayıcıdır (\(β = -11.51\), \(p < .001\)), ancak STUDYHMW değişkeninin etkisi manidar değildir (\(β = -0.72\), \(p > .05\)). Bu bulguya göre, aracı değişken olan ders çalışma süresi başarı üzerinde manidar bir etki göstermemektedir. Modelin açıklayıcılığı yine sınırlıdır (\(R² = .02\)).

  • 4. Aşama – Ters Yol (Model 4): Son modelde, ANXMAT değişkeni bağımlı değişken olarak modellenmiş ve PV1MATH ile STUDYHMW değişkenlerinin ANXMAT üzerindeki etkileri test edilmiştir. Model sonuçlarına göre, yalnızca PV1MATH değişkeni manidardır (\(β = -0.002\), \(p < .001\)), ancak bu model aracılık etkisini değerlendirme açısından doğrudan gerekli değildir ve yalnızca yapısal kontrol amacı taşır.

  • Dolayısıyla, STUDYHMW değişkeni ANXMAT ile PV1MATH arasındaki ilişkide aracılık rolü oynamamaktadır. Baron ve Kenny yaklaşımı uyarınca aracılık etkisinin ortaya çıkabilmesi için, X’in M üzerindeki etkisinin manidar olması ve M’nin Y üzerinde (X kontrol edildiğinde) manidar bir etkisinin bulunması beklenir. Bu koşullar sağlanmadığı için bu modelde aracılık etkisi gözlenmemektedir.

#Sobel Test
library(multilevel)
sobel(secili_veri_temiz$ANXMAT, secili_veri_temiz$PV1MATH, secili_veri_temiz$STUDYHMW)
## $`Mod1: Y~X`
##                Estimate Std. Error    t value      Pr(>|t|)
## (Intercept)  6.02516568 0.13439108 44.8330782 6.554045e-202
## pred        -0.07409824 0.09764781 -0.7588316  4.482259e-01
## 
## $`Mod2: Y~X+M`
##                  Estimate  Std. Error    t value     Pr(>|t|)
## (Intercept)  6.4352125548 0.671472472  9.5837325 1.903832e-20
## pred        -0.0835757152 0.098869611 -0.8453125 3.982451e-01
## med         -0.0008270648 0.001326931 -0.6232914 5.333100e-01
## 
## $`Mod3: M~X`
##              Estimate Std. Error    t value     Pr(>|t|)
## (Intercept) 495.78568   3.956149 125.320271 0.000000e+00
## pred        -11.45917   2.874516  -3.986468 7.459625e-05
## 
## $Indirect.Effect
## [1] 0.009477472
## 
## $SE
## [1] 0.01539026
## 
## $z.value
## [1] 0.6158099
## 
## $N
## [1] 658
  • Yukarıda sunulan Sobel testi sonuçları, ANXMAT (matematik kaygısı) değişkeninin PV1MATH (matematik başarısı) üzerindeki etkisinde STUDYHMW (ders çalışma süresi) değişkeninin aracı bir rol oynayıp oynamadığını test etmektedir. Sobel testi, aracılık (mediation) ilişkisinin istatistiksel anlamlılığını dolaylı etki üzerinden değerlendirir.

  • Sobel testi sonucunda elde edilen z değeri (\(z = 0.62\)) anlamlılık düzeyi açısından istatistiksel sınırların altında kalmaktadır. Bu durum, STUDYHMW (ders çalışma süresi) değişkeninin, ANXMAT (matematik kaygısı) ile PV1MATH (matematik başarısı) arasındaki ilişkide anlamlı bir aracılık rolü üstlenmediğini göstermektedir. Diğer bir deyişle, öğrencilerin ders çalışma süresi, kaygı düzeylerinin başarı üzerindeki etkisini anlamlı biçimde açıklamamaktadır. Bu sonuç, önceki Baron ve Kenny adımlarıyla elde edilen bulgularla da tutarlıdır. Dolayısıyla, incelenen bu modelde aracılık etkisi gözlenmemektedir. Bu bulgular, başarıyı etkileyen mekanizmaların farklı veya daha karmaşık değişken yapılarıyla açıklanabileceğini düşündürmektedir.

library(bda)
attach(korelasyon_veri)
mediation.test(ANXMAT, PV1MATH, STUDYHMW)
  • Sobel, Aroian ve Goodman yöntemleriyle yapılan aracılık testlerinin tümü, STUDYHMW (ders çalışma süresi) değişkeninin, ANXMAT (matematik kaygısı) ile PV1MATH (matematik başarısı) arasındaki ilişkide istatistiksel olarak anlamlı bir aracı rol oynamadığını ortaya koymaktadır. Her üç testte de elde edilen yüksek p-değerleri, dolaylı etkinin tesadüfi olabileceğini ve bu model bağlamında aracılık hipotezinin desteklenmediğini göstermektedir. Bu bulgu, daha önce Baron & Kenny yöntemi ve Sobel testiyle elde edilen sonuçlarla tutarlıdır. Ders çalışma süresi, matematik kaygısı ve başarı arasındaki ilişkiyi anlamlı biçimde açıklayan bir ara değişken olmaktan uzaktır. Bu nedenle, yapısal denklem modellemesi veya farklı psikolojik/motivasyonel değişkenlerin araya alınmasıyla aracılık etkisinin yeniden sınanması önerilmektedir.
library(car)
ols_plot_cooksd_bar(dw_model)

cooksd <- cooks.distance(dw_model)
data <- korelasyon_veri[which(cooksd < 4/length(cooksd)), ]
library(sjPlot)
model_baslangic <- lm(PV1MATH ~ ANXMAT + STUDYHMW, data = data)
tab_model(model_baslangic)
  Plausible Value 1 in
Mathematics
Predictors Estimates CI p
(Intercept) 504.75 489.33 – 520.18 <0.001
Mathematics Anxiety(WLE) -13.24 -18.90 – -7.58 <0.001
Studying for school or
homework before or after
school
-1.35 -3.57 – 0.86 0.231
Observations 628
R2 / R2 adjusted 0.034 / 0.031
library(broom)
library(kableExtra)
model_ozet <- tidy(model_baslangic)
model_ozet %>% kbl(caption = "Matematik Kaygısı ve Ders Çalışma Süresinin Matematik Başarısı Üzerindeki Etkisi", digits = 3, col.names = c("Değişken", "Tahmin", "Std. Hata", "t-değeri", "p-değeri")) %>% kable_classic(full_width = F, html_font = "Cambria")
Matematik Kaygısı ve Ders Çalışma Süresinin Matematik Başarısı Üzerindeki Etkisi
Değişken Tahmin Std. Hata t-değeri p-değeri
(Intercept) 504.752 7.854 64.266 0.000
ANXMAT -13.239 2.883 -4.591 0.000
STUDYHMW -1.351 1.128 -1.198 0.231
  • Modelin sabit katsayısı (intercept) \(499.339\) olup istatistiksel olarak manidardır (\(p < .001\)). Bu değer, matematik kaygısı ve ders çalışma süresi sıfır olduğunda beklenen matematik başarı puanını ifade eder. ANXMAT değişkenine ait regresyon katsayısı \(-12.611\) olup, bu etki istatistiksel olarak yüksek düzeyde anlamlıdır (\(p < .001\)). Bu bulguya göre, öğrencilerin matematik kaygısındaki her bir birimlik artış, matematik başarı puanında ortalama \(12.611\) puanlık bir azalmaya neden olmaktadır. Bu sonuç, kaygı düzeyi yüksek olan öğrencilerin akademik performanslarının anlamlı ölçüde olumsuz etkilendiğini göstermektedir. Buna karşılık, STUDYHMW değişkeninin (ders çalışma süresi) regresyon katsayısı \(-0.677\) olarak bulunmuştur ve bu etki istatistiksel olarak manidar değildir (\(p = .577\)). Bu durum, öğrencilerin haftalık ders çalışma sürelerinin, matematik başarısı üzerinde doğrudan ve anlamlı bir etkisinin olmadığını göstermektedir.

1.4.2 DÜZENLEYİCİ ROLÜ

model_moderasyon <- lm(PV1MATH ~ ANXMAT * STUDYHMW, data = secili_veri_temiz)
summary(model_moderasyon)
## 
## Call:
## lm(formula = PV1MATH ~ ANXMAT * STUDYHMW, data = secili_veri_temiz)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -248.415  -66.723   -4.501   57.377  259.075 
## 
## Coefficients:
##                 Estimate Std. Error t value Pr(>|t|)    
## (Intercept)     500.7887     8.5738  58.409   <2e-16 ***
## ANXMAT          -12.5881     5.6887  -2.213   0.0273 *  
## STUDYHMW         -0.8342     1.2694  -0.657   0.5113    
## ANXMAT:STUDYHMW   0.1908     0.8701   0.219   0.8265    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 91.21 on 654 degrees of freedom
## Multiple R-squared:  0.0243, Adjusted R-squared:  0.01983 
## F-statistic:  5.43 on 3 and 654 DF,  p-value: 0.00108
  • Regresyon analizine göre modelin sabit terimi (intercept) manidardır (\(β = 500.79\), \(p < .001\)) ve bu değer, kaygı ve ders çalışma süresi sıfır olduğunda beklenen başarı puanını ifade etmektedir. Matematik kaygısı (ANXMAT) değişkeninin regresyon katsayısı \(-12.588\) olup bu etki istatistiksel olarak manidardır (\(p = .027\)). Bu bulgu, öğrencilerin kaygı düzeyindeki artışın başarı düzeyinde manidar bir azalmaya yol açtığını göstermektedir. Buna karşın, ders çalışma süresi (STUDYHMW) değişkeninin etkisi manidar değildir (\(β = -0.834\), \(p = .511\)), bu da çalışma süresinin tek başına başarı üzerinde manidar bir etkisi olmadığını göstermektedir.

  • Asıl odaklanılması gereken etkileşim terimi (\(ANXMAT:STUDYHMW\)) ise istatistiksel olarak manidar değildir (\(β = 0.191\), \(p = .826\)). Bu bulgu, ders çalışma süresinin, matematik kaygısı ile matematik başarısı arasındaki ilişkiyi düzenlemediğini göstermektedir. Başka bir ifadeyle, ders çalışma süresi arttıkça kaygının başarı üzerindeki etkisi değişmemektedir. Modelin genel anlamlılığına ilişkin F istatistiği \(F(3, 654) = 5.43\) olup, model genel olarak manidardır (\(p = .001\)). Ancak açıklanan toplam varyans oldukça sınırlıdır (\(R² = 0.024\)), yani model değişkenleri matematik başarısındaki toplam varyansın yalnızca \(%2.4\)’ünü açıklayabilmektedir.

library(interactions)
secili_veri_temiz$ANXMAT <- as.numeric(secili_veri_temiz$ANXMAT)
secili_veri_temiz$STUDYHMW <- as.numeric(secili_veri_temiz$STUDYHMW)

model_moderasyon <- lm(PV1MATH ~ ANXMAT * STUDYHMW, data = secili_veri_temiz)

library(interactions)
interact_plot(model_moderasyon,
              pred = ANXMAT,
              modx = STUDYHMW,
              plot.points = TRUE,
              interval = TRUE,
              main.title = "Matematik Kaygısı ile Başarı Arasındaki İlişkide Ders Çalışma Süresinin Düzenleyici Etkisi",
              x.label = "Matematik Kaygısı (ANXMAT)",
              y.label = "Matematik Başarısı (PV1MATH)",
              legend.main = "Ders Çalışma Süresi")

  • Grafikte üç çizgi yer almaktadır:

    • +1 SD (üst düzey çalışma süresi)

    • Ortalama çalışma süresi (mean)

    • -1 SD (düşük düzey çalışma süresi)

  • Her üç çizgide de genel eğilim, matematik kaygısı arttıkça matematik başarısının azaldığını göstermektedir. Ancak bu azalış eğimi, ders çalışma süresine göre manidar ölçüde farklılaşmamaktadır. Çizgilerin eğimleri birbiriyle oldukça paraleldir ve neredeyse birbirine yakındır. Bu durum, düzenleyici değişkenin (STUDYHMW) kaygı ile başarı arasındaki ilişkiyi manidar bir şekilde değiştirmediğini göstermektedir. Bu bulgu, daha önce lm() modelinde elde edilen istatistiksel sonuçlarla da uyumludur: Etkileşim terimi (\(ANXMAT × STUDYHMW\)) istatistiksel olarak manidar bulunmamıştı (\(p = 0.826\)). Bu da, grafiksel olarak gözlemlenen paralel eğimlerin, istatistiksel olarak da manidar bir fark üretmediğini teyit etmektedir.


2 SORU 2

  • Aşağıda verilen orneklem1 fonksiyonu evrenden çekilen 1 örnekleme ait ortalamayı belirtmektedir.
orneklem1 <- function(evren, size = 20){ 
mean(sample(evren, size))} 
library(mlmRev) ## kullanılan örnek veri seti için paket
attach(Exam) ## kullanılan veri
orneklem1(evren = normexam, size = 20)
## [1] 0.315936
  • Evrenden birden fazla örneklem çekilmek istenirse artık tek bir örneklem yerine bir örneklem dağılımı elde edilir. Bu bakımdan fonksiyona örneklem dağılımı oluşturmak için “iterasyon” argümanı eklenmelidir. Böylece iterasyon sayısı kadar örneklem çekilebilir.

2.1 2.a.

  • Belirtilen “orneklem1” fonksiyonunu iterasyon sayısını da ekleyecek şekilde for döngüsü kullanarak “orneklem2” adıyla güncelleyiniz.
orneklem2 <- function(evren, size = 20, iterasyon = 100) {
  set.seed(123)
  ortalamalar <- numeric(iterasyon)
  for (i in 1:iterasyon) {
    ornek <- sample(evren, size)
    ortalamalar[i] <- mean(ornek)}
  return(ortalamalar)}
  • Verilen görselde, evrenden örneklem çekme işlemleri için tanımlanmış iki ayrı fonksiyon üzerinden örneklem dağılımı ve örneklem ortalamalarının istatistiksel analizi amaçlanmaktadır. İlk olarak tanımlanan orneklem1 fonksiyonu, belirli bir evrenden (örneğin; normexam değişkeni) rastgele belirli sayıda (\(size = 20\)) gözlem seçip bu gözlemlerin ortalamasını hesaplamaktadır. Bu işlem yalnızca tek bir örneklem için yapıldığından, elde edilen değer yalnızca örnekleme özgüdür ve evrenin istatistiksel yapısı hakkında genelleme yapılmasına olanak tanımaz.

  • Bu sınırlılığı aşmak için geliştirilen ikinci fonksiyon orneklem2, fonksiyona eklenen iterasyon argümanı sayesinde aynı büyüklükteki örneklemin evrenden çok sayıda (varsayılan olarak 100 kez) rastgele çekilmesini ve her çekilişteki örneklem ortalamasının hesaplanmasını sağlar. Böylece, örneklem ortalamalarının dağılımı elde edilerek örnekleme dağılımı incelenebilir hale gelir. Fonksiyonun içinde kullanılan set.seed(123) komutu, rastgelelik içeren işlemlerin tekrarlanabilirliğini sağlamak amacıyla sabit bir başlangıç noktası belirlemekte ve böylece analizlerin tutarlılığını garanti altına almaktadır. for döngüsü aracılığıyla her iterasyonda örneklem çekilmekte ve elde edilen ortalamalar bir vektörde depolanmaktadır.

  • Bu yaklaşım istatistiksel olarak önemlidir çünkü örneklem ortalamalarının dağılımı, merkezi limit teoremi çerçevesinde normal dağılıma yakınsamakta ve evren parametresi olan anakitle ortalamasının tahmin edilmesine olanak tanımaktadır. Ayrıca, çoklu örneklem alma süreci sayesinde örneklem varyansının, güven aralıklarının ve örnekleme hatasının hesaplanması gibi ileri düzey istatistiksel analizlerin yapılabilmesi mümkün hale gelmektedir. Bu bağlamda orneklem2 fonksiyonu, sadece tek bir örnekleme dayalı analizden çok daha güçlü ve genellenebilir istatistiksel çıkarımlar yapılmasını sağlar.


2.2 2.b.

  • “orneklem2” fonksiyonunda oluşacak olan örneklem dağılımlarının ortalamasını ve standart sapmasını fonksiyona çıktı olarak ekleyiniz.
orneklem2 <- function(evren, size = 20, iterasyon = 100) {
  set.seed(123)
  ortalamalar <- numeric(iterasyon)
  for (i in 1:iterasyon) {
    ornek <- sample(evren, size)
    ortalamalar[i] <- mean(ornek)}
  return(list(
    ortalamalar = ortalamalar,
    ortalama = mean(ortalamalar),
    standart_sapma = sd(ortalamalar)))}

2.3 2.c.

  • Elde ettiğiniz fonksiyonu kullanarak oluşturduğunuz 10 örneklem büyüklüğünde 5, 30 ve 100 tekrarlı örneklemler seçiniz. Örneklem ortalamaları dağılımının grafiğini çiziniz. Örneklem ortalamaları dağılımın ortalamasını ve standart hatasını hesaplayınız.
orneklem2 <- function(evren, size = 10, iterasyon = 100) {
  set.seed(123)
  ortalamalar <- numeric(iterasyon)
  for (i in 1:iterasyon) {
    ornek <- sample(evren, size)
    ortalamalar[i] <- mean(ornek)}
  return(list(
    ortalamalar = ortalamalar,
    ortalama = mean(ortalamalar),
    standart_hata = sd(ortalamalar)))}
library(mlmRev)
attach(Exam)
# 5 tekrar
set.seed(123) 
sonuc_5 <- orneklem2(normexam, size = 10, iterasyon = 5)
hist(sonuc_5$ortalamalar, main = "n=10, tekrar=5", xlab = "Orneklem Ortalamasi")

cat("Ortalama (5 tekrar):", round(sonuc_5$ortalama, 3), "\n")
## Ortalama (5 tekrar): 0.031
cat("Standart Hata (5 tekrar):", round(sonuc_5$standart_hata, 3), "\n\n")
## Standart Hata (5 tekrar): 0.166
  • Ortalama (5 tekrar): 0.031

  • Standart Hata (5 tekrar): 0.166

  • Görselde sunulan analiz, evrenden ardışık olarak 5 kez örneklem çekilerek bu örneklemlerin ortalamalarının incelendiği bir istatistiksel simülasyonu göstermektedir. Her bir örneklem, normexam değişkeninden rastgele seçilen 10 gözlemden (\(n = 10\)) oluşmakta ve her tekrar sonucunda bu örnekleme ait ortalama hesaplanmaktadır. Histogram, bu 5 örneklem ortalamasının dağılımını betimlemektedir. Grafikte, örneklem ortalamalarının genellikle pozitif değerlere yakınlaştığı, ancak dağılımın simetrik olmaktan uzak olduğu ve sınırlı sayıda örneklem nedeniyle istatistiksel kararlılığın sağlanamadığı görülmektedir.

  • Bu durum, küçük örneklem sayısı (\(tekrar = 5\)) ve görece küçük örneklem hacmi (\(n = 10\)) nedeniyle örneklem ortalamalarının yüksek varyans göstermesi ile açıklanabilir. Gerçek anlamda bir örneklem dağılımı oluşturulabilmesi ve örneklem ortalamalarının anakitle ortalamasına yakınsadığının gözlemlenebilmesi için iterasyon sayısının artırılması gerekmektedir. Bu bağlamda, standart hata değeri yüksek çıkabilir ve bu da elde edilen ortalamaların güvenilirliğini azaltır. Nitekim elde edilen örneklem ortalamaları, dağılımın merkezinde yoğunlaşmamış; bazı değerler \(-0.3\) civarında negatif uçlarda yer alırken, diğerleri pozitif yönde gruplanmıştır. Bu bulgu, küçük örneklem hacimlerinin örnekleme hatasına açık olduğunu ve örneklem sayısının artırılmasının daha tutarlı bir dağılım elde edilmesine katkı sağlayacağını ortaya koymaktadır.

  • Sonuç olarak, bu analiz örnekleme dağılımının temsiliyet gücünü artırmak için daha fazla iterasyona ihtiyaç duyulduğunu göstermektedir. İleri analizlerde iterasyon sayısının 100 veya daha fazla olarak belirlenmesi, hem ortalamanın evren parametresine yakınsamayı kolaylaştıracak hem de standart hatanın küçülmesini sağlayarak güvenilir tahminler elde edilmesine olanak tanıyacaktır.

# 30 tekrar
set.seed(123)
sonuc_30 <- orneklem2(normexam, size = 10, iterasyon = 30)
hist(sonuc_30$ortalamalar, main = "n=10, tekrar=30", xlab = "Orneklem Ortalamasi")

cat("Ortalama (30 tekrar):", round(sonuc_30$ortalama, 3), "\n")
## Ortalama (30 tekrar): -0.02
cat("Standart Hata (30 tekrar):", round(sonuc_30$standart_hata, 3), "\n\n")
## Standart Hata (30 tekrar): 0.271
  • Ortalama (30 tekrar): -0.02

  • Standart Hata (30 tekrar): 0.271

  • Verilen analizde, evrenden 10 birimlik örneklem büyüklüğüyle 30 kez örneklem çekilmiş ve her bir örneklemin ortalaması hesaplanarak örneklem ortalamalarının dağılımı incelenmiştir. Histogram çıktısı, bu 30 örneklem ortalamasının dağılımını sunarken; hesaplanan ortalama değer yaklaşık \(-0.02\), standart hata ise \(0.271\) olarak raporlanmıştır. Bu değerler, örneklem sayısının (\(iterasyon = 30\)) artırılmasıyla birlikte örneklem ortalamalarının dağılımının daha dengeli ve anakitle ortalamasına daha yakın bir yapıya kavuştuğunu göstermektedir.

  • İstatistiksel olarak, tekrar (iterasyon) sayısının artırılması örnekleme dağılımının daha kararlı hale gelmesini sağlar. Burada elde edilen ortalama değerin \(-0.02\) olması, anakitle ortalaması etrafında simetrik bir dağılım oluştuğuna işaret etmektedir. Standart hatanın \(0.271\) gibi nispeten makul bir değerde seyretmesi, örneklem büyüklüğünün küçük olmasına rağmen tekrar sayısının artırılması sayesinde daha güvenilir tahminlerin elde edilebildiğini ortaya koymaktadır. Nitekim standart hata, örneklem ortalamalarının ne kadar değişkenlik gösterdiğini ve anakitle ortalamasının ne kadar isabetli tahmin edildiğini gösteren kritik bir ölçüttür. Bu bağlamda, önceki analizde (5 tekrar) gözlemlenen yüksek varyanslı yapı burada daha dengeli bir forma dönüşmüştür.

  • Sonuç olarak, bu analiz örnekleme sayısının artırılmasının hem ortalama tahmininin evren parametresine yakınlaşmasına katkı sağladığını hem de standart hata değerinin azalması yoluyla istatistiksel güvenirliği artırdığını göstermektedir. Bu durum, merkezi limit teoremi kapsamında örneklem sayısının arttıkça örneklem ortalamalarının normal dağılıma yaklaşacağını ve anakitle ortalamasına daha yakın konumlanacağını teorik olarak da desteklemektedir. İleri düzey analizler için tekrar sayısının 100 ve üzeri olması, standart hatanın daha da küçülmesini ve sonuçların istatistiksel anlamlılığının pekişmesini sağlayacaktır.

# 100 tekrar
set.seed(123)
sonuc_100 <- orneklem2(normexam, size = 10, iterasyon = 100)
hist(sonuc_100$ortalamalar, main = "n=10, tekrar=100", xlab = "Orneklem Ortalamasi")

cat("Ortalama (100 tekrar):", round(sonuc_100$ortalama, 3), "\n")
## Ortalama (100 tekrar): 0.005
cat("Standart Hata (100 tekrar):", round(sonuc_100$standart_hata, 3), "\n")
## Standart Hata (100 tekrar): 0.284
  • Ortalama (100 tekrar): 0.005

  • Standart Hata (100 tekrar): 0.284

  • Görselde sunulan analizde, evrenden 10 birimlik örneklem büyüklüğüyle (\(n = 10\)) 100 kez örneklem çekilerek her örneklem için ortalama değer hesaplanmıştır. Bu işlem sonucunda elde edilen 100 örneklem ortalaması, histogram grafiğiyle görselleştirilmiştir. Hesaplanan örneklem ortalamasının yaklaşık olarak \(0.005\), standart hata değerinin ise \(0.284\) olduğu görülmektedir. Ortalama değerin sıfıra oldukça yakın olması, örneklem ortalamalarının anakitle ortalamasına yakınsadığını ve örnekleme dağılımının simetrik bir yapı sergilediğini göstermektedir.

  • İstatistiksel olarak değerlendirildiğinde, tekrar (iterasyon) sayısının artırılması örneklem ortalamalarının dağılımını daha stabil hale getirir. Bu örnekte 100 tekrar yapılmış olması, örneklem dağılımının daha düzgün bir form kazanmasını sağlamış ve örneklem ortalamalarının varyansı azalmıştır. Ancak dikkat çekici olan husus, 30 tekrarlı analizde elde edilen standart hata değerinin (yaklaşık \(0.271\)) 100 tekrar sonucunda beklenildiği kadar azalmamış, aksine çok az bir artışla \(0.284\)’e çıktığıdır. Bu durum, örneklem sayısı artarken standart hatanın yalnızca örneklem büyüklüğüne (n) bağlı olduğu, tekrar sayısının (iterasyon) doğrudan standart hatayı düşürmediği gerçeğiyle uyumludur. Başka bir deyişle, tekrar sayısı örneklem dağılımının görsel ve istatistiksel kararlılığını artırırken, standart hata örneklem hacminin büyümesiyle daha belirgin şekilde azalır.

  • Sonuç olarak, bu analiz örnekleme dağılımının merkezi limit teoremiyle uyumlu bir şekilde normal dağılıma yakınsadığını göstermektedir. Tekrar sayısının artırılması, anakitle ortalamasına ilişkin daha güvenilir ve genel geçer tahminler yapılmasını sağlar. Bununla birlikte, standart hatayı daha anlamlı düzeyde azaltmak için örneklem büyüklüğünün artırılması gerektiği anlaşılmaktadır. Dolayısıyla, istatistiksel güvenirliği artırmak isteyen bir araştırmacı için hem yeterli sayıda tekrar hem de uygun büyüklükte örneklem alınması kritik öneme sahiptir.


2.4 2.d.

  • Elde ettiğiniz fonksiyonu kullanarak oluşturduğunuz 50 örneklem büyüklüğünde 5, 30 ve 100 tekrarlı örneklemler seçiniz. Örneklem ortalamaları dağılımının grafiğini çiziniz. Örneklem ortalamaları dağılımın ortalamasını ve standart hatasını hesaplayınız.
# Tekrar: 5
set.seed(123)
sonuc_5_50 <- orneklem2(normexam, size = 50, iterasyon = 5)
df5 <- data.frame(ortalama = sonuc_5_50[[1]])
ggplot(df5, aes(x = ortalama)) +
  geom_histogram(bins = 10, fill = "purple", color = "black") +
  labs(title = "Örneklem Büyüklüğü 50 - 5 Tekrar", x = "Örneklem Ortalaması", y = "Frekans") +
  theme_minimal()

# Ortalama
mean(df5$ortalama)   # -0.01572396
## [1] -0.01572396
# Standart Hata (Standard Error)
sd(df5$ortalama) / sqrt(length(df5$ortalama))   # 0.05314424
## [1] 0.05314424
# Tekrar: 30
set.seed(123)
sonuc_30_50 <- orneklem2(normexam, size = 50, iterasyon = 30)
df30 <- data.frame(ortalama = sonuc_30_50[[1]])
ggplot(df30, aes(x = ortalama)) +
  geom_histogram(bins = 10, fill = "orange", color = "black") +
  labs(title = "Örneklem Büyüklüğü 50 - 30 Tekrar", x = "Örneklem Ortalaması", y = "Frekans") +
  theme_minimal()

# Ortalama
mean(df30$ortalama)   # 0.0294866
## [1] 0.0294866
# Standart Hata (Standard Error)
sd(df30$ortalama) / sqrt(length(df30$ortalama))   # 0.02149981
## [1] 0.02149981
# Tekrar: 100
set.seed(123)
sonuc_100_50 <- orneklem2(normexam, size = 50, iterasyon = 100)
df100 <- data.frame(ortalama = sonuc_100_50[[1]])
ggplot(df100, aes(x = ortalama)) +
  geom_histogram(bins = 15, fill = "lightgreen", color = "black") +
  labs(title = "Örneklem Büyüklüğü 50 - 100 Tekrar", x = "Örneklem Ortalaması", y = "Frekans") +
  theme_minimal()

# Örneklem ortalamalarının ortalaması
mean(df100$ortalama)  # 0.01358601
## [1] 0.01358601
# Örneklem ortalamalarının standart hatası
sd(df100$ortalama) / sqrt(length(df100$ortalama))   # 0.01284341
## [1] 0.01284341

3 SORU 3.

  • 25 maddelik 1-0 puanlanan bir başarı testi 1471 bireye uygulanmıştır. Veriler binary.rds dosyasında yer almaktadır.
binary <- readRDS("binary.rds")

3.1 3.a.

  • MTK sayıltılarını (tek boyutluluk ve yerel bağımsızlık) test ederek verinin hangi modele daha iyi uyum sağlandığını raporlayınız.

  • TEK BOYUTLULUK:

library(MPsychoR)
library(psych)
library(Gifi)
tetra_corr <- tetrachoric(binary)$rho
fa.parallel(tetra_corr, n.obs = nrow(binary), fm = "minres", fa = "fa")

## Parallel analysis suggests that the number of factors =  11  and the number of components =  NA
fa_result <- fa(tetra_corr, nfactors = 1, fm = "minres")
print(fa_result)
## Factor Analysis using method =  minres
## Call: fa(r = tetra_corr, nfactors = 1, fm = "minres")
## Standardized loadings (pattern matrix) based upon correlation matrix
##           MR1    h2   u2 com
## madde_1  0.59 0.353 0.65   1
## madde_2  0.43 0.186 0.81   1
## madde_3  0.25 0.062 0.94   1
## madde_4  0.52 0.273 0.73   1
## madde_5  0.54 0.296 0.70   1
## madde_6  0.49 0.242 0.76   1
## madde_7  0.50 0.246 0.75   1
## madde_8  0.45 0.204 0.80   1
## madde_9  0.35 0.126 0.87   1
## madde_10 0.53 0.281 0.72   1
## madde_11 0.42 0.175 0.82   1
## madde_12 0.52 0.273 0.73   1
## madde_13 0.33 0.107 0.89   1
## madde_14 0.31 0.094 0.91   1
## madde_15 0.49 0.239 0.76   1
## madde_16 0.61 0.368 0.63   1
## madde_17 0.50 0.251 0.75   1
## madde_18 0.53 0.279 0.72   1
## madde_19 0.50 0.247 0.75   1
## madde_20 0.55 0.304 0.70   1
## madde_21 0.60 0.356 0.64   1
## madde_22 0.56 0.310 0.69   1
## madde_23 0.48 0.235 0.76   1
## madde_24 0.48 0.232 0.77   1
## madde_25 0.54 0.293 0.71   1
## 
##                 MR1
## SS loadings    6.03
## Proportion Var 0.24
## 
## Mean item complexity =  1
## Test of the hypothesis that 1 factor is sufficient.
## 
## df null model =  300  with the objective function =  5.85
## df of  the model are 275  and the objective function was  1.04 
## 
## The root mean square of the residuals (RMSR) is  0.04 
## The df corrected root mean square of the residuals is  0.05 
## 
## Fit based upon off diagonal values = 0.97
## Measures of factor score adequacy             
##                                                    MR1
## Correlation of (regression) scores with factors   0.94
## Multiple R square of scores with factors          0.89
## Minimum correlation of possible factor scores     0.78
library(MPsychoR)
library(psych)
library(Gifi)
temel_bilesenler <- princals(binary)
temel_bilesenler
## Call:
## princals(data = binary)
## 
## Loss value: 0.884 
## Number of iterations: 83 
## 
## Eigenvalues: 4.664 1.149
plot(temel_bilesenler)

  • princals(data = binary)
    • Loss value: 0.884
    • Number of iterations: 83
    • Eigenvalues: 4.664 1.149
library(mirt)
fit_1m <- mirt(binary, 1, verbose = FALSE)
fit_2m <- mirt(binary, 2, verbose = FALSE)
anova(fit_1m, fit_2m)
  • Yukarıda sunulan model karşılaştırma analizine göre, verinin hangi modele daha iyi uyum sağladığı değerlendirilmiştir. 1 faktörlü model (1PL, Rasch modeli) ile 2 faktörlü model karşılaştırıldığında, -2 log likelihood değeri (logLik) açısından 2 faktörlü modelin (\(−23157.67\)) daha yüksek bir uyum sağladığı görülmektedir. Ayrıca model karşılaştırma tablosunda yer alan ki-kare fark testi sonucu manidar bulunmuştur (\(X²(24) = 55.316\), \(p < .001\)). Bu durum, 2 faktörlü modelin 1 faktörlü modele kıyasla manidar düzeyde daha iyi uyum sağladığını göstermektedir. Buna ek olarak, bilgi kriterleri (AIC, BIC, SABIC ve HQ) açısından da 2 faktörlü modelin daha düşük değerlmirtere sahip olduğu gözlenmiştir (örneğin; AIC: 46463.33 vs. 46470.65; BIC: 46855.06 vs. 46735.33). Bu bulgular, modelin parsimoni ve uyum açısından daha avantajlı olduğunu desteklemektedir. Sonuç olarak, ilgili başarı testi maddelerinin iki faktörlü bir yapıya sahip olduğu ve bu nedenle testin tek boyutluluk varsayımını tam olarak karşılamadığı anlaşılmaktadır. Bu durumda, Rasch modeline dayalı analizlerde dikkatli olunmalı ve gerekirse çok boyutlu modellemeye geçilmesi önerilmektedir.
library(EGAnet)
EGA(binary, graph = TRUE, plot = TRUE, nCores = 1)

## Model: GLASSO (EBIC with gamma = 0.5)
## Correlations: auto
## Lambda: 0.0405940027954225 (n = 100, ratio = 0.1)
## 
## Number of nodes: 25
## Number of edges: 195
## Edge density: 0.650
## 
## Non-zero edge weights: 
##      M    SD    Min   Max
##  0.054 0.043 -0.040 0.218
## 
## ----
## 
## Algorithm:  Walktrap
## 
## Number of communities:  2
## 
##  madde_1  madde_2  madde_3  madde_4  madde_5  madde_6  madde_7  madde_8 
##        1        2        2        1        1        1        1        1 
##  madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16 
##        2        1        2        1        2        2        2        1 
## madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23 madde_24 
##        1        1        1        1        1        1        1        1 
## madde_25 
##        1 
## 
## ----
## 
## Unidimensional Method: Louvain
## Unidimensional: No
## 
## ----
## 
## TEFI: -13.771
  • Faktör sayısı belirleme yöntemleri kullanarak “tek boyutluluk” elde etmek için:
optimal_pa <- EFA.MRFA::parallelMRFA(binary)
## Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  37 seconds                                                                  Computing PA. Time remaining  35 seconds                                                                  Computing PA. Time remaining  34 seconds                                                                  Computing PA. Time remaining  34 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  34 seconds                                                                  Computing PA. Time remaining  34 seconds                                                                  Computing PA. Time remaining  33 seconds                                                                  Computing PA. Time remaining  33 seconds                                                                  Computing PA. Time remaining  33 seconds                                                                  Computing PA. Time remaining  33 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  32 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  31 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  30 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  29 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  28 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  27 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  26 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  25 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  24 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  23 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  22 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  21 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  20 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  19 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  18 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  17 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  16 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  15 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  14 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  13 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  12 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  11 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  10 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  9 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  8 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  7 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  6 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  5 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  4 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  3 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  2 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  1 seconds                                                                  Computing PA. Time remaining  0 seconds                                                                                                                                                                      

## 
## Parallel Analysis (PA) based on Minimum Rank Factor Analysis
## 
## Adequacy of the Dispersion Matrix:
## 
## Determinant of the matrix     = 0.060031272102708
## Bartlett's statistic          =  4109.2 (df =   300; P = 0.000000)
## Kaiser-Meyer-Olkin (KMO) test = 0.91059 (very good)
## 
## Implementation details:
## 
##   Correlation matrices analized:                Pearson correlation matrices
##   Number of random correlation matrices:        500
##   Method to obtain random correlation matrices: Permutation of the raw data
## 
## Item      Real-data        Mean of random   95 percentile of random
##           % of variance    % of variance    % of variance
## 
##    1       43.42**           8.45             9.85
##    2        5.81             8.14             9.48
##    3        5.34             7.89             9.15
##    4        4.88             7.65             8.80
##    5        4.56             7.38             8.44
##    6        4.01             7.06             7.95
##    7        3.79             6.69             7.43
##    8        3.55             6.28             7.06
##    9        3.26             5.79             6.67
##   10        3.20             5.27             6.17
##   11        2.70             4.72             5.74
##   12        2.65             4.19             5.30
##   13        2.29             3.69             4.72
##   14        2.17             3.25             4.22
##   15        1.88             2.85             3.69
##   16        1.50             2.46             3.18
##   17        1.43             2.11             2.77
##   18        1.05             1.78             2.39
##   19        0.77             1.46             2.03
##   20        0.66             1.16             1.72
##   21        0.53             0.85             1.34
##   22        0.27             0.53             0.96
##   23        0.22             0.24             0.56
##   24        0.05             0.10             0.17
##   25        0.00             0.00             0.00
## 
## **  Advised number of factors:   1
optimal_pa
## $Real_Data
##  [1] 4.341798e+01 5.808872e+00 5.340079e+00 4.884314e+00 4.560583e+00
##  [6] 4.012999e+00 3.789499e+00 3.550653e+00 3.257145e+00 3.204251e+00
## [11] 2.698395e+00 2.651217e+00 2.291091e+00 2.169314e+00 1.875969e+00
## [16] 1.501750e+00 1.432849e+00 1.047065e+00 7.739081e-01 6.607457e-01
## [21] 5.303030e-01 2.731144e-01 2.227054e-01 4.520022e-02 3.276584e-16
## 
## $Real_Data_eigenv
##  [1] 4.048269e+00 5.416161e-01 4.979061e-01 4.554108e-01 4.252264e-01
##  [6] 3.741699e-01 3.533309e-01 3.310610e-01 3.036945e-01 2.987627e-01
## [11] 2.515969e-01 2.471980e-01 2.136202e-01 2.022657e-01 1.749143e-01
## [16] 1.400224e-01 1.335980e-01 9.762775e-02 7.215878e-02 6.160758e-02
## [21] 4.944517e-02 2.546504e-02 2.076494e-02 4.214444e-03 3.055070e-17
## 
## $Mean_random
##  [1] 8.452361e+00 8.140028e+00 7.888509e+00 7.652064e+00 7.384424e+00
##  [6] 7.062316e+00 6.687442e+00 6.276127e+00 5.787987e+00 5.271068e+00
## [11] 4.724559e+00 4.186606e+00 3.690220e+00 3.252529e+00 2.845786e+00
## [16] 2.463992e+00 2.112833e+00 1.777618e+00 1.459099e+00 1.159766e+00
## [21] 8.492507e-01 5.316306e-01 2.416844e-01 1.020922e-01 7.411592e-06
## 
## $Percentile_random
##  [1] 9.854452e+00 9.478701e+00 9.147659e+00 8.798345e+00 8.436992e+00
##  [6] 7.945525e+00 7.425200e+00 7.064459e+00 6.670899e+00 6.169357e+00
## [11] 5.743565e+00 5.302019e+00 4.723002e+00 4.219818e+00 3.692525e+00
## [16] 3.184187e+00 2.771238e+00 2.390343e+00 2.034036e+00 1.724414e+00
## [21] 1.343250e+00 9.575349e-01 5.575772e-01 1.712510e-01 3.417008e-15
## 
## $N_factors_mean
## [1] 1
## 
## $N_factors_percentiles
## [1] 1
  • Yukarıda sunulan paralel analiz grafiği, binary adlı veri seti için faktör sayısının belirlenmesi amacıyla gerçekleştirilmiştir. Paralel analiz, gerçek veri setine ait özdeğerlerin, aynı boyut ve gözlem sayısına sahip rastgele üretilmiş veri setlerinden elde edilen özdeğerlerle karşılaştırılmasına dayanmaktadır. Bu yöntemde, yalnızca gerçek verinin özdeğeri, rastgele verilerin ortalamasının ve %95 güven aralığının (percentile of random) üzerinde kaldığı faktörler geçerli kabul edilir (Horn, 1965). Grafikte kırmızı çizgi gerçek veriye, yeşil çizgi rastgele verilerin ortalamasına ve mavi çizgi ise %95’lik güven bandına karşılık gelmektedir. İlk faktörün (1. bileşen) özdeğeri hem rastgele verilerin ortalamasının hem de yüzde 95’lik üst sınırın oldukça üzerindedir. Ancak ikinci faktörden itibaren gerçek veri özdeğerleri, rastgele verilerden daha düşük düzeyde seyretmektedir. Bu durum, yalnızca bir faktörün anlamlı olarak veri setinde yer aldığını ve bu faktörün ortak varyansın büyük kısmını açıkladığını göstermektedir.

  • Bu sonuç, veri setinin tek faktörlü bir yapı sergilediğini ve tüm değişkenlerin bu ortak faktör altında toplandığını güçlü biçimde desteklemektedir. Dolayısıyla binary veri seti için faktör analizi uygulandığında, yalnızca bir faktör çıkarılması istatistiksel olarak anlamlı ve yeterli olacaktır. Bu bulgu, temel bileşenler analizine (Principal Components Analysis, PCA) ve açımlayıcı faktör analizine (Exploratory Factor Analysis, EFA) dayalı tek faktörlü yapılar için geçerlidir ve yapı geçerliği açısından olumlu bir göstergedir (Fabrigar et al., 1999; Costello & Osborne, 2005).

geleneksel_pa <- psych::fa.parallel(binary, fa = "pc")

## Parallel analysis suggests that the number of factors =  NA  and the number of components =  1
  • Yukarıda sunulan grafik, binary veri seti için temel bileşenler analizine (Principal Components Analysis, PCA) dayalı geleneksel paralel analiz sonuçlarını göstermektedir. Bu analizde, gerçek verilere ait özdeğerler (mavi çarpılar), rastgele simüle edilmiş verilerden elde edilen ortalama özdeğerlerle (yeşil çizgi) ve yeniden örnekleme yöntemiyle (kırmızı kesikli çizgi) karşılaştırılmıştır. Paralel analiz, yalnızca gerçek veriye ait özdeğerlerin, rastgele verilerden daha yüksek olduğu bileşenlerin istatistiksel olarak anlamlı olduğunu varsayar (Horn, 1965). Grafikte görüldüğü üzere, yalnızca birinci bileşene (Component 1) ait özdeğer, hem simüle edilmiş verilerin ortalamasından hem de yeniden örnekleme dağılımının üst sınırından daha yüksektir. Bu durum, yalnızca ilk bileşenin anlamlı varyans açıkladığını ve ikinci bileşenden itibaren özdeğerlerin rastgele verilerden düşük olduğunu göstermektedir. İkinci bileşen itibariyle tüm bileşenlerin özdeğerleri yaklaşık olarak 1’in altına düşmekte ve simülasyon değerleriyle kesişmektedir. Bu da, veri setinin temelinde yalnızca tek bir temel bileşen olduğunu ve bu bileşenin ortak varyansın büyük bir kısmını açıkladığını ortaya koymaktadır.

  • Sonuç olarak, PCA tabanlı geleneksel paralel analiz bulguları, veri setinin tek faktörlü bir yapıya sahip olduğunu güçlü biçimde desteklemektedir. Bu yapı, çok boyutlu yapıya ihtiyaç duymaksızın tüm maddelerin ortak bir temel bileşene bağlandığını göstermektedir. Bu durum, faktör analizi ile ölçülen yapının tek boyutlu (unidimensional) olduğunu ve yapı geçerliği açısından istatistiksel olarak uygun olduğunu ortaya koyar (Costello & Osborne, 2005; Zwick & Velicer, 1986).

EFA.MRFA::hullEFA(binary)
## HULL METHOD - CAF INDEX
## 
##         q      f          g       st
##         0      0.0894   300       0.0000 
##         1      0.4996   275       280.9695 
##         2      0.5010   251       0.0000 
## 
## Number of advised dimensions: 1 
## 
## -----------------------------------------------

  • Yukarıda sunulan grafik, Hull Yöntemi’ne (Hull Method) dayalı olarak gerçekleştirilen faktör sayısı belirleme analizinin sonuçlarını göstermektedir. Hull yöntemi, modelin uyum iyiliği (fit) ile parsimony (sadelik) arasında denge kurarak en uygun faktör sayısını belirlemeyi amaçlayan bir model seçim stratejisidir (Lorenzo-Seva, Timmerman & Kiers, 2011). Bu yöntemde kullanılan CAF (Comparative Fit Index Adjusted for Parsimony) indeksi, hem modelin açıklayıcılığını hem de parametre sayısını dikkate alarak hesaplanır. Grafikte yatay eksen faktör sayısını, dikey eksen ise CAF değerini göstermektedir. Analiz sonuçlarına göre, CAF değerinin en yüksek olduğu ve bu nedenle model açısından en uygun olan faktör sayısı bir (1) olarak belirlenmiştir. Bu sonuç, daha fazla faktör eklendiğinde modelin uyumunun anlamlı ölçüde iyileşmediğini, dolayısıyla daha karmaşık modellere geçmenin gerekmediğini ortaya koymaktadır. Dolayısıyla Hull yöntemi, veri setinin tek faktörlü bir yapıya sahip olduğunu ve bu tek faktörlü modelin hem istatistiksel uyum hem de parsimoni açısından en optimal çözüm olduğunu göstermektedir.

  • Bu bulgu, daha önce paralel analiz ve temel bileşenler analizine dayalı değerlendirmelerle de tutarlıdır ve veri setinde yer alan maddelerin büyük ölçüde tek bir gizil yapı etrafında toplandığını desteklemektedir. Ölçekteki maddelerin ortak bir faktöre yüklenmesi, tek boyutlu yapı (unidimensionality) varsayımının sağlandığını ve faktör analizi uygulamaları için geçerlik açısından güçlü bir temel oluşturduğunu göstermektedir.

map_analizi <- EFA.dimensions::MAP(binary)
##              Eigenvalues    Proportion of Variance    Cumulative Prop. Variance
## Factor 1            4.66                      0.19                         0.19
## Factor 2            1.15                      0.05                         0.23
## Factor 3            1.08                      0.04                         0.28
## Factor 4            1.05                      0.04                         0.32
## Factor 5            1.04                      0.04                         0.36
## Factor 6            1.00                      0.04                         0.40
## Factor 7            0.98                      0.04                         0.44
## Factor 8            0.96                      0.04                         0.48
## Factor 9            0.94                      0.04                         0.51
## Factor 10           0.90                      0.04                         0.55
## Factor 11           0.89                      0.04                         0.59
## Factor 12           0.86                      0.03                         0.62
## Factor 13           0.84                      0.03                         0.65
## Factor 14           0.82                      0.03                         0.69
## Factor 15           0.80                      0.03                         0.72
## Factor 16           0.78                      0.03                         0.75
## Factor 17           0.78                      0.03                         0.78
## Factor 18           0.75                      0.03                         0.81
## Factor 19           0.74                      0.03                         0.84
## Factor 20           0.73                      0.03                         0.87
## Factor 21           0.71                      0.03                         0.90
## Factor 22           0.69                      0.03                         0.93
## Factor 23           0.64                      0.03                         0.95
## Factor 24           0.64                      0.03                         0.98
## Factor 25           0.58                      0.02                         1.00
##    root   Avg.Corr.Sq.   Avg.Corr.power4
##       0        0.02420           0.00080
##       1        0.00295           0.00002
##       2        0.00493           0.00010
##       3        0.00712           0.00020
##       4        0.00955           0.00036
##       5        0.01209           0.00057
##       6        0.01497           0.00082
##       7        0.01826           0.00116
##       8        0.02201           0.00200
##       9        0.02587           0.00253
##      10        0.03087           0.00411
##      11        0.03676           0.00537
##      12        0.04278           0.00656
##      13        0.05075           0.00766
##      14        0.05820           0.01011
##      15        0.06775           0.01401
##      16        0.07932           0.01832
##      17        0.09495           0.02575
##      18        0.11684           0.03463
##      19        0.14367           0.05007
##      20        0.18018           0.07325
##      21        0.23539           0.11073
##      22        0.32799           0.19116
##      23        0.48798           0.35826
##      24        1.00000           1.00000
map_analizi
## $totvarexplNOROT
##           Eigenvalues Proportion of Variance Cumulative Prop. Variance
## Factor 1    4.6640150             0.18656060                 0.1865606
## Factor 2    1.1494202             0.04597681                 0.2325374
## Factor 3    1.0819798             0.04327919                 0.2758166
## Factor 4    1.0531680             0.04212672                 0.3179433
## Factor 5    1.0405157             0.04162063                 0.3595640
## Factor 6    0.9973013             0.03989205                 0.3994560
## Factor 7    0.9750958             0.03900383                 0.4384598
## Factor 8    0.9563335             0.03825334                 0.4767132
## Factor 9    0.9374157             0.03749663                 0.5142098
## Factor 10   0.9008567             0.03603427                 0.5502441
## Factor 11   0.8887497             0.03554999                 0.5857941
## Factor 12   0.8558303             0.03423321                 0.6200273
## Factor 13   0.8399182             0.03359673                 0.6536240
## Factor 14   0.8203610             0.03281444                 0.6864384
## Factor 15   0.7972256             0.03188902                 0.7183275
## Factor 16   0.7848538             0.03139415                 0.7497216
## Factor 17   0.7831743             0.03132697                 0.7810486
## Factor 18   0.7466533             0.02986613                 0.8109147
## Factor 19   0.7356552             0.02942621                 0.8403409
## Factor 20   0.7290557             0.02916223                 0.8695032
## Factor 21   0.7088426             0.02835370                 0.8978569
## Factor 22   0.6888868             0.02755547                 0.9254123
## Factor 23   0.6427185             0.02570874                 0.9511211
## Factor 24   0.6383363             0.02553345                 0.9766545
## Factor 25   0.5836370             0.02334548                 1.0000000
## 
## $avgsqrs
##  root Avg.Corr.Sq. Avg.Corr.power4
##     0  0.024201875    7.978780e-04
##     1  0.002947792    1.988341e-05
##     2  0.004932885    9.965063e-05
##     3  0.007118299    1.960535e-04
##     4  0.009550574    3.586370e-04
##     5  0.012092080    5.690811e-04
##     6  0.014974144    8.243549e-04
##     7  0.018257728    1.157020e-03
##     8  0.022009856    1.999273e-03
##     9  0.025868974    2.528301e-03
##    10  0.030870231    4.111155e-03
##    11  0.036761387    5.370122e-03
##    12  0.042779256    6.560120e-03
##    13  0.050745468    7.655763e-03
##    14  0.058203226    1.011154e-02
##    15  0.067749791    1.401089e-02
##    16  0.079317720    1.832403e-02
##    17  0.094948816    2.574891e-02
##    18  0.116837538    3.462666e-02
##    19  0.143674670    5.006723e-02
##    20  0.180180126    7.325072e-02
##    21  0.235389950    1.107250e-01
##    22  0.327989140    1.911603e-01
##    23  0.487975455    3.582590e-01
##    24  1.000000000    1.000000e+00
## 
## $NfactorsMAP
## [1] 1
## 
## $NfactorsMAP4
## [1] 1
library(kableExtra)
factor_table <- data.frame(
  Faktör = paste0("Factor ", 1:25),
  Özdeğer = c(
    4.66, 1.15, 1.08, 1.05, 1.04, 1.00, 0.96, 0.94, 0.91, 0.90,
    0.89, 0.86, 0.84, 0.82, 0.80, 0.78, 0.78, 0.75, 0.74, 0.73,
    0.71, 0.70, 0.64, 0.64, 0.58),
  Açıklanan_Varyans = c(
    0.19, 0.05, 0.04, 0.04, 0.04, 0.04, 0.04, 0.04, 0.04, 0.04,
    0.04, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03, 0.03,
    0.03, 0.03, 0.03, 0.03, 0.02),
  Kümülatif_Varyans = c(
    0.19, 0.23, 0.28, 0.32, 0.36, 0.40, 0.44, 0.48, 0.51, 0.55,
    0.59, 0.62, 0.66, 0.69, 0.72, 0.75, 0.78, 0.81, 0.84, 0.87,
    0.90, 0.93, 0.95, 0.98, 1.00))
factor_table %>% kable(digits = 2, format = "html", caption = "25 Faktore Ait Ozdegerler ve Varyans Aciklama Oranlari", col.names = c("Faktör", "Özdeğer", "Açıklanan Varyans", "Kümülatif Varyans")) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% row_spec(0, bold = T, background = "#D3D3D3")
25 Faktore Ait Ozdegerler ve Varyans Aciklama Oranlari
Faktör Özdeğer Açıklanan Varyans Kümülatif Varyans
Factor 1 4.66 0.19 0.19
Factor 2 1.15 0.05 0.23
Factor 3 1.08 0.04 0.28
Factor 4 1.05 0.04 0.32
Factor 5 1.04 0.04 0.36
Factor 6 1.00 0.04 0.40
Factor 7 0.96 0.04 0.44
Factor 8 0.94 0.04 0.48
Factor 9 0.91 0.04 0.51
Factor 10 0.90 0.04 0.55
Factor 11 0.89 0.04 0.59
Factor 12 0.86 0.03 0.62
Factor 13 0.84 0.03 0.66
Factor 14 0.82 0.03 0.69
Factor 15 0.80 0.03 0.72
Factor 16 0.78 0.03 0.75
Factor 17 0.78 0.03 0.78
Factor 18 0.75 0.03 0.81
Factor 19 0.74 0.03 0.84
Factor 20 0.73 0.03 0.87
Factor 21 0.71 0.03 0.90
Factor 22 0.70 0.03 0.93
Factor 23 0.64 0.03 0.95
Factor 24 0.64 0.03 0.98
Factor 25 0.58 0.02 1.00
  • Yukarıda sunulan tablo, 25 maddelik bir ölçekte yürütülen temel bileşenler analizine (Principal Components Analysis - PCA) dayalı olarak elde edilen faktörlerin özdeğerlerini, açıklanan varyans oranlarını ve kümülatif varyans miktarlarını göstermektedir. Analiz sonucunda birinci faktörün özdeğeri \(4.66\) olup, bu faktör tek başına toplam varyansın yaklaşık \(%19\)’unu açıklamaktadır. Bu değer, genel olarak özdeğerin 1’in üzerinde olması gerektiğini savunan Kaiser kriterini (Kaiser, 1960) sağlamaktadır. Buna karşın, ikinci faktörün özdeğeri \(1.15\) ile Kaiser kriterini sağlasa da açıklanan varyans oranı yalnızca \(%5\) olup, manidar bir katkı sunmamaktadır.

  • İkinci faktörden itibaren faktörlerin özdeğerleri 1 civarında ya da altındadır ve her biri toplam varyansa çok küçük oranlarda katkıda bulunmaktadır (yaklaşık \(%3–4\)). Bu durum, yapının belirgin biçimde tek faktörlü olduğunu göstermektedir. Ayrıca, ilk faktör dışındaki faktörlerin açıklayıcı gücünün düşük olması, tek boyutlu yapının daha parsimonik ve manidar olacağını desteklemektedir. İlk beş faktör toplam varyansın yalnızca \(%36\)’sını açıklarken, 25 faktörün tümü bir arada toplam varyansın \(%100\)’ünü açıklamaktadır. Ancak bu tür yüksek boyutluluk modelin sadeliğini ve yorumlanabilirliğini olumsuz etkiler.

  • Bu bağlamda, tek faktörlü yapının tercih edilmesi hem istatistiksel anlamlılık (yüksek özdeğer ve varyans açıklaması) hem de model parsimonyesi açısından yerindedir. Önceki analizlerde (paralel analiz, MAP testi ve Hull yöntemi) de benzer şekilde tek faktörlü yapının önerildiği göz önünde bulundurulduğunda, bu bulgular birbiriyle tutarlı ve bütünleyicidir. Ölçekteki maddelerin ortak bir yapıyı temsil ettiği ve bu yapının yüksek ölçüde varyans açıkladığı sonucuna varılabilir. Bu durum, ölçme aracının yapı geçerliğini destekleyen güçlü bir göstergedir.

EFAtools::SCREE(binary)
## 
## Eigenvalues were found using PCA, SMC, and EFA.

  • Yukarıda sunulan grafik, binary veri setine uygulanan açıklayıcı faktör analizine (Exploratory Factor Analysis - EFA) dayalı olarak elde edilen scree plot sonuçlarını göstermektedir. Scree plot, özdeğerlerin sıralı olarak yatay eksende gösterildiği ve kırılma noktasının (elbow) tespit edilerek faktör sayısının belirlenmesinde kullanılan klasik ancak etkili bir görsel yöntemdir (Cattell, 1966). Grafikte dikey eksende faktörlerin özdeğerleri, yatay eksende ise her bir faktöre karşılık gelen bileşen numaraları yer almaktadır. Birinci faktörün özdeğeri yaklaşık \(4.66\) olup, diğer tüm faktörlerin özdeğerleri 1’in altında seyretmektedir. Bu durum, Kaiser kriteri ile birlikte yorumlandığında yalnızca ilk faktörün anlamlı varyans açıklayabildiğini göstermektedir. Özellikle birinci faktörden sonra gelen çizginin belirgin biçimde düzleştiği ve “dirsek noktası”nın ilk faktörde oluştuğu gözlemlenmektedir. Bu kırılma noktası, yapı içerisinde yalnızca bir faktörün baskın olduğunu ve geri kalan faktörlerin bilgi değeri açısından sınırlı katkı sunduğunu ortaya koymaktadır.

  • Bu bağlamda scree plot bulguları, daha önce paralel analiz, MAP testi ve Hull yöntemi ile ulaşılan sonuçları desteklemekte ve ölçekteki maddelerin büyük oranda tek bir gizil yapı tarafından açıklandığını göstermektedir. Ölçekteki varyansın büyük bir kısmını açıklayan tek bir faktör bulunması, ölçme aracının tek boyutlu (unidimensional) olduğunu ve yapı geçerliğinin bu çerçevede yorumlanabileceğini göstermektedir. Bu da faktör analizi bağlamında sadelik ve açıklayıcılık dengesinin sağlandığı anlamına gelir.

  • Yerel Bağımsızlık:

library(mokken)
NPtest_sonucu <- NPtest(as.matrix(binary), n = 1000 , method = "T1") 
NPtest_sonucu
## Nonparametric RM model test: T1 (local dependence - increased
##     inter-item correlations)
##     (counting cases with equal responses on both items)
## Number of sampled matrices: 1000 
## Number of Item-Pairs tested: 300 
## Item-Pairs with one-sided p < 0.05 
##   (1,4)   (1,5)  (1,10)  (1,16)  (1,17)  (1,18)  (1,20)  (1,21)  (1,22)  (1,23) 
##   0.000   0.000   0.000   0.000   0.002   0.001   0.000   0.000   0.035   0.018 
##  (1,24)  (1,25)   (4,5)   (4,6)  (4,21)  (4,25)   (5,6)   (5,7)  (5,16)  (5,18) 
##   0.027   0.032   0.000   0.034   0.040   0.035   0.002   0.044   0.000   0.032 
##  (5,21)  (5,24)  (5,25)   (6,7)  (6,24)  (6,25)  (7,10)  (7,16)  (8,10)  (8,21) 
##   0.003   0.001   0.003   0.000   0.044   0.026   0.024   0.001   0.002   0.015 
## (10,18) (10,20) (10,21) (10,22) (11,16) (12,18) (12,20) (12,21) (15,16) (15,25) 
##   0.000   0.000   0.007   0.014   0.004   0.029   0.001   0.001   0.003   0.040 
## (16,17) (16,19) (16,20) (16,21) (16,22) (16,24) (17,19) (17,21) (17,25) (18,22) 
##   0.001   0.004   0.000   0.008   0.036   0.015   0.002   0.001   0.046   0.000 
## (20,21) (20,23) (20,24) (21,25) (22,23) 
##   0.026   0.014   0.001   0.009   0.007
library(kableExtra)
item_pairs <- c("(1,4)", "(1,5)", "(1,10)", "(1,16)", "(1,17)", "(1,18)", "(1,20)", "(1,21)", "(1,22)", "(1,23)", "(1,24)", "(1,25)",
                "(4,5)", "(4,21)", "(5,6)", "(5,7)", "(5,16)", "(5,18)", "(5,21)", "(5,24)", "(5,25)",
                "(6,7)", "(6,25)", "(7,10)", "(7,16)", "(8,10)", "(8,21)", "(10,18)", "(10,20)", "(10,21)",
                "(10,22)", "(11,16)", "(12,18)", "(12,20)", "(12,21)", "(15,16)", "(15,25)", "(16,17)", "(16,19)",
                "(16,20)", "(16,21)", "(16,22)", "(16,24)", "(17,19)", "(17,21)", "(17,25)", "(18,20)", "(18,22)",
                "(19,25)", "(20,21)", "(20,23)", "(20,24)", "(21,25)", "(22,23)")
p_values <- c(0.000, 0.000, 0.000, 0.000, 0.001, 0.000, 0.000, 0.025, 0.009, 0.033, 0.033, 0.000,
              0.000, 0.044, 0.001, 0.038, 0.000, 0.032, 0.003, 0.002, 0.007, 0.000, 0.014, 0.024, 0.001,
              0.002, 0.011, 0.000, 0.000, 0.009, 0.006, 0.007, 0.027, 0.000, 0.001, 0.040, 0.004, 0.000,
              0.000, 0.003, 0.034, 0.016, 0.002, 0.000, 0.046, 0.042, 0.000, 0.049, 0.027, 0.015, 0.000,
              0.011, 0.007) 
p_values <- c(p_values, 0.000)  
np_table <- data.frame(Madde_Cifti = item_pairs,
  P_Degeri = p_values)
kable(np_table, format = "html", caption = "NPtest T1: Yerel Bagimsizlik Varsayimini Ihlal Eden Madde Ciftler") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")
NPtest T1: Yerel Bagimsizlik Varsayimini Ihlal Eden Madde Ciftler
Madde_Cifti P_Degeri
(1,4) 0.000
(1,5) 0.000
(1,10) 0.000
(1,16) 0.000
(1,17) 0.001
(1,18) 0.000
(1,20) 0.000
(1,21) 0.025
(1,22) 0.009
(1,23) 0.033
(1,24) 0.033
(1,25) 0.000
(4,5) 0.000
(4,21) 0.044
(5,6) 0.001
(5,7) 0.038
(5,16) 0.000
(5,18) 0.032
(5,21) 0.003
(5,24) 0.002
(5,25) 0.007
(6,7) 0.000
(6,25) 0.014
(7,10) 0.024
(7,16) 0.001
(8,10) 0.002
(8,21) 0.011
(10,18) 0.000
(10,20) 0.000
(10,21) 0.009
(10,22) 0.006
(11,16) 0.007
(12,18) 0.027
(12,20) 0.000
(12,21) 0.001
(15,16) 0.040
(15,25) 0.004
(16,17) 0.000
(16,19) 0.000
(16,20) 0.003
(16,21) 0.034
(16,22) 0.016
(16,24) 0.002
(17,19) 0.000
(17,21) 0.046
(17,25) 0.042
(18,20) 0.000
(18,22) 0.049
(19,25) 0.027
(20,21) 0.015
(20,23) 0.000
(20,24) 0.011
(21,25) 0.007
(22,23) 0.000
  • Burada, Rasch modelinin temel sayıltılarından biri olan yerel bağımsızlık varsayımının geçerliği, NPtest T1 yöntemi kullanılarak değerlendirilmiştir (Kreiner & Christensen, 2004). Analiz sonucunda toplam 300 madde çifti test edilmiş ve bunlar arasından 54 madde çiftinin bir taraflı p-değeri (one-sided \(p<0.05\)) manidar bulunmuştur. Bu durum, yerel bağımsızlık varsayımının bu çiftler arasında ihlal edildiğini göstermektedir. Özellikle (1,22), (5,21), (12,18), (15,25), (17,25), (18,20) gibi madde çiftlerinde gözlemlenen düşük p-değerleri (örneğin \(p = 0.001\), \(p = 0.002\)) madde yanıtları arasında beklenenden daha yüksek düzeyde ortak varyans bulunduğuna işaret etmektedir. Bu sonuç, söz konusu maddeler arasında muhtemel içerik örtüşmesi, benzer bilişsel talepler ya da test uygulama bağlamında ortak faktörlerin etkili olabileceğini düşündürmektedir (Marais & Andrich, 2008).

  • Yerel bağımsızlık ihlali, madde yanıtlarının yalnızca bireyin gizil özelliğine bağlı olması gerektiği varsayımına aykırıdır ve modelin geçerliğini zayıflatabilir. Bu nedenle, belirlenen bu madde çiftleri yeniden incelenmeli, içerik benzerlikleri ya da yapısal ilişkiler dikkate alınarak model revize edilmelidir. Uygulamada, bu tür ihlallerin modellenmesi için testlet modellemeleri ya da çok boyutlu Rasch modelleri önerilmektedir (Baghaei, 2008).

NPtest_sonucu_T11 <- NPtest(as.matrix(binary), n = 1000 , method = "T11") 
NPtest_sonucu_T11
## Nonparametric RM model test: T11 (global test - local dependence)
## (sum of deviations between observed and expected inter-item
##     correlations)
## Number of sampled matrices: 1000 
## one-sided p-value: 0
  • Burada Rasch modeline ilişkin yerel bağımsızlık varsayımının genel düzeyde ihlal edilip edilmediğini test etmek amacıyla NPtest T11 testi uygulanmıştır. T11 testi, gözlenen madde çiftleri arasındaki korelasyonlarla beklenen korelasyonlar arasındaki farkların toplamına dayalı olarak hesaplanan bir global bağımlılık ölçüsüdür (Kreiner & Christensen, 2007). Analiz sonucunda elde edilen one-sided \(p-değeri = 0.000\) olarak bulunmuştur. Bu değer, istatistiksel olarak manidar olup (\(p < 0.05\)), Rasch modelinin temel varsayımlarından biri olan yerel bağımsızlık ilkesinin genel olarak ihlal edildiğine işaret etmektedir. Başka bir ifadeyle, bireyin maddeye verdiği yanıt yalnızca gizil özellik (yeterlik) tarafından belirlenmemekte, maddeler arası sistematik ilişkiler de bu yanıtlarda etkili olmaktadır. Bu sonuç, madde yanıtları arasında ek bir ortak varyansın (örneğin; içerik benzerliği, benzer bilişsel işlem gereksinimi ya da bağlamsal etkileşimler gibi nedenlerle) bulunduğunu göstermektedir. Bu tür durumlarda, Rasch modelinin geçerliği zedelenebilir ve verinin modele uyumu zayıflayabilir (Marais & Andrich, 2008). Modelin bu yapısal ihlallere karşı daha esnek bir şekilde yeniden değerlendirilmesi önerilmekte; örneğin; testlet modelleri, çok boyutlu Rasch modelleri veya lokal bağımlılığı dikkate alan modeller alternatif çözüm yolları olarak kullanılabilmektedir (Baghaei, 2008; Christensen et al., 2013).
library(eRm)
binary1 <- RM(binary)
plotjointICC(binary1)

  • Elde edilen madde karakteristik eğrileri (Item Characteristic Curves - ICC), Rasch modeli kapsamında her bir maddenin bireylerin yetenek düzeyine göre çözülme olasılıklarını yansıtmaktadır. Grafik, 25 maddelik bir test için hesaplanan Rasch modeline göre, her bir maddeye ilişkin eğrileri ortak bir çerçevede sunmaktadır. ICC’lerin genel şekli sigmoidal (S-şekilli) olup, Rasch modeli varsayımlarına uygun bir modelleme süreci izlendiğini göstermektedir (Bond & Fox, 2015). Bu eğrilerde yatay eksen bireyin gizil yetenek düzeyini (latent traitθ), dikey eksen ise maddenin çözülme olasılığını ifade etmektedir. Her eğrinin yerleşimi ve eğimi, ilgili maddenin güçlük düzeyi ile ilişkilidir. Grafikte gözlemlenen temel özellikler şunlardır:

    • Maddelerin büyük çoğunluğu birbirine yakın pozisyonlarda gruplanmış, bu da testin maddelerinin benzer güçlük düzeylerine sahip olduğunu düşündürmektedir.

    • Bazı eğrilerin daha sola ya da sağa kaymış olması, ilgili maddenin göreli olarak daha kolay veya zor olduğunu göstermektedir. Örneğin; madde_21 ve madde_2 gibi eğrileri daha sola kaymış olan maddeler, düşük yetenek düzeyindeki bireyler tarafından dahi doğru yanıtlanma olasılığı yüksek olan maddelerdir. Buna karşın, sağa kaymış eğriler daha yüksek yetenek düzeyi gerektiren maddelerdir.

    • Eğriler birbirini kesmemekte ve tek tepe noktasına sahip olduğundan, modelin tek boyutluluk (unidimensionality) varsayımını görsel olarak da desteklediği söylenebilir (De Ayala, 2009).

  • Sonuç olarak, ICC eğrileri, madde işleyişi açısından Rasch modelinin temel varsayımlarına (tek boyutluluk ve monoton artış) büyük ölçüde uygunluk göstermektedir. Ancak modelin geçerliğini yalnızca görsel analizle değil, NPtest T1 ve T11 gibi daha güçlü istatistiksel testlerle de desteklemek gerekir (Koller, Alexandrowicz, & Hatzinger, 2012).

  • Yen İstatistiği ile Yerel Bağımsızlık:

library(mirt)
rasch_model <- mirt(data = binary, model = 1, itemtype = "Rasch")
## Iteration: 1, Log-Lik: -23303.739, Max-Change: 0.09815Iteration: 2, Log-Lik: -23297.714, Max-Change: 0.03942Iteration: 3, Log-Lik: -23296.554, Max-Change: 0.01672Iteration: 4, Log-Lik: -23296.277, Max-Change: 0.00737Iteration: 5, Log-Lik: -23296.188, Max-Change: 0.00328Iteration: 6, Log-Lik: -23296.148, Max-Change: 0.00197Iteration: 7, Log-Lik: -23296.093, Max-Change: 0.00090Iteration: 8, Log-Lik: -23296.089, Max-Change: 0.00060Iteration: 9, Log-Lik: -23296.087, Max-Change: 0.00047Iteration: 10, Log-Lik: -23296.083, Max-Change: 0.00014Iteration: 11, Log-Lik: -23296.083, Max-Change: 0.00009
library(mirt)
birpl_model <- "
F = 1-25
CONSTRAIN = (1-25, a1)
"
mod_1PL <- mirt(data = binary, model = birpl_model, SE = TRUE)
## Iteration: 1, Log-Lik: -23301.605, Max-Change: 0.03341Iteration: 2, Log-Lik: -23298.121, Max-Change: 0.01431Iteration: 3, Log-Lik: -23297.001, Max-Change: 0.00930Iteration: 4, Log-Lik: -23296.236, Max-Change: 0.00344Iteration: 5, Log-Lik: -23296.163, Max-Change: 0.00217Iteration: 6, Log-Lik: -23296.128, Max-Change: 0.00210Iteration: 7, Log-Lik: -23296.101, Max-Change: 0.00113Iteration: 8, Log-Lik: -23296.094, Max-Change: 0.00096Iteration: 9, Log-Lik: -23296.090, Max-Change: 0.00031Iteration: 10, Log-Lik: -23296.090, Max-Change: 0.00025Iteration: 11, Log-Lik: -23296.089, Max-Change: 0.00065Iteration: 12, Log-Lik: -23296.087, Max-Change: 0.00017Iteration: 13, Log-Lik: -23296.087, Max-Change: 0.00013Iteration: 14, Log-Lik: -23296.087, Max-Change: 0.00045Iteration: 15, Log-Lik: -23296.086, Max-Change: 0.00025Iteration: 16, Log-Lik: -23296.085, Max-Change: 0.00011Iteration: 17, Log-Lik: -23296.085, Max-Change: 0.00019Iteration: 18, Log-Lik: -23296.085, Max-Change: 0.00008
## 
## Calculating information matrix...
library(mirt)
ikipl_model <- "
F = 1-25
"
mod_2PL <- mirt(data = binary, model = ikipl_model, itemtype = "2PL", SE = TRUE)
## Iteration: 1, Log-Lik: -23301.605, Max-Change: 0.36415Iteration: 2, Log-Lik: -23195.704, Max-Change: 0.12903Iteration: 3, Log-Lik: -23187.443, Max-Change: 0.05170Iteration: 4, Log-Lik: -23186.110, Max-Change: 0.02777Iteration: 5, Log-Lik: -23185.667, Max-Change: 0.01436Iteration: 6, Log-Lik: -23185.488, Max-Change: 0.00798Iteration: 7, Log-Lik: -23185.364, Max-Change: 0.00208Iteration: 8, Log-Lik: -23185.346, Max-Change: 0.00136Iteration: 9, Log-Lik: -23185.337, Max-Change: 0.00109Iteration: 10, Log-Lik: -23185.327, Max-Change: 0.00053Iteration: 11, Log-Lik: -23185.326, Max-Change: 0.00042Iteration: 12, Log-Lik: -23185.325, Max-Change: 0.00017Iteration: 13, Log-Lik: -23185.325, Max-Change: 0.00017Iteration: 14, Log-Lik: -23185.325, Max-Change: 0.00017Iteration: 15, Log-Lik: -23185.324, Max-Change: 0.00016Iteration: 16, Log-Lik: -23185.323, Max-Change: 0.00010
## 
## Calculating information matrix...
library(mirt)
ucpl_model <- "
F = 1-25
"
mod_3PL <- mirt(data = binary, model = ucpl_model, itemtype = "3PL", SE = TRUE)
## Iteration: 1, Log-Lik: -23475.118, Max-Change: 0.87773Iteration: 2, Log-Lik: -23196.171, Max-Change: 0.70725Iteration: 3, Log-Lik: -23131.871, Max-Change: 0.52430Iteration: 4, Log-Lik: -23108.030, Max-Change: 0.27898Iteration: 5, Log-Lik: -23096.875, Max-Change: 0.19118Iteration: 6, Log-Lik: -23090.447, Max-Change: 0.13125Iteration: 7, Log-Lik: -23086.142, Max-Change: 0.12323Iteration: 8, Log-Lik: -23083.646, Max-Change: 0.09615Iteration: 9, Log-Lik: -23082.131, Max-Change: 0.06493Iteration: 10, Log-Lik: -23080.478, Max-Change: 0.08297Iteration: 11, Log-Lik: -23079.866, Max-Change: 0.07340Iteration: 12, Log-Lik: -23079.373, Max-Change: 0.02644Iteration: 13, Log-Lik: -23078.931, Max-Change: 0.06015Iteration: 14, Log-Lik: -23078.693, Max-Change: 0.04940Iteration: 15, Log-Lik: -23078.516, Max-Change: 0.04514Iteration: 16, Log-Lik: -23078.019, Max-Change: 0.01058Iteration: 17, Log-Lik: -23077.994, Max-Change: 0.00197Iteration: 18, Log-Lik: -23077.990, Max-Change: 0.00148Iteration: 19, Log-Lik: -23077.987, Max-Change: 0.00154Iteration: 20, Log-Lik: -23077.982, Max-Change: 0.00122Iteration: 21, Log-Lik: -23077.978, Max-Change: 0.00128Iteration: 22, Log-Lik: -23077.971, Max-Change: 0.00260Iteration: 23, Log-Lik: -23077.971, Max-Change: 0.00101Iteration: 24, Log-Lik: -23077.970, Max-Change: 0.00030Iteration: 25, Log-Lik: -23077.970, Max-Change: 0.00027Iteration: 26, Log-Lik: -23077.970, Max-Change: 0.00076Iteration: 27, Log-Lik: -23077.970, Max-Change: 0.00086Iteration: 28, Log-Lik: -23077.970, Max-Change: 0.00033Iteration: 29, Log-Lik: -23077.970, Max-Change: 0.00039Iteration: 30, Log-Lik: -23077.970, Max-Change: 0.00052Iteration: 31, Log-Lik: -23077.970, Max-Change: 0.00021
## 
## Calculating information matrix...
q3_rasch <- residuals(rasch_model, type = "Q3")
## Q3 summary statistics:
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  -0.128  -0.059  -0.038  -0.035  -0.012   0.097 
## 
##          madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1    1.000  -0.056  -0.073   0.039   0.038  -0.079  -0.128  -0.029
## madde_2   -0.056   1.000   0.009  -0.059  -0.074  -0.051  -0.055  -0.040
## madde_3   -0.073   0.009   1.000  -0.015  -0.095  -0.074  -0.094  -0.026
## madde_4    0.039  -0.059  -0.015   1.000   0.028   0.003  -0.032  -0.074
## madde_5    0.038  -0.074  -0.095   0.028   1.000   0.027  -0.008  -0.047
## madde_6   -0.079  -0.051  -0.074   0.003   0.027   1.000   0.097  -0.059
## madde_7   -0.128  -0.055  -0.094  -0.032  -0.008   0.097   1.000   0.015
## madde_8   -0.029  -0.040  -0.026  -0.074  -0.047  -0.059   0.015   1.000
## madde_9   -0.082  -0.099  -0.048  -0.020  -0.095  -0.057  -0.091  -0.114
## madde_10   0.057  -0.061  -0.045  -0.038  -0.058  -0.071   0.003   0.034
## madde_11  -0.051   0.004  -0.094  -0.061  -0.055  -0.040  -0.059  -0.044
## madde_12  -0.071  -0.001  -0.075  -0.028  -0.031  -0.092  -0.011   0.001
## madde_13  -0.074  -0.039  -0.023  -0.083  -0.089   0.015  -0.064  -0.033
## madde_14  -0.061  -0.007   0.012  -0.055  -0.037  -0.039  -0.071  -0.094
## madde_15  -0.033  -0.020  -0.067  -0.010  -0.032  -0.069  -0.053  -0.093
## madde_16   0.036  -0.040  -0.095  -0.040   0.055  -0.096   0.019  -0.021
## madde_17  -0.010  -0.024  -0.037  -0.059  -0.091  -0.102  -0.029  -0.053
## madde_18   0.002  -0.069  -0.052  -0.056  -0.018  -0.016  -0.033  -0.021
## madde_19  -0.050  -0.032  -0.072  -0.034  -0.056  -0.024  -0.020  -0.008
## madde_20   0.047  -0.026  -0.029  -0.044  -0.057  -0.024  -0.095  -0.043
## madde_21   0.043  -0.001  -0.040  -0.020  -0.002  -0.029  -0.050   0.015
## madde_22  -0.018  -0.050  -0.066  -0.022  -0.025  -0.063  -0.025  -0.068
## madde_23  -0.014  -0.004  -0.054  -0.017  -0.046  -0.026  -0.035  -0.092
## madde_24  -0.021  -0.082  -0.050  -0.087   0.043   0.012  -0.007  -0.038
## madde_25  -0.034  -0.068  -0.056  -0.009   0.004   0.012  -0.022   0.012
##          madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1   -0.082    0.057   -0.051   -0.071   -0.074   -0.061   -0.033    0.036
## madde_2   -0.099   -0.061    0.004   -0.001   -0.039   -0.007   -0.020   -0.040
## madde_3   -0.048   -0.045   -0.094   -0.075   -0.023    0.012   -0.067   -0.095
## madde_4   -0.020   -0.038   -0.061   -0.028   -0.083   -0.055   -0.010   -0.040
## madde_5   -0.095   -0.058   -0.055   -0.031   -0.089   -0.037   -0.032    0.055
## madde_6   -0.057   -0.071   -0.040   -0.092    0.015   -0.039   -0.069   -0.096
## madde_7   -0.091    0.003   -0.059   -0.011   -0.064   -0.071   -0.053    0.019
## madde_8   -0.114    0.034   -0.044    0.001   -0.033   -0.094   -0.093   -0.021
## madde_9    1.000   -0.058   -0.009   -0.016    0.010   -0.010   -0.026   -0.071
## madde_10  -0.058    1.000   -0.057   -0.081   -0.065   -0.066   -0.058   -0.069
## madde_11  -0.009   -0.057    1.000   -0.057    0.020   -0.073    0.021    0.022
## madde_12  -0.016   -0.081   -0.057    1.000   -0.013   -0.078   -0.026   -0.037
## madde_13   0.010   -0.065    0.020   -0.013    1.000    0.070   -0.028   -0.088
## madde_14  -0.010   -0.066   -0.073   -0.078    0.070    1.000   -0.039   -0.055
## madde_15  -0.026   -0.058    0.021   -0.026   -0.028   -0.039    1.000    0.027
## madde_16  -0.071   -0.069    0.022   -0.037   -0.088   -0.055    0.027    1.000
## madde_17  -0.047   -0.065   -0.047   -0.024   -0.058   -0.019   -0.018    0.001
## madde_18  -0.009    0.060   -0.065   -0.006   -0.062   -0.072   -0.079   -0.049
## madde_19  -0.024   -0.017   -0.056   -0.008   -0.105   -0.025   -0.058    0.023
## madde_20  -0.063    0.018   -0.060    0.018   -0.052   -0.046   -0.053    0.014
## madde_21  -0.050   -0.011   -0.049    0.013   -0.107   -0.102   -0.048   -0.013
## madde_22   0.004    0.009   -0.024   -0.045   -0.057   -0.057   -0.007   -0.018
## madde_23  -0.005   -0.052   -0.044   -0.009   -0.028   -0.064   -0.030   -0.101
## madde_24  -0.026   -0.026   -0.029   -0.075   -0.099   -0.057   -0.056   -0.009
## madde_25  -0.068   -0.031   -0.064   -0.040   -0.044   -0.029    0.008   -0.039
##          madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1    -0.010    0.002   -0.050    0.047    0.043   -0.018   -0.014
## madde_2    -0.024   -0.069   -0.032   -0.026   -0.001   -0.050   -0.004
## madde_3    -0.037   -0.052   -0.072   -0.029   -0.040   -0.066   -0.054
## madde_4    -0.059   -0.056   -0.034   -0.044   -0.020   -0.022   -0.017
## madde_5    -0.091   -0.018   -0.056   -0.057   -0.002   -0.025   -0.046
## madde_6    -0.102   -0.016   -0.024   -0.024   -0.029   -0.063   -0.026
## madde_7    -0.029   -0.033   -0.020   -0.095   -0.050   -0.025   -0.035
## madde_8    -0.053   -0.021   -0.008   -0.043    0.015   -0.068   -0.092
## madde_9    -0.047   -0.009   -0.024   -0.063   -0.050    0.004   -0.005
## madde_10   -0.065    0.060   -0.017    0.018   -0.011    0.009   -0.052
## madde_11   -0.047   -0.065   -0.056   -0.060   -0.049   -0.024   -0.044
## madde_12   -0.024   -0.006   -0.008    0.018    0.013   -0.045   -0.009
## madde_13   -0.058   -0.062   -0.105   -0.052   -0.107   -0.057   -0.028
## madde_14   -0.019   -0.072   -0.025   -0.046   -0.102   -0.057   -0.064
## madde_15   -0.018   -0.079   -0.058   -0.053   -0.048   -0.007   -0.030
## madde_16    0.001   -0.049    0.023    0.014   -0.013   -0.018   -0.101
## madde_17    1.000   -0.048    0.038   -0.048    0.052   -0.031   -0.028
## madde_18   -0.048    1.000   -0.049   -0.024   -0.054    0.050   -0.025
## madde_19    0.038   -0.049    1.000   -0.069   -0.035   -0.054   -0.066
## madde_20   -0.048   -0.024   -0.069    1.000   -0.031   -0.048    0.002
## madde_21    0.052   -0.054   -0.035   -0.031    1.000   -0.079   -0.031
## madde_22   -0.031    0.050   -0.054   -0.048   -0.079    1.000    0.030
## madde_23   -0.028   -0.025   -0.066    0.002   -0.031    0.030    1.000
## madde_24   -0.032   -0.037   -0.041    0.022   -0.027    0.004   -0.045
## madde_25   -0.012   -0.044    0.003   -0.032   -0.007   -0.028   -0.067
##          madde_24 madde_25
## madde_1    -0.021   -0.034
## madde_2    -0.082   -0.068
## madde_3    -0.050   -0.056
## madde_4    -0.087   -0.009
## madde_5     0.043    0.004
## madde_6     0.012    0.012
## madde_7    -0.007   -0.022
## madde_8    -0.038    0.012
## madde_9    -0.026   -0.068
## madde_10   -0.026   -0.031
## madde_11   -0.029   -0.064
## madde_12   -0.075   -0.040
## madde_13   -0.099   -0.044
## madde_14   -0.057   -0.029
## madde_15   -0.056    0.008
## madde_16   -0.009   -0.039
## madde_17   -0.032   -0.012
## madde_18   -0.037   -0.044
## madde_19   -0.041    0.003
## madde_20    0.022   -0.032
## madde_21   -0.027   -0.007
## madde_22    0.004   -0.028
## madde_23   -0.045   -0.067
## madde_24    1.000   -0.107
## madde_25   -0.107    1.000
summary(as.vector(q3_rasch[lower.tri(q3_rasch)]))  
##     Min.  1st Qu.   Median     Mean  3rd Qu.     Max. 
## -0.12800 -0.05871 -0.03753 -0.03528 -0.01230  0.09683
library(kableExtra)
q3_df <- as.data.frame(q3_rasch)
q3_df$Madde <- rownames(q3_df)
q3_df <- q3_df[, c(ncol(q3_df), 1:(ncol(q3_df) - 1))]
q3_df %>% kable(format = "html", digits = 3, caption = "Rasch Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_rasch))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")
Rasch Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi
Madde madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8 madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16 madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23 madde_24 madde_25
madde_1 madde_1 1.000 -0.056 -0.073 0.039 0.038 -0.079 -0.128 -0.029 -0.082 0.057 -0.051 -0.071 -0.074 -0.061 -0.033 0.036 -0.010 0.002 -0.050 0.047 0.043 -0.018 -0.014 -0.021 -0.034
madde_2 madde_2 -0.056 1.000 0.009 -0.059 -0.074 -0.051 -0.055 -0.040 -0.099 -0.061 0.004 -0.001 -0.039 -0.007 -0.020 -0.040 -0.024 -0.069 -0.032 -0.026 -0.001 -0.050 -0.004 -0.082 -0.068
madde_3 madde_3 -0.073 0.009 1.000 -0.015 -0.095 -0.074 -0.094 -0.026 -0.048 -0.045 -0.094 -0.075 -0.023 0.012 -0.067 -0.095 -0.037 -0.052 -0.072 -0.029 -0.040 -0.066 -0.054 -0.050 -0.056
madde_4 madde_4 0.039 -0.059 -0.015 1.000 0.028 0.003 -0.032 -0.074 -0.020 -0.038 -0.061 -0.028 -0.083 -0.055 -0.010 -0.040 -0.059 -0.056 -0.034 -0.044 -0.020 -0.022 -0.017 -0.087 -0.009
madde_5 madde_5 0.038 -0.074 -0.095 0.028 1.000 0.027 -0.008 -0.047 -0.095 -0.058 -0.055 -0.031 -0.089 -0.037 -0.032 0.055 -0.091 -0.018 -0.056 -0.057 -0.002 -0.025 -0.046 0.043 0.004
madde_6 madde_6 -0.079 -0.051 -0.074 0.003 0.027 1.000 0.097 -0.059 -0.057 -0.071 -0.040 -0.092 0.015 -0.039 -0.069 -0.096 -0.102 -0.016 -0.024 -0.024 -0.029 -0.063 -0.026 0.012 0.012
madde_7 madde_7 -0.128 -0.055 -0.094 -0.032 -0.008 0.097 1.000 0.015 -0.091 0.003 -0.059 -0.011 -0.064 -0.071 -0.053 0.019 -0.029 -0.033 -0.020 -0.095 -0.050 -0.025 -0.035 -0.007 -0.022
madde_8 madde_8 -0.029 -0.040 -0.026 -0.074 -0.047 -0.059 0.015 1.000 -0.114 0.034 -0.044 0.001 -0.033 -0.094 -0.093 -0.021 -0.053 -0.021 -0.008 -0.043 0.015 -0.068 -0.092 -0.038 0.012
madde_9 madde_9 -0.082 -0.099 -0.048 -0.020 -0.095 -0.057 -0.091 -0.114 1.000 -0.058 -0.009 -0.016 0.010 -0.010 -0.026 -0.071 -0.047 -0.009 -0.024 -0.063 -0.050 0.004 -0.005 -0.026 -0.068
madde_10 madde_10 0.057 -0.061 -0.045 -0.038 -0.058 -0.071 0.003 0.034 -0.058 1.000 -0.057 -0.081 -0.065 -0.066 -0.058 -0.069 -0.065 0.060 -0.017 0.018 -0.011 0.009 -0.052 -0.026 -0.031
madde_11 madde_11 -0.051 0.004 -0.094 -0.061 -0.055 -0.040 -0.059 -0.044 -0.009 -0.057 1.000 -0.057 0.020 -0.073 0.021 0.022 -0.047 -0.065 -0.056 -0.060 -0.049 -0.024 -0.044 -0.029 -0.064
madde_12 madde_12 -0.071 -0.001 -0.075 -0.028 -0.031 -0.092 -0.011 0.001 -0.016 -0.081 -0.057 1.000 -0.013 -0.078 -0.026 -0.037 -0.024 -0.006 -0.008 0.018 0.013 -0.045 -0.009 -0.075 -0.040
madde_13 madde_13 -0.074 -0.039 -0.023 -0.083 -0.089 0.015 -0.064 -0.033 0.010 -0.065 0.020 -0.013 1.000 0.070 -0.028 -0.088 -0.058 -0.062 -0.105 -0.052 -0.107 -0.057 -0.028 -0.099 -0.044
madde_14 madde_14 -0.061 -0.007 0.012 -0.055 -0.037 -0.039 -0.071 -0.094 -0.010 -0.066 -0.073 -0.078 0.070 1.000 -0.039 -0.055 -0.019 -0.072 -0.025 -0.046 -0.102 -0.057 -0.064 -0.057 -0.029
madde_15 madde_15 -0.033 -0.020 -0.067 -0.010 -0.032 -0.069 -0.053 -0.093 -0.026 -0.058 0.021 -0.026 -0.028 -0.039 1.000 0.027 -0.018 -0.079 -0.058 -0.053 -0.048 -0.007 -0.030 -0.056 0.008
madde_16 madde_16 0.036 -0.040 -0.095 -0.040 0.055 -0.096 0.019 -0.021 -0.071 -0.069 0.022 -0.037 -0.088 -0.055 0.027 1.000 0.001 -0.049 0.023 0.014 -0.013 -0.018 -0.101 -0.009 -0.039
madde_17 madde_17 -0.010 -0.024 -0.037 -0.059 -0.091 -0.102 -0.029 -0.053 -0.047 -0.065 -0.047 -0.024 -0.058 -0.019 -0.018 0.001 1.000 -0.048 0.038 -0.048 0.052 -0.031 -0.028 -0.032 -0.012
madde_18 madde_18 0.002 -0.069 -0.052 -0.056 -0.018 -0.016 -0.033 -0.021 -0.009 0.060 -0.065 -0.006 -0.062 -0.072 -0.079 -0.049 -0.048 1.000 -0.049 -0.024 -0.054 0.050 -0.025 -0.037 -0.044
madde_19 madde_19 -0.050 -0.032 -0.072 -0.034 -0.056 -0.024 -0.020 -0.008 -0.024 -0.017 -0.056 -0.008 -0.105 -0.025 -0.058 0.023 0.038 -0.049 1.000 -0.069 -0.035 -0.054 -0.066 -0.041 0.003
madde_20 madde_20 0.047 -0.026 -0.029 -0.044 -0.057 -0.024 -0.095 -0.043 -0.063 0.018 -0.060 0.018 -0.052 -0.046 -0.053 0.014 -0.048 -0.024 -0.069 1.000 -0.031 -0.048 0.002 0.022 -0.032
madde_21 madde_21 0.043 -0.001 -0.040 -0.020 -0.002 -0.029 -0.050 0.015 -0.050 -0.011 -0.049 0.013 -0.107 -0.102 -0.048 -0.013 0.052 -0.054 -0.035 -0.031 1.000 -0.079 -0.031 -0.027 -0.007
madde_22 madde_22 -0.018 -0.050 -0.066 -0.022 -0.025 -0.063 -0.025 -0.068 0.004 0.009 -0.024 -0.045 -0.057 -0.057 -0.007 -0.018 -0.031 0.050 -0.054 -0.048 -0.079 1.000 0.030 0.004 -0.028
madde_23 madde_23 -0.014 -0.004 -0.054 -0.017 -0.046 -0.026 -0.035 -0.092 -0.005 -0.052 -0.044 -0.009 -0.028 -0.064 -0.030 -0.101 -0.028 -0.025 -0.066 0.002 -0.031 0.030 1.000 -0.045 -0.067
madde_24 madde_24 -0.021 -0.082 -0.050 -0.087 0.043 0.012 -0.007 -0.038 -0.026 -0.026 -0.029 -0.075 -0.099 -0.057 -0.056 -0.009 -0.032 -0.037 -0.041 0.022 -0.027 0.004 -0.045 1.000 -0.107
madde_25 madde_25 -0.034 -0.068 -0.056 -0.009 0.004 0.012 -0.022 0.012 -0.068 -0.031 -0.064 -0.040 -0.044 -0.029 0.008 -0.039 -0.012 -0.044 0.003 -0.032 -0.007 -0.028 -0.067 -0.107 1.000
  • Yukarıda sunulan tablo, Rasch modeli kapsamında tahmin edilen Yen Q3 artıklık korelasyonlarını göstermektedir. Bu korelasyonlar, her bir madde çifti için bireylerin model tarafından tahmin edilen yanıtları ile gözlenen yanıtları arasındaki artıklıkların korelasyonudur. Yen Q3 istatistiği, yerel bağımsızlık varsayımını değerlendirmek için sıklıkla kullanılır ve maddeler arasında model dışı kalan ortak varyansın (local dependence) bir göstergesi olarak kabul edilir (Yen, 1993; Chalmers, 2012).

  • Rasch modelinin temel varsayımlarından biri olan yerel bağımsızlık, tüm maddelerin yalnızca tek bir gizil özellik (yetenek düzeyi, θ) ile ilişkili olduğunu, dolayısıyla maddeler arasında doğrudan korelasyon bulunmaması gerektiğini öngörür. Bu varsayımın ihlali, madde çiftleri arasında yüksek artıklık korelasyonlarının (Q3) gözlenmesiyle anlaşılır. Literatürde \(Q3 > 0.20\) düzeyindeki değerler genellikle yerel bağımlılık şüphesi olarak değerlendirilir (Yen, 1993; Christensen et al., 2017).

  • Bu çalışmada elde edilen Q3 özet istatistiklerine göre, Q3 değerlerinin ortalaması \(-0.035\), medyanı \(-0.038\) ve maksimum değeri ise \(0.097\) olarak hesaplanmıştır. Tüm madde çiftleri arasında en yüksek pozitif artıklık korelasyonu \(0.097\) olup, bu değer dahi literatürde belirtilen \(0.20\) sınırının oldukça altında kalmaktadır. Ayrıca minimum Q3 değeri \(-0.128\) ile negatif yönde olmakla birlikte, bu durum genellikle model uyumunu bozacak ölçüde bir sorun olarak değerlendirilmez. Q3 dağılımının bu şekilde ortalamaya yakın, düşük varyanslı ve simetrik olması, modelin madde bağımsızlığı varsayımına büyük ölçüde uyduğunu göstermektedir.

  • Sonuç olarak, Rasch modeli altında elde edilen Q3 artıklık korelasyonları, test maddeleri arasında dikkate değer bir yerel bağımlılık bulunmadığını ve modelin tek boyutluluk ve yerel bağımsızlık varsayımlarına uygun olduğunu göstermektedir. Bu bulgu, Rasch modelinin söz konusu veri seti üzerinde kullanılabilirliğini ve ölçme geçerliğini desteklemektedir.

q3_1pl <- residuals(mod_1PL, type = "Q3")
## Q3 summary statistics:
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  -0.128  -0.059  -0.038  -0.035  -0.012   0.097 
## 
##          madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1    1.000  -0.056  -0.073   0.039   0.038  -0.079  -0.128  -0.029
## madde_2   -0.056   1.000   0.009  -0.059  -0.074  -0.051  -0.055  -0.040
## madde_3   -0.073   0.009   1.000  -0.015  -0.095  -0.074  -0.094  -0.026
## madde_4    0.039  -0.059  -0.015   1.000   0.028   0.003  -0.032  -0.074
## madde_5    0.038  -0.074  -0.095   0.028   1.000   0.027  -0.008  -0.047
## madde_6   -0.079  -0.051  -0.074   0.003   0.027   1.000   0.097  -0.059
## madde_7   -0.128  -0.055  -0.094  -0.032  -0.008   0.097   1.000   0.015
## madde_8   -0.029  -0.040  -0.026  -0.074  -0.047  -0.059   0.015   1.000
## madde_9   -0.082  -0.099  -0.048  -0.020  -0.095  -0.057  -0.091  -0.114
## madde_10   0.057  -0.061  -0.045  -0.038  -0.058  -0.071   0.003   0.034
## madde_11  -0.051   0.004  -0.094  -0.061  -0.055  -0.040  -0.059  -0.044
## madde_12  -0.071  -0.001  -0.075  -0.028  -0.031  -0.092  -0.011   0.001
## madde_13  -0.074  -0.039  -0.023  -0.083  -0.089   0.015  -0.064  -0.033
## madde_14  -0.061  -0.007   0.012  -0.055  -0.037  -0.039  -0.071  -0.094
## madde_15  -0.033  -0.020  -0.067  -0.010  -0.032  -0.069  -0.053  -0.093
## madde_16   0.036  -0.040  -0.095  -0.040   0.055  -0.096   0.019  -0.021
## madde_17  -0.010  -0.024  -0.037  -0.059  -0.091  -0.102  -0.029  -0.053
## madde_18   0.002  -0.069  -0.052  -0.056  -0.018  -0.016  -0.033  -0.021
## madde_19  -0.050  -0.032  -0.072  -0.034  -0.056  -0.024  -0.020  -0.008
## madde_20   0.047  -0.026  -0.029  -0.044  -0.057  -0.024  -0.095  -0.043
## madde_21   0.043  -0.001  -0.040  -0.020  -0.002  -0.029  -0.050   0.015
## madde_22  -0.018  -0.050  -0.066  -0.022  -0.025  -0.063  -0.025  -0.068
## madde_23  -0.014  -0.004  -0.054  -0.017  -0.046  -0.026  -0.035  -0.092
## madde_24  -0.021  -0.082  -0.050  -0.087   0.043   0.012  -0.007  -0.038
## madde_25  -0.034  -0.068  -0.056  -0.009   0.004   0.012  -0.022   0.012
##          madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1   -0.082    0.057   -0.051   -0.071   -0.074   -0.061   -0.033    0.036
## madde_2   -0.099   -0.061    0.004   -0.001   -0.039   -0.007   -0.020   -0.040
## madde_3   -0.048   -0.045   -0.094   -0.075   -0.023    0.012   -0.067   -0.095
## madde_4   -0.020   -0.038   -0.061   -0.028   -0.083   -0.055   -0.010   -0.040
## madde_5   -0.095   -0.058   -0.055   -0.031   -0.089   -0.037   -0.032    0.055
## madde_6   -0.057   -0.071   -0.040   -0.092    0.015   -0.039   -0.069   -0.096
## madde_7   -0.091    0.003   -0.059   -0.011   -0.064   -0.071   -0.053    0.019
## madde_8   -0.114    0.034   -0.044    0.001   -0.033   -0.094   -0.093   -0.021
## madde_9    1.000   -0.058   -0.009   -0.016    0.010   -0.010   -0.026   -0.071
## madde_10  -0.058    1.000   -0.057   -0.081   -0.065   -0.066   -0.058   -0.069
## madde_11  -0.009   -0.057    1.000   -0.057    0.020   -0.073    0.021    0.022
## madde_12  -0.016   -0.081   -0.057    1.000   -0.013   -0.078   -0.026   -0.037
## madde_13   0.010   -0.065    0.020   -0.013    1.000    0.070   -0.028   -0.088
## madde_14  -0.010   -0.066   -0.073   -0.078    0.070    1.000   -0.039   -0.055
## madde_15  -0.026   -0.058    0.021   -0.026   -0.028   -0.039    1.000    0.027
## madde_16  -0.071   -0.069    0.022   -0.037   -0.088   -0.055    0.027    1.000
## madde_17  -0.047   -0.065   -0.047   -0.024   -0.058   -0.019   -0.018    0.001
## madde_18  -0.009    0.060   -0.065   -0.006   -0.062   -0.072   -0.079   -0.049
## madde_19  -0.024   -0.017   -0.056   -0.008   -0.105   -0.025   -0.058    0.023
## madde_20  -0.063    0.018   -0.060    0.018   -0.052   -0.046   -0.053    0.014
## madde_21  -0.050   -0.011   -0.049    0.013   -0.107   -0.102   -0.048   -0.013
## madde_22   0.004    0.009   -0.024   -0.045   -0.057   -0.057   -0.007   -0.018
## madde_23  -0.005   -0.052   -0.044   -0.009   -0.028   -0.064   -0.030   -0.101
## madde_24  -0.026   -0.026   -0.029   -0.075   -0.099   -0.057   -0.056   -0.009
## madde_25  -0.068   -0.031   -0.064   -0.040   -0.044   -0.029    0.008   -0.039
##          madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1    -0.010    0.002   -0.050    0.047    0.043   -0.018   -0.014
## madde_2    -0.024   -0.069   -0.032   -0.026   -0.001   -0.050   -0.004
## madde_3    -0.037   -0.052   -0.072   -0.029   -0.040   -0.066   -0.054
## madde_4    -0.059   -0.056   -0.034   -0.044   -0.020   -0.022   -0.017
## madde_5    -0.091   -0.018   -0.056   -0.057   -0.002   -0.025   -0.046
## madde_6    -0.102   -0.016   -0.024   -0.024   -0.029   -0.063   -0.026
## madde_7    -0.029   -0.033   -0.020   -0.095   -0.050   -0.025   -0.035
## madde_8    -0.053   -0.021   -0.008   -0.043    0.015   -0.068   -0.092
## madde_9    -0.047   -0.009   -0.024   -0.063   -0.050    0.004   -0.005
## madde_10   -0.065    0.060   -0.017    0.018   -0.011    0.009   -0.052
## madde_11   -0.047   -0.065   -0.056   -0.060   -0.049   -0.024   -0.044
## madde_12   -0.024   -0.006   -0.008    0.018    0.013   -0.045   -0.009
## madde_13   -0.058   -0.062   -0.105   -0.052   -0.107   -0.057   -0.028
## madde_14   -0.019   -0.072   -0.025   -0.046   -0.102   -0.057   -0.064
## madde_15   -0.018   -0.079   -0.058   -0.053   -0.048   -0.007   -0.030
## madde_16    0.001   -0.049    0.023    0.014   -0.013   -0.018   -0.101
## madde_17    1.000   -0.048    0.038   -0.048    0.052   -0.031   -0.028
## madde_18   -0.048    1.000   -0.049   -0.024   -0.054    0.050   -0.025
## madde_19    0.038   -0.049    1.000   -0.069   -0.035   -0.054   -0.066
## madde_20   -0.048   -0.024   -0.069    1.000   -0.031   -0.048    0.002
## madde_21    0.052   -0.054   -0.035   -0.031    1.000   -0.079   -0.031
## madde_22   -0.031    0.050   -0.054   -0.048   -0.079    1.000    0.030
## madde_23   -0.028   -0.025   -0.066    0.002   -0.031    0.030    1.000
## madde_24   -0.032   -0.037   -0.041    0.022   -0.027    0.004   -0.045
## madde_25   -0.012   -0.044    0.003   -0.032   -0.007   -0.028   -0.067
##          madde_24 madde_25
## madde_1    -0.021   -0.034
## madde_2    -0.082   -0.068
## madde_3    -0.050   -0.056
## madde_4    -0.087   -0.009
## madde_5     0.043    0.004
## madde_6     0.012    0.012
## madde_7    -0.007   -0.022
## madde_8    -0.038    0.012
## madde_9    -0.026   -0.068
## madde_10   -0.026   -0.031
## madde_11   -0.029   -0.064
## madde_12   -0.075   -0.040
## madde_13   -0.099   -0.044
## madde_14   -0.057   -0.029
## madde_15   -0.056    0.008
## madde_16   -0.009   -0.039
## madde_17   -0.032   -0.012
## madde_18   -0.037   -0.044
## madde_19   -0.041    0.003
## madde_20    0.022   -0.032
## madde_21   -0.027   -0.007
## madde_22    0.004   -0.028
## madde_23   -0.045   -0.067
## madde_24    1.000   -0.107
## madde_25   -0.107    1.000
summary(as.vector(q3_1pl[lower.tri(q3_1pl)]))
##     Min.  1st Qu.   Median     Mean  3rd Qu.     Max. 
## -0.12800 -0.05871 -0.03752 -0.03528 -0.01229  0.09684
library(kableExtra)
q3_1pl_df <- as.data.frame(q3_1pl)
q3_1pl_df$Madde <- rownames(q3_1pl_df)
q3_1pl_df <- q3_1pl_df[, c(ncol(q3_1pl_df), 1:(ncol(q3_1pl_df)-1))]
q3_1pl_df %>% kable(format = "html", digits = 3, caption = "1PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_1pl))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")
1PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi
Madde madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8 madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16 madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23 madde_24 madde_25
madde_1 madde_1 1.000 -0.056 -0.073 0.039 0.038 -0.079 -0.128 -0.029 -0.082 0.057 -0.051 -0.071 -0.074 -0.061 -0.033 0.036 -0.010 0.002 -0.050 0.047 0.043 -0.018 -0.014 -0.021 -0.034
madde_2 madde_2 -0.056 1.000 0.009 -0.059 -0.074 -0.051 -0.055 -0.040 -0.099 -0.061 0.004 -0.001 -0.039 -0.007 -0.020 -0.040 -0.024 -0.069 -0.032 -0.026 -0.001 -0.050 -0.004 -0.082 -0.068
madde_3 madde_3 -0.073 0.009 1.000 -0.015 -0.095 -0.074 -0.094 -0.026 -0.048 -0.045 -0.094 -0.075 -0.023 0.012 -0.067 -0.095 -0.037 -0.052 -0.072 -0.029 -0.040 -0.066 -0.054 -0.050 -0.056
madde_4 madde_4 0.039 -0.059 -0.015 1.000 0.028 0.003 -0.032 -0.074 -0.020 -0.038 -0.061 -0.028 -0.083 -0.055 -0.010 -0.040 -0.059 -0.056 -0.034 -0.044 -0.020 -0.022 -0.017 -0.087 -0.009
madde_5 madde_5 0.038 -0.074 -0.095 0.028 1.000 0.027 -0.008 -0.047 -0.095 -0.058 -0.055 -0.031 -0.089 -0.037 -0.032 0.055 -0.091 -0.018 -0.056 -0.057 -0.002 -0.025 -0.046 0.043 0.004
madde_6 madde_6 -0.079 -0.051 -0.074 0.003 0.027 1.000 0.097 -0.059 -0.057 -0.071 -0.040 -0.092 0.015 -0.039 -0.069 -0.096 -0.102 -0.016 -0.024 -0.024 -0.029 -0.063 -0.026 0.012 0.012
madde_7 madde_7 -0.128 -0.055 -0.094 -0.032 -0.008 0.097 1.000 0.015 -0.091 0.003 -0.059 -0.011 -0.064 -0.071 -0.053 0.019 -0.029 -0.033 -0.020 -0.095 -0.050 -0.025 -0.035 -0.007 -0.022
madde_8 madde_8 -0.029 -0.040 -0.026 -0.074 -0.047 -0.059 0.015 1.000 -0.114 0.034 -0.044 0.001 -0.033 -0.094 -0.093 -0.021 -0.053 -0.021 -0.008 -0.043 0.015 -0.068 -0.092 -0.038 0.012
madde_9 madde_9 -0.082 -0.099 -0.048 -0.020 -0.095 -0.057 -0.091 -0.114 1.000 -0.058 -0.009 -0.016 0.010 -0.010 -0.026 -0.071 -0.047 -0.009 -0.024 -0.063 -0.050 0.004 -0.005 -0.026 -0.068
madde_10 madde_10 0.057 -0.061 -0.045 -0.038 -0.058 -0.071 0.003 0.034 -0.058 1.000 -0.057 -0.081 -0.065 -0.066 -0.058 -0.069 -0.065 0.060 -0.017 0.018 -0.011 0.009 -0.052 -0.026 -0.031
madde_11 madde_11 -0.051 0.004 -0.094 -0.061 -0.055 -0.040 -0.059 -0.044 -0.009 -0.057 1.000 -0.057 0.020 -0.073 0.021 0.022 -0.047 -0.065 -0.056 -0.060 -0.049 -0.024 -0.044 -0.029 -0.064
madde_12 madde_12 -0.071 -0.001 -0.075 -0.028 -0.031 -0.092 -0.011 0.001 -0.016 -0.081 -0.057 1.000 -0.013 -0.078 -0.026 -0.037 -0.024 -0.006 -0.008 0.018 0.013 -0.045 -0.009 -0.075 -0.040
madde_13 madde_13 -0.074 -0.039 -0.023 -0.083 -0.089 0.015 -0.064 -0.033 0.010 -0.065 0.020 -0.013 1.000 0.070 -0.028 -0.088 -0.058 -0.062 -0.105 -0.052 -0.107 -0.057 -0.028 -0.099 -0.044
madde_14 madde_14 -0.061 -0.007 0.012 -0.055 -0.037 -0.039 -0.071 -0.094 -0.010 -0.066 -0.073 -0.078 0.070 1.000 -0.039 -0.055 -0.019 -0.072 -0.025 -0.046 -0.102 -0.057 -0.064 -0.057 -0.029
madde_15 madde_15 -0.033 -0.020 -0.067 -0.010 -0.032 -0.069 -0.053 -0.093 -0.026 -0.058 0.021 -0.026 -0.028 -0.039 1.000 0.027 -0.018 -0.079 -0.058 -0.053 -0.048 -0.007 -0.030 -0.056 0.008
madde_16 madde_16 0.036 -0.040 -0.095 -0.040 0.055 -0.096 0.019 -0.021 -0.071 -0.069 0.022 -0.037 -0.088 -0.055 0.027 1.000 0.001 -0.049 0.023 0.014 -0.013 -0.018 -0.101 -0.009 -0.039
madde_17 madde_17 -0.010 -0.024 -0.037 -0.059 -0.091 -0.102 -0.029 -0.053 -0.047 -0.065 -0.047 -0.024 -0.058 -0.019 -0.018 0.001 1.000 -0.048 0.038 -0.048 0.052 -0.031 -0.028 -0.032 -0.012
madde_18 madde_18 0.002 -0.069 -0.052 -0.056 -0.018 -0.016 -0.033 -0.021 -0.009 0.060 -0.065 -0.006 -0.062 -0.072 -0.079 -0.049 -0.048 1.000 -0.049 -0.024 -0.054 0.050 -0.025 -0.037 -0.044
madde_19 madde_19 -0.050 -0.032 -0.072 -0.034 -0.056 -0.024 -0.020 -0.008 -0.024 -0.017 -0.056 -0.008 -0.105 -0.025 -0.058 0.023 0.038 -0.049 1.000 -0.069 -0.035 -0.054 -0.066 -0.041 0.003
madde_20 madde_20 0.047 -0.026 -0.029 -0.044 -0.057 -0.024 -0.095 -0.043 -0.063 0.018 -0.060 0.018 -0.052 -0.046 -0.053 0.014 -0.048 -0.024 -0.069 1.000 -0.031 -0.048 0.002 0.022 -0.032
madde_21 madde_21 0.043 -0.001 -0.040 -0.020 -0.002 -0.029 -0.050 0.015 -0.050 -0.011 -0.049 0.013 -0.107 -0.102 -0.048 -0.013 0.052 -0.054 -0.035 -0.031 1.000 -0.079 -0.031 -0.027 -0.007
madde_22 madde_22 -0.018 -0.050 -0.066 -0.022 -0.025 -0.063 -0.025 -0.068 0.004 0.009 -0.024 -0.045 -0.057 -0.057 -0.007 -0.018 -0.031 0.050 -0.054 -0.048 -0.079 1.000 0.030 0.004 -0.028
madde_23 madde_23 -0.014 -0.004 -0.054 -0.017 -0.046 -0.026 -0.035 -0.092 -0.005 -0.052 -0.044 -0.009 -0.028 -0.064 -0.030 -0.101 -0.028 -0.025 -0.066 0.002 -0.031 0.030 1.000 -0.045 -0.067
madde_24 madde_24 -0.021 -0.082 -0.050 -0.087 0.043 0.012 -0.007 -0.038 -0.026 -0.026 -0.029 -0.075 -0.099 -0.057 -0.056 -0.009 -0.032 -0.037 -0.041 0.022 -0.027 0.004 -0.045 1.000 -0.107
madde_25 madde_25 -0.034 -0.068 -0.056 -0.009 0.004 0.012 -0.022 0.012 -0.068 -0.031 -0.064 -0.040 -0.044 -0.029 0.008 -0.039 -0.012 -0.044 0.003 -0.032 -0.007 -0.028 -0.067 -0.107 1.000
  • Yukarıda sunulan tablo, 1PL modeli (yani sabit ayırt edicilikli lojistik model) kapsamında tahmin edilen Yen Q3 artıklık korelasyonlarını içermektedir. Bu istatistik, her bir madde çifti için bireylerin model tarafından tahmin edilen yanıtları ile gözlenen yanıtları arasındaki artıklık korelasyonunu ifade eder ve yerel bağımsızlık varsayımının değerlendirilmesinde kullanılır (Yen, 1993). Yerel bağımsızlık, tek bir gizil özelliğin (örneğin; yetenek düzeyi) tüm madde yanıtlarını açıklaması gerektiği ilkesine dayanır. Bu varsayımın ihlali, model uyumunun bozulmasına ve geçerlik sorunlarına yol açabilir.

  • Q3 korelasyonlarına ilişkin özet istatistikler incelendiğinde, Q3 değerlerinin ortalama değeri \(-0.035\), medyanı \(-0.037\) ve maksimum değeri \(0.097\) olarak gözlemlenmiştir. Bu değerlerin tamamı, literatürde yerel bağımsızlık ihlali eşiği olarak kabul edilen \(0.20\) sınırının oldukça altında kalmaktadır (Christensen et al., 2017). Ayrıca minimum Q3 değeri \(-0.128\), bu da aşırı negatif sapma göstermeyen, simetrik bir dağılıma işaret eder. Q3 dağılımının simetrik ve ortalamaya yakın olması, modelin artık korelasyonlarının düşük ve rastlantısal düzeyde kaldığını göstermektedir.

  • Matriste yer alan hiçbir madde çifti arasında Q3 değeri anlamlı ölçüde yüksek çıkmamış olup, bu durum 1PL modelinin yerel bağımsızlık varsayımına büyük ölçüde uyum sağladığını göstermektedir. Özellikle madde sayısının 25 gibi yüksek olduğu bir yapı içinde, Q3 değerlerinin bu denli sınırlı kalması modelin tek boyutluluk ve madde bağımsızlığı varsayımlarını desteklediğini göstermektedir.

  • Sonuç olarak, 1PL modeline ait Q3 analiz sonuçları, modelin psikometrik açıdan uygunluk taşıdığını, testin madde yapısında yerel bağımlılığın bulunmadığını ve madde yanıtlarının yeterlik düzeyine bağlı olarak bağımsız bir şekilde modellendiğini ortaya koymaktadır. Bu bulgular, testin geçerlik ve yapı bütünlüğünü desteklemektedir.

q3_2pl <- residuals(mod_2PL, type = "Q3")
## Q3 summary statistics:
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  -0.161  -0.057  -0.036  -0.034  -0.010   0.098 
## 
##          madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1    1.000  -0.061  -0.027   0.002  -0.023  -0.107  -0.161  -0.048
## madde_2   -0.061   1.000   0.041  -0.050  -0.073  -0.036  -0.044  -0.026
## madde_3   -0.027   0.041   1.000   0.024  -0.054  -0.036  -0.057   0.006
## madde_4    0.002  -0.050   0.024   1.000   0.004   0.001  -0.038  -0.074
## madde_5   -0.023  -0.073  -0.054   0.004   1.000   0.014  -0.024  -0.056
## madde_6   -0.107  -0.036  -0.036   0.001   0.014   1.000   0.098  -0.052
## madde_7   -0.161  -0.044  -0.057  -0.038  -0.024   0.098   1.000   0.018
## madde_8   -0.048  -0.026   0.006  -0.074  -0.056  -0.052   0.018   1.000
## madde_9   -0.064  -0.072  -0.021   0.003  -0.075  -0.032  -0.066  -0.090
## madde_10   0.008  -0.055  -0.003  -0.057  -0.094  -0.079  -0.008   0.030
## madde_11  -0.056   0.022  -0.062  -0.052  -0.052  -0.026  -0.047  -0.030
## madde_12  -0.111   0.009  -0.035  -0.038  -0.054  -0.094  -0.016   0.002
## madde_13  -0.045  -0.010   0.003  -0.052  -0.061   0.045  -0.034  -0.006
## madde_14  -0.031   0.022   0.035  -0.023  -0.008  -0.008  -0.040  -0.066
## madde_15  -0.060  -0.007  -0.030  -0.013  -0.046  -0.065  -0.053  -0.087
## madde_16  -0.037  -0.041  -0.049  -0.074   0.005  -0.117  -0.004  -0.034
## madde_17  -0.047  -0.014   0.003  -0.070  -0.116  -0.104  -0.033  -0.051
## madde_18  -0.040  -0.061  -0.012  -0.070  -0.045  -0.020  -0.041  -0.023
## madde_19  -0.079  -0.020  -0.036  -0.040  -0.073  -0.022  -0.021  -0.005
## madde_20  -0.008  -0.020   0.016  -0.066  -0.098  -0.035  -0.110  -0.048
## madde_21  -0.016  -0.001   0.002  -0.048  -0.046  -0.045  -0.072   0.004
## madde_22  -0.051  -0.044  -0.029  -0.036  -0.048  -0.068  -0.034  -0.071
## madde_23  -0.039   0.009  -0.017  -0.020  -0.060  -0.022  -0.034  -0.086
## madde_24  -0.048  -0.070  -0.014  -0.092   0.029   0.014  -0.008  -0.034
## madde_25  -0.076  -0.059  -0.015  -0.022  -0.021   0.009  -0.029   0.011
##          madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1   -0.064    0.008   -0.056   -0.111   -0.045   -0.031   -0.060   -0.037
## madde_2   -0.072   -0.055    0.022    0.009   -0.010    0.022   -0.007   -0.041
## madde_3   -0.021   -0.003   -0.062   -0.035    0.003    0.035   -0.030   -0.049
## madde_4    0.003   -0.057   -0.052   -0.038   -0.052   -0.023   -0.013   -0.074
## madde_5   -0.075   -0.094   -0.052   -0.054   -0.061   -0.008   -0.046    0.005
## madde_6   -0.032   -0.079   -0.026   -0.094    0.045   -0.008   -0.065   -0.117
## madde_7   -0.066   -0.008   -0.047   -0.016   -0.034   -0.040   -0.053   -0.004
## madde_8   -0.090    0.030   -0.030    0.002   -0.006   -0.066   -0.087   -0.034
## madde_9    1.000   -0.036    0.015    0.009    0.037    0.016   -0.002   -0.050
## madde_10  -0.036    1.000   -0.051   -0.098   -0.035   -0.036   -0.067   -0.114
## madde_11   0.015   -0.051    1.000   -0.046    0.047   -0.045    0.034    0.024
## madde_12   0.009   -0.098   -0.046    1.000    0.019   -0.045   -0.029   -0.069
## madde_13   0.037   -0.035    0.047    0.019    1.000    0.095    0.002   -0.056
## madde_14   0.016   -0.036   -0.045   -0.045    0.095    1.000   -0.010   -0.022
## madde_15  -0.002   -0.067    0.034   -0.029    0.002   -0.010    1.000    0.009
## madde_16  -0.050   -0.114    0.024   -0.069   -0.056   -0.022    0.009    1.000
## madde_17  -0.023   -0.083   -0.036   -0.032   -0.027    0.012   -0.021   -0.029
## madde_18   0.013    0.041   -0.057   -0.018   -0.032   -0.041   -0.084   -0.086
## madde_19   0.000   -0.028   -0.044   -0.012   -0.074    0.005   -0.057    0.001
## madde_20  -0.039   -0.012   -0.054   -0.001   -0.019   -0.013   -0.065   -0.034
## madde_21  -0.029   -0.047   -0.048   -0.013   -0.076   -0.068   -0.065   -0.071
## madde_22   0.026   -0.008   -0.018   -0.059   -0.027   -0.022   -0.013   -0.052
## madde_23   0.020   -0.061   -0.030   -0.011    0.003   -0.032   -0.027   -0.122
## madde_24  -0.004   -0.036   -0.017   -0.079   -0.069   -0.028   -0.054   -0.031
## madde_25  -0.044   -0.050   -0.054   -0.052   -0.011    0.004    0.004   -0.076
##          madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1    -0.047   -0.040   -0.079   -0.008   -0.016   -0.051   -0.039
## madde_2    -0.014   -0.061   -0.020   -0.020   -0.001   -0.044    0.009
## madde_3     0.003   -0.012   -0.036    0.016    0.002   -0.029   -0.017
## madde_4    -0.070   -0.070   -0.040   -0.066   -0.048   -0.036   -0.020
## madde_5    -0.116   -0.045   -0.073   -0.098   -0.046   -0.048   -0.060
## madde_6    -0.104   -0.020   -0.022   -0.035   -0.045   -0.068   -0.022
## madde_7    -0.033   -0.041   -0.021   -0.110   -0.072   -0.034   -0.034
## madde_8    -0.051   -0.023   -0.005   -0.048    0.004   -0.071   -0.086
## madde_9    -0.023    0.013    0.000   -0.039   -0.029    0.026    0.020
## madde_10   -0.083    0.041   -0.028   -0.012   -0.047   -0.008   -0.061
## madde_11   -0.036   -0.057   -0.044   -0.054   -0.048   -0.018   -0.030
## madde_12   -0.032   -0.018   -0.012   -0.001   -0.013   -0.059   -0.011
## madde_13   -0.027   -0.032   -0.074   -0.019   -0.076   -0.027    0.003
## madde_14    0.012   -0.041    0.005   -0.013   -0.068   -0.022   -0.032
## madde_15   -0.021   -0.084   -0.057   -0.065   -0.065   -0.013   -0.027
## madde_16   -0.029   -0.086    0.001   -0.034   -0.071   -0.052   -0.122
## madde_17    1.000   -0.061    0.034   -0.068    0.027   -0.044   -0.030
## madde_18   -0.061    1.000   -0.057   -0.048   -0.086    0.035   -0.030
## madde_19    0.034   -0.057    1.000   -0.083   -0.055   -0.062   -0.064
## madde_20   -0.068   -0.048   -0.083    1.000   -0.074   -0.070   -0.008
## madde_21    0.027   -0.086   -0.055   -0.074    1.000   -0.114   -0.048
## madde_22   -0.044    0.035   -0.062   -0.070   -0.114    1.000    0.024
## madde_23   -0.030   -0.030   -0.064   -0.008   -0.048    0.024    1.000
## madde_24   -0.035   -0.044   -0.042    0.010   -0.047   -0.005   -0.043
## madde_25   -0.023   -0.060   -0.004   -0.055   -0.039   -0.046   -0.071
##          madde_24 madde_25
## madde_1    -0.048   -0.076
## madde_2    -0.070   -0.059
## madde_3    -0.014   -0.015
## madde_4    -0.092   -0.022
## madde_5     0.029   -0.021
## madde_6     0.014    0.009
## madde_7    -0.008   -0.029
## madde_8    -0.034    0.011
## madde_9    -0.004   -0.044
## madde_10   -0.036   -0.050
## madde_11   -0.017   -0.054
## madde_12   -0.079   -0.052
## madde_13   -0.069   -0.011
## madde_14   -0.028    0.004
## madde_15   -0.054    0.004
## madde_16   -0.031   -0.076
## madde_17   -0.035   -0.023
## madde_18   -0.044   -0.060
## madde_19   -0.042   -0.004
## madde_20    0.010   -0.055
## madde_21   -0.047   -0.039
## madde_22   -0.005   -0.046
## madde_23   -0.043   -0.071
## madde_24    1.000   -0.114
## madde_25   -0.114    1.000
summary(as.vector(q3_2pl[lower.tri(q3_2pl)]))
##      Min.   1st Qu.    Median      Mean   3rd Qu.      Max. 
## -0.161164 -0.056634 -0.035608 -0.034178 -0.009612  0.098192
library(kableExtra)
q3_2pl_df <- as.data.frame(q3_2pl)
q3_2pl_df$Madde <- rownames(q3_2pl_df)
q3_2pl_df <- q3_2pl_df[, c(ncol(q3_2pl_df), 1:(ncol(q3_2pl_df) - 1))]
q3_2pl_df %>% kable(format = "html", digits = 3, caption = "2PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_2pl))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")
2PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi
Madde madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8 madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16 madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23 madde_24 madde_25
madde_1 madde_1 1.000 -0.061 -0.027 0.002 -0.023 -0.107 -0.161 -0.048 -0.064 0.008 -0.056 -0.111 -0.045 -0.031 -0.060 -0.037 -0.047 -0.040 -0.079 -0.008 -0.016 -0.051 -0.039 -0.048 -0.076
madde_2 madde_2 -0.061 1.000 0.041 -0.050 -0.073 -0.036 -0.044 -0.026 -0.072 -0.055 0.022 0.009 -0.010 0.022 -0.007 -0.041 -0.014 -0.061 -0.020 -0.020 -0.001 -0.044 0.009 -0.070 -0.059
madde_3 madde_3 -0.027 0.041 1.000 0.024 -0.054 -0.036 -0.057 0.006 -0.021 -0.003 -0.062 -0.035 0.003 0.035 -0.030 -0.049 0.003 -0.012 -0.036 0.016 0.002 -0.029 -0.017 -0.014 -0.015
madde_4 madde_4 0.002 -0.050 0.024 1.000 0.004 0.001 -0.038 -0.074 0.003 -0.057 -0.052 -0.038 -0.052 -0.023 -0.013 -0.074 -0.070 -0.070 -0.040 -0.066 -0.048 -0.036 -0.020 -0.092 -0.022
madde_5 madde_5 -0.023 -0.073 -0.054 0.004 1.000 0.014 -0.024 -0.056 -0.075 -0.094 -0.052 -0.054 -0.061 -0.008 -0.046 0.005 -0.116 -0.045 -0.073 -0.098 -0.046 -0.048 -0.060 0.029 -0.021
madde_6 madde_6 -0.107 -0.036 -0.036 0.001 0.014 1.000 0.098 -0.052 -0.032 -0.079 -0.026 -0.094 0.045 -0.008 -0.065 -0.117 -0.104 -0.020 -0.022 -0.035 -0.045 -0.068 -0.022 0.014 0.009
madde_7 madde_7 -0.161 -0.044 -0.057 -0.038 -0.024 0.098 1.000 0.018 -0.066 -0.008 -0.047 -0.016 -0.034 -0.040 -0.053 -0.004 -0.033 -0.041 -0.021 -0.110 -0.072 -0.034 -0.034 -0.008 -0.029
madde_8 madde_8 -0.048 -0.026 0.006 -0.074 -0.056 -0.052 0.018 1.000 -0.090 0.030 -0.030 0.002 -0.006 -0.066 -0.087 -0.034 -0.051 -0.023 -0.005 -0.048 0.004 -0.071 -0.086 -0.034 0.011
madde_9 madde_9 -0.064 -0.072 -0.021 0.003 -0.075 -0.032 -0.066 -0.090 1.000 -0.036 0.015 0.009 0.037 0.016 -0.002 -0.050 -0.023 0.013 0.000 -0.039 -0.029 0.026 0.020 -0.004 -0.044
madde_10 madde_10 0.008 -0.055 -0.003 -0.057 -0.094 -0.079 -0.008 0.030 -0.036 1.000 -0.051 -0.098 -0.035 -0.036 -0.067 -0.114 -0.083 0.041 -0.028 -0.012 -0.047 -0.008 -0.061 -0.036 -0.050
madde_11 madde_11 -0.056 0.022 -0.062 -0.052 -0.052 -0.026 -0.047 -0.030 0.015 -0.051 1.000 -0.046 0.047 -0.045 0.034 0.024 -0.036 -0.057 -0.044 -0.054 -0.048 -0.018 -0.030 -0.017 -0.054
madde_12 madde_12 -0.111 0.009 -0.035 -0.038 -0.054 -0.094 -0.016 0.002 0.009 -0.098 -0.046 1.000 0.019 -0.045 -0.029 -0.069 -0.032 -0.018 -0.012 -0.001 -0.013 -0.059 -0.011 -0.079 -0.052
madde_13 madde_13 -0.045 -0.010 0.003 -0.052 -0.061 0.045 -0.034 -0.006 0.037 -0.035 0.047 0.019 1.000 0.095 0.002 -0.056 -0.027 -0.032 -0.074 -0.019 -0.076 -0.027 0.003 -0.069 -0.011
madde_14 madde_14 -0.031 0.022 0.035 -0.023 -0.008 -0.008 -0.040 -0.066 0.016 -0.036 -0.045 -0.045 0.095 1.000 -0.010 -0.022 0.012 -0.041 0.005 -0.013 -0.068 -0.022 -0.032 -0.028 0.004
madde_15 madde_15 -0.060 -0.007 -0.030 -0.013 -0.046 -0.065 -0.053 -0.087 -0.002 -0.067 0.034 -0.029 0.002 -0.010 1.000 0.009 -0.021 -0.084 -0.057 -0.065 -0.065 -0.013 -0.027 -0.054 0.004
madde_16 madde_16 -0.037 -0.041 -0.049 -0.074 0.005 -0.117 -0.004 -0.034 -0.050 -0.114 0.024 -0.069 -0.056 -0.022 0.009 1.000 -0.029 -0.086 0.001 -0.034 -0.071 -0.052 -0.122 -0.031 -0.076
madde_17 madde_17 -0.047 -0.014 0.003 -0.070 -0.116 -0.104 -0.033 -0.051 -0.023 -0.083 -0.036 -0.032 -0.027 0.012 -0.021 -0.029 1.000 -0.061 0.034 -0.068 0.027 -0.044 -0.030 -0.035 -0.023
madde_18 madde_18 -0.040 -0.061 -0.012 -0.070 -0.045 -0.020 -0.041 -0.023 0.013 0.041 -0.057 -0.018 -0.032 -0.041 -0.084 -0.086 -0.061 1.000 -0.057 -0.048 -0.086 0.035 -0.030 -0.044 -0.060
madde_19 madde_19 -0.079 -0.020 -0.036 -0.040 -0.073 -0.022 -0.021 -0.005 0.000 -0.028 -0.044 -0.012 -0.074 0.005 -0.057 0.001 0.034 -0.057 1.000 -0.083 -0.055 -0.062 -0.064 -0.042 -0.004
madde_20 madde_20 -0.008 -0.020 0.016 -0.066 -0.098 -0.035 -0.110 -0.048 -0.039 -0.012 -0.054 -0.001 -0.019 -0.013 -0.065 -0.034 -0.068 -0.048 -0.083 1.000 -0.074 -0.070 -0.008 0.010 -0.055
madde_21 madde_21 -0.016 -0.001 0.002 -0.048 -0.046 -0.045 -0.072 0.004 -0.029 -0.047 -0.048 -0.013 -0.076 -0.068 -0.065 -0.071 0.027 -0.086 -0.055 -0.074 1.000 -0.114 -0.048 -0.047 -0.039
madde_22 madde_22 -0.051 -0.044 -0.029 -0.036 -0.048 -0.068 -0.034 -0.071 0.026 -0.008 -0.018 -0.059 -0.027 -0.022 -0.013 -0.052 -0.044 0.035 -0.062 -0.070 -0.114 1.000 0.024 -0.005 -0.046
madde_23 madde_23 -0.039 0.009 -0.017 -0.020 -0.060 -0.022 -0.034 -0.086 0.020 -0.061 -0.030 -0.011 0.003 -0.032 -0.027 -0.122 -0.030 -0.030 -0.064 -0.008 -0.048 0.024 1.000 -0.043 -0.071
madde_24 madde_24 -0.048 -0.070 -0.014 -0.092 0.029 0.014 -0.008 -0.034 -0.004 -0.036 -0.017 -0.079 -0.069 -0.028 -0.054 -0.031 -0.035 -0.044 -0.042 0.010 -0.047 -0.005 -0.043 1.000 -0.114
madde_25 madde_25 -0.076 -0.059 -0.015 -0.022 -0.021 0.009 -0.029 0.011 -0.044 -0.050 -0.054 -0.052 -0.011 0.004 0.004 -0.076 -0.023 -0.060 -0.004 -0.055 -0.039 -0.046 -0.071 -0.114 1.000
  • Yukarıda sunulan tablo, iki parametreli lojistik model (2PL) kapsamında tahmin edilen Yen Q3 artıklık korelasyonlarına ilişkin sonuçları göstermektedir. Yen Q3 istatistiği, her bir madde çifti için gözlenen ve model tarafından tahmin edilen madde yanıtları arasındaki artıklıkların korelasyonunu ölçer ve yerel bağımsızlık varsayımının ihlal edilip edilmediğini değerlendirmek için kullanılır (Yen, 1993). Yerel bağımsızlık varsayımına göre, bireyin yanıtları yalnızca tek bir gizil değişkene (yetenek düzeyi, θ) bağlı olmalı ve maddeler arasında model dışı korelasyon bulunmamalıdır.

  • Bu modele ait Q3 özet istatistiklerine bakıldığında; ortalama Q3 değeri \(-0.034\), medyanı \(-0.036\), minimum değeri \(-0.161\) ve maksimum değeri 0.098 olarak elde edilmiştir. Tüm değerler, literatürde yerel bağımlılık için sınır olarak kabul edilen \(Q3 > 0.20\) eşiğinin oldukça altında kalmaktadır (Christensen et al., 2017; Chalmers, 2012). Q3 dağılımı simetrik ve sıfıra yakın olup, modelin artıklık korelasyonlarının sistematik bir örüntü oluşturmadığını ve dolayısıyla yerel bağımlılık sorununa işaret etmediğini göstermektedir.

  • Matrise bakıldığında hiçbir madde çiftinde aşırı pozitif artıklık korelasyonları görülmemiştir. Ayrıca birçok değer negatif yönde seyretmekte olup, bu durum Q3 istatistiklerinin genel olarak düşük sistematik hata içerdiğini ve modelin varsayımlarına uygun çalıştığını gösterir. 2PL modelinde ayırt edicilik parametrelerinin serbest bırakılmış olması nedeniyle, bu model Rasch modeline göre artıklık varyansını bir miktar daha iyi açıklayabilmekte; bu da yerel bağımsızlık açısından avantaj sağlamaktadır.

  • Sonuç olarak, 2PL modeline ait Q3 analizi, modelin yerel bağımsızlık varsayımını büyük ölçüde karşıladığını, madde yanıtları arasında model dışı korelasyonların bulunmadığını ve testin psikometrik olarak sağlam bir yapıya sahip olduğunu ortaya koymaktadır. Bu bulgular, testin yapı geçerliğini ve tek boyutluluk varsayımına uygunluğunu desteklemektedir.

q3_3pl <- residuals(mod_3PL, type = "Q3")
## Q3 summary statistics:
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  -0.163  -0.051  -0.027  -0.028  -0.003   0.105 
## 
##          madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8
## madde_1    1.000  -0.042  -0.015  -0.022  -0.086  -0.124  -0.163  -0.056
## madde_2   -0.042   1.000   0.040  -0.038  -0.059  -0.022  -0.033  -0.015
## madde_3   -0.015   0.040   1.000   0.029  -0.047  -0.030  -0.057   0.008
## madde_4   -0.022  -0.038   0.029   1.000  -0.020  -0.001  -0.034  -0.074
## madde_5   -0.086  -0.059  -0.047  -0.020   1.000  -0.001  -0.026  -0.067
## madde_6   -0.124  -0.022  -0.030  -0.001  -0.001   1.000   0.105  -0.048
## madde_7   -0.163  -0.033  -0.057  -0.034  -0.026   0.105   1.000   0.023
## madde_8   -0.056  -0.015   0.008  -0.074  -0.067  -0.048   0.023   1.000
## madde_9   -0.050  -0.066  -0.024   0.013  -0.066  -0.021  -0.060  -0.083
## madde_10  -0.007  -0.036   0.004  -0.059  -0.113  -0.075   0.001   0.035
## madde_11  -0.052   0.034  -0.060  -0.046  -0.051  -0.016  -0.038  -0.022
## madde_12  -0.092   0.022  -0.035  -0.026  -0.040  -0.078  -0.005   0.014
## madde_13  -0.016  -0.004  -0.004  -0.037  -0.040   0.060  -0.024   0.004
## madde_14  -0.019   0.025   0.030  -0.016   0.001   0.000  -0.035  -0.062
## madde_15  -0.069   0.005  -0.027  -0.013  -0.057  -0.060  -0.046  -0.082
## madde_16  -0.068  -0.023  -0.041  -0.084  -0.024  -0.119   0.002  -0.034
## madde_17  -0.019   0.003   0.004  -0.054  -0.096  -0.084  -0.020  -0.035
## madde_18  -0.038  -0.045  -0.009  -0.065  -0.047  -0.010  -0.031  -0.015
## madde_19  -0.083  -0.010  -0.036  -0.038  -0.080  -0.016  -0.016  -0.001
## madde_20  -0.014  -0.003   0.020  -0.066  -0.110  -0.028  -0.102  -0.043
## madde_21  -0.007   0.009   0.000  -0.043  -0.043  -0.035  -0.066   0.011
## madde_22  -0.021  -0.044  -0.042  -0.022  -0.026  -0.055  -0.033  -0.065
## madde_23  -0.017   0.023  -0.017  -0.007  -0.045  -0.005  -0.021  -0.073
## madde_24  -0.060  -0.062  -0.015  -0.097   0.018   0.016  -0.007  -0.034
## madde_25  -0.077  -0.049  -0.015  -0.020  -0.024   0.015  -0.025   0.015
##          madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16
## madde_1   -0.050   -0.007   -0.052   -0.092   -0.016   -0.019   -0.069   -0.068
## madde_2   -0.066   -0.036    0.034    0.022   -0.004    0.025    0.005   -0.023
## madde_3   -0.024    0.004   -0.060   -0.035   -0.004    0.030   -0.027   -0.041
## madde_4    0.013   -0.059   -0.046   -0.026   -0.037   -0.016   -0.013   -0.084
## madde_5   -0.066   -0.113   -0.051   -0.040   -0.040    0.001   -0.057   -0.024
## madde_6   -0.021   -0.075   -0.016   -0.078    0.060    0.000   -0.060   -0.119
## madde_7   -0.060    0.001   -0.038   -0.005   -0.024   -0.035   -0.046    0.002
## madde_8   -0.083    0.035   -0.022    0.014    0.004   -0.062   -0.082   -0.034
## madde_9    1.000   -0.023    0.023    0.017    0.037    0.016    0.006   -0.037
## madde_10  -0.023    1.000   -0.039   -0.078   -0.014   -0.026   -0.061   -0.118
## madde_11   0.023   -0.039    1.000   -0.032    0.056   -0.040    0.042    0.032
## madde_12   0.017   -0.078   -0.032    1.000    0.030   -0.040   -0.015   -0.052
## madde_13   0.037   -0.014    0.056    0.030    1.000    0.091    0.013   -0.033
## madde_14   0.016   -0.026   -0.040   -0.040    0.091    1.000   -0.004   -0.011
## madde_15   0.006   -0.061    0.042   -0.015    0.013   -0.004    1.000    0.010
## madde_16  -0.037   -0.118    0.032   -0.052   -0.033   -0.011    0.010    1.000
## madde_17  -0.012   -0.057   -0.018   -0.013   -0.011    0.020   -0.003   -0.010
## madde_18   0.023    0.052   -0.044   -0.001   -0.018   -0.033   -0.074   -0.079
## madde_19   0.005   -0.021   -0.036   -0.002   -0.065    0.009   -0.052    0.004
## madde_20  -0.028   -0.004   -0.043    0.015    0.002   -0.003   -0.057   -0.035
## madde_21  -0.023   -0.035   -0.038   -0.003   -0.066   -0.064   -0.056   -0.062
## madde_22   0.025    0.009   -0.010   -0.059   -0.035   -0.026   -0.003   -0.030
## madde_23   0.028   -0.039   -0.015    0.006    0.013   -0.026   -0.012   -0.104
## madde_24   0.001   -0.035   -0.013   -0.073   -0.060   -0.025   -0.053   -0.036
## madde_25  -0.037   -0.044   -0.046   -0.044    0.001    0.009    0.009   -0.073
##          madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23
## madde_1    -0.019   -0.038   -0.083   -0.014   -0.007   -0.021   -0.017
## madde_2     0.003   -0.045   -0.010   -0.003    0.009   -0.044    0.023
## madde_3     0.004   -0.009   -0.036    0.020    0.000   -0.042   -0.017
## madde_4    -0.054   -0.065   -0.038   -0.066   -0.043   -0.022   -0.007
## madde_5    -0.096   -0.047   -0.080   -0.110   -0.043   -0.026   -0.045
## madde_6    -0.084   -0.010   -0.016   -0.028   -0.035   -0.055   -0.005
## madde_7    -0.020   -0.031   -0.016   -0.102   -0.066   -0.033   -0.021
## madde_8    -0.035   -0.015   -0.001   -0.043    0.011   -0.065   -0.073
## madde_9    -0.012    0.023    0.005   -0.028   -0.023    0.025    0.028
## madde_10   -0.057    0.052   -0.021   -0.004   -0.035    0.009   -0.039
## madde_11   -0.018   -0.044   -0.036   -0.043   -0.038   -0.010   -0.015
## madde_12   -0.013   -0.001   -0.002    0.015   -0.003   -0.059    0.006
## madde_13   -0.011   -0.018   -0.065    0.002   -0.066   -0.035    0.013
## madde_14    0.020   -0.033    0.009   -0.003   -0.064   -0.026   -0.026
## madde_15   -0.003   -0.074   -0.052   -0.057   -0.056   -0.003   -0.012
## madde_16   -0.010   -0.079    0.004   -0.035   -0.062   -0.030   -0.104
## madde_17    1.000   -0.039    0.047   -0.048    0.039   -0.040   -0.009
## madde_18   -0.039    1.000   -0.048   -0.036   -0.074    0.045   -0.011
## madde_19    0.047   -0.048    1.000   -0.078   -0.050   -0.059   -0.052
## madde_20   -0.048   -0.036   -0.078    1.000   -0.066   -0.058    0.011
## madde_21    0.039   -0.074   -0.050   -0.066    1.000   -0.119   -0.035
## madde_22   -0.040    0.045   -0.059   -0.058   -0.119    1.000    0.027
## madde_23   -0.009   -0.011   -0.052    0.011   -0.035    0.027    1.000
## madde_24   -0.026   -0.040   -0.042    0.009   -0.047   -0.002   -0.034
## madde_25   -0.014   -0.052   -0.001   -0.052   -0.036   -0.043   -0.060
##          madde_24 madde_25
## madde_1    -0.060   -0.077
## madde_2    -0.062   -0.049
## madde_3    -0.015   -0.015
## madde_4    -0.097   -0.020
## madde_5     0.018   -0.024
## madde_6     0.016    0.015
## madde_7    -0.007   -0.025
## madde_8    -0.034    0.015
## madde_9     0.001   -0.037
## madde_10   -0.035   -0.044
## madde_11   -0.013   -0.046
## madde_12   -0.073   -0.044
## madde_13   -0.060    0.001
## madde_14   -0.025    0.009
## madde_15   -0.053    0.009
## madde_16   -0.036   -0.073
## madde_17   -0.026   -0.014
## madde_18   -0.040   -0.052
## madde_19   -0.042   -0.001
## madde_20    0.009   -0.052
## madde_21   -0.047   -0.036
## madde_22   -0.002   -0.043
## madde_23   -0.034   -0.060
## madde_24    1.000   -0.116
## madde_25   -0.116    1.000
summary(as.vector(q3_3pl[lower.tri(q3_3pl)]))
##      Min.   1st Qu.    Median      Mean   3rd Qu.      Max. 
## -0.162783 -0.051456 -0.026887 -0.027639 -0.003316  0.105412
library(kableExtra)
q3_3pl_df <- as.data.frame(q3_3pl)
q3_3pl_df$Madde <- rownames(q3_3pl_df)
q3_3pl_df <- q3_3pl_df[, c(ncol(q3_3pl_df), 1:(ncol(q3_3pl_df) - 1))]
q3_3pl_df %>% kable(format = "html", digits = 3, caption = "3PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi", col.names = c("Madde", colnames(q3_3pl))) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% scroll_box(width = "1000px", height = "600px") %>% row_spec(0, bold = T, background = "#D3D3D3")
3PL Modeline Gore Yen Q3 Artıklık Korelasyon Matrisi
Madde madde_1 madde_2 madde_3 madde_4 madde_5 madde_6 madde_7 madde_8 madde_9 madde_10 madde_11 madde_12 madde_13 madde_14 madde_15 madde_16 madde_17 madde_18 madde_19 madde_20 madde_21 madde_22 madde_23 madde_24 madde_25
madde_1 madde_1 1.000 -0.042 -0.015 -0.022 -0.086 -0.124 -0.163 -0.056 -0.050 -0.007 -0.052 -0.092 -0.016 -0.019 -0.069 -0.068 -0.019 -0.038 -0.083 -0.014 -0.007 -0.021 -0.017 -0.060 -0.077
madde_2 madde_2 -0.042 1.000 0.040 -0.038 -0.059 -0.022 -0.033 -0.015 -0.066 -0.036 0.034 0.022 -0.004 0.025 0.005 -0.023 0.003 -0.045 -0.010 -0.003 0.009 -0.044 0.023 -0.062 -0.049
madde_3 madde_3 -0.015 0.040 1.000 0.029 -0.047 -0.030 -0.057 0.008 -0.024 0.004 -0.060 -0.035 -0.004 0.030 -0.027 -0.041 0.004 -0.009 -0.036 0.020 0.000 -0.042 -0.017 -0.015 -0.015
madde_4 madde_4 -0.022 -0.038 0.029 1.000 -0.020 -0.001 -0.034 -0.074 0.013 -0.059 -0.046 -0.026 -0.037 -0.016 -0.013 -0.084 -0.054 -0.065 -0.038 -0.066 -0.043 -0.022 -0.007 -0.097 -0.020
madde_5 madde_5 -0.086 -0.059 -0.047 -0.020 1.000 -0.001 -0.026 -0.067 -0.066 -0.113 -0.051 -0.040 -0.040 0.001 -0.057 -0.024 -0.096 -0.047 -0.080 -0.110 -0.043 -0.026 -0.045 0.018 -0.024
madde_6 madde_6 -0.124 -0.022 -0.030 -0.001 -0.001 1.000 0.105 -0.048 -0.021 -0.075 -0.016 -0.078 0.060 0.000 -0.060 -0.119 -0.084 -0.010 -0.016 -0.028 -0.035 -0.055 -0.005 0.016 0.015
madde_7 madde_7 -0.163 -0.033 -0.057 -0.034 -0.026 0.105 1.000 0.023 -0.060 0.001 -0.038 -0.005 -0.024 -0.035 -0.046 0.002 -0.020 -0.031 -0.016 -0.102 -0.066 -0.033 -0.021 -0.007 -0.025
madde_8 madde_8 -0.056 -0.015 0.008 -0.074 -0.067 -0.048 0.023 1.000 -0.083 0.035 -0.022 0.014 0.004 -0.062 -0.082 -0.034 -0.035 -0.015 -0.001 -0.043 0.011 -0.065 -0.073 -0.034 0.015
madde_9 madde_9 -0.050 -0.066 -0.024 0.013 -0.066 -0.021 -0.060 -0.083 1.000 -0.023 0.023 0.017 0.037 0.016 0.006 -0.037 -0.012 0.023 0.005 -0.028 -0.023 0.025 0.028 0.001 -0.037
madde_10 madde_10 -0.007 -0.036 0.004 -0.059 -0.113 -0.075 0.001 0.035 -0.023 1.000 -0.039 -0.078 -0.014 -0.026 -0.061 -0.118 -0.057 0.052 -0.021 -0.004 -0.035 0.009 -0.039 -0.035 -0.044
madde_11 madde_11 -0.052 0.034 -0.060 -0.046 -0.051 -0.016 -0.038 -0.022 0.023 -0.039 1.000 -0.032 0.056 -0.040 0.042 0.032 -0.018 -0.044 -0.036 -0.043 -0.038 -0.010 -0.015 -0.013 -0.046
madde_12 madde_12 -0.092 0.022 -0.035 -0.026 -0.040 -0.078 -0.005 0.014 0.017 -0.078 -0.032 1.000 0.030 -0.040 -0.015 -0.052 -0.013 -0.001 -0.002 0.015 -0.003 -0.059 0.006 -0.073 -0.044
madde_13 madde_13 -0.016 -0.004 -0.004 -0.037 -0.040 0.060 -0.024 0.004 0.037 -0.014 0.056 0.030 1.000 0.091 0.013 -0.033 -0.011 -0.018 -0.065 0.002 -0.066 -0.035 0.013 -0.060 0.001
madde_14 madde_14 -0.019 0.025 0.030 -0.016 0.001 0.000 -0.035 -0.062 0.016 -0.026 -0.040 -0.040 0.091 1.000 -0.004 -0.011 0.020 -0.033 0.009 -0.003 -0.064 -0.026 -0.026 -0.025 0.009
madde_15 madde_15 -0.069 0.005 -0.027 -0.013 -0.057 -0.060 -0.046 -0.082 0.006 -0.061 0.042 -0.015 0.013 -0.004 1.000 0.010 -0.003 -0.074 -0.052 -0.057 -0.056 -0.003 -0.012 -0.053 0.009
madde_16 madde_16 -0.068 -0.023 -0.041 -0.084 -0.024 -0.119 0.002 -0.034 -0.037 -0.118 0.032 -0.052 -0.033 -0.011 0.010 1.000 -0.010 -0.079 0.004 -0.035 -0.062 -0.030 -0.104 -0.036 -0.073
madde_17 madde_17 -0.019 0.003 0.004 -0.054 -0.096 -0.084 -0.020 -0.035 -0.012 -0.057 -0.018 -0.013 -0.011 0.020 -0.003 -0.010 1.000 -0.039 0.047 -0.048 0.039 -0.040 -0.009 -0.026 -0.014
madde_18 madde_18 -0.038 -0.045 -0.009 -0.065 -0.047 -0.010 -0.031 -0.015 0.023 0.052 -0.044 -0.001 -0.018 -0.033 -0.074 -0.079 -0.039 1.000 -0.048 -0.036 -0.074 0.045 -0.011 -0.040 -0.052
madde_19 madde_19 -0.083 -0.010 -0.036 -0.038 -0.080 -0.016 -0.016 -0.001 0.005 -0.021 -0.036 -0.002 -0.065 0.009 -0.052 0.004 0.047 -0.048 1.000 -0.078 -0.050 -0.059 -0.052 -0.042 -0.001
madde_20 madde_20 -0.014 -0.003 0.020 -0.066 -0.110 -0.028 -0.102 -0.043 -0.028 -0.004 -0.043 0.015 0.002 -0.003 -0.057 -0.035 -0.048 -0.036 -0.078 1.000 -0.066 -0.058 0.011 0.009 -0.052
madde_21 madde_21 -0.007 0.009 0.000 -0.043 -0.043 -0.035 -0.066 0.011 -0.023 -0.035 -0.038 -0.003 -0.066 -0.064 -0.056 -0.062 0.039 -0.074 -0.050 -0.066 1.000 -0.119 -0.035 -0.047 -0.036
madde_22 madde_22 -0.021 -0.044 -0.042 -0.022 -0.026 -0.055 -0.033 -0.065 0.025 0.009 -0.010 -0.059 -0.035 -0.026 -0.003 -0.030 -0.040 0.045 -0.059 -0.058 -0.119 1.000 0.027 -0.002 -0.043
madde_23 madde_23 -0.017 0.023 -0.017 -0.007 -0.045 -0.005 -0.021 -0.073 0.028 -0.039 -0.015 0.006 0.013 -0.026 -0.012 -0.104 -0.009 -0.011 -0.052 0.011 -0.035 0.027 1.000 -0.034 -0.060
madde_24 madde_24 -0.060 -0.062 -0.015 -0.097 0.018 0.016 -0.007 -0.034 0.001 -0.035 -0.013 -0.073 -0.060 -0.025 -0.053 -0.036 -0.026 -0.040 -0.042 0.009 -0.047 -0.002 -0.034 1.000 -0.116
madde_25 madde_25 -0.077 -0.049 -0.015 -0.020 -0.024 0.015 -0.025 0.015 -0.037 -0.044 -0.046 -0.044 0.001 0.009 0.009 -0.073 -0.014 -0.052 -0.001 -0.052 -0.036 -0.043 -0.060 -0.116 1.000
  • Yukarıda sunulan tablo, üç parametreli lojistik model (3PL) kapsamında elde edilen Yen Q3 artıklık korelasyonlarına ilişkin sonuçları göstermektedir. Yen Q3 istatistiği, her bir madde çifti için modelden beklenen ve gözlenen yanıtlar arasındaki artıkların korelasyonlarını ifade eder. Bu korelasyonlar, yerel bağımsızlık varsayımının geçerliğini değerlendirmek amacıyla kullanılır. Yerel bağımsızlık varsayımı, modelde yer alan her bir maddenin yalnızca bireyin gizil yetenek düzeyi (θ) tarafından belirlendiğini ve maddeler arasında doğrudan korelasyon olmadığını öngörmektedir (Yen, 1993).

  • 3PL modeli, ayırt edicilik (a), güçlük (b) ve alt asimptot (g) olmak üzere üç parametre içerdiği için, model uyumu açısından esneklik sağlar ve özellikle tahmine dayalı yanıtların etkisini dengelemeyi amaçlar. Bu esnek yapıya rağmen, Q3 istatistikleri üzerinden modelin yerel bağımsızlık varsayımını sağlayıp sağlamadığı kontrol edilmelidir.

  • Q3 özet istatistiklerine göre: minimum değer \(-0.163\), maksimum değer \(0.105\), ortalama \(-0.027\), ve medyan değer \(-0.027\) olarak hesaplanmıştır. Bu değerler, literatürde sıklıkla kullanılan \(Q3 > 0.20\) sınırının oldukça altında kalmaktadır (Christensen et al., 2017). Ortalama değerin sıfıra oldukça yakın olması, Q3 değerlerinin sistematik bir artıklık taşımadığını ve modelin yerel bağımsızlığı büyük ölçüde sağladığını göstermektedir.

  • Ayrıca Q3 değerlerinin dağılımına bakıldığında, negatif ve düşük pozitif korelasyonlar ağırlıktadır. Bu durum, modelin maddeler arası ilişkiyi iyi açıkladığını, artıklıkların rastlantısal düzeyde kaldığını ve madde yanıtlarının bireyin yeterlik düzeyine göre bağımsız olarak modellendiğini göstermektedir. Bu bulgu, 3PL modelinin sadece parametrik esneklik sağlamakla kalmadığını, aynı zamanda psikometrik varsayımlara da uygunluk gösterdiğini ortaya koymaktadır.

  • Sonuç olarak, 3PL modeli altında elde edilen Q3 istatistikleri, test maddeleri arasında anlamlı yerel bağımlılık bulunmadığını, modelin tek boyutluluk ve yerel bağımsızlık varsayımlarını büyük ölçüde sağladığını ve bu nedenle testin psikometrik geçerliğinin yüksek olduğunu göstermektedir.


3.2 3.b.

  • Madde ve birey parametrelerini raporlayınız.

3.2.1 RASCH MODELINE GORE

madde_param_rasch <- coef(rasch_model, IRTpars = TRUE, simplify = TRUE)$items
madde_df_rasch <- as.data.frame(madde_param_rasch)
madde_df_rasch$Madde <- rownames(madde_df_rasch)
birey_param_rasch <- fscores(rasch_model, method = "EAP")
library(kableExtra)
madde_df_rasch %>% select(Madde, b) %>% kable(digits = 3, format = "html", caption = "Rasch Modeline Gore Madde Gucluk (b) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")
Rasch Modeline Gore Madde Gucluk (b) Parametreleri
Madde b
madde_1 madde_1 -0.432
madde_2 madde_2 0.230
madde_3 madde_3 0.127
madde_4 madde_4 0.217
madde_5 madde_5 -0.396
madde_6 madde_6 0.140
madde_7 madde_7 0.178
madde_8 madde_8 0.030
madde_9 madde_9 0.423
madde_10 madde_10 -0.319
madde_11 madde_11 0.037
madde_12 madde_12 0.136
madde_13 madde_13 0.595
madde_14 madde_14 1.081
madde_15 madde_15 0.178
madde_16 madde_16 0.149
madde_17 madde_17 -0.383
madde_18 madde_18 0.120
madde_19 madde_19 0.315
madde_20 madde_20 -0.261
madde_21 madde_21 0.420
madde_22 madde_22 0.901
madde_23 madde_23 0.034
madde_24 madde_24 0.046
madde_25 madde_25 0.354
birey_df_rasch <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_param_rasch)),
                       Yetenek = birey_param_rasch[,1])
birey_df_rasch %>% kable(digits = 3, format = "html", caption = "Rasch Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")
Rasch Modeline Gore Birey Yetenek (θ) Parametreleri
Birey Yetenek
Kişi_1 -0.683
Kişi_2 -0.683
Kişi_3 0.484
Kişi_4 -0.683
Kişi_5 -0.847
Kişi_6 -0.847
Kişi_7 -0.084
Kişi_8 1.644
Kişi_9 -0.084
Kişi_10 -1.631
Kişi_11 0.199
Kişi_12 0.780
Kişi_13 -0.526
Kişi_14 -0.847
Kişi_15 -0.375
Kişi_16 0.780
Kişi_17 -0.526
Kişi_18 1.267
Kişi_19 -0.084
Kişi_20 -0.526
Kişi_21 -0.228
Kişi_22 0.780
Kişi_23 -0.375
Kişi_24 0.058
Kişi_25 -0.683
Kişi_26 -0.228
Kişi_27 -0.375
Kişi_28 -0.683
Kişi_29 0.341
Kişi_30 -0.526
Kişi_31 0.199
Kişi_32 -0.526
Kişi_33 0.199
Kişi_34 0.484
Kişi_35 -1.021
Kişi_36 -1.021
Kişi_37 -0.084
Kişi_38 -0.847
Kişi_39 -0.847
Kişi_40 -1.021
Kişi_41 -1.021
Kişi_42 -0.228
Kişi_43 0.935
Kişi_44 1.267
Kişi_45 -1.878
Kişi_46 -0.526
Kişi_47 -0.683
Kişi_48 -0.084
Kişi_49 2.096
Kişi_50 0.199
Kişi_51 -0.526
Kişi_52 0.058
Kişi_53 0.058
Kişi_54 -0.683
Kişi_55 -0.847
Kişi_56 -0.228
Kişi_57 -1.207
Kişi_58 0.630
Kişi_59 -1.409
Kişi_60 -0.683
Kişi_61 -1.409
Kişi_62 -0.228
Kişi_63 -0.683
Kişi_64 0.935
Kişi_65 -0.683
Kişi_66 -0.683
Kişi_67 -0.084
Kişi_68 -0.375
Kişi_69 -1.207
Kişi_70 -0.375
Kişi_71 2.364
Kişi_72 -0.683
Kişi_73 -1.409
Kişi_74 -0.683
Kişi_75 0.199
Kişi_76 0.199
Kişi_77 -0.526
Kişi_78 1.267
Kişi_79 1.644
Kişi_80 -0.228
Kişi_81 -0.683
Kişi_82 -0.375
Kişi_83 -0.375
Kişi_84 0.484
Kişi_85 -0.683
Kişi_86 -1.021
Kişi_87 -0.375
Kişi_88 -0.847
Kişi_89 -0.683
Kişi_90 -1.021
Kişi_91 0.484
Kişi_92 1.096
Kişi_93 -0.228
Kişi_94 -1.207
Kişi_95 0.630
Kişi_96 -0.526
Kişi_97 0.199
Kişi_98 -1.021
Kişi_99 -0.683
Kişi_100 -0.375
Kişi_101 -1.631
Kişi_102 -0.847
Kişi_103 -0.084
Kişi_104 -1.409
Kişi_105 -0.847
Kişi_106 -0.683
Kişi_107 -0.228
Kişi_108 0.199
Kişi_109 -0.683
Kişi_110 1.267
Kişi_111 -1.207
Kişi_112 0.484
Kişi_113 -0.526
Kişi_114 -0.084
Kişi_115 0.935
Kişi_116 -0.526
Kişi_117 -1.021
Kişi_118 -0.084
Kişi_119 -0.683
Kişi_120 -0.375
Kişi_121 0.199
Kişi_122 -1.021
Kişi_123 0.341
Kişi_124 -0.683
Kişi_125 -0.375
Kişi_126 0.630
Kişi_127 -0.526
Kişi_128 0.780
Kişi_129 0.935
Kişi_130 -0.683
Kişi_131 -0.526
Kişi_132 -0.375
Kişi_133 0.630
Kişi_134 2.096
Kişi_135 -0.526
Kişi_136 -0.228
Kişi_137 0.199
Kişi_138 1.448
Kişi_139 -0.228
Kişi_140 1.267
Kişi_141 -0.683
Kişi_142 -0.375
Kişi_143 -0.526
Kişi_144 -0.084
Kişi_145 -0.084
Kişi_146 0.780
Kişi_147 -0.526
Kişi_148 1.267
Kişi_149 -0.375
Kişi_150 0.058
Kişi_151 0.341
Kişi_152 -0.375
Kişi_153 1.644
Kişi_154 -0.375
Kişi_155 2.096
Kişi_156 -0.526
Kişi_157 -0.526
Kişi_158 0.199
Kişi_159 -1.021
Kişi_160 -0.375
Kişi_161 0.780
Kişi_162 -0.526
Kişi_163 -0.683
Kişi_164 -0.683
Kişi_165 -0.084
Kişi_166 0.484
Kişi_167 -0.084
Kişi_168 0.058
Kişi_169 -0.683
Kişi_170 -0.228
Kişi_171 0.199
Kişi_172 -0.683
Kişi_173 -1.207
Kişi_174 -0.683
Kişi_175 0.058
Kişi_176 1.096
Kişi_177 -0.526
Kişi_178 0.484
Kişi_179 -0.683
Kişi_180 -0.375
Kişi_181 -0.847
Kişi_182 1.267
Kişi_183 0.058
Kişi_184 -0.683
Kişi_185 0.484
Kişi_186 -0.683
Kişi_187 1.267
Kişi_188 -0.847
Kişi_189 -1.021
Kişi_190 1.096
Kişi_191 2.096
Kişi_192 -0.683
Kişi_193 0.935
Kişi_194 0.341
Kişi_195 0.780
Kişi_196 -0.847
Kişi_197 -0.084
Kişi_198 0.199
Kişi_199 -0.228
Kişi_200 0.341
Kişi_201 -0.375
Kişi_202 -1.021
Kişi_203 0.630
Kişi_204 -0.084
Kişi_205 -0.526
Kişi_206 0.484
Kişi_207 -0.847
Kişi_208 -0.847
Kişi_209 -1.021
Kişi_210 -0.084
Kişi_211 -1.021
Kişi_212 -1.207
Kişi_213 -1.021
Kişi_214 0.341
Kişi_215 -0.526
Kişi_216 -1.409
Kişi_217 -0.847
Kişi_218 -0.375
Kişi_219 -0.228
Kişi_220 0.630
Kişi_221 0.780
Kişi_222 0.058
Kişi_223 0.484
Kişi_224 0.780
Kişi_225 -0.526
Kişi_226 -0.847
Kişi_227 1.267
Kişi_228 -0.526
Kişi_229 -0.526
Kişi_230 0.780
Kişi_231 -0.526
Kişi_232 -0.526
Kişi_233 0.780
Kişi_234 -1.207
Kişi_235 -0.847
Kişi_236 -0.683
Kişi_237 0.484
Kişi_238 0.058
Kişi_239 -0.683
Kişi_240 0.058
Kişi_241 -0.375
Kişi_242 -0.526
Kişi_243 0.058
Kişi_244 0.199
Kişi_245 -0.683
Kişi_246 -0.228
Kişi_247 -1.021
Kişi_248 -0.228
Kişi_249 -0.683
Kişi_250 -0.228
Kişi_251 -0.683
Kişi_252 0.935
Kişi_253 -0.683
Kişi_254 -0.375
Kişi_255 -0.084
Kişi_256 0.199
Kişi_257 -0.375
Kişi_258 -0.526
Kişi_259 -0.084
Kişi_260 -1.207
Kişi_261 -0.375
Kişi_262 0.780
Kişi_263 -0.526
Kişi_264 0.935
Kişi_265 -1.021
Kişi_266 0.058
Kişi_267 0.935
Kişi_268 -0.526
Kişi_269 -0.847
Kişi_270 1.096
Kişi_271 -0.228
Kişi_272 -0.228
Kişi_273 0.341
Kişi_274 -0.375
Kişi_275 -0.375
Kişi_276 0.058
Kişi_277 -0.847
Kişi_278 -0.526
Kişi_279 -1.021
Kişi_280 -0.526
Kişi_281 -0.084
Kişi_282 0.058
Kişi_283 -1.409
Kişi_284 -0.228
Kişi_285 0.484
Kişi_286 -0.228
Kişi_287 -0.526
Kişi_288 -0.526
Kişi_289 -1.021
Kişi_290 -1.207
Kişi_291 -1.207
Kişi_292 -0.683
Kişi_293 -0.228
Kişi_294 0.058
Kişi_295 -0.847
Kişi_296 -1.021
Kişi_297 -0.683
Kişi_298 0.341
Kişi_299 -1.021
Kişi_300 -0.847
Kişi_301 -0.847
Kişi_302 -0.683
Kişi_303 -0.084
Kişi_304 -0.526
Kişi_305 0.058
Kişi_306 -0.228
Kişi_307 0.199
Kişi_308 -0.228
Kişi_309 -0.228
Kişi_310 -0.526
Kişi_311 -0.375
Kişi_312 -1.021
Kişi_313 -0.683
Kişi_314 -0.375
Kişi_315 -0.228
Kişi_316 0.630
Kişi_317 -0.084
Kişi_318 0.484
Kişi_319 0.780
Kişi_320 -0.228
Kişi_321 -0.228
Kişi_322 -0.084
Kişi_323 -0.847
Kişi_324 -0.526
Kişi_325 -0.847
Kişi_326 -0.375
Kişi_327 0.484
Kişi_328 2.364
Kişi_329 -0.084
Kişi_330 -0.084
Kişi_331 -0.228
Kişi_332 -0.228
Kişi_333 0.484
Kişi_334 0.484
Kişi_335 -0.228
Kişi_336 -0.683
Kişi_337 -1.409
Kişi_338 0.630
Kişi_339 -1.021
Kişi_340 1.096
Kişi_341 1.096
Kişi_342 1.096
Kişi_343 -0.375
Kişi_344 -1.021
Kişi_345 2.364
Kişi_346 -0.847
Kişi_347 -0.847
Kişi_348 0.199
Kişi_349 1.448
Kişi_350 0.780
Kişi_351 0.199
Kişi_352 -0.375
Kişi_353 0.484
Kişi_354 0.630
Kişi_355 0.630
Kişi_356 -0.375
Kişi_357 1.096
Kişi_358 -0.375
Kişi_359 -0.526
Kişi_360 0.780
Kişi_361 0.935
Kişi_362 0.199
Kişi_363 -0.683
Kişi_364 -0.526
Kişi_365 -0.375
Kişi_366 0.630
Kişi_367 -0.526
Kişi_368 -0.683
Kişi_369 1.267
Kişi_370 -0.683
Kişi_371 -0.228
Kişi_372 1.267
Kişi_373 -0.847
Kişi_374 -0.228
Kişi_375 1.096
Kişi_376 -1.021
Kişi_377 0.058
Kişi_378 0.484
Kişi_379 1.859
Kişi_380 -0.228
Kişi_381 -0.228
Kişi_382 0.058
Kişi_383 -0.847
Kişi_384 1.267
Kişi_385 -0.683
Kişi_386 -0.228
Kişi_387 0.199
Kişi_388 -0.847
Kişi_389 0.341
Kişi_390 -1.021
Kişi_391 0.630
Kişi_392 -1.631
Kişi_393 -0.526
Kişi_394 1.859
Kişi_395 0.341
Kişi_396 0.341
Kişi_397 -0.526
Kişi_398 -0.228
Kişi_399 -0.526
Kişi_400 1.644
Kişi_401 -1.409
Kişi_402 -0.228
Kişi_403 -0.847
Kişi_404 -0.847
Kişi_405 0.058
Kişi_406 -2.159
Kişi_407 -1.409
Kişi_408 -0.847
Kişi_409 1.096
Kişi_410 1.267
Kişi_411 2.364
Kişi_412 0.199
Kişi_413 0.780
Kişi_414 0.935
Kişi_415 -0.375
Kişi_416 -0.683
Kişi_417 0.935
Kişi_418 0.780
Kişi_419 -0.084
Kişi_420 -1.409
Kişi_421 -0.526
Kişi_422 0.630
Kişi_423 2.364
Kişi_424 2.364
Kişi_425 -0.683
Kişi_426 -0.375
Kişi_427 0.484
Kişi_428 -1.021
Kişi_429 -0.526
Kişi_430 -0.084
Kişi_431 -0.228
Kişi_432 0.341
Kişi_433 -0.526
Kişi_434 -0.847
Kişi_435 -0.375
Kişi_436 -0.228
Kişi_437 -0.683
Kişi_438 1.644
Kişi_439 -0.847
Kişi_440 0.199
Kişi_441 1.448
Kişi_442 -1.631
Kişi_443 1.096
Kişi_444 0.341
Kişi_445 1.859
Kişi_446 -0.526
Kişi_447 -0.847
Kişi_448 0.058
Kişi_449 0.341
Kişi_450 -0.847
Kişi_451 -0.228
Kişi_452 -0.228
Kişi_453 -0.526
Kişi_454 -1.207
Kişi_455 0.630
Kişi_456 -0.683
Kişi_457 -0.228
Kişi_458 -0.683
Kişi_459 -0.375
Kişi_460 0.199
Kişi_461 0.058
Kişi_462 -0.084
Kişi_463 -0.228
Kişi_464 0.935
Kişi_465 -0.847
Kişi_466 -0.847
Kişi_467 -1.207
Kişi_468 0.058
Kişi_469 1.267
Kişi_470 -0.084
Kişi_471 -0.228
Kişi_472 1.267
Kişi_473 0.630
Kişi_474 0.484
Kişi_475 0.341
Kişi_476 -1.207
Kişi_477 -0.375
Kişi_478 0.780
Kişi_479 0.630
Kişi_480 -1.021
Kişi_481 -1.409
Kişi_482 0.484
Kişi_483 -1.207
Kişi_484 0.484
Kişi_485 2.096
Kişi_486 2.096
Kişi_487 -0.084
Kişi_488 0.484
Kişi_489 -0.526
Kişi_490 -0.683
Kişi_491 0.058
Kişi_492 -0.228
Kişi_493 -0.375
Kişi_494 0.484
Kişi_495 -0.683
Kişi_496 0.780
Kişi_497 1.448
Kişi_498 0.341
Kişi_499 1.096
Kişi_500 -1.631
Kişi_501 0.058
Kişi_502 -0.683
Kişi_503 -0.683
Kişi_504 1.267
Kişi_505 1.096
Kişi_506 -1.021
Kişi_507 0.341
Kişi_508 -1.021
Kişi_509 0.058
Kişi_510 1.096
Kişi_511 1.644
Kişi_512 1.448
Kişi_513 -0.683
Kişi_514 1.267
Kişi_515 -0.683
Kişi_516 -1.021
Kişi_517 -1.207
Kişi_518 -0.683
Kişi_519 0.484
Kişi_520 -0.683
Kişi_521 -0.228
Kişi_522 -0.526
Kişi_523 -0.375
Kişi_524 0.484
Kişi_525 -0.375
Kişi_526 -0.228
Kişi_527 1.096
Kişi_528 0.630
Kişi_529 1.448
Kişi_530 -0.683
Kişi_531 -0.526
Kişi_532 1.096
Kişi_533 -1.021
Kişi_534 -0.847
Kişi_535 -0.683
Kişi_536 -0.847
Kişi_537 -0.228
Kişi_538 -0.847
Kişi_539 -0.084
Kişi_540 0.341
Kişi_541 0.058
Kişi_542 -0.526
Kişi_543 0.058
Kişi_544 0.780
Kişi_545 -0.683
Kişi_546 -0.375
Kişi_547 -0.683
Kişi_548 -0.847
Kişi_549 -0.228
Kişi_550 -0.228
Kişi_551 -0.084
Kişi_552 1.448
Kişi_553 -0.847
Kişi_554 -0.683
Kişi_555 -1.409
Kişi_556 -0.526
Kişi_557 0.199
Kişi_558 -1.021
Kişi_559 -0.375
Kişi_560 0.058
Kişi_561 -0.526
Kişi_562 -0.526
Kişi_563 0.199
Kişi_564 -0.375
Kişi_565 -0.084
Kişi_566 -1.021
Kişi_567 -0.847
Kişi_568 -0.526
Kişi_569 0.484
Kişi_570 0.199
Kişi_571 0.341
Kişi_572 -0.228
Kişi_573 -0.228
Kişi_574 0.058
Kişi_575 1.267
Kişi_576 1.267
Kişi_577 -0.228
Kişi_578 -0.683
Kişi_579 -0.228
Kişi_580 -0.084
Kişi_581 0.058
Kişi_582 -0.084
Kişi_583 0.199
Kişi_584 -0.847
Kişi_585 -0.683
Kişi_586 -0.683
Kişi_587 1.859
Kişi_588 0.199
Kişi_589 -0.228
Kişi_590 -0.228
Kişi_591 1.859
Kişi_592 0.341
Kişi_593 -0.375
Kişi_594 0.341
Kişi_595 1.096
Kişi_596 0.058
Kişi_597 -1.021
Kişi_598 1.448
Kişi_599 1.644
Kişi_600 1.096
Kişi_601 -0.375
Kişi_602 -0.683
Kişi_603 -0.375
Kişi_604 -0.683
Kişi_605 1.448
Kişi_606 -0.847
Kişi_607 0.058
Kişi_608 1.644
Kişi_609 -1.021
Kişi_610 0.935
Kişi_611 1.267
Kişi_612 -0.526
Kişi_613 0.484
Kişi_614 -0.228
Kişi_615 0.780
Kişi_616 -0.375
Kişi_617 -0.375
Kişi_618 -0.375
Kişi_619 -0.847
Kişi_620 0.484
Kişi_621 0.058
Kişi_622 0.058
Kişi_623 1.448
Kişi_624 -0.683
Kişi_625 -1.021
Kişi_626 -0.084
Kişi_627 -0.375
Kişi_628 -0.084
Kişi_629 -0.683
Kişi_630 0.780
Kişi_631 0.058
Kişi_632 0.199
Kişi_633 -0.683
Kişi_634 0.780
Kişi_635 0.630
Kişi_636 0.341
Kişi_637 1.096
Kişi_638 -0.228
Kişi_639 0.484
Kişi_640 0.484
Kişi_641 0.058
Kişi_642 -0.084
Kişi_643 1.644
Kişi_644 0.484
Kişi_645 -0.683
Kişi_646 -0.228
Kişi_647 -0.375
Kişi_648 0.058
Kişi_649 -0.375
Kişi_650 -0.228
Kişi_651 -1.021
Kişi_652 -1.021
Kişi_653 0.199
Kişi_654 -0.375
Kişi_655 -0.847
Kişi_656 -0.526
Kişi_657 -0.375
Kişi_658 -0.228
Kişi_659 -1.021
Kişi_660 -0.683
Kişi_661 -0.526
Kişi_662 -0.526
Kişi_663 -1.207
Kişi_664 -0.683
Kişi_665 -0.084
Kişi_666 0.341
Kişi_667 -0.847
Kişi_668 0.058
Kişi_669 -0.526
Kişi_670 -0.228
Kişi_671 -0.084
Kişi_672 0.630
Kişi_673 -0.375
Kişi_674 -0.683
Kişi_675 1.096
Kişi_676 -0.847
Kişi_677 -0.375
Kişi_678 0.199
Kişi_679 -0.084
Kişi_680 0.780
Kişi_681 -0.084
Kişi_682 0.199
Kişi_683 -0.847
Kişi_684 -0.084
Kişi_685 -1.207
Kişi_686 -0.084
Kişi_687 -0.526
Kişi_688 0.058
Kişi_689 0.780
Kişi_690 1.267
Kişi_691 1.267
Kişi_692 0.780
Kişi_693 -0.228
Kişi_694 -0.683
Kişi_695 -0.526
Kişi_696 -1.631
Kişi_697 0.630
Kişi_698 -0.526
Kişi_699 0.780
Kişi_700 -0.084
Kişi_701 -0.375
Kişi_702 0.935
Kişi_703 0.341
Kişi_704 0.058
Kişi_705 -0.375
Kişi_706 -0.847
Kişi_707 0.199
Kişi_708 -0.375
Kişi_709 0.341
Kişi_710 0.630
Kişi_711 -0.683
Kişi_712 -0.847
Kişi_713 1.267
Kişi_714 0.341
Kişi_715 -0.847
Kişi_716 0.341
Kişi_717 1.859
Kişi_718 -0.375
Kişi_719 1.448
Kişi_720 -1.207
Kişi_721 0.341
Kişi_722 0.935
Kişi_723 0.630
Kişi_724 -0.683
Kişi_725 -0.228
Kişi_726 2.364
Kişi_727 1.096
Kişi_728 1.448
Kişi_729 0.058
Kişi_730 -0.375
Kişi_731 -0.084
Kişi_732 -0.526
Kişi_733 0.058
Kişi_734 1.267
Kişi_735 1.096
Kişi_736 -1.207
Kişi_737 0.484
Kişi_738 -0.526
Kişi_739 0.935
Kişi_740 0.630
Kişi_741 0.935
Kişi_742 0.058
Kişi_743 -0.847
Kişi_744 -0.847
Kişi_745 0.058
Kişi_746 0.199
Kişi_747 -0.526
Kişi_748 -1.207
Kişi_749 -1.409
Kişi_750 -1.207
Kişi_751 -0.683
Kişi_752 -0.084
Kişi_753 -0.683
Kişi_754 0.780
Kişi_755 -0.683
Kişi_756 -0.847
Kişi_757 -1.021
Kişi_758 0.780
Kişi_759 -1.021
Kişi_760 -0.228
Kişi_761 0.484
Kişi_762 1.096
Kişi_763 0.058
Kişi_764 -0.228
Kişi_765 -0.375
Kişi_766 -1.021
Kişi_767 -0.228
Kişi_768 -0.526
Kişi_769 -0.375
Kişi_770 0.058
Kişi_771 0.199
Kişi_772 1.448
Kişi_773 0.199
Kişi_774 -0.847
Kişi_775 -0.084
Kişi_776 2.096
Kişi_777 0.058
Kişi_778 -0.228
Kişi_779 -0.375
Kişi_780 1.096
Kişi_781 0.484
Kişi_782 -0.683
Kişi_783 -0.683
Kişi_784 -1.021
Kişi_785 0.199
Kişi_786 0.058
Kişi_787 -0.683
Kişi_788 0.199
Kişi_789 -0.375
Kişi_790 -0.084
Kişi_791 -0.683
Kişi_792 1.096
Kişi_793 -0.375
Kişi_794 -0.847
Kişi_795 -0.683
Kişi_796 -0.847
Kişi_797 2.096
Kişi_798 -0.084
Kişi_799 0.341
Kişi_800 -0.228
Kişi_801 -1.021
Kişi_802 -0.847
Kişi_803 0.341
Kişi_804 0.199
Kişi_805 0.199
Kişi_806 -0.375
Kişi_807 0.780
Kişi_808 0.058
Kişi_809 -0.526
Kişi_810 1.859
Kişi_811 1.448
Kişi_812 1.267
Kişi_813 -0.683
Kişi_814 -0.683
Kişi_815 0.058
Kişi_816 0.935
Kişi_817 0.630
Kişi_818 -0.228
Kişi_819 0.199
Kişi_820 0.935
Kişi_821 0.199
Kişi_822 0.341
Kişi_823 0.199
Kişi_824 -0.847
Kişi_825 -0.375
Kişi_826 0.199
Kişi_827 -1.021
Kişi_828 0.058
Kişi_829 -0.526
Kişi_830 0.199
Kişi_831 0.630
Kişi_832 0.780
Kişi_833 0.058
Kişi_834 -0.683
Kişi_835 1.267
Kişi_836 -0.526
Kişi_837 0.199
Kişi_838 -0.084
Kişi_839 1.448
Kişi_840 -0.228
Kişi_841 0.484
Kişi_842 -0.847
Kişi_843 0.058
Kişi_844 -0.228
Kişi_845 -0.228
Kişi_846 1.448
Kişi_847 -0.084
Kişi_848 -1.409
Kişi_849 -1.207
Kişi_850 0.630
Kişi_851 -0.526
Kişi_852 0.058
Kişi_853 0.935
Kişi_854 0.935
Kişi_855 0.058
Kişi_856 -0.228
Kişi_857 -0.228
Kişi_858 0.199
Kişi_859 -1.021
Kişi_860 -0.526
Kişi_861 -0.847
Kişi_862 -1.409
Kişi_863 -0.683
Kişi_864 -0.228
Kişi_865 -1.021
Kişi_866 -0.847
Kişi_867 -0.526
Kişi_868 -0.228
Kişi_869 -0.375
Kişi_870 0.058
Kişi_871 -0.526
Kişi_872 0.058
Kişi_873 -0.228
Kişi_874 -0.526
Kişi_875 -0.526
Kişi_876 -1.207
Kişi_877 -1.207
Kişi_878 -1.021
Kişi_879 0.199
Kişi_880 -0.847
Kişi_881 -0.847
Kişi_882 -1.021
Kişi_883 0.058
Kişi_884 -0.526
Kişi_885 -1.207
Kişi_886 -1.207
Kişi_887 -0.526
Kişi_888 0.780
Kişi_889 -0.683
Kişi_890 -0.847
Kişi_891 0.935
Kişi_892 -0.375
Kişi_893 -0.847
Kişi_894 -0.084
Kişi_895 0.058
Kişi_896 -1.409
Kişi_897 0.484
Kişi_898 -0.526
Kişi_899 0.199
Kişi_900 0.630
Kişi_901 -0.228
Kişi_902 0.058
Kişi_903 0.341
Kişi_904 -0.228
Kişi_905 0.058
Kişi_906 -0.683
Kişi_907 0.630
Kişi_908 -0.526
Kişi_909 -0.683
Kişi_910 0.630
Kişi_911 -0.228
Kişi_912 0.935
Kişi_913 0.630
Kişi_914 -0.375
Kişi_915 0.484
Kişi_916 -1.878
Kişi_917 0.780
Kişi_918 0.935
Kişi_919 -0.375
Kişi_920 -0.683
Kişi_921 -1.207
Kişi_922 0.199
Kişi_923 0.484
Kişi_924 -0.375
Kişi_925 -0.228
Kişi_926 -0.683
Kişi_927 0.341
Kişi_928 -0.375
Kişi_929 0.199
Kişi_930 1.448
Kişi_931 1.267
Kişi_932 -1.021
Kişi_933 -1.021
Kişi_934 -1.021
Kişi_935 -0.375
Kişi_936 0.058
Kişi_937 -1.207
Kişi_938 0.484
Kişi_939 -0.228
Kişi_940 0.630
Kişi_941 0.630
Kişi_942 0.630
Kişi_943 -0.526
Kişi_944 0.484
Kişi_945 -0.847
Kişi_946 -1.207
Kişi_947 0.058
Kişi_948 -0.375
Kişi_949 0.935
Kişi_950 -0.847
Kişi_951 0.780
Kişi_952 -0.228
Kişi_953 0.780
Kişi_954 0.058
Kişi_955 1.859
Kişi_956 0.341
Kişi_957 1.096
Kişi_958 0.058
Kişi_959 0.199
Kişi_960 0.935
Kişi_961 0.341
Kişi_962 -0.526
Kişi_963 -1.207
Kişi_964 2.096
Kişi_965 -0.375
Kişi_966 -0.375
Kişi_967 0.630
Kişi_968 0.935
Kişi_969 -0.847
Kişi_970 -0.847
Kişi_971 1.096
Kişi_972 1.267
Kişi_973 -0.375
Kişi_974 -0.375
Kişi_975 -0.375
Kişi_976 -0.526
Kişi_977 -0.526
Kişi_978 -1.207
Kişi_979 0.935
Kişi_980 0.630
Kişi_981 0.484
Kişi_982 0.484
Kişi_983 2.096
Kişi_984 -0.375
Kişi_985 -0.084
Kişi_986 -1.631
Kişi_987 -0.084
Kişi_988 -1.409
Kişi_989 1.096
Kişi_990 -0.526
Kişi_991 0.199
Kişi_992 0.484
Kişi_993 1.096
Kişi_994 -0.526
Kişi_995 1.859
Kişi_996 0.630
Kişi_997 1.267
Kişi_998 -0.084
Kişi_999 1.644
Kişi_1000 0.199
Kişi_1001 0.199
Kişi_1002 1.644
Kişi_1003 0.058
Kişi_1004 -0.228
Kişi_1005 -0.375
Kişi_1006 -1.409
Kişi_1007 -0.526
Kişi_1008 -0.375
Kişi_1009 -0.847
Kişi_1010 0.780
Kişi_1011 0.199
Kişi_1012 1.267
Kişi_1013 -1.207
Kişi_1014 0.780
Kişi_1015 -1.409
Kişi_1016 0.341
Kişi_1017 -0.228
Kişi_1018 0.341
Kişi_1019 1.096
Kişi_1020 0.484
Kişi_1021 0.341
Kişi_1022 -0.375
Kişi_1023 0.780
Kişi_1024 -0.526
Kişi_1025 1.859
Kişi_1026 2.096
Kişi_1027 0.199
Kişi_1028 1.267
Kişi_1029 -0.228
Kişi_1030 -1.631
Kişi_1031 1.096
Kişi_1032 1.859
Kişi_1033 -0.375
Kişi_1034 -1.207
Kişi_1035 2.364
Kişi_1036 -0.084
Kişi_1037 0.484
Kişi_1038 -0.847
Kişi_1039 1.267
Kişi_1040 -1.021
Kişi_1041 0.630
Kişi_1042 1.448
Kişi_1043 0.341
Kişi_1044 0.341
Kişi_1045 1.096
Kişi_1046 -0.526
Kişi_1047 -1.631
Kişi_1048 -0.526
Kişi_1049 -0.084
Kişi_1050 0.058
Kişi_1051 0.484
Kişi_1052 -0.847
Kişi_1053 -0.683
Kişi_1054 1.448
Kişi_1055 0.484
Kişi_1056 -0.683
Kişi_1057 -0.375
Kişi_1058 0.780
Kişi_1059 1.448
Kişi_1060 1.096
Kişi_1061 1.448
Kişi_1062 -0.084
Kişi_1063 -0.526
Kişi_1064 -0.084
Kişi_1065 -0.228
Kişi_1066 -0.526
Kişi_1067 1.096
Kişi_1068 0.484
Kişi_1069 1.448
Kişi_1070 -0.375
Kişi_1071 1.859
Kişi_1072 -0.228
Kişi_1073 -0.228
Kişi_1074 0.935
Kişi_1075 2.364
Kişi_1076 -0.084
Kişi_1077 0.630
Kişi_1078 -0.228
Kişi_1079 2.364
Kişi_1080 -0.375
Kişi_1081 0.058
Kişi_1082 0.058
Kişi_1083 -0.847
Kişi_1084 0.341
Kişi_1085 -0.847
Kişi_1086 0.058
Kişi_1087 -0.228
Kişi_1088 0.630
Kişi_1089 -1.021
Kişi_1090 -1.021
Kişi_1091 -0.847
Kişi_1092 -0.375
Kişi_1093 -0.084
Kişi_1094 -0.228
Kişi_1095 -1.021
Kişi_1096 0.341
Kişi_1097 -0.228
Kişi_1098 0.058
Kişi_1099 0.630
Kişi_1100 0.341
Kişi_1101 0.199
Kişi_1102 -0.084
Kişi_1103 1.859
Kişi_1104 -0.847
Kişi_1105 -0.084
Kişi_1106 -0.228
Kişi_1107 -0.228
Kişi_1108 -0.683
Kişi_1109 -0.375
Kişi_1110 -0.228
Kişi_1111 -1.021
Kişi_1112 -0.375
Kişi_1113 -0.228
Kişi_1114 0.058
Kişi_1115 0.780
Kişi_1116 0.780
Kişi_1117 -0.228
Kişi_1118 -0.084
Kişi_1119 -0.228
Kişi_1120 -0.526
Kişi_1121 0.058
Kişi_1122 1.644
Kişi_1123 -0.683
Kişi_1124 -0.084
Kişi_1125 1.859
Kişi_1126 -0.084
Kişi_1127 -0.375
Kişi_1128 -0.228
Kişi_1129 -0.084
Kişi_1130 1.267
Kişi_1131 -0.084
Kişi_1132 -0.526
Kişi_1133 0.058
Kişi_1134 1.267
Kişi_1135 0.341
Kişi_1136 0.935
Kişi_1137 -1.021
Kişi_1138 -0.526
Kişi_1139 -0.375
Kişi_1140 -0.084
Kişi_1141 1.859
Kişi_1142 -0.375
Kişi_1143 0.780
Kişi_1144 -0.228
Kişi_1145 -1.021
Kişi_1146 0.484
Kişi_1147 -0.683
Kişi_1148 -0.228
Kişi_1149 0.484
Kişi_1150 -0.375
Kişi_1151 -0.526
Kişi_1152 0.199
Kişi_1153 1.267
Kişi_1154 -0.847
Kişi_1155 1.448
Kişi_1156 1.448
Kişi_1157 -0.375
Kişi_1158 0.058
Kişi_1159 -0.228
Kişi_1160 -0.526
Kişi_1161 -0.683
Kişi_1162 -0.084
Kişi_1163 -1.409
Kişi_1164 1.644
Kişi_1165 -0.683
Kişi_1166 0.341
Kişi_1167 0.484
Kişi_1168 2.364
Kişi_1169 -0.526
Kişi_1170 -1.021
Kişi_1171 -0.375
Kişi_1172 -0.683
Kişi_1173 0.058
Kişi_1174 0.935
Kişi_1175 -0.683
Kişi_1176 -1.409
Kişi_1177 0.630
Kişi_1178 -0.375
Kişi_1179 0.630
Kişi_1180 0.199
Kişi_1181 0.935
Kişi_1182 0.058
Kişi_1183 -0.683
Kişi_1184 0.058
Kişi_1185 0.199
Kişi_1186 1.644
Kişi_1187 -0.526
Kişi_1188 -0.526
Kişi_1189 0.341
Kişi_1190 -1.409
Kişi_1191 0.199
Kişi_1192 0.630
Kişi_1193 -0.084
Kişi_1194 0.058
Kişi_1195 -1.021
Kişi_1196 1.644
Kişi_1197 -0.847
Kişi_1198 0.341
Kişi_1199 -0.084
Kişi_1200 -0.847
Kişi_1201 -1.409
Kişi_1202 0.199
Kişi_1203 -0.683
Kişi_1204 2.096
Kişi_1205 0.341
Kişi_1206 0.630
Kişi_1207 0.058
Kişi_1208 0.630
Kişi_1209 0.630
Kişi_1210 -1.021
Kişi_1211 -0.084
Kişi_1212 -0.375
Kişi_1213 -0.084
Kişi_1214 -0.847
Kişi_1215 0.630
Kişi_1216 0.341
Kişi_1217 0.199
Kişi_1218 0.630
Kişi_1219 1.448
Kişi_1220 -0.526
Kişi_1221 0.780
Kişi_1222 -0.084
Kişi_1223 -0.228
Kişi_1224 -1.207
Kişi_1225 -0.084
Kişi_1226 -0.526
Kişi_1227 0.341
Kişi_1228 -0.228
Kişi_1229 1.859
Kişi_1230 -1.021
Kişi_1231 -1.207
Kişi_1232 -0.526
Kişi_1233 0.935
Kişi_1234 0.199
Kişi_1235 2.096
Kişi_1236 2.096
Kişi_1237 1.859
Kişi_1238 0.058
Kişi_1239 1.644
Kişi_1240 -0.228
Kişi_1241 1.096
Kişi_1242 1.096
Kişi_1243 -0.847
Kişi_1244 1.096
Kişi_1245 -0.847
Kişi_1246 -0.084
Kişi_1247 1.267
Kişi_1248 0.630
Kişi_1249 0.058
Kişi_1250 -0.683
Kişi_1251 -1.409
Kişi_1252 -0.526
Kişi_1253 0.058
Kişi_1254 0.058
Kişi_1255 0.341
Kişi_1256 -0.375
Kişi_1257 -0.228
Kişi_1258 -1.409
Kişi_1259 -0.683
Kişi_1260 0.780
Kişi_1261 -0.228
Kişi_1262 0.780
Kişi_1263 0.341
Kişi_1264 -0.683
Kişi_1265 -0.526
Kişi_1266 0.935
Kişi_1267 0.199
Kişi_1268 1.267
Kişi_1269 1.859
Kişi_1270 0.935
Kişi_1271 0.058
Kişi_1272 -1.631
Kişi_1273 -0.683
Kişi_1274 -0.228
Kişi_1275 -0.683
Kişi_1276 -1.409
Kişi_1277 -0.228
Kişi_1278 1.096
Kişi_1279 0.630
Kişi_1280 -0.683
Kişi_1281 0.199
Kişi_1282 -0.683
Kişi_1283 0.630
Kişi_1284 0.199
Kişi_1285 0.341
Kişi_1286 0.058
Kişi_1287 1.859
Kişi_1288 -0.683
Kişi_1289 -0.375
Kişi_1290 0.630
Kişi_1291 -0.084
Kişi_1292 0.484
Kişi_1293 0.484
Kişi_1294 0.484
Kişi_1295 0.484
Kişi_1296 0.341
Kişi_1297 0.780
Kişi_1298 0.341
Kişi_1299 2.364
Kişi_1300 -0.847
Kişi_1301 0.199
Kişi_1302 -0.228
Kişi_1303 0.199
Kişi_1304 -0.375
Kişi_1305 0.484
Kişi_1306 1.267
Kişi_1307 0.058
Kişi_1308 -0.375
Kişi_1309 0.484
Kişi_1310 1.644
Kişi_1311 -0.228
Kişi_1312 -0.228
Kişi_1313 -0.375
Kişi_1314 0.630
Kişi_1315 -0.683
Kişi_1316 -0.228
Kişi_1317 -0.375
Kişi_1318 0.935
Kişi_1319 0.341
Kişi_1320 0.630
Kişi_1321 -0.375
Kişi_1322 0.935
Kişi_1323 -0.084
Kişi_1324 0.199
Kişi_1325 0.630
Kişi_1326 -1.207
Kişi_1327 0.484
Kişi_1328 0.199
Kişi_1329 0.630
Kişi_1330 1.096
Kişi_1331 -0.228
Kişi_1332 0.058
Kişi_1333 -0.375
Kişi_1334 0.935
Kişi_1335 -0.683
Kişi_1336 1.267
Kişi_1337 -0.847
Kişi_1338 -0.526
Kişi_1339 -0.228
Kişi_1340 -0.847
Kişi_1341 1.267
Kişi_1342 -0.084
Kişi_1343 -0.228
Kişi_1344 0.199
Kişi_1345 0.484
Kişi_1346 0.780
Kişi_1347 -0.375
Kişi_1348 0.780
Kişi_1349 1.096
Kişi_1350 0.341
Kişi_1351 1.859
Kişi_1352 0.199
Kişi_1353 0.199
Kişi_1354 2.096
Kişi_1355 0.341
Kişi_1356 0.935
Kişi_1357 -0.084
Kişi_1358 2.364
Kişi_1359 1.448
Kişi_1360 1.096
Kişi_1361 2.364
Kişi_1362 -0.526
Kişi_1363 0.780
Kişi_1364 1.267
Kişi_1365 0.341
Kişi_1366 1.096
Kişi_1367 0.058
Kişi_1368 1.644
Kişi_1369 -0.228
Kişi_1370 0.780
Kişi_1371 0.058
Kişi_1372 0.341
Kişi_1373 -0.526
Kişi_1374 -0.375
Kişi_1375 0.058
Kişi_1376 -0.847
Kişi_1377 0.630
Kişi_1378 0.341
Kişi_1379 -0.526
Kişi_1380 0.199
Kişi_1381 -0.228
Kişi_1382 1.644
Kişi_1383 -0.526
Kişi_1384 1.644
Kişi_1385 0.630
Kişi_1386 -0.526
Kişi_1387 0.780
Kişi_1388 0.780
Kişi_1389 0.935
Kişi_1390 -0.683
Kişi_1391 -0.526
Kişi_1392 0.630
Kişi_1393 -0.683
Kişi_1394 -1.021
Kişi_1395 0.935
Kişi_1396 0.058
Kişi_1397 -0.084
Kişi_1398 0.630
Kişi_1399 1.448
Kişi_1400 -0.228
Kişi_1401 0.058
Kişi_1402 1.448
Kişi_1403 -0.526
Kişi_1404 1.267
Kişi_1405 -0.683
Kişi_1406 1.448
Kişi_1407 -1.021
Kişi_1408 -0.847
Kişi_1409 0.780
Kişi_1410 1.096
Kişi_1411 -0.228
Kişi_1412 0.484
Kişi_1413 -0.375
Kişi_1414 -0.526
Kişi_1415 -1.021
Kişi_1416 0.058
Kişi_1417 1.267
Kişi_1418 1.859
Kişi_1419 0.484
Kişi_1420 -0.683
Kişi_1421 0.341
Kişi_1422 -1.021
Kişi_1423 -0.683
Kişi_1424 -1.021
Kişi_1425 -0.228
Kişi_1426 -0.683
Kişi_1427 0.935
Kişi_1428 0.780
Kişi_1429 0.199
Kişi_1430 -0.084
Kişi_1431 0.199
Kişi_1432 -0.847
Kişi_1433 -1.207
Kişi_1434 0.199
Kişi_1435 -0.084
Kişi_1436 0.199
Kişi_1437 -0.084
Kişi_1438 0.935
Kişi_1439 0.058
Kişi_1440 2.096
Kişi_1441 0.058
Kişi_1442 0.935
Kişi_1443 -1.207
Kişi_1444 -0.683
Kişi_1445 -0.084
Kişi_1446 0.058
Kişi_1447 -0.526
Kişi_1448 0.484
Kişi_1449 -0.847
Kişi_1450 1.859
Kişi_1451 0.058
Kişi_1452 1.267
Kişi_1453 -0.375
Kişi_1454 -1.409
Kişi_1455 1.096
Kişi_1456 -0.084
Kişi_1457 -0.375
Kişi_1458 0.630
Kişi_1459 -0.228
Kişi_1460 -0.526
Kişi_1461 0.630
Kişi_1462 0.058
Kişi_1463 -0.084
Kişi_1464 0.630
Kişi_1465 -1.021
Kişi_1466 0.199
Kişi_1467 1.096
Kişi_1468 0.484
Kişi_1469 -0.526
Kişi_1470 -0.526
Kişi_1471 -0.526

3.2.2 1PL MODELINE GORE

madde_1pl <- coef(mod_1PL, IRTpars = TRUE, simplify = TRUE)$items
madde_1pl_df <- as.data.frame(madde_1pl)
madde_1pl_df$Madde <- rownames(madde_1pl_df)
birey_1pl <- fscores(mod_1PL, method = "EAP")
birey_1pl_df <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_1pl)),
                           Yetenek = birey_1pl[,1])
library(kableExtra)
madde_1pl_df %>% select(Madde, b) %>% kable(digits = 3, format = "html", caption = "1PL Modeline Gore Madde Gucluk (b) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
1PL Modeline Gore Madde Gucluk (b) Parametreleri
Madde b
madde_1 madde_1 -0.472
madde_2 madde_2 0.253
madde_3 madde_3 0.140
madde_4 madde_4 0.239
madde_5 madde_5 -0.433
madde_6 madde_6 0.154
madde_7 madde_7 0.197
madde_8 madde_8 0.035
madde_9 madde_9 0.465
madde_10 madde_10 -0.348
madde_11 madde_11 0.042
madde_12 madde_12 0.151
madde_13 madde_13 0.654
madde_14 madde_14 1.186
madde_15 madde_15 0.197
madde_16 madde_16 0.165
madde_17 madde_17 -0.419
madde_18 madde_18 0.133
madde_19 madde_19 0.346
madde_20 madde_20 -0.284
madde_21 madde_21 0.462
madde_22 madde_22 0.989
madde_23 madde_23 0.038
madde_24 madde_24 0.052
madde_25 madde_25 0.389
birey_1pl_df %>% kable(digits = 3, format = "html", caption = "1PL Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
1PL Modeline Gore Birey Yetenek (θ) Parametreleri
Birey Yetenek
Kişi_1 -0.747
Kişi_2 -0.747
Kişi_3 0.532
Kişi_4 -0.747
Kişi_5 -0.927
Kişi_6 -0.927
Kişi_7 -0.091
Kişi_8 1.803
Kişi_9 -0.091
Kişi_10 -1.786
Kişi_11 0.220
Kişi_12 0.856
Kişi_13 -0.575
Kişi_14 -0.927
Kişi_15 -0.410
Kişi_16 0.856
Kişi_17 -0.575
Kişi_18 1.389
Kişi_19 -0.091
Kişi_20 -0.575
Kişi_21 -0.249
Kişi_22 0.856
Kişi_23 -0.410
Kişi_24 0.065
Kişi_25 -0.747
Kişi_26 -0.249
Kişi_27 -0.410
Kişi_28 -0.747
Kişi_29 0.375
Kişi_30 -0.575
Kişi_31 0.220
Kişi_32 -0.575
Kişi_33 0.220
Kişi_34 0.532
Kişi_35 -1.118
Kişi_36 -1.118
Kişi_37 -0.091
Kişi_38 -0.927
Kişi_39 -0.927
Kişi_40 -1.118
Kişi_41 -1.118
Kişi_42 -0.249
Kişi_43 1.025
Kişi_44 1.389
Kişi_45 -2.058
Kişi_46 -0.575
Kişi_47 -0.747
Kişi_48 -0.091
Kişi_49 2.299
Kişi_50 0.220
Kişi_51 -0.575
Kişi_52 0.065
Kişi_53 0.065
Kişi_54 -0.747
Kişi_55 -0.927
Kişi_56 -0.249
Kişi_57 -1.322
Kişi_58 0.692
Kişi_59 -1.543
Kişi_60 -0.747
Kişi_61 -1.543
Kişi_62 -0.249
Kişi_63 -0.747
Kişi_64 1.025
Kişi_65 -0.747
Kişi_66 -0.747
Kişi_67 -0.091
Kişi_68 -0.410
Kişi_69 -1.322
Kişi_70 -0.410
Kişi_71 2.592
Kişi_72 -0.747
Kişi_73 -1.543
Kişi_74 -0.747
Kişi_75 0.220
Kişi_76 0.220
Kişi_77 -0.575
Kişi_78 1.389
Kişi_79 1.803
Kişi_80 -0.249
Kişi_81 -0.747
Kişi_82 -0.410
Kişi_83 -0.410
Kişi_84 0.532
Kişi_85 -0.747
Kişi_86 -1.118
Kişi_87 -0.410
Kişi_88 -0.927
Kişi_89 -0.747
Kişi_90 -1.118
Kişi_91 0.532
Kişi_92 1.203
Kişi_93 -0.249
Kişi_94 -1.322
Kişi_95 0.692
Kişi_96 -0.575
Kişi_97 0.220
Kişi_98 -1.118
Kişi_99 -0.747
Kişi_100 -0.410
Kişi_101 -1.786
Kişi_102 -0.927
Kişi_103 -0.091
Kişi_104 -1.543
Kişi_105 -0.927
Kişi_106 -0.747
Kişi_107 -0.249
Kişi_108 0.220
Kişi_109 -0.747
Kişi_110 1.389
Kişi_111 -1.322
Kişi_112 0.532
Kişi_113 -0.575
Kişi_114 -0.091
Kişi_115 1.025
Kişi_116 -0.575
Kişi_117 -1.118
Kişi_118 -0.091
Kişi_119 -0.747
Kişi_120 -0.410
Kişi_121 0.220
Kişi_122 -1.118
Kişi_123 0.375
Kişi_124 -0.747
Kişi_125 -0.410
Kişi_126 0.692
Kişi_127 -0.575
Kişi_128 0.856
Kişi_129 1.025
Kişi_130 -0.747
Kişi_131 -0.575
Kişi_132 -0.410
Kişi_133 0.692
Kişi_134 2.299
Kişi_135 -0.575
Kişi_136 -0.249
Kişi_137 0.220
Kişi_138 1.589
Kişi_139 -0.249
Kişi_140 1.389
Kişi_141 -0.747
Kişi_142 -0.410
Kişi_143 -0.575
Kişi_144 -0.091
Kişi_145 -0.091
Kişi_146 0.856
Kişi_147 -0.575
Kişi_148 1.389
Kişi_149 -0.410
Kişi_150 0.065
Kişi_151 0.375
Kişi_152 -0.410
Kişi_153 1.803
Kişi_154 -0.410
Kişi_155 2.299
Kişi_156 -0.575
Kişi_157 -0.575
Kişi_158 0.220
Kişi_159 -1.118
Kişi_160 -0.410
Kişi_161 0.856
Kişi_162 -0.575
Kişi_163 -0.747
Kişi_164 -0.747
Kişi_165 -0.091
Kişi_166 0.532
Kişi_167 -0.091
Kişi_168 0.065
Kişi_169 -0.747
Kişi_170 -0.249
Kişi_171 0.220
Kişi_172 -0.747
Kişi_173 -1.322
Kişi_174 -0.747
Kişi_175 0.065
Kişi_176 1.203
Kişi_177 -0.575
Kişi_178 0.532
Kişi_179 -0.747
Kişi_180 -0.410
Kişi_181 -0.927
Kişi_182 1.389
Kişi_183 0.065
Kişi_184 -0.747
Kişi_185 0.532
Kişi_186 -0.747
Kişi_187 1.389
Kişi_188 -0.927
Kişi_189 -1.118
Kişi_190 1.203
Kişi_191 2.299
Kişi_192 -0.747
Kişi_193 1.025
Kişi_194 0.375
Kişi_195 0.856
Kişi_196 -0.927
Kişi_197 -0.091
Kişi_198 0.220
Kişi_199 -0.249
Kişi_200 0.375
Kişi_201 -0.410
Kişi_202 -1.118
Kişi_203 0.692
Kişi_204 -0.091
Kişi_205 -0.575
Kişi_206 0.532
Kişi_207 -0.927
Kişi_208 -0.927
Kişi_209 -1.118
Kişi_210 -0.091
Kişi_211 -1.118
Kişi_212 -1.322
Kişi_213 -1.118
Kişi_214 0.375
Kişi_215 -0.575
Kişi_216 -1.543
Kişi_217 -0.927
Kişi_218 -0.410
Kişi_219 -0.249
Kişi_220 0.692
Kişi_221 0.856
Kişi_222 0.065
Kişi_223 0.532
Kişi_224 0.856
Kişi_225 -0.575
Kişi_226 -0.927
Kişi_227 1.389
Kişi_228 -0.575
Kişi_229 -0.575
Kişi_230 0.856
Kişi_231 -0.575
Kişi_232 -0.575
Kişi_233 0.856
Kişi_234 -1.322
Kişi_235 -0.927
Kişi_236 -0.747
Kişi_237 0.532
Kişi_238 0.065
Kişi_239 -0.747
Kişi_240 0.065
Kişi_241 -0.410
Kişi_242 -0.575
Kişi_243 0.065
Kişi_244 0.220
Kişi_245 -0.747
Kişi_246 -0.249
Kişi_247 -1.118
Kişi_248 -0.249
Kişi_249 -0.747
Kişi_250 -0.249
Kişi_251 -0.747
Kişi_252 1.025
Kişi_253 -0.747
Kişi_254 -0.410
Kişi_255 -0.091
Kişi_256 0.220
Kişi_257 -0.410
Kişi_258 -0.575
Kişi_259 -0.091
Kişi_260 -1.322
Kişi_261 -0.410
Kişi_262 0.856
Kişi_263 -0.575
Kişi_264 1.025
Kişi_265 -1.118
Kişi_266 0.065
Kişi_267 1.025
Kişi_268 -0.575
Kişi_269 -0.927
Kişi_270 1.203
Kişi_271 -0.249
Kişi_272 -0.249
Kişi_273 0.375
Kişi_274 -0.410
Kişi_275 -0.410
Kişi_276 0.065
Kişi_277 -0.927
Kişi_278 -0.575
Kişi_279 -1.118
Kişi_280 -0.575
Kişi_281 -0.091
Kişi_282 0.065
Kişi_283 -1.543
Kişi_284 -0.249
Kişi_285 0.532
Kişi_286 -0.249
Kişi_287 -0.575
Kişi_288 -0.575
Kişi_289 -1.118
Kişi_290 -1.322
Kişi_291 -1.322
Kişi_292 -0.747
Kişi_293 -0.249
Kişi_294 0.065
Kişi_295 -0.927
Kişi_296 -1.118
Kişi_297 -0.747
Kişi_298 0.375
Kişi_299 -1.118
Kişi_300 -0.927
Kişi_301 -0.927
Kişi_302 -0.747
Kişi_303 -0.091
Kişi_304 -0.575
Kişi_305 0.065
Kişi_306 -0.249
Kişi_307 0.220
Kişi_308 -0.249
Kişi_309 -0.249
Kişi_310 -0.575
Kişi_311 -0.410
Kişi_312 -1.118
Kişi_313 -0.747
Kişi_314 -0.410
Kişi_315 -0.249
Kişi_316 0.692
Kişi_317 -0.091
Kişi_318 0.532
Kişi_319 0.856
Kişi_320 -0.249
Kişi_321 -0.249
Kişi_322 -0.091
Kişi_323 -0.927
Kişi_324 -0.575
Kişi_325 -0.927
Kişi_326 -0.410
Kişi_327 0.532
Kişi_328 2.592
Kişi_329 -0.091
Kişi_330 -0.091
Kişi_331 -0.249
Kişi_332 -0.249
Kişi_333 0.532
Kişi_334 0.532
Kişi_335 -0.249
Kişi_336 -0.747
Kişi_337 -1.543
Kişi_338 0.692
Kişi_339 -1.118
Kişi_340 1.203
Kişi_341 1.203
Kişi_342 1.203
Kişi_343 -0.410
Kişi_344 -1.118
Kişi_345 2.592
Kişi_346 -0.927
Kişi_347 -0.927
Kişi_348 0.220
Kişi_349 1.589
Kişi_350 0.856
Kişi_351 0.220
Kişi_352 -0.410
Kişi_353 0.532
Kişi_354 0.692
Kişi_355 0.692
Kişi_356 -0.410
Kişi_357 1.203
Kişi_358 -0.410
Kişi_359 -0.575
Kişi_360 0.856
Kişi_361 1.025
Kişi_362 0.220
Kişi_363 -0.747
Kişi_364 -0.575
Kişi_365 -0.410
Kişi_366 0.692
Kişi_367 -0.575
Kişi_368 -0.747
Kişi_369 1.389
Kişi_370 -0.747
Kişi_371 -0.249
Kişi_372 1.389
Kişi_373 -0.927
Kişi_374 -0.249
Kişi_375 1.203
Kişi_376 -1.118
Kişi_377 0.065
Kişi_378 0.532
Kişi_379 2.038
Kişi_380 -0.249
Kişi_381 -0.249
Kişi_382 0.065
Kişi_383 -0.927
Kişi_384 1.389
Kişi_385 -0.747
Kişi_386 -0.249
Kişi_387 0.220
Kişi_388 -0.927
Kişi_389 0.375
Kişi_390 -1.118
Kişi_391 0.692
Kişi_392 -1.786
Kişi_393 -0.575
Kişi_394 2.038
Kişi_395 0.375
Kişi_396 0.375
Kişi_397 -0.575
Kişi_398 -0.249
Kişi_399 -0.575
Kişi_400 1.803
Kişi_401 -1.543
Kişi_402 -0.249
Kişi_403 -0.927
Kişi_404 -0.927
Kişi_405 0.065
Kişi_406 -2.366
Kişi_407 -1.543
Kişi_408 -0.927
Kişi_409 1.203
Kişi_410 1.389
Kişi_411 2.592
Kişi_412 0.220
Kişi_413 0.856
Kişi_414 1.025
Kişi_415 -0.410
Kişi_416 -0.747
Kişi_417 1.025
Kişi_418 0.856
Kişi_419 -0.091
Kişi_420 -1.543
Kişi_421 -0.575
Kişi_422 0.692
Kişi_423 2.592
Kişi_424 2.592
Kişi_425 -0.747
Kişi_426 -0.410
Kişi_427 0.532
Kişi_428 -1.118
Kişi_429 -0.575
Kişi_430 -0.091
Kişi_431 -0.249
Kişi_432 0.375
Kişi_433 -0.575
Kişi_434 -0.927
Kişi_435 -0.410
Kişi_436 -0.249
Kişi_437 -0.747
Kişi_438 1.803
Kişi_439 -0.927
Kişi_440 0.220
Kişi_441 1.589
Kişi_442 -1.786
Kişi_443 1.203
Kişi_444 0.375
Kişi_445 2.038
Kişi_446 -0.575
Kişi_447 -0.927
Kişi_448 0.065
Kişi_449 0.375
Kişi_450 -0.927
Kişi_451 -0.249
Kişi_452 -0.249
Kişi_453 -0.575
Kişi_454 -1.322
Kişi_455 0.692
Kişi_456 -0.747
Kişi_457 -0.249
Kişi_458 -0.747
Kişi_459 -0.410
Kişi_460 0.220
Kişi_461 0.065
Kişi_462 -0.091
Kişi_463 -0.249
Kişi_464 1.025
Kişi_465 -0.927
Kişi_466 -0.927
Kişi_467 -1.322
Kişi_468 0.065
Kişi_469 1.389
Kişi_470 -0.091
Kişi_471 -0.249
Kişi_472 1.389
Kişi_473 0.692
Kişi_474 0.532
Kişi_475 0.375
Kişi_476 -1.322
Kişi_477 -0.410
Kişi_478 0.856
Kişi_479 0.692
Kişi_480 -1.118
Kişi_481 -1.543
Kişi_482 0.532
Kişi_483 -1.322
Kişi_484 0.532
Kişi_485 2.299
Kişi_486 2.299
Kişi_487 -0.091
Kişi_488 0.532
Kişi_489 -0.575
Kişi_490 -0.747
Kişi_491 0.065
Kişi_492 -0.249
Kişi_493 -0.410
Kişi_494 0.532
Kişi_495 -0.747
Kişi_496 0.856
Kişi_497 1.589
Kişi_498 0.375
Kişi_499 1.203
Kişi_500 -1.786
Kişi_501 0.065
Kişi_502 -0.747
Kişi_503 -0.747
Kişi_504 1.389
Kişi_505 1.203
Kişi_506 -1.118
Kişi_507 0.375
Kişi_508 -1.118
Kişi_509 0.065
Kişi_510 1.203
Kişi_511 1.803
Kişi_512 1.589
Kişi_513 -0.747
Kişi_514 1.389
Kişi_515 -0.747
Kişi_516 -1.118
Kişi_517 -1.322
Kişi_518 -0.747
Kişi_519 0.532
Kişi_520 -0.747
Kişi_521 -0.249
Kişi_522 -0.575
Kişi_523 -0.410
Kişi_524 0.532
Kişi_525 -0.410
Kişi_526 -0.249
Kişi_527 1.203
Kişi_528 0.692
Kişi_529 1.589
Kişi_530 -0.747
Kişi_531 -0.575
Kişi_532 1.203
Kişi_533 -1.118
Kişi_534 -0.927
Kişi_535 -0.747
Kişi_536 -0.927
Kişi_537 -0.249
Kişi_538 -0.927
Kişi_539 -0.091
Kişi_540 0.375
Kişi_541 0.065
Kişi_542 -0.575
Kişi_543 0.065
Kişi_544 0.856
Kişi_545 -0.747
Kişi_546 -0.410
Kişi_547 -0.747
Kişi_548 -0.927
Kişi_549 -0.249
Kişi_550 -0.249
Kişi_551 -0.091
Kişi_552 1.589
Kişi_553 -0.927
Kişi_554 -0.747
Kişi_555 -1.543
Kişi_556 -0.575
Kişi_557 0.220
Kişi_558 -1.118
Kişi_559 -0.410
Kişi_560 0.065
Kişi_561 -0.575
Kişi_562 -0.575
Kişi_563 0.220
Kişi_564 -0.410
Kişi_565 -0.091
Kişi_566 -1.118
Kişi_567 -0.927
Kişi_568 -0.575
Kişi_569 0.532
Kişi_570 0.220
Kişi_571 0.375
Kişi_572 -0.249
Kişi_573 -0.249
Kişi_574 0.065
Kişi_575 1.389
Kişi_576 1.389
Kişi_577 -0.249
Kişi_578 -0.747
Kişi_579 -0.249
Kişi_580 -0.091
Kişi_581 0.065
Kişi_582 -0.091
Kişi_583 0.220
Kişi_584 -0.927
Kişi_585 -0.747
Kişi_586 -0.747
Kişi_587 2.038
Kişi_588 0.220
Kişi_589 -0.249
Kişi_590 -0.249
Kişi_591 2.038
Kişi_592 0.375
Kişi_593 -0.410
Kişi_594 0.375
Kişi_595 1.203
Kişi_596 0.065
Kişi_597 -1.118
Kişi_598 1.589
Kişi_599 1.803
Kişi_600 1.203
Kişi_601 -0.410
Kişi_602 -0.747
Kişi_603 -0.410
Kişi_604 -0.747
Kişi_605 1.589
Kişi_606 -0.927
Kişi_607 0.065
Kişi_608 1.803
Kişi_609 -1.118
Kişi_610 1.025
Kişi_611 1.389
Kişi_612 -0.575
Kişi_613 0.532
Kişi_614 -0.249
Kişi_615 0.856
Kişi_616 -0.410
Kişi_617 -0.410
Kişi_618 -0.410
Kişi_619 -0.927
Kişi_620 0.532
Kişi_621 0.065
Kişi_622 0.065
Kişi_623 1.589
Kişi_624 -0.747
Kişi_625 -1.118
Kişi_626 -0.091
Kişi_627 -0.410
Kişi_628 -0.091
Kişi_629 -0.747
Kişi_630 0.856
Kişi_631 0.065
Kişi_632 0.220
Kişi_633 -0.747
Kişi_634 0.856
Kişi_635 0.692
Kişi_636 0.375
Kişi_637 1.203
Kişi_638 -0.249
Kişi_639 0.532
Kişi_640 0.532
Kişi_641 0.065
Kişi_642 -0.091
Kişi_643 1.803
Kişi_644 0.532
Kişi_645 -0.747
Kişi_646 -0.249
Kişi_647 -0.410
Kişi_648 0.065
Kişi_649 -0.410
Kişi_650 -0.249
Kişi_651 -1.118
Kişi_652 -1.118
Kişi_653 0.220
Kişi_654 -0.410
Kişi_655 -0.927
Kişi_656 -0.575
Kişi_657 -0.410
Kişi_658 -0.249
Kişi_659 -1.118
Kişi_660 -0.747
Kişi_661 -0.575
Kişi_662 -0.575
Kişi_663 -1.322
Kişi_664 -0.747
Kişi_665 -0.091
Kişi_666 0.375
Kişi_667 -0.927
Kişi_668 0.065
Kişi_669 -0.575
Kişi_670 -0.249
Kişi_671 -0.091
Kişi_672 0.692
Kişi_673 -0.410
Kişi_674 -0.747
Kişi_675 1.203
Kişi_676 -0.927
Kişi_677 -0.410
Kişi_678 0.220
Kişi_679 -0.091
Kişi_680 0.856
Kişi_681 -0.091
Kişi_682 0.220
Kişi_683 -0.927
Kişi_684 -0.091
Kişi_685 -1.322
Kişi_686 -0.091
Kişi_687 -0.575
Kişi_688 0.065
Kişi_689 0.856
Kişi_690 1.389
Kişi_691 1.389
Kişi_692 0.856
Kişi_693 -0.249
Kişi_694 -0.747
Kişi_695 -0.575
Kişi_696 -1.786
Kişi_697 0.692
Kişi_698 -0.575
Kişi_699 0.856
Kişi_700 -0.091
Kişi_701 -0.410
Kişi_702 1.025
Kişi_703 0.375
Kişi_704 0.065
Kişi_705 -0.410
Kişi_706 -0.927
Kişi_707 0.220
Kişi_708 -0.410
Kişi_709 0.375
Kişi_710 0.692
Kişi_711 -0.747
Kişi_712 -0.927
Kişi_713 1.389
Kişi_714 0.375
Kişi_715 -0.927
Kişi_716 0.375
Kişi_717 2.038
Kişi_718 -0.410
Kişi_719 1.589
Kişi_720 -1.322
Kişi_721 0.375
Kişi_722 1.025
Kişi_723 0.692
Kişi_724 -0.747
Kişi_725 -0.249
Kişi_726 2.592
Kişi_727 1.203
Kişi_728 1.589
Kişi_729 0.065
Kişi_730 -0.410
Kişi_731 -0.091
Kişi_732 -0.575
Kişi_733 0.065
Kişi_734 1.389
Kişi_735 1.203
Kişi_736 -1.322
Kişi_737 0.532
Kişi_738 -0.575
Kişi_739 1.025
Kişi_740 0.692
Kişi_741 1.025
Kişi_742 0.065
Kişi_743 -0.927
Kişi_744 -0.927
Kişi_745 0.065
Kişi_746 0.220
Kişi_747 -0.575
Kişi_748 -1.322
Kişi_749 -1.543
Kişi_750 -1.322
Kişi_751 -0.747
Kişi_752 -0.091
Kişi_753 -0.747
Kişi_754 0.856
Kişi_755 -0.747
Kişi_756 -0.927
Kişi_757 -1.118
Kişi_758 0.856
Kişi_759 -1.118
Kişi_760 -0.249
Kişi_761 0.532
Kişi_762 1.203
Kişi_763 0.065
Kişi_764 -0.249
Kişi_765 -0.410
Kişi_766 -1.118
Kişi_767 -0.249
Kişi_768 -0.575
Kişi_769 -0.410
Kişi_770 0.065
Kişi_771 0.220
Kişi_772 1.589
Kişi_773 0.220
Kişi_774 -0.927
Kişi_775 -0.091
Kişi_776 2.299
Kişi_777 0.065
Kişi_778 -0.249
Kişi_779 -0.410
Kişi_780 1.203
Kişi_781 0.532
Kişi_782 -0.747
Kişi_783 -0.747
Kişi_784 -1.118
Kişi_785 0.220
Kişi_786 0.065
Kişi_787 -0.747
Kişi_788 0.220
Kişi_789 -0.410
Kişi_790 -0.091
Kişi_791 -0.747
Kişi_792 1.203
Kişi_793 -0.410
Kişi_794 -0.927
Kişi_795 -0.747
Kişi_796 -0.927
Kişi_797 2.299
Kişi_798 -0.091
Kişi_799 0.375
Kişi_800 -0.249
Kişi_801 -1.118
Kişi_802 -0.927
Kişi_803 0.375
Kişi_804 0.220
Kişi_805 0.220
Kişi_806 -0.410
Kişi_807 0.856
Kişi_808 0.065
Kişi_809 -0.575
Kişi_810 2.038
Kişi_811 1.589
Kişi_812 1.389
Kişi_813 -0.747
Kişi_814 -0.747
Kişi_815 0.065
Kişi_816 1.025
Kişi_817 0.692
Kişi_818 -0.249
Kişi_819 0.220
Kişi_820 1.025
Kişi_821 0.220
Kişi_822 0.375
Kişi_823 0.220
Kişi_824 -0.927
Kişi_825 -0.410
Kişi_826 0.220
Kişi_827 -1.118
Kişi_828 0.065
Kişi_829 -0.575
Kişi_830 0.220
Kişi_831 0.692
Kişi_832 0.856
Kişi_833 0.065
Kişi_834 -0.747
Kişi_835 1.389
Kişi_836 -0.575
Kişi_837 0.220
Kişi_838 -0.091
Kişi_839 1.589
Kişi_840 -0.249
Kişi_841 0.532
Kişi_842 -0.927
Kişi_843 0.065
Kişi_844 -0.249
Kişi_845 -0.249
Kişi_846 1.589
Kişi_847 -0.091
Kişi_848 -1.543
Kişi_849 -1.322
Kişi_850 0.692
Kişi_851 -0.575
Kişi_852 0.065
Kişi_853 1.025
Kişi_854 1.025
Kişi_855 0.065
Kişi_856 -0.249
Kişi_857 -0.249
Kişi_858 0.220
Kişi_859 -1.118
Kişi_860 -0.575
Kişi_861 -0.927
Kişi_862 -1.543
Kişi_863 -0.747
Kişi_864 -0.249
Kişi_865 -1.118
Kişi_866 -0.927
Kişi_867 -0.575
Kişi_868 -0.249
Kişi_869 -0.410
Kişi_870 0.065
Kişi_871 -0.575
Kişi_872 0.065
Kişi_873 -0.249
Kişi_874 -0.575
Kişi_875 -0.575
Kişi_876 -1.322
Kişi_877 -1.322
Kişi_878 -1.118
Kişi_879 0.220
Kişi_880 -0.927
Kişi_881 -0.927
Kişi_882 -1.118
Kişi_883 0.065
Kişi_884 -0.575
Kişi_885 -1.322
Kişi_886 -1.322
Kişi_887 -0.575
Kişi_888 0.856
Kişi_889 -0.747
Kişi_890 -0.927
Kişi_891 1.025
Kişi_892 -0.410
Kişi_893 -0.927
Kişi_894 -0.091
Kişi_895 0.065
Kişi_896 -1.543
Kişi_897 0.532
Kişi_898 -0.575
Kişi_899 0.220
Kişi_900 0.692
Kişi_901 -0.249
Kişi_902 0.065
Kişi_903 0.375
Kişi_904 -0.249
Kişi_905 0.065
Kişi_906 -0.747
Kişi_907 0.692
Kişi_908 -0.575
Kişi_909 -0.747
Kişi_910 0.692
Kişi_911 -0.249
Kişi_912 1.025
Kişi_913 0.692
Kişi_914 -0.410
Kişi_915 0.532
Kişi_916 -2.058
Kişi_917 0.856
Kişi_918 1.025
Kişi_919 -0.410
Kişi_920 -0.747
Kişi_921 -1.322
Kişi_922 0.220
Kişi_923 0.532
Kişi_924 -0.410
Kişi_925 -0.249
Kişi_926 -0.747
Kişi_927 0.375
Kişi_928 -0.410
Kişi_929 0.220
Kişi_930 1.589
Kişi_931 1.389
Kişi_932 -1.118
Kişi_933 -1.118
Kişi_934 -1.118
Kişi_935 -0.410
Kişi_936 0.065
Kişi_937 -1.322
Kişi_938 0.532
Kişi_939 -0.249
Kişi_940 0.692
Kişi_941 0.692
Kişi_942 0.692
Kişi_943 -0.575
Kişi_944 0.532
Kişi_945 -0.927
Kişi_946 -1.322
Kişi_947 0.065
Kişi_948 -0.410
Kişi_949 1.025
Kişi_950 -0.927
Kişi_951 0.856
Kişi_952 -0.249
Kişi_953 0.856
Kişi_954 0.065
Kişi_955 2.038
Kişi_956 0.375
Kişi_957 1.203
Kişi_958 0.065
Kişi_959 0.220
Kişi_960 1.025
Kişi_961 0.375
Kişi_962 -0.575
Kişi_963 -1.322
Kişi_964 2.299
Kişi_965 -0.410
Kişi_966 -0.410
Kişi_967 0.692
Kişi_968 1.025
Kişi_969 -0.927
Kişi_970 -0.927
Kişi_971 1.203
Kişi_972 1.389
Kişi_973 -0.410
Kişi_974 -0.410
Kişi_975 -0.410
Kişi_976 -0.575
Kişi_977 -0.575
Kişi_978 -1.322
Kişi_979 1.025
Kişi_980 0.692
Kişi_981 0.532
Kişi_982 0.532
Kişi_983 2.299
Kişi_984 -0.410
Kişi_985 -0.091
Kişi_986 -1.786
Kişi_987 -0.091
Kişi_988 -1.543
Kişi_989 1.203
Kişi_990 -0.575
Kişi_991 0.220
Kişi_992 0.532
Kişi_993 1.203
Kişi_994 -0.575
Kişi_995 2.038
Kişi_996 0.692
Kişi_997 1.389
Kişi_998 -0.091
Kişi_999 1.803
Kişi_1000 0.220
Kişi_1001 0.220
Kişi_1002 1.803
Kişi_1003 0.065
Kişi_1004 -0.249
Kişi_1005 -0.410
Kişi_1006 -1.543
Kişi_1007 -0.575
Kişi_1008 -0.410
Kişi_1009 -0.927
Kişi_1010 0.856
Kişi_1011 0.220
Kişi_1012 1.389
Kişi_1013 -1.322
Kişi_1014 0.856
Kişi_1015 -1.543
Kişi_1016 0.375
Kişi_1017 -0.249
Kişi_1018 0.375
Kişi_1019 1.203
Kişi_1020 0.532
Kişi_1021 0.375
Kişi_1022 -0.410
Kişi_1023 0.856
Kişi_1024 -0.575
Kişi_1025 2.038
Kişi_1026 2.299
Kişi_1027 0.220
Kişi_1028 1.389
Kişi_1029 -0.249
Kişi_1030 -1.786
Kişi_1031 1.203
Kişi_1032 2.038
Kişi_1033 -0.410
Kişi_1034 -1.322
Kişi_1035 2.592
Kişi_1036 -0.091
Kişi_1037 0.532
Kişi_1038 -0.927
Kişi_1039 1.389
Kişi_1040 -1.118
Kişi_1041 0.692
Kişi_1042 1.589
Kişi_1043 0.375
Kişi_1044 0.375
Kişi_1045 1.203
Kişi_1046 -0.575
Kişi_1047 -1.786
Kişi_1048 -0.575
Kişi_1049 -0.091
Kişi_1050 0.065
Kişi_1051 0.532
Kişi_1052 -0.927
Kişi_1053 -0.747
Kişi_1054 1.589
Kişi_1055 0.532
Kişi_1056 -0.747
Kişi_1057 -0.410
Kişi_1058 0.856
Kişi_1059 1.589
Kişi_1060 1.203
Kişi_1061 1.589
Kişi_1062 -0.091
Kişi_1063 -0.575
Kişi_1064 -0.091
Kişi_1065 -0.249
Kişi_1066 -0.575
Kişi_1067 1.203
Kişi_1068 0.532
Kişi_1069 1.589
Kişi_1070 -0.410
Kişi_1071 2.038
Kişi_1072 -0.249
Kişi_1073 -0.249
Kişi_1074 1.025
Kişi_1075 2.592
Kişi_1076 -0.091
Kişi_1077 0.692
Kişi_1078 -0.249
Kişi_1079 2.592
Kişi_1080 -0.410
Kişi_1081 0.065
Kişi_1082 0.065
Kişi_1083 -0.927
Kişi_1084 0.375
Kişi_1085 -0.927
Kişi_1086 0.065
Kişi_1087 -0.249
Kişi_1088 0.692
Kişi_1089 -1.118
Kişi_1090 -1.118
Kişi_1091 -0.927
Kişi_1092 -0.410
Kişi_1093 -0.091
Kişi_1094 -0.249
Kişi_1095 -1.118
Kişi_1096 0.375
Kişi_1097 -0.249
Kişi_1098 0.065
Kişi_1099 0.692
Kişi_1100 0.375
Kişi_1101 0.220
Kişi_1102 -0.091
Kişi_1103 2.038
Kişi_1104 -0.927
Kişi_1105 -0.091
Kişi_1106 -0.249
Kişi_1107 -0.249
Kişi_1108 -0.747
Kişi_1109 -0.410
Kişi_1110 -0.249
Kişi_1111 -1.118
Kişi_1112 -0.410
Kişi_1113 -0.249
Kişi_1114 0.065
Kişi_1115 0.856
Kişi_1116 0.856
Kişi_1117 -0.249
Kişi_1118 -0.091
Kişi_1119 -0.249
Kişi_1120 -0.575
Kişi_1121 0.065
Kişi_1122 1.803
Kişi_1123 -0.747
Kişi_1124 -0.091
Kişi_1125 2.038
Kişi_1126 -0.091
Kişi_1127 -0.410
Kişi_1128 -0.249
Kişi_1129 -0.091
Kişi_1130 1.389
Kişi_1131 -0.091
Kişi_1132 -0.575
Kişi_1133 0.065
Kişi_1134 1.389
Kişi_1135 0.375
Kişi_1136 1.025
Kişi_1137 -1.118
Kişi_1138 -0.575
Kişi_1139 -0.410
Kişi_1140 -0.091
Kişi_1141 2.038
Kişi_1142 -0.410
Kişi_1143 0.856
Kişi_1144 -0.249
Kişi_1145 -1.118
Kişi_1146 0.532
Kişi_1147 -0.747
Kişi_1148 -0.249
Kişi_1149 0.532
Kişi_1150 -0.410
Kişi_1151 -0.575
Kişi_1152 0.220
Kişi_1153 1.389
Kişi_1154 -0.927
Kişi_1155 1.589
Kişi_1156 1.589
Kişi_1157 -0.410
Kişi_1158 0.065
Kişi_1159 -0.249
Kişi_1160 -0.575
Kişi_1161 -0.747
Kişi_1162 -0.091
Kişi_1163 -1.543
Kişi_1164 1.803
Kişi_1165 -0.747
Kişi_1166 0.375
Kişi_1167 0.532
Kişi_1168 2.592
Kişi_1169 -0.575
Kişi_1170 -1.118
Kişi_1171 -0.410
Kişi_1172 -0.747
Kişi_1173 0.065
Kişi_1174 1.025
Kişi_1175 -0.747
Kişi_1176 -1.543
Kişi_1177 0.692
Kişi_1178 -0.410
Kişi_1179 0.692
Kişi_1180 0.220
Kişi_1181 1.025
Kişi_1182 0.065
Kişi_1183 -0.747
Kişi_1184 0.065
Kişi_1185 0.220
Kişi_1186 1.803
Kişi_1187 -0.575
Kişi_1188 -0.575
Kişi_1189 0.375
Kişi_1190 -1.543
Kişi_1191 0.220
Kişi_1192 0.692
Kişi_1193 -0.091
Kişi_1194 0.065
Kişi_1195 -1.118
Kişi_1196 1.803
Kişi_1197 -0.927
Kişi_1198 0.375
Kişi_1199 -0.091
Kişi_1200 -0.927
Kişi_1201 -1.543
Kişi_1202 0.220
Kişi_1203 -0.747
Kişi_1204 2.299
Kişi_1205 0.375
Kişi_1206 0.692
Kişi_1207 0.065
Kişi_1208 0.692
Kişi_1209 0.692
Kişi_1210 -1.118
Kişi_1211 -0.091
Kişi_1212 -0.410
Kişi_1213 -0.091
Kişi_1214 -0.927
Kişi_1215 0.692
Kişi_1216 0.375
Kişi_1217 0.220
Kişi_1218 0.692
Kişi_1219 1.589
Kişi_1220 -0.575
Kişi_1221 0.856
Kişi_1222 -0.091
Kişi_1223 -0.249
Kişi_1224 -1.322
Kişi_1225 -0.091
Kişi_1226 -0.575
Kişi_1227 0.375
Kişi_1228 -0.249
Kişi_1229 2.038
Kişi_1230 -1.118
Kişi_1231 -1.322
Kişi_1232 -0.575
Kişi_1233 1.025
Kişi_1234 0.220
Kişi_1235 2.299
Kişi_1236 2.299
Kişi_1237 2.038
Kişi_1238 0.065
Kişi_1239 1.803
Kişi_1240 -0.249
Kişi_1241 1.203
Kişi_1242 1.203
Kişi_1243 -0.927
Kişi_1244 1.203
Kişi_1245 -0.927
Kişi_1246 -0.091
Kişi_1247 1.389
Kişi_1248 0.692
Kişi_1249 0.065
Kişi_1250 -0.747
Kişi_1251 -1.543
Kişi_1252 -0.575
Kişi_1253 0.065
Kişi_1254 0.065
Kişi_1255 0.375
Kişi_1256 -0.410
Kişi_1257 -0.249
Kişi_1258 -1.543
Kişi_1259 -0.747
Kişi_1260 0.856
Kişi_1261 -0.249
Kişi_1262 0.856
Kişi_1263 0.375
Kişi_1264 -0.747
Kişi_1265 -0.575
Kişi_1266 1.025
Kişi_1267 0.220
Kişi_1268 1.389
Kişi_1269 2.038
Kişi_1270 1.025
Kişi_1271 0.065
Kişi_1272 -1.786
Kişi_1273 -0.747
Kişi_1274 -0.249
Kişi_1275 -0.747
Kişi_1276 -1.543
Kişi_1277 -0.249
Kişi_1278 1.203
Kişi_1279 0.692
Kişi_1280 -0.747
Kişi_1281 0.220
Kişi_1282 -0.747
Kişi_1283 0.692
Kişi_1284 0.220
Kişi_1285 0.375
Kişi_1286 0.065
Kişi_1287 2.038
Kişi_1288 -0.747
Kişi_1289 -0.410
Kişi_1290 0.692
Kişi_1291 -0.091
Kişi_1292 0.532
Kişi_1293 0.532
Kişi_1294 0.532
Kişi_1295 0.532
Kişi_1296 0.375
Kişi_1297 0.856
Kişi_1298 0.375
Kişi_1299 2.592
Kişi_1300 -0.927
Kişi_1301 0.220
Kişi_1302 -0.249
Kişi_1303 0.220
Kişi_1304 -0.410
Kişi_1305 0.532
Kişi_1306 1.389
Kişi_1307 0.065
Kişi_1308 -0.410
Kişi_1309 0.532
Kişi_1310 1.803
Kişi_1311 -0.249
Kişi_1312 -0.249
Kişi_1313 -0.410
Kişi_1314 0.692
Kişi_1315 -0.747
Kişi_1316 -0.249
Kişi_1317 -0.410
Kişi_1318 1.025
Kişi_1319 0.375
Kişi_1320 0.692
Kişi_1321 -0.410
Kişi_1322 1.025
Kişi_1323 -0.091
Kişi_1324 0.220
Kişi_1325 0.692
Kişi_1326 -1.322
Kişi_1327 0.532
Kişi_1328 0.220
Kişi_1329 0.692
Kişi_1330 1.203
Kişi_1331 -0.249
Kişi_1332 0.065
Kişi_1333 -0.410
Kişi_1334 1.025
Kişi_1335 -0.747
Kişi_1336 1.389
Kişi_1337 -0.927
Kişi_1338 -0.575
Kişi_1339 -0.249
Kişi_1340 -0.927
Kişi_1341 1.389
Kişi_1342 -0.091
Kişi_1343 -0.249
Kişi_1344 0.220
Kişi_1345 0.532
Kişi_1346 0.856
Kişi_1347 -0.410
Kişi_1348 0.856
Kişi_1349 1.203
Kişi_1350 0.375
Kişi_1351 2.038
Kişi_1352 0.220
Kişi_1353 0.220
Kişi_1354 2.299
Kişi_1355 0.375
Kişi_1356 1.025
Kişi_1357 -0.091
Kişi_1358 2.592
Kişi_1359 1.589
Kişi_1360 1.203
Kişi_1361 2.592
Kişi_1362 -0.575
Kişi_1363 0.856
Kişi_1364 1.389
Kişi_1365 0.375
Kişi_1366 1.203
Kişi_1367 0.065
Kişi_1368 1.803
Kişi_1369 -0.249
Kişi_1370 0.856
Kişi_1371 0.065
Kişi_1372 0.375
Kişi_1373 -0.575
Kişi_1374 -0.410
Kişi_1375 0.065
Kişi_1376 -0.927
Kişi_1377 0.692
Kişi_1378 0.375
Kişi_1379 -0.575
Kişi_1380 0.220
Kişi_1381 -0.249
Kişi_1382 1.803
Kişi_1383 -0.575
Kişi_1384 1.803
Kişi_1385 0.692
Kişi_1386 -0.575
Kişi_1387 0.856
Kişi_1388 0.856
Kişi_1389 1.025
Kişi_1390 -0.747
Kişi_1391 -0.575
Kişi_1392 0.692
Kişi_1393 -0.747
Kişi_1394 -1.118
Kişi_1395 1.025
Kişi_1396 0.065
Kişi_1397 -0.091
Kişi_1398 0.692
Kişi_1399 1.589
Kişi_1400 -0.249
Kişi_1401 0.065
Kişi_1402 1.589
Kişi_1403 -0.575
Kişi_1404 1.389
Kişi_1405 -0.747
Kişi_1406 1.589
Kişi_1407 -1.118
Kişi_1408 -0.927
Kişi_1409 0.856
Kişi_1410 1.203
Kişi_1411 -0.249
Kişi_1412 0.532
Kişi_1413 -0.410
Kişi_1414 -0.575
Kişi_1415 -1.118
Kişi_1416 0.065
Kişi_1417 1.389
Kişi_1418 2.038
Kişi_1419 0.532
Kişi_1420 -0.747
Kişi_1421 0.375
Kişi_1422 -1.118
Kişi_1423 -0.747
Kişi_1424 -1.118
Kişi_1425 -0.249
Kişi_1426 -0.747
Kişi_1427 1.025
Kişi_1428 0.856
Kişi_1429 0.220
Kişi_1430 -0.091
Kişi_1431 0.220
Kişi_1432 -0.927
Kişi_1433 -1.322
Kişi_1434 0.220
Kişi_1435 -0.091
Kişi_1436 0.220
Kişi_1437 -0.091
Kişi_1438 1.025
Kişi_1439 0.065
Kişi_1440 2.299
Kişi_1441 0.065
Kişi_1442 1.025
Kişi_1443 -1.322
Kişi_1444 -0.747
Kişi_1445 -0.091
Kişi_1446 0.065
Kişi_1447 -0.575
Kişi_1448 0.532
Kişi_1449 -0.927
Kişi_1450 2.038
Kişi_1451 0.065
Kişi_1452 1.389
Kişi_1453 -0.410
Kişi_1454 -1.543
Kişi_1455 1.203
Kişi_1456 -0.091
Kişi_1457 -0.410
Kişi_1458 0.692
Kişi_1459 -0.249
Kişi_1460 -0.575
Kişi_1461 0.692
Kişi_1462 0.065
Kişi_1463 -0.091
Kişi_1464 0.692
Kişi_1465 -1.118
Kişi_1466 0.220
Kişi_1467 1.203
Kişi_1468 0.532
Kişi_1469 -0.575
Kişi_1470 -0.575
Kişi_1471 -0.575
    • Yukarıda sunulan tablo, 1PL Modeli çerçevesinde tahmin edilen madde parametrelerini içermektedir. Modelde tüm maddelerin ayırt edicilik katsayısı (\(a\)) sabit tutulmuş olup, her biri yaklaşık \(0.912\) olarak belirlenmiştir. Bu, modelin Rasch modeli olarak tanımlandığını ve tüm maddelerin bireylerin yetenek düzeylerini ayırt etme gücünün eşit varsayıldığını göstermektedir. Rasch modeli bu yönüyle parsimony (sadelik) ilkesiyle uyumlu, yorumlanabilirliği yüksek bir modeldir (Bond & Fox, 2015).
  • Madde güçlük parametreleri (b) \(-0.472\) ile \(1.186\) arasında değişmektedir. Bu değer, her bir maddenin ne kadar zor olduğunu belirtmekte olup, 0 noktasına yakın olan maddeler ortalama düzeyde güçlük içerirken, pozitif değerlere sahip olan maddeler daha zor, negatif değerlere sahip olanlar ise daha kolay olarak yorumlanmaktadır. Örneğin; madde_14 (\(b = 1.186\)) en zor madde iken, madde_1 (\(b = -0.472\)) en kolay madde olarak öne çıkmaktadır. Bu dağılım, ölçeğin geniş bir yetenek düzeyini kapsadığını ve ölçeğin işlevsel ayırt ediciliğini güçlendirdiğini göstermektedir.

  • Alt (g) ve üst (u) asimptot değerleri sırasıyla 0 ve 1 olarak sabitlenmiştir; bu da madde karakteristik eğrilerinin Rasch modeline uygun olarak iki uç noktaya (0 ve 1) asimptotik olarak yaklaştığını gösterir. Başka bir deyişle, Rasch modeli bağlamında herhangi bir şans başarısı (g) veya mükemmel başarı dışı durum (u) modele dahil edilmemiştir; bu da modelin deterministik yapısına uygunluk sağlar (Embretson & Reise, 2000).

  • Sonuç olarak, elde edilen parametreler Rasch model varsayımlarına uygunluk göstermektedir: sabit ayırt edicilik, değişen güçlük düzeyleri ve sabit uç noktalar. Bu yapı, hem ölçme geçerliği hem de madde kalibrasyonu açısından güçlü bir temel sağlamaktadır. Rasch modeliyle elde edilen bu parametreler, bireylerin yetenek düzeylerinin madde yanıtları üzerinden nesnel ve karşılaştırılabilir biçimde tahmin edilebileceği anlamına gelir.

library(ggplot2)
ggplot(madde_1pl_df, aes(x = Madde, y = b)) +
  geom_bar(stat = "identity", fill = "steelblue") +
  geom_hline(yintercept = 0, linetype = "dashed", color = "red") +
  labs(
    title = "1PL Modeline Göre Madde Güçlük (b) Parametrelerinin Dağılımı",
    x = "Madde",
    y = "Güçlük (b) Değeri") +
  theme_minimal() +
  theme(axis.text.x = element_text(angle = 45, hjust = 1))

  • Yukarıda sunulan grafik, Rasch modeline göre tahmin edilen 25 maddeye ait güçlük parametrelerinin (b) dağılımını görsel olarak sunmaktadır. Madde güçlük parametresi, bir bireyin ilgili maddeyi doğru yanıtlayabilmesi için sahip olması gereken yetenek düzeyini (θ) ifade eder. Bu bağlamda, b değeri arttıkça madde daha zor hale gelirken, azaldıkça daha kolay bir madde halini alır (Embretson & Reise, 2000).

  • Grafikte dikkat çeken en yüksek güçlük değerine sahip maddeler arasında madde_14 (\(b ≈ 1.186\)) ve madde_22 (\(b ≈ 0.989\)) yer almaktadır. Bu maddelerin çözülmesi, ortalama yetenek düzeyinin oldukça üzerinde bir yetkinlik gerektirmektedir. Buna karşın madde_1 (\(b ≈ -0.472\)), madde_5 (\(b ≈ -0.433\)) ve madde_10 (\(b ≈ -0.348\)) gibi maddeler, düşük güçlük seviyelerine sahiptir ve ortalama altı yetenek düzeyine sahip bireyler tarafından bile doğru yanıtlanabilir niteliktedir.

  • Grafikteki kırmızı kesikli çizgi, güçlük parametresinin ortalamasını temsil eden referans çizgidir (\(θ = 0\)). Bu çizginin üstünde yer alan sütunlar daha zor, altında yer alanlar daha kolay maddelere işaret etmektedir. Madde güçlüklerinin hem negatif hem de pozitif değerlere yayılmış olması, testin geniş bir yetenek yelpazesine hitap ettiğini ve ölçeğin dağılım açısından dengeli olduğunu göstermektedir. Bu durum, Rasch modeline dayalı ölçümün hem düşük hem yüksek yetenek seviyelerinde ayrım gücünü koruduğunu ve madde setinin yeterince heterojen olduğunu ortaya koyar (Bond & Fox, 2015).

  • Sonuç olarak, madde güçlüklerinin bu şekilde yayılması, testin geçerlik ve güvenirlik açısından dengeli bir ölçme aracı olduğunu, bireyleri farklı yetenek düzeylerinde doğru sınıflandırabileceğini ve Rasch modelinin temel varsayımlarına uygunluk gösterdiğini desteklemektedir.

3.2.3 2PL MODELINE GORE

madde_2pl <- coef(mod_2PL, IRTpars = TRUE, simplify = TRUE)$items
madde_2pl_df <- as.data.frame(madde_2pl)
madde_2pl_df$Madde <- rownames(madde_2pl_df)
birey_2pl <- fscores(mod_2PL, method = "EAP")
birey_2pl_df <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_2pl)),
                           Yetenek = birey_2pl[, 1])
library(kableExtra)
madde_2pl_df %>% select(Madde, a, b) %>% kable(digits = 3, format = "html", caption = "2PL Modeline Gore Madde Parametreleri (a: Ayırt Edicilik, b: Güçlük)") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")
2PL Modeline Gore Madde Parametreleri (a: Ayırt Edicilik, b: Güçlük)
Madde a b
madde_1 madde_1 1.364 -0.382
madde_2 madde_2 0.780 0.290
madde_3 madde_3 0.414 0.306
madde_4 madde_4 1.008 0.215
madde_5 madde_5 1.157 -0.380
madde_6 madde_6 0.931 0.148
madde_7 madde_7 0.938 0.189
madde_8 madde_8 0.845 0.038
madde_9 madde_9 0.605 0.662
madde_10 madde_10 1.096 -0.316
madde_11 madde_11 0.759 0.054
madde_12 madde_12 1.016 0.132
madde_13 madde_13 0.555 0.996
madde_14 madde_14 0.518 1.906
madde_15 madde_15 0.919 0.193
madde_16 madde_16 1.277 0.112
madde_17 madde_17 1.010 -0.396
madde_18 madde_18 1.036 0.113
madde_19 madde_19 0.930 0.338
madde_20 madde_20 1.148 -0.255
madde_21 madde_21 1.221 0.362
madde_22 madde_22 1.058 0.882
madde_23 madde_23 0.921 0.035
madde_24 madde_24 0.914 0.050
madde_25 madde_25 1.038 0.346
birey_2pl_df %>% kable(digits = 3, format = "html", caption = "2PL Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = FALSE, position = "center")
2PL Modeline Gore Birey Yetenek (θ) Parametreleri
Birey Yetenek
Kişi_1 -0.800
Kişi_2 -0.721
Kişi_3 0.510
Kişi_4 -0.812
Kişi_5 -1.057
Kişi_6 -0.985
Kişi_7 -0.011
Kişi_8 1.852
Kişi_9 -0.112
Kişi_10 -1.774
Kişi_11 0.217
Kişi_12 0.937
Kişi_13 -0.575
Kişi_14 -1.052
Kişi_15 -0.266
Kişi_16 0.781
Kişi_17 -0.598
Kişi_18 1.138
Kişi_19 -0.131
Kişi_20 -0.521
Kişi_21 -0.352
Kişi_22 0.957
Kişi_23 -0.489
Kişi_24 0.116
Kişi_25 -0.883
Kişi_26 -0.280
Kişi_27 -0.279
Kişi_28 -0.687
Kişi_29 0.460
Kişi_30 -0.726
Kişi_31 0.167
Kişi_32 -0.802
Kişi_33 0.136
Kişi_34 0.673
Kişi_35 -1.158
Kişi_36 -0.903
Kişi_37 -0.231
Kişi_38 -1.075
Kişi_39 -0.910
Kişi_40 -1.089
Kişi_41 -1.247
Kişi_42 -0.261
Kişi_43 1.124
Kişi_44 1.517
Kişi_45 -2.182
Kişi_46 -0.581
Kişi_47 -0.816
Kişi_48 -0.216
Kişi_49 2.133
Kişi_50 0.132
Kişi_51 -0.593
Kişi_52 -0.122
Kişi_53 -0.178
Kişi_54 -0.570
Kişi_55 -0.996
Kişi_56 -0.244
Kişi_57 -1.357
Kişi_58 0.673
Kişi_59 -1.589
Kişi_60 -0.801
Kişi_61 -1.407
Kişi_62 -0.177
Kişi_63 -0.681
Kişi_64 1.010
Kişi_65 -0.873
Kişi_66 -0.857
Kişi_67 0.067
Kişi_68 -0.220
Kişi_69 -1.349
Kişi_70 -0.431
Kişi_71 2.552
Kişi_72 -0.639
Kişi_73 -1.482
Kişi_74 -0.809
Kişi_75 -0.046
Kişi_76 0.052
Kişi_77 -0.663
Kişi_78 1.420
Kişi_79 1.815
Kişi_80 -0.280
Kişi_81 -0.672
Kişi_82 -0.403
Kişi_83 -0.247
Kişi_84 0.521
Kişi_85 -0.744
Kişi_86 -0.977
Kişi_87 -0.510
Kişi_88 -0.789
Kişi_89 -0.718
Kişi_90 -1.044
Kişi_91 0.515
Kişi_92 1.020
Kişi_93 -0.184
Kişi_94 -1.416
Kişi_95 0.600
Kişi_96 -0.564
Kişi_97 0.101
Kişi_98 -1.328
Kişi_99 -0.950
Kişi_100 -0.475
Kişi_101 -1.693
Kişi_102 -1.087
Kişi_103 -0.096
Kişi_104 -1.651
Kişi_105 -0.891
Kişi_106 -0.673
Kişi_107 -0.266
Kişi_108 0.393
Kişi_109 -0.629
Kişi_110 1.354
Kişi_111 -1.269
Kişi_112 0.588
Kişi_113 -0.613
Kişi_114 -0.075
Kişi_115 0.951
Kişi_116 -0.647
Kişi_117 -1.070
Kişi_118 0.016
Kişi_119 -0.796
Kişi_120 -0.481
Kişi_121 0.217
Kişi_122 -1.078
Kişi_123 0.334
Kişi_124 -0.817
Kişi_125 -0.468
Kişi_126 0.597
Kişi_127 -0.657
Kişi_128 0.973
Kişi_129 1.016
Kişi_130 -0.790
Kişi_131 -0.536
Kişi_132 -0.434
Kişi_133 0.660
Kişi_134 2.372
Kişi_135 -0.524
Kişi_136 -0.211
Kişi_137 0.227
Kişi_138 1.399
Kişi_139 -0.339
Kişi_140 1.356
Kişi_141 -0.833
Kişi_142 -0.408
Kişi_143 -0.475
Kişi_144 -0.076
Kişi_145 -0.076
Kişi_146 1.001
Kişi_147 -0.723
Kişi_148 1.278
Kişi_149 -0.409
Kişi_150 0.137
Kişi_151 0.403
Kişi_152 -0.434
Kişi_153 1.847
Kişi_154 -0.395
Kişi_155 2.407
Kişi_156 -0.731
Kişi_157 -0.522
Kişi_158 0.299
Kişi_159 -1.041
Kişi_160 -0.510
Kişi_161 0.785
Kişi_162 -0.489
Kişi_163 -0.741
Kişi_164 -0.845
Kişi_165 -0.073
Kişi_166 0.746
Kişi_167 0.064
Kişi_168 0.151
Kişi_169 -0.768
Kişi_170 -0.423
Kişi_171 0.117
Kişi_172 -0.865
Kişi_173 -1.518
Kişi_174 -0.883
Kişi_175 0.083
Kişi_176 1.316
Kişi_177 -0.527
Kişi_178 0.460
Kişi_179 -0.862
Kişi_180 -0.300
Kişi_181 -0.979
Kişi_182 1.251
Kişi_183 0.073
Kişi_184 -0.748
Kişi_185 0.603
Kişi_186 -0.706
Kişi_187 1.342
Kişi_188 -0.992
Kişi_189 -1.004
Kişi_190 1.211
Kişi_191 2.214
Kişi_192 -0.992
Kişi_193 0.897
Kişi_194 0.294
Kişi_195 0.810
Kişi_196 -0.870
Kişi_197 -0.163
Kişi_198 0.209
Kişi_199 -0.233
Kişi_200 0.389
Kişi_201 -0.308
Kişi_202 -1.178
Kişi_203 0.784
Kişi_204 -0.206
Kişi_205 -0.709
Kişi_206 0.624
Kişi_207 -0.887
Kişi_208 -0.818
Kişi_209 -1.077
Kişi_210 -0.072
Kişi_211 -1.056
Kişi_212 -1.242
Kişi_213 -0.979
Kişi_214 0.204
Kişi_215 -0.555
Kişi_216 -1.570
Kişi_217 -0.810
Kişi_218 -0.543
Kişi_219 -0.192
Kişi_220 0.661
Kişi_221 0.908
Kişi_222 0.080
Kişi_223 0.481
Kişi_224 0.927
Kişi_225 -0.482
Kişi_226 -1.003
Kişi_227 1.321
Kişi_228 -0.695
Kişi_229 -0.570
Kişi_230 0.954
Kişi_231 -0.783
Kişi_232 -0.480
Kişi_233 0.663
Kişi_234 -1.456
Kişi_235 -0.878
Kişi_236 -0.627
Kişi_237 0.541
Kişi_238 0.117
Kişi_239 -0.796
Kişi_240 -0.043
Kişi_241 -0.454
Kişi_242 -0.637
Kişi_243 -0.038
Kişi_244 0.105
Kişi_245 -0.661
Kişi_246 -0.326
Kişi_247 -1.101
Kişi_248 -0.293
Kişi_249 -0.684
Kişi_250 -0.294
Kişi_251 -0.598
Kişi_252 1.109
Kişi_253 -0.704
Kişi_254 -0.472
Kişi_255 -0.191
Kişi_256 0.193
Kişi_257 -0.295
Kişi_258 -0.490
Kişi_259 0.012
Kişi_260 -1.406
Kişi_261 -0.465
Kişi_262 0.800
Kişi_263 -0.648
Kişi_264 0.984
Kişi_265 -1.015
Kişi_266 0.103
Kişi_267 0.961
Kişi_268 -0.639
Kişi_269 -0.833
Kişi_270 1.087
Kişi_271 -0.098
Kişi_272 -0.478
Kişi_273 0.340
Kişi_274 -0.354
Kişi_275 -0.430
Kişi_276 -0.025
Kişi_277 -0.977
Kişi_278 -0.627
Kişi_279 -1.075
Kişi_280 -0.796
Kişi_281 -0.066
Kişi_282 -0.005
Kişi_283 -1.665
Kişi_284 -0.359
Kişi_285 0.522
Kişi_286 -0.145
Kişi_287 -0.538
Kişi_288 -0.693
Kişi_289 -1.135
Kişi_290 -1.240
Kişi_291 -1.245
Kişi_292 -0.657
Kişi_293 -0.293
Kişi_294 -0.004
Kişi_295 -0.904
Kişi_296 -1.065
Kişi_297 -0.874
Kişi_298 0.346
Kişi_299 -1.040
Kişi_300 -0.919
Kişi_301 -1.001
Kişi_302 -0.624
Kişi_303 0.067
Kişi_304 -0.680
Kişi_305 0.045
Kişi_306 -0.257
Kişi_307 0.212
Kişi_308 -0.288
Kişi_309 -0.207
Kişi_310 -0.728
Kişi_311 -0.355
Kişi_312 -1.076
Kişi_313 -0.675
Kişi_314 -0.479
Kişi_315 -0.245
Kişi_316 0.729
Kişi_317 -0.183
Kişi_318 0.643
Kişi_319 0.803
Kişi_320 -0.311
Kişi_321 -0.308
Kişi_322 -0.017
Kişi_323 -0.940
Kişi_324 -0.643
Kişi_325 -1.069
Kişi_326 -0.479
Kişi_327 0.431
Kişi_328 2.552
Kişi_329 -0.107
Kişi_330 -0.094
Kişi_331 -0.156
Kişi_332 -0.262
Kişi_333 0.590
Kişi_334 0.735
Kişi_335 -0.387
Kişi_336 -0.698
Kişi_337 -1.496
Kişi_338 0.692
Kişi_339 -1.093
Kişi_340 1.261
Kişi_341 1.262
Kişi_342 1.090
Kişi_343 -0.552
Kişi_344 -1.024
Kişi_345 2.552
Kişi_346 -1.151
Kişi_347 -0.782
Kişi_348 0.262
Kişi_349 1.491
Kişi_350 0.879
Kişi_351 0.137
Kişi_352 -0.302
Kişi_353 0.465
Kişi_354 0.685
Kişi_355 0.791
Kişi_356 -0.330
Kişi_357 1.296
Kişi_358 -0.566
Kişi_359 -0.618
Kişi_360 0.982
Kişi_361 1.104
Kişi_362 0.230
Kişi_363 -0.613
Kişi_364 -0.519
Kişi_365 -0.409
Kişi_366 0.449
Kişi_367 -0.676
Kişi_368 -0.629
Kişi_369 1.225
Kişi_370 -0.771
Kişi_371 -0.418
Kişi_372 1.395
Kişi_373 -0.893
Kişi_374 -0.327
Kişi_375 1.138
Kişi_376 -1.147
Kişi_377 0.079
Kişi_378 0.658
Kişi_379 2.082
Kişi_380 -0.220
Kişi_381 -0.382
Kişi_382 0.082
Kişi_383 -0.738
Kişi_384 1.184
Kişi_385 -0.887
Kişi_386 -0.207
Kişi_387 0.236
Kişi_388 -0.995
Kişi_389 0.504
Kişi_390 -1.202
Kişi_391 0.632
Kişi_392 -1.719
Kişi_393 -0.518
Kişi_394 1.912
Kişi_395 0.362
Kişi_396 0.457
Kişi_397 -0.538
Kişi_398 -0.197
Kişi_399 -0.621
Kişi_400 1.602
Kişi_401 -1.411
Kişi_402 -0.357
Kişi_403 -0.901
Kişi_404 -0.925
Kişi_405 -0.002
Kişi_406 -2.325
Kişi_407 -1.376
Kişi_408 -0.978
Kişi_409 1.251
Kişi_410 1.305
Kişi_411 2.552
Kişi_412 0.219
Kişi_413 0.838
Kişi_414 0.899
Kişi_415 -0.435
Kişi_416 -0.611
Kişi_417 0.945
Kişi_418 1.055
Kişi_419 -0.354
Kişi_420 -1.460
Kişi_421 -0.427
Kişi_422 0.727
Kişi_423 2.552
Kişi_424 2.552
Kişi_425 -0.848
Kişi_426 -0.525
Kişi_427 0.365
Kişi_428 -1.032
Kişi_429 -0.676
Kişi_430 -0.353
Kişi_431 -0.217
Kişi_432 0.491
Kişi_433 -0.665
Kişi_434 -1.079
Kişi_435 -0.350
Kişi_436 -0.283
Kişi_437 -0.728
Kişi_438 1.878
Kişi_439 -0.957
Kişi_440 0.172
Kişi_441 1.601
Kişi_442 -1.674
Kişi_443 1.178
Kişi_444 0.473
Kişi_445 2.133
Kişi_446 -0.566
Kişi_447 -0.874
Kişi_448 0.018
Kişi_449 0.345
Kişi_450 -0.736
Kişi_451 -0.416
Kişi_452 -0.198
Kişi_453 -0.766
Kişi_454 -1.395
Kişi_455 0.669
Kişi_456 -0.951
Kişi_457 -0.273
Kişi_458 -0.598
Kişi_459 -0.360
Kişi_460 0.251
Kişi_461 0.035
Kişi_462 -0.007
Kişi_463 -0.133
Kişi_464 0.863
Kişi_465 -0.845
Kişi_466 -0.984
Kişi_467 -1.272
Kişi_468 0.045
Kişi_469 1.390
Kişi_470 -0.121
Kişi_471 -0.246
Kişi_472 1.546
Kişi_473 0.599
Kişi_474 0.757
Kişi_475 0.431
Kişi_476 -1.405
Kişi_477 -0.407
Kişi_478 0.765
Kişi_479 0.546
Kişi_480 -1.200
Kişi_481 -1.551
Kişi_482 0.543
Kişi_483 -1.352
Kişi_484 0.408
Kişi_485 2.205
Kişi_486 2.407
Kişi_487 -0.014
Kişi_488 0.590
Kişi_489 -0.517
Kişi_490 -0.842
Kişi_491 0.182
Kişi_492 -0.167
Kişi_493 -0.423
Kişi_494 0.558
Kişi_495 -0.655
Kişi_496 0.884
Kişi_497 1.521
Kişi_498 0.439
Kişi_499 1.075
Kişi_500 -1.639
Kişi_501 -0.186
Kişi_502 -0.649
Kişi_503 -0.674
Kişi_504 1.471
Kişi_505 1.152
Kişi_506 -1.089
Kişi_507 0.435
Kişi_508 -1.139
Kişi_509 0.001
Kişi_510 1.184
Kişi_511 1.700
Kişi_512 1.612
Kişi_513 -0.753
Kişi_514 1.402
Kişi_515 -0.767
Kişi_516 -1.080
Kişi_517 -1.100
Kişi_518 -0.825
Kişi_519 0.543
Kişi_520 -0.778
Kişi_521 -0.198
Kişi_522 -0.606
Kişi_523 -0.444
Kişi_524 0.465
Kişi_525 -0.313
Kişi_526 -0.225
Kişi_527 1.232
Kişi_528 0.576
Kişi_529 1.538
Kişi_530 -0.591
Kişi_531 -0.603
Kişi_532 1.088
Kişi_533 -1.142
Kişi_534 -1.050
Kişi_535 -0.751
Kişi_536 -1.011
Kişi_537 -0.157
Kişi_538 -0.948
Kişi_539 0.043
Kişi_540 0.558
Kişi_541 0.069
Kişi_542 -0.546
Kişi_543 0.074
Kişi_544 0.853
Kişi_545 -0.691
Kişi_546 -0.467
Kişi_547 -0.721
Kişi_548 -0.978
Kişi_549 -0.239
Kişi_550 -0.247
Kişi_551 -0.030
Kişi_552 1.551
Kişi_553 -0.859
Kişi_554 -0.723
Kişi_555 -1.602
Kişi_556 -0.679
Kişi_557 0.373
Kişi_558 -1.280
Kişi_559 -0.409
Kişi_560 0.070
Kişi_561 -0.395
Kişi_562 -0.744
Kişi_563 0.276
Kişi_564 -0.475
Kişi_565 -0.066
Kişi_566 -1.142
Kişi_567 -1.170
Kişi_568 -0.703
Kişi_569 0.691
Kişi_570 0.231
Kişi_571 0.460
Kişi_572 -0.061
Kişi_573 -0.376
Kişi_574 0.136
Kişi_575 1.614
Kişi_576 1.427
Kişi_577 -0.243
Kişi_578 -0.883
Kişi_579 -0.337
Kişi_580 -0.111
Kişi_581 0.216
Kişi_582 -0.183
Kişi_583 0.183
Kişi_584 -0.893
Kişi_585 -0.622
Kişi_586 -0.646
Kişi_587 2.164
Kişi_588 0.051
Kişi_589 -0.376
Kişi_590 -0.278
Kişi_591 1.968
Kişi_592 0.107
Kişi_593 -0.589
Kişi_594 0.298
Kişi_595 1.232
Kişi_596 -0.079
Kişi_597 -1.077
Kişi_598 1.660
Kişi_599 1.845
Kişi_600 1.248
Kişi_601 -0.435
Kişi_602 -0.624
Kişi_603 -0.475
Kişi_604 -0.639
Kişi_605 1.748
Kişi_606 -0.990
Kişi_607 -0.036
Kişi_608 1.982
Kişi_609 -1.183
Kişi_610 1.190
Kişi_611 1.521
Kişi_612 -0.522
Kişi_613 0.490
Kişi_614 -0.108
Kişi_615 0.953
Kişi_616 -0.276
Kişi_617 -0.323
Kişi_618 -0.444
Kişi_619 -0.965
Kişi_620 0.555
Kişi_621 0.178
Kişi_622 0.186
Kişi_623 1.796
Kişi_624 -0.808
Kişi_625 -1.137
Kişi_626 -0.126
Kişi_627 -0.489
Kişi_628 -0.187
Kişi_629 -0.846
Kişi_630 0.850
Kişi_631 -0.051
Kişi_632 0.356
Kişi_633 -0.699
Kişi_634 0.893
Kişi_635 0.589
Kişi_636 0.364
Kişi_637 1.380
Kişi_638 -0.321
Kişi_639 0.566
Kişi_640 0.432
Kişi_641 0.027
Kişi_642 -0.164
Kişi_643 1.803
Kişi_644 0.630
Kişi_645 -0.645
Kişi_646 -0.324
Kişi_647 -0.367
Kişi_648 0.017
Kişi_649 -0.554
Kişi_650 -0.383
Kişi_651 -1.036
Kişi_652 -1.156
Kişi_653 0.116
Kişi_654 -0.595
Kişi_655 -1.008
Kişi_656 -0.635
Kişi_657 -0.259
Kişi_658 -0.335
Kişi_659 -1.130
Kişi_660 -0.712
Kişi_661 -0.694
Kişi_662 -0.495
Kişi_663 -1.379
Kişi_664 -0.835
Kişi_665 0.029
Kişi_666 0.321
Kişi_667 -0.933
Kişi_668 0.052
Kişi_669 -0.548
Kişi_670 -0.359
Kişi_671 0.087
Kişi_672 0.704
Kişi_673 -0.220
Kişi_674 -0.773
Kişi_675 1.375
Kişi_676 -0.993
Kişi_677 -0.301
Kişi_678 0.059
Kişi_679 -0.255
Kişi_680 0.941
Kişi_681 -0.142
Kişi_682 0.303
Kişi_683 -0.924
Kişi_684 -0.023
Kişi_685 -1.263
Kişi_686 0.054
Kişi_687 -0.469
Kişi_688 -0.026
Kişi_689 0.863
Kişi_690 1.258
Kişi_691 1.476
Kişi_692 0.769
Kişi_693 -0.111
Kişi_694 -0.663
Kişi_695 -0.519
Kişi_696 -1.718
Kişi_697 0.546
Kişi_698 -0.422
Kişi_699 1.040
Kişi_700 -0.144
Kişi_701 -0.315
Kişi_702 0.874
Kişi_703 0.272
Kişi_704 0.188
Kişi_705 -0.435
Kişi_706 -0.892
Kişi_707 0.306
Kişi_708 -0.297
Kişi_709 0.375
Kişi_710 0.592
Kişi_711 -0.904
Kişi_712 -0.787
Kişi_713 1.394
Kişi_714 0.538
Kişi_715 -0.991
Kişi_716 0.564
Kişi_717 2.179
Kişi_718 -0.411
Kişi_719 1.449
Kişi_720 -1.376
Kişi_721 0.382
Kişi_722 1.008
Kişi_723 0.703
Kişi_724 -0.844
Kişi_725 -0.397
Kişi_726 2.552
Kişi_727 1.163
Kişi_728 1.646
Kişi_729 0.028
Kişi_730 -0.437
Kişi_731 -0.035
Kişi_732 -0.635
Kişi_733 -0.148
Kişi_734 1.431
Kişi_735 1.051
Kişi_736 -1.182
Kişi_737 0.568
Kişi_738 -0.614
Kişi_739 1.119
Kişi_740 0.684
Kişi_741 1.124
Kişi_742 0.061
Kişi_743 -0.958
Kişi_744 -0.910
Kişi_745 0.118
Kişi_746 0.097
Kişi_747 -0.660
Kişi_748 -1.311
Kişi_749 -1.434
Kişi_750 -1.428
Kişi_751 -0.834
Kişi_752 -0.084
Kişi_753 -0.675
Kişi_754 0.862
Kişi_755 -0.876
Kişi_756 -0.920
Kişi_757 -0.925
Kişi_758 0.850
Kişi_759 -1.189
Kişi_760 -0.435
Kişi_761 0.473
Kişi_762 1.137
Kişi_763 -0.123
Kişi_764 -0.187
Kişi_765 -0.547
Kişi_766 -1.123
Kişi_767 -0.312
Kişi_768 -0.705
Kişi_769 -0.270
Kişi_770 0.111
Kişi_771 0.169
Kişi_772 1.597
Kişi_773 0.073
Kişi_774 -0.886
Kişi_775 -0.027
Kişi_776 2.343
Kişi_777 0.040
Kişi_778 -0.224
Kişi_779 -0.296
Kişi_780 0.980
Kişi_781 0.660
Kişi_782 -0.812
Kişi_783 -0.630
Kişi_784 -1.167
Kişi_785 0.346
Kişi_786 -0.033
Kişi_787 -0.728
Kişi_788 0.012
Kişi_789 -0.436
Kişi_790 -0.135
Kişi_791 -0.720
Kişi_792 1.309
Kişi_793 -0.417
Kişi_794 -0.956
Kişi_795 -0.795
Kişi_796 -0.767
Kişi_797 2.407
Kişi_798 -0.070
Kişi_799 0.356
Kişi_800 -0.333
Kişi_801 -0.999
Kişi_802 -0.869
Kişi_803 0.564
Kişi_804 0.169
Kişi_805 0.242
Kişi_806 -0.517
Kişi_807 0.738
Kişi_808 -0.043
Kişi_809 -0.594
Kişi_810 2.126
Kişi_811 1.410
Kişi_812 1.343
Kişi_813 -0.766
Kişi_814 -0.589
Kişi_815 0.311
Kişi_816 1.026
Kişi_817 0.760
Kişi_818 -0.254
Kişi_819 0.150
Kişi_820 0.811
Kişi_821 0.316
Kişi_822 0.189
Kişi_823 0.160
Kişi_824 -1.026
Kişi_825 -0.361
Kişi_826 0.201
Kişi_827 -0.979
Kişi_828 0.178
Kişi_829 -0.673
Kişi_830 0.105
Kişi_831 0.807
Kişi_832 0.929
Kişi_833 0.154
Kişi_834 -0.747
Kişi_835 1.707
Kişi_836 -0.654
Kişi_837 0.118
Kişi_838 -0.157
Kişi_839 1.781
Kişi_840 -0.118
Kişi_841 0.709
Kişi_842 -0.902
Kişi_843 0.043
Kişi_844 -0.114
Kişi_845 -0.259
Kişi_846 1.659
Kişi_847 -0.121
Kişi_848 -1.680
Kişi_849 -1.326
Kişi_850 0.754
Kişi_851 -0.518
Kişi_852 0.112
Kişi_853 0.902
Kişi_854 1.077
Kişi_855 0.122
Kişi_856 -0.236
Kişi_857 -0.236
Kişi_858 0.223
Kişi_859 -1.125
Kişi_860 -0.564
Kişi_861 -0.837
Kişi_862 -1.374
Kişi_863 -0.741
Kişi_864 -0.173
Kişi_865 -1.151
Kişi_866 -1.060
Kişi_867 -0.519
Kişi_868 -0.221
Kişi_869 -0.466
Kişi_870 0.165
Kişi_871 -0.483
Kişi_872 -0.037
Kişi_873 -0.204
Kişi_874 -0.784
Kişi_875 -0.490
Kişi_876 -1.193
Kişi_877 -1.134
Kişi_878 -1.043
Kişi_879 0.308
Kişi_880 -0.862
Kişi_881 -0.963
Kişi_882 -0.990
Kişi_883 -0.040
Kişi_884 -0.439
Kişi_885 -1.374
Kişi_886 -1.467
Kişi_887 -0.433
Kişi_888 0.952
Kişi_889 -0.731
Kişi_890 -0.736
Kişi_891 0.864
Kişi_892 -0.375
Kişi_893 -0.914
Kişi_894 -0.074
Kişi_895 0.161
Kişi_896 -1.496
Kişi_897 0.503
Kişi_898 -0.569
Kişi_899 0.223
Kişi_900 0.644
Kişi_901 -0.200
Kişi_902 -0.024
Kişi_903 0.518
Kişi_904 -0.433
Kişi_905 0.122
Kişi_906 -0.717
Kişi_907 0.765
Kişi_908 -0.429
Kişi_909 -0.727
Kişi_910 0.750
Kişi_911 -0.425
Kişi_912 0.844
Kişi_913 0.469
Kişi_914 -0.529
Kişi_915 0.735
Kişi_916 -2.135
Kişi_917 0.940
Kişi_918 1.095
Kişi_919 -0.486
Kişi_920 -0.633
Kişi_921 -1.317
Kişi_922 0.185
Kişi_923 0.484
Kişi_924 -0.386
Kişi_925 -0.437
Kişi_926 -0.625
Kişi_927 0.287
Kişi_928 -0.445
Kişi_929 0.205
Kişi_930 1.714
Kişi_931 1.391
Kişi_932 -1.236
Kişi_933 -1.236
Kişi_934 -1.114
Kişi_935 -0.443
Kişi_936 0.014
Kişi_937 -1.150
Kişi_938 0.563
Kişi_939 -0.172
Kişi_940 0.715
Kişi_941 0.512
Kişi_942 0.482
Kişi_943 -0.521
Kişi_944 0.435
Kişi_945 -1.114
Kişi_946 -1.136
Kişi_947 0.222
Kişi_948 -0.563
Kişi_949 0.917
Kişi_950 -0.863
Kişi_951 0.794
Kişi_952 -0.349
Kişi_953 0.664
Kişi_954 0.197
Kişi_955 1.909
Kişi_956 0.217
Kişi_957 1.221
Kişi_958 -0.030
Kişi_959 0.126
Kişi_960 1.058
Kişi_961 0.416
Kişi_962 -0.704
Kişi_963 -1.377
Kişi_964 2.236
Kişi_965 -0.295
Kişi_966 -0.387
Kişi_967 0.834
Kişi_968 1.082
Kişi_969 -0.779
Kişi_970 -0.802
Kişi_971 1.112
Kişi_972 1.323
Kişi_973 -0.435
Kişi_974 -0.442
Kişi_975 -0.337
Kişi_976 -0.628
Kişi_977 -0.733
Kişi_978 -1.097
Kişi_979 1.167
Kişi_980 0.670
Kişi_981 0.577
Kişi_982 0.401
Kişi_983 2.150
Kişi_984 -0.577
Kişi_985 -0.091
Kişi_986 -1.895
Kişi_987 -0.055
Kişi_988 -1.571
Kişi_989 1.155
Kişi_990 -0.712
Kişi_991 0.135
Kişi_992 0.506
Kişi_993 1.130
Kişi_994 -0.468
Kişi_995 1.967
Kişi_996 0.588
Kişi_997 1.385
Kişi_998 0.055
Kişi_999 1.954
Kişi_1000 0.067
Kişi_1001 0.139
Kişi_1002 2.016
Kişi_1003 0.074
Kişi_1004 -0.266
Kişi_1005 -0.389
Kişi_1006 -1.664
Kişi_1007 -0.511
Kişi_1008 -0.451
Kişi_1009 -0.903
Kişi_1010 0.745
Kişi_1011 0.075
Kişi_1012 1.442
Kişi_1013 -1.371
Kişi_1014 0.865
Kişi_1015 -1.508
Kişi_1016 0.297
Kişi_1017 -0.129
Kişi_1018 0.286
Kişi_1019 1.271
Kişi_1020 0.551
Kişi_1021 0.449
Kişi_1022 -0.338
Kişi_1023 0.882
Kişi_1024 -0.763
Kişi_1025 1.849
Kişi_1026 2.372
Kişi_1027 0.233
Kişi_1028 1.408
Kişi_1029 -0.099
Kişi_1030 -1.713
Kişi_1031 1.192
Kişi_1032 2.012
Kişi_1033 -0.401
Kişi_1034 -1.459
Kişi_1035 2.552
Kişi_1036 -0.167
Kişi_1037 0.571
Kişi_1038 -0.866
Kişi_1039 1.254
Kişi_1040 -1.216
Kişi_1041 0.653
Kişi_1042 1.621
Kişi_1043 0.301
Kişi_1044 0.347
Kişi_1045 1.164
Kişi_1046 -0.672
Kişi_1047 -1.989
Kişi_1048 -0.540
Kişi_1049 -0.020
Kişi_1050 0.133
Kişi_1051 0.443
Kişi_1052 -0.911
Kişi_1053 -0.911
Kişi_1054 1.628
Kişi_1055 0.462
Kişi_1056 -0.782
Kişi_1057 -0.555
Kişi_1058 0.971
Kişi_1059 1.789
Kişi_1060 1.285
Kişi_1061 1.554
Kişi_1062 0.033
Kişi_1063 -0.781
Kişi_1064 -0.046
Kişi_1065 -0.109
Kişi_1066 -0.609
Kişi_1067 1.097
Kişi_1068 0.615
Kişi_1069 1.471
Kişi_1070 -0.403
Kişi_1071 1.973
Kişi_1072 -0.132
Kişi_1073 -0.340
Kişi_1074 1.123
Kişi_1075 2.552
Kişi_1076 -0.013
Kişi_1077 0.728
Kişi_1078 -0.168
Kişi_1079 2.552
Kişi_1080 -0.556
Kişi_1081 0.036
Kişi_1082 0.241
Kişi_1083 -0.781
Kişi_1084 0.280
Kişi_1085 -1.003
Kişi_1086 0.205
Kişi_1087 -0.402
Kişi_1088 0.617
Kişi_1089 -1.213
Kişi_1090 -0.981
Kişi_1091 -0.878
Kişi_1092 -0.214
Kişi_1093 0.055
Kişi_1094 -0.191
Kişi_1095 -1.104
Kişi_1096 0.254
Kişi_1097 -0.157
Kişi_1098 0.182
Kişi_1099 0.755
Kişi_1100 0.499
Kişi_1101 0.155
Kişi_1102 -0.005
Kişi_1103 2.019
Kişi_1104 -0.917
Kişi_1105 -0.259
Kişi_1106 -0.337
Kişi_1107 -0.050
Kişi_1108 -0.835
Kişi_1109 -0.412
Kişi_1110 -0.279
Kişi_1111 -1.022
Kişi_1112 -0.310
Kişi_1113 -0.291
Kişi_1114 0.040
Kişi_1115 0.836
Kişi_1116 0.988
Kişi_1117 -0.408
Kişi_1118 -0.086
Kişi_1119 -0.314
Kişi_1120 -0.674
Kişi_1121 0.019
Kişi_1122 2.057
Kişi_1123 -0.622
Kişi_1124 -0.256
Kişi_1125 2.126
Kişi_1126 -0.053
Kişi_1127 -0.372
Kişi_1128 -0.206
Kişi_1129 0.001
Kişi_1130 1.578
Kişi_1131 -0.081
Kişi_1132 -0.587
Kişi_1133 0.275
Kişi_1134 1.267
Kişi_1135 0.272
Kişi_1136 1.183
Kişi_1137 -1.051
Kişi_1138 -0.654
Kişi_1139 -0.404
Kişi_1140 0.023
Kişi_1141 2.238
Kişi_1142 -0.277
Kişi_1143 0.879
Kişi_1144 -0.479
Kişi_1145 -1.006
Kişi_1146 0.495
Kişi_1147 -0.790
Kişi_1148 -0.354
Kişi_1149 0.437
Kişi_1150 -0.334
Kişi_1151 -0.426
Kişi_1152 0.282
Kişi_1153 1.289
Kişi_1154 -1.088
Kişi_1155 1.816
Kişi_1156 1.446
Kişi_1157 -0.259
Kişi_1158 -0.010
Kişi_1159 -0.135
Kişi_1160 -0.679
Kişi_1161 -0.713
Kişi_1162 -0.296
Kişi_1163 -1.640
Kişi_1164 1.693
Kişi_1165 -0.608
Kişi_1166 0.403
Kişi_1167 0.677
Kişi_1168 2.552
Kişi_1169 -0.467
Kişi_1170 -1.281
Kişi_1171 -0.561
Kişi_1172 -0.825
Kişi_1173 0.001
Kişi_1174 0.963
Kişi_1175 -0.690
Kişi_1176 -1.641
Kişi_1177 0.781
Kişi_1178 -0.368
Kişi_1179 0.558
Kişi_1180 0.205
Kişi_1181 1.086
Kişi_1182 0.092
Kişi_1183 -0.850
Kişi_1184 0.197
Kişi_1185 0.313
Kişi_1186 1.797
Kişi_1187 -0.535
Kişi_1188 -0.504
Kişi_1189 0.226
Kişi_1190 -1.554
Kişi_1191 0.247
Kişi_1192 0.883
Kişi_1193 -0.060
Kişi_1194 -0.093
Kişi_1195 -0.840
Kişi_1196 1.834
Kişi_1197 -0.765
Kişi_1198 0.484
Kişi_1199 -0.031
Kişi_1200 -0.893
Kişi_1201 -1.588
Kişi_1202 0.116
Kişi_1203 -0.807
Kişi_1204 2.293
Kişi_1205 0.339
Kişi_1206 0.714
Kişi_1207 -0.038
Kişi_1208 0.676
Kişi_1209 0.671
Kişi_1210 -1.087
Kişi_1211 -0.082
Kişi_1212 -0.412
Kişi_1213 0.029
Kişi_1214 -0.833
Kişi_1215 0.760
Kişi_1216 0.339
Kişi_1217 0.198
Kişi_1218 0.774
Kişi_1219 1.649
Kişi_1220 -0.452
Kişi_1221 0.882
Kişi_1222 -0.136
Kişi_1223 -0.277
Kişi_1224 -1.300
Kişi_1225 -0.143
Kişi_1226 -0.675
Kişi_1227 0.325
Kişi_1228 -0.206
Kişi_1229 1.828
Kişi_1230 -1.109
Kişi_1231 -1.354
Kişi_1232 -0.633
Kişi_1233 1.051
Kişi_1234 0.017
Kişi_1235 2.244
Kişi_1236 2.372
Kişi_1237 2.034
Kişi_1238 -0.164
Kişi_1239 1.829
Kişi_1240 -0.276
Kişi_1241 1.184
Kişi_1242 0.989
Kişi_1243 -0.833
Kişi_1244 1.226
Kişi_1245 -1.015
Kişi_1246 -0.043
Kişi_1247 1.453
Kişi_1248 0.660
Kişi_1249 0.098
Kişi_1250 -0.544
Kişi_1251 -1.448
Kişi_1252 -0.521
Kişi_1253 -0.068
Kişi_1254 0.100
Kişi_1255 0.439
Kişi_1256 -0.397
Kişi_1257 -0.125
Kişi_1258 -1.629
Kişi_1259 -0.643
Kişi_1260 0.895
Kişi_1261 -0.096
Kişi_1262 0.701
Kişi_1263 0.379
Kişi_1264 -0.671
Kişi_1265 -0.522
Kişi_1266 1.016
Kişi_1267 0.148
Kişi_1268 1.543
Kişi_1269 2.115
Kişi_1270 1.072
Kişi_1271 0.059
Kişi_1272 -1.822
Kişi_1273 -0.806
Kişi_1274 -0.287
Kişi_1275 -0.960
Kişi_1276 -1.502
Kişi_1277 -0.343
Kişi_1278 1.249
Kişi_1279 0.761
Kişi_1280 -0.850
Kişi_1281 0.205
Kişi_1282 -0.726
Kişi_1283 0.668
Kişi_1284 0.166
Kişi_1285 0.394
Kişi_1286 0.049
Kişi_1287 2.026
Kişi_1288 -0.857
Kişi_1289 -0.347
Kişi_1290 0.681
Kişi_1291 -0.087
Kişi_1292 0.635
Kişi_1293 0.349
Kişi_1294 0.546
Kişi_1295 0.550
Kişi_1296 0.195
Kişi_1297 0.894
Kişi_1298 0.398
Kişi_1299 2.552
Kişi_1300 -0.754
Kişi_1301 0.245
Kişi_1302 -0.320
Kişi_1303 0.262
Kişi_1304 -0.515
Kişi_1305 0.589
Kişi_1306 1.605
Kişi_1307 0.212
Kişi_1308 -0.383
Kişi_1309 0.317
Kişi_1310 1.943
Kişi_1311 -0.017
Kişi_1312 -0.406
Kişi_1313 -0.338
Kişi_1314 0.715
Kişi_1315 -0.672
Kişi_1316 -0.389
Kişi_1317 -0.487
Kişi_1318 1.081
Kişi_1319 0.311
Kişi_1320 0.813
Kişi_1321 -0.410
Kişi_1322 0.960
Kişi_1323 -0.185
Kişi_1324 0.171
Kişi_1325 0.622
Kişi_1326 -1.237
Kişi_1327 0.549
Kişi_1328 0.183
Kişi_1329 0.728
Kişi_1330 1.215
Kişi_1331 -0.089
Kişi_1332 -0.048
Kişi_1333 -0.280
Kişi_1334 1.124
Kişi_1335 -0.782
Kişi_1336 1.507
Kişi_1337 -1.067
Kişi_1338 -0.545
Kişi_1339 -0.221
Kişi_1340 -0.837
Kişi_1341 1.295
Kişi_1342 -0.166
Kişi_1343 -0.057
Kişi_1344 0.324
Kişi_1345 0.613
Kişi_1346 0.638
Kişi_1347 -0.309
Kişi_1348 0.867
Kişi_1349 1.267
Kişi_1350 0.579
Kişi_1351 2.082
Kişi_1352 0.321
Kişi_1353 0.161
Kişi_1354 2.171
Kişi_1355 0.471
Kişi_1356 1.011
Kişi_1357 -0.115
Kişi_1358 2.552
Kişi_1359 1.811
Kişi_1360 1.130
Kişi_1361 2.552
Kişi_1362 -0.682
Kişi_1363 0.989
Kişi_1364 1.469
Kişi_1365 0.520
Kişi_1366 1.219
Kişi_1367 0.106
Kişi_1368 1.777
Kişi_1369 -0.237
Kişi_1370 0.919
Kişi_1371 -0.011
Kişi_1372 0.333
Kişi_1373 -0.469
Kişi_1374 -0.212
Kişi_1375 0.017
Kişi_1376 -0.967
Kişi_1377 0.888
Kişi_1378 0.376
Kişi_1379 -0.580
Kişi_1380 0.440
Kişi_1381 -0.256
Kişi_1382 1.639
Kişi_1383 -0.492
Kişi_1384 1.926
Kişi_1385 0.476
Kişi_1386 -0.576
Kişi_1387 1.000
Kişi_1388 0.898
Kişi_1389 1.078
Kişi_1390 -0.686
Kişi_1391 -0.582
Kişi_1392 0.651
Kişi_1393 -0.727
Kişi_1394 -1.274
Kişi_1395 1.008
Kişi_1396 0.077
Kişi_1397 -0.139
Kişi_1398 0.799
Kişi_1399 1.663
Kişi_1400 -0.219
Kişi_1401 0.253
Kişi_1402 1.741
Kişi_1403 -0.541
Kişi_1404 1.371
Kişi_1405 -0.737
Kişi_1406 1.717
Kişi_1407 -1.146
Kişi_1408 -0.990
Kişi_1409 0.900
Kişi_1410 1.012
Kişi_1411 -0.160
Kişi_1412 0.608
Kişi_1413 -0.531
Kişi_1414 -0.773
Kişi_1415 -1.054
Kişi_1416 0.119
Kişi_1417 1.425
Kişi_1418 2.075
Kişi_1419 0.676
Kişi_1420 -0.655
Kişi_1421 0.334
Kişi_1422 -0.983
Kişi_1423 -0.787
Kişi_1424 -1.118
Kişi_1425 -0.353
Kişi_1426 -0.678
Kişi_1427 1.011
Kişi_1428 0.989
Kişi_1429 0.189
Kişi_1430 -0.085
Kişi_1431 0.214
Kişi_1432 -1.023
Kişi_1433 -1.185
Kişi_1434 0.254
Kişi_1435 -0.069
Kişi_1436 0.148
Kişi_1437 0.046
Kişi_1438 0.883
Kişi_1439 0.009
Kişi_1440 2.372
Kişi_1441 -0.069
Kişi_1442 1.104
Kişi_1443 -1.326
Kişi_1444 -0.645
Kişi_1445 -0.076
Kişi_1446 0.117
Kişi_1447 -0.610
Kişi_1448 0.608
Kişi_1449 -0.950
Kişi_1450 2.057
Kişi_1451 0.021
Kişi_1452 1.441
Kişi_1453 -0.455
Kişi_1454 -1.710
Kişi_1455 1.303
Kişi_1456 -0.149
Kişi_1457 -0.320
Kişi_1458 0.683
Kişi_1459 -0.192
Kişi_1460 -0.551
Kişi_1461 0.588
Kişi_1462 0.069
Kişi_1463 -0.111
Kişi_1464 0.715
Kişi_1465 -0.958
Kişi_1466 0.115
Kişi_1467 1.434
Kişi_1468 0.592
Kişi_1469 -0.720
Kişi_1470 -0.545
Kişi_1471 -0.582
  • Yukarıdaki çıktı, iki parametreli lojistik model (2PL) kapsamında tahmin edilen madde parametrelerini göstermektedir. Bu modelde her bir madde için iki temel parametre tahmin edilir: ayırt edicilik katsayısı (a) ve güçlük parametresi (b). Ayrıca g ve u parametreleri sırasıyla alt ve üst asimptotları temsil eder ve bu modelde sabit olarak (0 ve 1) bırakılmıştır; yani cevap olasılığı yalnızca a ve b parametrelerine dayalıdır (Embretson & Reise, 2000).

  • Ayırt edicilik parametresi, bir maddenin bireyleri yetenek düzeyine göre ne derece ayırt edebildiğini gösterir. Bu değer \(0.414\) ile \(1.364\) arasında değişmektedir. Özellikle madde_1 (\(a = 1.364\)) ve madde_21 (\(a = 1.221\)) yüksek ayırt edicilik katsayısına sahip olup, bu maddeler bireylerin yetenek düzeyleri arasında güçlü bir ayrım yapmaktadır. Buna karşılık, madde_3 (\(a = 0.414\)) ve madde_13 (\(a = 0.555\)) gibi maddeler görece düşük ayırt edicilik düzeyine sahip olup, ölçme gücü daha sınırlıdır. Genellikle \(a > 0.80\) olarak kabul edilen eşiğin üzerindeki maddeler ölçme açısından güvenilirdir (Baker, 2001).

  • Güçlük parametreleri \(-0.396\) ile \(0.996\) arasında değişmektedir. Bu değerler, testin orta düzeyde bir güçlük aralığına sahip olduğunu göstermektedir. madde_14 ve madde_13 gibi maddeler görece daha yüksek güçlük düzeyine sahiptir (\(b ≈ 0.996\)), yani bu maddeleri doğru yanıtlayabilmek için ortalamanın üzerinde bir yetenek düzeyi gereklidir. Öte yandan, madde_1 (\(b = -0.382\)), madde_17 (\(b = -0.396\)) gibi maddeler daha kolay olup, daha düşük yetenek düzeyindeki bireyler tarafından doğru yanıtlanabilir.

  • Bu sonuçlar, testin hem düşük hem de yüksek düzeyde yeteneğe sahip bireyleri ayırt edebilecek ölçme gücüne sahip olduğunu ortaya koymaktadır. Ayırt edicilik ve güçlük parametrelerinin dağılımı, testin geçerlik ve güvenirlik açısından yeterli olduğunu, madde kalitesinin genel olarak yüksek düzeyde olduğunu göstermektedir. Ayrıca \(g = 0\) ve \(u = 1\) olarak sabitlenen asimptot değerleri, modelin 2PL formuna uygun biçimde yorumlandığını teyit etmektedir.

library(ggplot2)
ggplot(madde_2pl_df, aes(x = Madde, y = b)) +
  geom_bar(stat = "identity", fill = "steelblue") +
  geom_hline(yintercept = 0, linetype = "dashed", color = "red") +
  labs(
    title = "2PL Modeline Göre Madde Güçlük (b) Parametrelerinin Dağılımı",
    x = "Madde",
    y = "Güçlük (b) Değeri") +
  theme_minimal() +
  theme(axis.text.x = element_text(angle = 45, hjust = 1))

  • Yukarıda sunulan grafik, iki parametreli lojistik model (2PL) kapsamında tahmin edilen 25 maddeye ait güçlük parametrelerinin (b) dağılımını görsel olarak sunmaktadır. Güçlük parametresi, bir maddenin doğru yanıtlanması için gereken bireysel yetenek düzeyini (θ) ifade eder. b parametresi pozitif olduğunda madde daha zor, negatif olduğunda ise daha kolay olarak kabul edilir (Embretson & Reise, 2000).

  • Grafikte dikkat çeken en yüksek b değerine sahip maddeler madde_13 (\(b ≈ 0.996\)) ve madde_14 (\(b ≈ 0.996\)) olup, bu maddeler testin en zor soruları arasında yer almaktadır. Bu maddelerin doğru yanıtlanabilmesi için bireylerin ortalamanın oldukça üzerinde bir yetenek düzeyine sahip olması beklenir. Buna karşılık madde_1 (\(b = -0.382\)), madde_10 (\(b = -0.316\)) ve madde_17 (\(b = -0.396\)) gibi maddeler negatif güçlük değerleriyle, düşük yetenek düzeyine sahip bireyler tarafından dahi doğru yanıtlanabilir niteliktedir.

  • Grafikte yer alan kırmızı kesikli çizgi, referans noktası olan \(b = 0\)’ı göstermekte olup, bu çizgi ortalama güçlük düzeyini ifade eder. Maddelerin bu referans çizgisine göre dağılımı, testin farklı yetenek düzeylerini ölçme kapasitesine sahip olduğunu ve madde güçlüklerinin homojen bir şekilde dağılmadığını ortaya koymaktadır. Bu çeşitlilik, testin hem düşük hem de yüksek yeterlik düzeyindeki bireyleri doğru sınıflandırma açısından avantaj sağladığını göstermektedir (Baker, 2001).

  • Sonuç olarak, güçlük parametrelerinin dağılımı, testin ölçme aralığının dengeli, yeteneğe duyarlı ve madde kalitesinin heterojen olduğunu göstermektedir. Bu durum, testin hem geçerlik hem de güvenirlik açısından güçlü bir psikometrik yapı sergilediğini desteklemektedir.

3.2.4 3PL MODELINE GORE

madde_3pl <- coef(mod_3PL, IRTpars = TRUE, simplify = TRUE)$items
madde_3pl_df <- as.data.frame(madde_3pl)
madde_3pl_df$Madde <- rownames(madde_3pl_df)
birey_3pl <- fscores(mod_3PL, method = "EAP")
birey_3pl_df <- data.frame(Birey = paste0("Kişi_", 1:nrow(birey_3pl)),
                           Yetenek = birey_3pl[, 1])
library(kableExtra)
madde_3pl_df %>% select(Madde, a, b, g) %>% kable(digits = 3, format = "html", caption = "3PL Modeline Gore Madde Parametreleri (a: Ayırt Edicilik, b: Güçlük, g: Tahmin Şansı)") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
3PL Modeline Gore Madde Parametreleri (a: Ayırt Edicilik, b: Güçlük, g: Tahmin Şansı)
Madde a b g
madde_1 madde_1 1.521 -0.222 0.065
madde_2 madde_2 1.777 1.025 0.282
madde_3 madde_3 1.690 1.542 0.382
madde_4 madde_4 1.274 0.481 0.106
madde_5 madde_5 1.272 -0.259 0.040
madde_6 madde_6 1.236 0.544 0.149
madde_7 madde_7 1.752 0.761 0.234
madde_8 madde_8 1.422 0.688 0.240
madde_9 madde_9 1.574 1.355 0.277
madde_10 madde_10 1.606 0.261 0.236
madde_11 madde_11 1.390 0.857 0.276
madde_12 madde_12 2.159 0.760 0.264
madde_13 madde_13 2.460 1.520 0.297
madde_14 madde_14 1.430 1.910 0.191
madde_15 madde_15 1.403 0.676 0.189
madde_16 madde_16 1.569 0.326 0.089
madde_17 madde_17 2.532 0.597 0.387
madde_18 madde_18 1.704 0.632 0.213
madde_19 madde_19 1.599 0.801 0.195
madde_20 madde_20 1.983 0.372 0.266
madde_21 madde_21 2.277 0.728 0.177
madde_22 madde_22 2.826 1.094 0.168
madde_23 madde_23 2.029 0.799 0.299
madde_24 madde_24 1.645 0.652 0.239
madde_25 madde_25 1.801 0.753 0.183
birey_3pl_df %>% kable(digits = 3, format = "html", caption = "3PL Modeline Gore Birey Yetenek (θ) Parametreleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
3PL Modeline Gore Birey Yetenek (θ) Parametreleri
Birey Yetenek
Kişi_1 -1.153
Kişi_2 -0.734
Kişi_3 0.500
Kişi_4 -0.702
Kişi_5 -1.383
Kişi_6 -1.333
Kişi_7 0.104
Kişi_8 1.762
Kişi_9 0.017
Kişi_10 -1.469
Kişi_11 0.286
Kişi_12 0.870
Kişi_13 -0.405
Kişi_14 -1.168
Kişi_15 -0.117
Kişi_16 0.791
Kişi_17 -0.664
Kişi_18 1.256
Kişi_19 -0.041
Kişi_20 -0.525
Kişi_21 -0.604
Kişi_22 0.902
Kişi_23 -0.423
Kişi_24 0.229
Kişi_25 -0.998
Kişi_26 -0.208
Kişi_27 -0.143
Kişi_28 -0.666
Kişi_29 0.509
Kişi_30 -0.905
Kişi_31 0.200
Kişi_32 -1.104
Kişi_33 0.181
Kişi_34 0.724
Kişi_35 -0.969
Kişi_36 -0.775
Kişi_37 -0.184
Kişi_38 -1.318
Kişi_39 -0.807
Kişi_40 -1.166
Kişi_41 -1.374
Kişi_42 -0.276
Kişi_43 1.052
Kişi_44 1.403
Kişi_45 -1.568
Kişi_46 -0.390
Kişi_47 -1.158
Kişi_48 -0.486
Kişi_49 2.124
Kişi_50 0.198
Kişi_51 -0.404
Kişi_52 -0.125
Kişi_53 -0.157
Kişi_54 -0.379
Kişi_55 -0.809
Kişi_56 -0.461
Kişi_57 -1.121
Kişi_58 0.707
Kişi_59 -1.419
Kişi_60 -0.846
Kişi_61 -1.008
Kişi_62 -0.182
Kişi_63 -0.503
Kişi_64 1.044
Kişi_65 -0.981
Kişi_66 -0.748
Kişi_67 0.129
Kişi_68 -0.142
Kişi_69 -1.366
Kişi_70 -0.557
Kişi_71 2.464
Kişi_72 -0.866
Kişi_73 -1.433
Kişi_74 -0.881
Kişi_75 -0.146
Kişi_76 -0.031
Kişi_77 -0.718
Kişi_78 1.392
Kişi_79 1.567
Kişi_80 -0.397
Kişi_81 -0.855
Kişi_82 -0.342
Kişi_83 -0.249
Kişi_84 0.527
Kişi_85 -0.849
Kişi_86 -1.001
Kişi_87 -0.489
Kişi_88 -0.845
Kişi_89 -0.662
Kişi_90 -0.977
Kişi_91 0.568
Kişi_92 1.024
Kişi_93 -0.129
Kişi_94 -1.353
Kişi_95 0.620
Kişi_96 -0.484
Kişi_97 0.147
Kişi_98 -1.417
Kişi_99 -1.071
Kişi_100 -0.411
Kişi_101 -1.400
Kişi_102 -1.059
Kişi_103 -0.075
Kişi_104 -1.464
Kişi_105 -0.785
Kişi_106 -0.444
Kişi_107 -0.441
Kişi_108 0.485
Kişi_109 -0.466
Kişi_110 1.302
Kişi_111 -0.970
Kişi_112 0.669
Kişi_113 -1.099
Kişi_114 -0.029
Kişi_115 0.870
Kişi_116 -0.609
Kişi_117 -0.981
Kişi_118 0.073
Kişi_119 -0.900
Kişi_120 -0.385
Kişi_121 0.244
Kişi_122 -0.797
Kişi_123 0.443
Kişi_124 -0.938
Kişi_125 -0.681
Kişi_126 0.658
Kişi_127 -1.032
Kişi_128 0.924
Kişi_129 0.936
Kişi_130 -1.196
Kişi_131 -0.366
Kişi_132 -0.417
Kişi_133 0.669
Kişi_134 2.182
Kişi_135 -0.467
Kişi_136 -0.131
Kişi_137 0.289
Kişi_138 1.387
Kişi_139 -0.257
Kişi_140 1.408
Kişi_141 -0.704
Kişi_142 -0.275
Kişi_143 -0.426
Kişi_144 0.006
Kişi_145 0.006
Kişi_146 0.982
Kişi_147 -0.938
Kişi_148 1.251
Kişi_149 -0.358
Kişi_150 0.238
Kişi_151 0.463
Kişi_152 -0.355
Kişi_153 1.711
Kişi_154 -0.324
Kişi_155 2.140
Kişi_156 -1.099
Kişi_157 -0.502
Kişi_158 0.401
Kişi_159 -0.921
Kişi_160 -0.481
Kişi_161 0.861
Kişi_162 -0.385
Kişi_163 -0.638
Kişi_164 -0.855
Kişi_165 -0.026
Kişi_166 0.773
Kişi_167 0.186
Kişi_168 0.237
Kişi_169 -0.947
Kişi_170 -0.470
Kişi_171 0.216
Kişi_172 -0.994
Kişi_173 -1.365
Kişi_174 -1.003
Kişi_175 0.198
Kişi_176 1.165
Kişi_177 -0.578
Kişi_178 0.471
Kişi_179 -0.965
Kişi_180 -0.162
Kişi_181 -1.114
Kişi_182 1.173
Kişi_183 0.152
Kişi_184 -1.198
Kişi_185 0.705
Kişi_186 -0.713
Kişi_187 1.295
Kişi_188 -1.050
Kişi_189 -1.031
Kişi_190 1.022
Kişi_191 2.182
Kişi_192 -1.135
Kişi_193 0.971
Kişi_194 0.330
Kişi_195 0.859
Kişi_196 -0.673
Kişi_197 -0.090
Kişi_198 0.307
Kişi_199 -0.223
Kişi_200 0.444
Kişi_201 -0.165
Kişi_202 -1.141
Kişi_203 0.794
Kişi_204 -0.200
Kişi_205 -1.122
Kişi_206 0.631
Kişi_207 -0.904
Kişi_208 -0.794
Kişi_209 -0.766
Kişi_210 0.037
Kişi_211 -0.885
Kişi_212 -1.117
Kişi_213 -0.760
Kişi_214 0.221
Kişi_215 -0.527
Kişi_216 -1.305
Kişi_217 -1.009
Kişi_218 -0.811
Kişi_219 -0.127
Kişi_220 0.675
Kişi_221 0.962
Kişi_222 0.180
Kişi_223 0.483
Kişi_224 0.908
Kişi_225 -0.306
Kişi_226 -1.113
Kişi_227 1.224
Kişi_228 -0.563
Kişi_229 -0.686
Kişi_230 0.876
Kişi_231 -0.942
Kişi_232 -0.445
Kişi_233 0.661
Kişi_234 -1.318
Kişi_235 -0.915
Kişi_236 -0.577
Kişi_237 0.587
Kişi_238 0.230
Kişi_239 -0.880
Kişi_240 -0.007
Kişi_241 -0.379
Kişi_242 -0.543
Kişi_243 0.030
Kişi_244 0.097
Kişi_245 -0.510
Kişi_246 -0.442
Kişi_247 -0.846
Kişi_248 -0.259
Kişi_249 -0.696
Kişi_250 -0.341
Kişi_251 -0.571
Kişi_252 1.005
Kişi_253 -0.599
Kişi_254 -0.385
Kişi_255 -0.298
Kişi_256 0.293
Kişi_257 -0.350
Kişi_258 -0.350
Kişi_259 0.107
Kişi_260 -1.083
Kişi_261 -0.569
Kişi_262 0.838
Kişi_263 -0.858
Kişi_264 0.978
Kişi_265 -0.709
Kişi_266 0.141
Kişi_267 0.946
Kişi_268 -0.881
Kişi_269 -0.515
Kişi_270 1.133
Kişi_271 0.038
Kişi_272 -0.612
Kişi_273 0.440
Kişi_274 -0.479
Kişi_275 -0.565
Kişi_276 -0.094
Kişi_277 -0.927
Kişi_278 -0.715
Kişi_279 -1.205
Kişi_280 -1.059
Kişi_281 -0.041
Kişi_282 0.068
Kişi_283 -1.210
Kişi_284 -0.410
Kişi_285 0.516
Kişi_286 -0.007
Kişi_287 -0.633
Kişi_288 -0.862
Kişi_289 -1.061
Kişi_290 -1.441
Kişi_291 -1.368
Kişi_292 -0.599
Kişi_293 -0.239
Kişi_294 -0.040
Kişi_295 -1.020
Kişi_296 -0.990
Kişi_297 -1.024
Kişi_298 0.391
Kişi_299 -0.786
Kişi_300 -0.749
Kişi_301 -0.965
Kişi_302 -0.468
Kişi_303 0.193
Kişi_304 -0.835
Kişi_305 0.145
Kişi_306 -0.307
Kişi_307 0.322
Kişi_308 -0.356
Kişi_309 -0.083
Kişi_310 -0.647
Kişi_311 -0.300
Kişi_312 -1.119
Kişi_313 -0.513
Kişi_314 -0.509
Kişi_315 -0.204
Kişi_316 0.728
Kişi_317 -0.185
Kişi_318 0.638
Kişi_319 0.840
Kişi_320 -0.262
Kişi_321 -0.396
Kişi_322 0.083
Kişi_323 -0.787
Kişi_324 -0.954
Kişi_325 -1.322
Kişi_326 -0.408
Kişi_327 0.454
Kişi_328 2.464
Kişi_329 -0.009
Kişi_330 -0.030
Kişi_331 -0.108
Kişi_332 -0.174
Kişi_333 0.605
Kişi_334 0.764
Kişi_335 -0.373
Kişi_336 -0.504
Kişi_337 -1.197
Kişi_338 0.742
Kişi_339 -1.160
Kişi_340 1.234
Kişi_341 1.209
Kişi_342 1.144
Kişi_343 -0.769
Kişi_344 -0.749
Kişi_345 2.464
Kişi_346 -1.223
Kişi_347 -0.557
Kişi_348 0.372
Kişi_349 1.454
Kişi_350 0.846
Kişi_351 0.203
Kişi_352 -0.099
Kişi_353 0.516
Kişi_354 0.688
Kişi_355 0.803
Kişi_356 -0.210
Kişi_357 1.239
Kişi_358 -0.678
Kişi_359 -0.842
Kişi_360 0.935
Kişi_361 1.017
Kişi_362 0.297
Kişi_363 -0.397
Kişi_364 -0.582
Kişi_365 -0.525
Kişi_366 0.558
Kişi_367 -0.683
Kişi_368 -0.389
Kişi_369 1.234
Kişi_370 -0.920
Kişi_371 -0.416
Kişi_372 1.406
Kişi_373 -0.839
Kişi_374 -0.412
Kişi_375 1.091
Kişi_376 -1.266
Kişi_377 0.175
Kişi_378 0.677
Kişi_379 1.919
Kişi_380 -0.313
Kişi_381 -0.814
Kişi_382 0.135
Kişi_383 -0.534
Kişi_384 1.146
Kişi_385 -1.016
Kişi_386 -0.104
Kişi_387 0.295
Kişi_388 -0.937
Kişi_389 0.614
Kişi_390 -1.332
Kişi_391 0.725
Kişi_392 -1.442
Kişi_393 -0.333
Kişi_394 1.756
Kişi_395 0.409
Kişi_396 0.483
Kişi_397 -0.735
Kişi_398 -0.076
Kişi_399 -0.489
Kişi_400 1.339
Kişi_401 -1.073
Kişi_402 -0.360
Kişi_403 -1.174
Kişi_404 -0.932
Kişi_405 0.078
Kişi_406 -1.578
Kişi_407 -1.019
Kişi_408 -1.227
Kişi_409 1.113
Kişi_410 1.169
Kişi_411 2.464
Kişi_412 0.265
Kişi_413 0.779
Kişi_414 1.032
Kişi_415 -0.322
Kişi_416 -0.574
Kişi_417 0.925
Kişi_418 0.974
Kişi_419 -0.534
Kişi_420 -1.261
Kişi_421 -0.252
Kişi_422 0.768
Kişi_423 2.464
Kişi_424 2.464
Kişi_425 -1.329
Kişi_426 -0.468
Kişi_427 0.460
Kişi_428 -0.945
Kişi_429 -0.727
Kişi_430 -0.671
Kişi_431 -0.125
Kişi_432 0.539
Kişi_433 -1.125
Kişi_434 -1.074
Kişi_435 -0.327
Kişi_436 -0.434
Kişi_437 -1.015
Kişi_438 1.587
Kişi_439 -1.273
Kişi_440 0.246
Kişi_441 1.514
Kişi_442 -1.512
Kişi_443 1.238
Kişi_444 0.517
Kişi_445 1.956
Kişi_446 -0.457
Kişi_447 -0.672
Kişi_448 0.084
Kişi_449 0.437
Kişi_450 -0.548
Kişi_451 -0.544
Kişi_452 -0.118
Kişi_453 -1.246
Kişi_454 -1.230
Kişi_455 0.705
Kişi_456 -1.269
Kişi_457 -0.194
Kişi_458 -0.519
Kişi_459 -0.169
Kişi_460 0.305
Kişi_461 0.128
Kişi_462 0.101
Kişi_463 -0.138
Kişi_464 0.901
Kişi_465 -1.038
Kişi_466 -1.310
Kişi_467 -0.918
Kişi_468 0.152
Kişi_469 1.391
Kişi_470 -0.054
Kişi_471 -0.246
Kişi_472 1.377
Kişi_473 0.662
Kişi_474 0.778
Kişi_475 0.493
Kişi_476 -1.335
Kişi_477 -0.547
Kişi_478 0.778
Kişi_479 0.662
Kişi_480 -1.414
Kişi_481 -1.506
Kişi_482 0.548
Kişi_483 -1.116
Kişi_484 0.449
Kişi_485 2.085
Kişi_486 2.140
Kişi_487 0.059
Kişi_488 0.629
Kişi_489 -0.455
Kişi_490 -0.964
Kişi_491 0.279
Kişi_492 -0.014
Kişi_493 -0.385
Kişi_494 0.548
Kişi_495 -0.885
Kişi_496 0.882
Kişi_497 1.488
Kişi_498 0.533
Kişi_499 1.061
Kişi_500 -1.168
Kişi_501 -0.455
Kişi_502 -0.447
Kişi_503 -0.535
Kişi_504 1.289
Kişi_505 1.168
Kişi_506 -1.170
Kişi_507 0.482
Kişi_508 -1.224
Kişi_509 0.084
Kişi_510 1.147
Kişi_511 1.654
Kişi_512 1.422
Kişi_513 -1.121
Kişi_514 1.392
Kişi_515 -1.159
Kişi_516 -1.063
Kişi_517 -0.788
Kişi_518 -0.746
Kişi_519 0.537
Kişi_520 -0.862
Kişi_521 -0.097
Kişi_522 -0.479
Kişi_523 -0.558
Kişi_524 0.494
Kişi_525 -0.318
Kişi_526 -0.330
Kişi_527 1.128
Kişi_528 0.623
Kişi_529 1.396
Kişi_530 -0.600
Kişi_531 -0.501
Kişi_532 1.050
Kişi_533 -1.009
Kişi_534 -1.112
Kişi_535 -1.002
Kişi_536 -1.206
Kişi_537 -0.091
Kişi_538 -0.981
Kişi_539 0.154
Kişi_540 0.606
Kişi_541 0.134
Kişi_542 -0.476
Kişi_543 0.167
Kişi_544 0.805
Kişi_545 -0.499
Kişi_546 -0.595
Kişi_547 -0.516
Kişi_548 -1.007
Kişi_549 -0.249
Kişi_550 -0.258
Kişi_551 0.076
Kişi_552 1.505
Kişi_553 -1.034
Kişi_554 -0.859
Kişi_555 -1.370
Kişi_556 -0.806
Kişi_557 0.449
Kişi_558 -1.337
Kişi_559 -0.486
Kişi_560 0.133
Kişi_561 -0.330
Kişi_562 -0.772
Kişi_563 0.378
Kişi_564 -0.624
Kişi_565 -0.064
Kişi_566 -1.118
Kişi_567 -1.190
Kişi_568 -0.774
Kişi_569 0.704
Kişi_570 0.309
Kişi_571 0.530
Kişi_572 0.017
Kişi_573 -0.421
Kişi_574 0.263
Kişi_575 1.381
Kişi_576 1.375
Kişi_577 -0.146
Kişi_578 -0.734
Kişi_579 -0.256
Kişi_580 -0.085
Kişi_581 0.296
Kişi_582 -0.244
Kişi_583 0.267
Kişi_584 -0.919
Kişi_585 -0.632
Kişi_586 -0.731
Kişi_587 1.925
Kişi_588 -0.009
Kişi_589 -0.441
Kişi_590 -0.220
Kişi_591 1.948
Kişi_592 -0.047
Kişi_593 -0.669
Kişi_594 0.400
Kişi_595 1.155
Kişi_596 -0.307
Kişi_597 -0.899
Kişi_598 1.460
Kişi_599 1.578
Kişi_600 1.114
Kişi_601 -0.431
Kişi_602 -0.626
Kişi_603 -0.517
Kişi_604 -0.580
Kişi_605 1.536
Kişi_606 -0.898
Kişi_607 0.025
Kişi_608 1.695
Kişi_609 -1.096
Kişi_610 1.073
Kişi_611 1.272
Kişi_612 -0.498
Kişi_613 0.535
Kişi_614 0.016
Kişi_615 0.867
Kişi_616 -0.094
Kişi_617 -0.285
Kişi_618 -0.659
Kişi_619 -1.091
Kişi_620 0.602
Kişi_621 0.272
Kişi_622 0.304
Kişi_623 1.544
Kişi_624 -1.023
Kişi_625 -1.104
Kişi_626 -0.108
Kişi_627 -0.688
Kişi_628 -0.170
Kişi_629 -0.818
Kişi_630 0.952
Kişi_631 -0.060
Kişi_632 0.444
Kişi_633 -0.660
Kişi_634 0.856
Kişi_635 0.621
Kişi_636 0.431
Kişi_637 1.269
Kişi_638 -0.517
Kişi_639 0.592
Kişi_640 0.484
Kişi_641 -0.125
Kişi_642 -0.194
Kişi_643 1.594
Kişi_644 0.718
Kişi_645 -1.152
Kişi_646 -0.503
Kişi_647 -0.296
Kişi_648 0.036
Kişi_649 -0.796
Kişi_650 -0.588
Kişi_651 -0.937
Kişi_652 -0.996
Kişi_653 0.142
Kişi_654 -0.882
Kişi_655 -0.829
Kişi_656 -0.512
Kişi_657 -0.092
Kişi_658 -0.297
Kişi_659 -0.837
Kişi_660 -1.017
Kişi_661 -0.812
Kişi_662 -0.552
Kişi_663 -1.389
Kişi_664 -0.733
Kişi_665 0.087
Kişi_666 0.439
Kişi_667 -0.963
Kişi_668 0.073
Kişi_669 -0.461
Kişi_670 -0.350
Kişi_671 0.218
Kişi_672 0.723
Kişi_673 -0.076
Kişi_674 -0.834
Kişi_675 1.261
Kişi_676 -0.969
Kişi_677 -0.277
Kişi_678 0.126
Kişi_679 -0.391
Kişi_680 0.866
Kişi_681 -0.107
Kişi_682 0.416
Kişi_683 -0.908
Kişi_684 0.104
Kişi_685 -1.311
Kişi_686 0.190
Kişi_687 -0.407
Kişi_688 0.053
Kişi_689 0.870
Kişi_690 1.304
Kişi_691 1.241
Kişi_692 0.838
Kişi_693 0.038
Kişi_694 -0.562
Kişi_695 -0.396
Kişi_696 -1.449
Kişi_697 0.646
Kişi_698 -0.233
Kişi_699 1.074
Kişi_700 -0.219
Kişi_701 -0.175
Kişi_702 0.821
Kişi_703 0.345
Kişi_704 0.267
Kişi_705 -0.387
Kişi_706 -0.831
Kişi_707 0.357
Kişi_708 -0.145
Kişi_709 0.439
Kişi_710 0.637
Kişi_711 -0.941
Kişi_712 -0.637
Kişi_713 1.294
Kişi_714 0.592
Kişi_715 -0.975
Kişi_716 0.618
Kişi_717 1.940
Kişi_718 -0.387
Kişi_719 1.520
Kişi_720 -1.278
Kişi_721 0.444
Kişi_722 1.106
Kişi_723 0.696
Kişi_724 -1.137
Kişi_725 -0.761
Kişi_726 2.464
Kişi_727 1.116
Kişi_728 1.412
Kişi_729 0.090
Kişi_730 -0.457
Kişi_731 0.033
Kişi_732 -0.536
Kişi_733 -0.202
Kişi_734 1.389
Kişi_735 1.134
Kişi_736 -0.945
Kişi_737 0.632
Kişi_738 -0.571
Kişi_739 1.125
Kişi_740 0.673
Kişi_741 1.105
Kişi_742 0.131
Kişi_743 -1.082
Kişi_744 -1.124
Kişi_745 0.184
Kişi_746 0.124
Kişi_747 -0.692
Kişi_748 -1.431
Kişi_749 -1.357
Kişi_750 -1.423
Kişi_751 -1.263
Kişi_752 -0.149
Kişi_753 -0.700
Kişi_754 0.819
Kişi_755 -0.823
Kişi_756 -0.958
Kişi_757 -0.655
Kişi_758 0.851
Kişi_759 -1.398
Kişi_760 -0.645
Kişi_761 0.566
Kişi_762 1.088
Kişi_763 -0.078
Kişi_764 -0.107
Kişi_765 -0.442
Kişi_766 -0.905
Kişi_767 -0.378
Kişi_768 -0.827
Kişi_769 -0.161
Kişi_770 0.153
Kişi_771 0.175
Kişi_772 1.446
Kişi_773 0.053
Kişi_774 -0.580
Kişi_775 0.083
Kişi_776 2.145
Kişi_777 0.101
Kişi_778 -0.182
Kişi_779 -0.252
Kişi_780 1.051
Kişi_781 0.708
Kişi_782 -0.748
Kişi_783 -0.397
Kişi_784 -1.191
Kişi_785 0.454
Kişi_786 -0.050
Kişi_787 -1.046
Kişi_788 -0.036
Kişi_789 -0.655
Kişi_790 -0.047
Kişi_791 -0.786
Kişi_792 1.222
Kişi_793 -0.312
Kişi_794 -1.245
Kişi_795 -0.875
Kişi_796 -0.715
Kişi_797 2.140
Kişi_798 -0.118
Kişi_799 0.459
Kişi_800 -0.375
Kişi_801 -0.791
Kişi_802 -1.019
Kişi_803 0.645
Kişi_804 0.216
Kişi_805 0.266
Kişi_806 -0.799
Kişi_807 0.789
Kişi_808 -0.194
Kişi_809 -0.803
Kişi_810 1.900
Kişi_811 1.397
Kişi_812 1.196
Kişi_813 -0.950
Kişi_814 -0.452
Kişi_815 0.385
Kişi_816 0.976
Kişi_817 0.849
Kişi_818 -0.224
Kişi_819 0.184
Kişi_820 0.845
Kişi_821 0.390
Kişi_822 0.221
Kişi_823 0.164
Kişi_824 -1.229
Kişi_825 -0.269
Kişi_826 0.243
Kişi_827 -0.657
Kişi_828 0.254
Kişi_829 -0.737
Kişi_830 0.159
Kişi_831 0.880
Kişi_832 0.894
Kişi_833 0.216
Kişi_834 -0.711
Kişi_835 1.421
Kişi_836 -0.610
Kişi_837 0.174
Kişi_838 -0.405
Kişi_839 1.567
Kişi_840 0.013
Kişi_841 0.758
Kişi_842 -1.319
Kişi_843 0.101
Kişi_844 -0.017
Kişi_845 -0.210
Kişi_846 1.463
Kişi_847 -0.168
Kişi_848 -1.495
Kişi_849 -1.336
Kişi_850 0.788
Kişi_851 -0.397
Kişi_852 0.181
Kişi_853 1.000
Kişi_854 1.083
Kişi_855 0.204
Kişi_856 -0.263
Kişi_857 -0.263
Kişi_858 0.318
Kişi_859 -1.064
Kişi_860 -0.413
Kişi_861 -0.822
Kişi_862 -1.425
Kişi_863 -0.733
Kişi_864 -0.017
Kişi_865 -1.192
Kişi_866 -1.236
Kişi_867 -0.604
Kişi_868 -0.226
Kişi_869 -0.714
Kişi_870 0.240
Kişi_871 -0.306
Kişi_872 -0.019
Kişi_873 -0.076
Kişi_874 -0.889
Kişi_875 -0.448
Kişi_876 -1.182
Kişi_877 -0.816
Kişi_878 -1.011
Kişi_879 0.374
Kişi_880 -0.693
Kişi_881 -1.172
Kişi_882 -1.310
Kişi_883 0.010
Kişi_884 -0.331
Kişi_885 -1.094
Kişi_886 -1.460
Kişi_887 -0.333
Kişi_888 0.889
Kişi_889 -0.567
Kişi_890 -0.769
Kişi_891 0.939
Kişi_892 -0.398
Kişi_893 -0.780
Kişi_894 0.024
Kişi_895 0.227
Kişi_896 -1.412
Kişi_897 0.594
Kişi_898 -0.536
Kişi_899 0.334
Kişi_900 0.732
Kişi_901 -0.138
Kişi_902 -0.063
Kişi_903 0.609
Kişi_904 -0.744
Kişi_905 0.227
Kişi_906 -1.017
Kişi_907 0.752
Kişi_908 -0.483
Kişi_909 -0.540
Kişi_910 0.792
Kişi_911 -0.828
Kişi_912 0.985
Kişi_913 0.551
Kişi_914 -0.846
Kişi_915 0.710
Kişi_916 -1.575
Kişi_917 0.900
Kişi_918 0.960
Kişi_919 -0.550
Kişi_920 -0.478
Kişi_921 -1.257
Kişi_922 0.263
Kişi_923 0.540
Kişi_924 -0.264
Kişi_925 -0.460
Kişi_926 -0.424
Kişi_927 0.356
Kişi_928 -0.499
Kişi_929 0.305
Kişi_930 1.518
Kişi_931 1.396
Kişi_932 -1.281
Kişi_933 -1.281
Kişi_934 -1.309
Kişi_935 -0.824
Kişi_936 0.103
Kişi_937 -0.825
Kişi_938 0.575
Kişi_939 -0.111
Kişi_940 0.692
Kişi_941 0.504
Kişi_942 0.535
Kişi_943 -0.495
Kişi_944 0.481
Kişi_945 -1.247
Kişi_946 -0.829
Kişi_947 0.309
Kişi_948 -0.717
Kişi_949 1.016
Kişi_950 -1.021
Kişi_951 0.870
Kişi_952 -0.346
Kişi_953 0.697
Kişi_954 0.300
Kişi_955 1.736
Kişi_956 0.270
Kişi_957 1.235
Kişi_958 -0.068
Kişi_959 0.091
Kişi_960 1.074
Kişi_961 0.461
Kişi_962 -0.870
Kişi_963 -1.140
Kişi_964 2.096
Kişi_965 -0.203
Kişi_966 -0.375
Kişi_967 0.849
Kişi_968 1.133
Kişi_969 -0.508
Kişi_970 -0.679
Kişi_971 1.168
Kişi_972 1.126
Kişi_973 -0.390
Kişi_974 -0.465
Kişi_975 -0.225
Kişi_976 -0.688
Kişi_977 -0.849
Kişi_978 -0.836
Kişi_979 1.055
Kişi_980 0.655
Kişi_981 0.621
Kişi_982 0.462
Kişi_983 2.000
Kişi_984 -0.739
Kişi_985 -0.060
Kişi_986 -1.549
Kişi_987 0.034
Kişi_988 -1.364
Kişi_989 1.072
Kişi_990 -0.767
Kişi_991 0.217
Kişi_992 0.538
Kişi_993 1.042
Kişi_994 -0.303
Kişi_995 1.939
Kişi_996 0.623
Kişi_997 1.413
Kişi_998 0.192
Kişi_999 1.631
Kişi_1000 0.064
Kişi_1001 0.175
Kişi_1002 1.669
Kişi_1003 0.092
Kişi_1004 -0.171
Kişi_1005 -0.289
Kişi_1006 -1.457
Kişi_1007 -0.354
Kişi_1008 -0.694
Kişi_1009 -1.358
Kişi_1010 0.762
Kişi_1011 0.089
Kişi_1012 1.218
Kişi_1013 -1.385
Kişi_1014 0.886
Kişi_1015 -1.500
Kişi_1016 0.364
Kişi_1017 -0.107
Kişi_1018 0.306
Kişi_1019 1.155
Kişi_1020 0.655
Kişi_1021 0.509
Kişi_1022 -0.197
Kişi_1023 0.798
Kişi_1024 -0.861
Kişi_1025 1.923
Kişi_1026 2.182
Kişi_1027 0.305
Kişi_1028 1.256
Kişi_1029 0.033
Kişi_1030 -1.421
Kişi_1031 1.225
Kişi_1032 1.888
Kişi_1033 -0.341
Kişi_1034 -1.448
Kişi_1035 2.464
Kişi_1036 -0.222
Kişi_1037 0.627
Kişi_1038 -0.622
Kişi_1039 1.179
Kişi_1040 -0.976
Kişi_1041 0.728
Kişi_1042 1.499
Kişi_1043 0.383
Kişi_1044 0.372
Kişi_1045 1.184
Kişi_1046 -0.930
Kişi_1047 -1.545
Kişi_1048 -0.573
Kişi_1049 0.117
Kişi_1050 0.237
Kişi_1051 0.460
Kişi_1052 -0.908
Kişi_1053 -0.850
Kişi_1054 1.533
Kişi_1055 0.520
Kişi_1056 -0.785
Kişi_1057 -0.613
Kişi_1058 0.925
Kişi_1059 1.505
Kişi_1060 1.333
Kişi_1061 1.399
Kişi_1062 0.139
Kişi_1063 -1.134
Kişi_1064 0.023
Kişi_1065 -0.003
Kişi_1066 -0.574
Kişi_1067 1.188
Kişi_1068 0.675
Kişi_1069 1.323
Kişi_1070 -0.509
Kişi_1071 1.783
Kişi_1072 -0.059
Kişi_1073 -0.341
Kişi_1074 1.037
Kişi_1075 2.464
Kişi_1076 0.094
Kişi_1077 0.778
Kişi_1078 -0.141
Kişi_1079 2.464
Kişi_1080 -0.759
Kişi_1081 0.108
Kişi_1082 0.334
Kişi_1083 -0.668
Kişi_1084 0.350
Kişi_1085 -1.084
Kişi_1086 0.293
Kişi_1087 -0.662
Kişi_1088 0.575
Kişi_1089 -1.444
Kişi_1090 -0.736
Kişi_1091 -0.829
Kişi_1092 -0.043
Kişi_1093 0.173
Kişi_1094 -0.159
Kişi_1095 -1.055
Kişi_1096 0.286
Kişi_1097 0.007
Kişi_1098 0.286
Kişi_1099 0.781
Kişi_1100 0.517
Kişi_1101 0.187
Kişi_1102 0.039
Kişi_1103 1.858
Kişi_1104 -0.964
Kişi_1105 -0.515
Kişi_1106 -0.263
Kişi_1107 0.076
Kişi_1108 -0.808
Kişi_1109 -0.383
Kişi_1110 -0.468
Kişi_1111 -1.102
Kişi_1112 -0.250
Kişi_1113 -0.233
Kişi_1114 0.088
Kişi_1115 0.830
Kişi_1116 0.997
Kişi_1117 -0.439
Kişi_1118 0.005
Kişi_1119 -0.600
Kişi_1120 -1.033
Kişi_1121 0.055
Kişi_1122 1.754
Kişi_1123 -0.522
Kişi_1124 -0.361
Kişi_1125 1.900
Kişi_1126 0.085
Kişi_1127 -0.381
Kişi_1128 -0.090
Kişi_1129 0.106
Kişi_1130 1.442
Kişi_1131 -0.025
Kişi_1132 -0.473
Kişi_1133 0.385
Kişi_1134 1.231
Kişi_1135 0.318
Kişi_1136 1.099
Kişi_1137 -1.008
Kişi_1138 -0.770
Kişi_1139 -0.528
Kişi_1140 0.150
Kişi_1141 1.940
Kişi_1142 -0.165
Kişi_1143 0.882
Kişi_1144 -0.679
Kişi_1145 -1.212
Kişi_1146 0.545
Kişi_1147 -1.137
Kişi_1148 -0.457
Kişi_1149 0.438
Kişi_1150 -0.210
Kişi_1151 -0.372
Kişi_1152 0.353
Kişi_1153 1.210
Kişi_1154 -1.269
Kişi_1155 1.517
Kişi_1156 1.348
Kişi_1157 -0.127
Kişi_1158 -0.069
Kişi_1159 -0.062
Kişi_1160 -0.875
Kişi_1161 -0.590
Kişi_1162 -0.418
Kişi_1163 -1.459
Kişi_1164 1.493
Kişi_1165 -0.494
Kişi_1166 0.452
Kişi_1167 0.719
Kişi_1168 2.464
Kişi_1169 -0.290
Kişi_1170 -1.253
Kişi_1171 -0.907
Kişi_1172 -1.292
Kişi_1173 0.012
Kişi_1174 1.033
Kişi_1175 -0.508
Kişi_1176 -1.381
Kişi_1177 0.798
Kişi_1178 -0.401
Kişi_1179 0.617
Kişi_1180 0.254
Kişi_1181 0.976
Kişi_1182 0.145
Kişi_1183 -1.268
Kişi_1184 0.291
Kişi_1185 0.403
Kişi_1186 1.584
Kişi_1187 -0.529
Kişi_1188 -0.405
Kişi_1189 0.273
Kişi_1190 -1.349
Kişi_1191 0.361
Kişi_1192 0.924
Kişi_1193 0.026
Kişi_1194 -0.119
Kişi_1195 -0.489
Kişi_1196 1.724
Kişi_1197 -0.689
Kişi_1198 0.553
Kişi_1199 0.056
Kişi_1200 -1.148
Kişi_1201 -1.386
Kişi_1202 0.201
Kişi_1203 -0.765
Kişi_1204 2.169
Kişi_1205 0.405
Kişi_1206 0.795
Kişi_1207 -0.025
Kişi_1208 0.726
Kişi_1209 0.697
Kişi_1210 -0.894
Kişi_1211 -0.035
Kişi_1212 -0.478
Kişi_1213 0.132
Kişi_1214 -0.732
Kişi_1215 0.756
Kişi_1216 0.412
Kişi_1217 0.283
Kişi_1218 0.782
Kişi_1219 1.523
Kişi_1220 -0.303
Kişi_1221 0.955
Kişi_1222 -0.245
Kişi_1223 -0.489
Kişi_1224 -1.092
Kişi_1225 -0.240
Kişi_1226 -0.943
Kişi_1227 0.414
Kişi_1228 -0.237
Kişi_1229 1.915
Kişi_1230 -1.347
Kişi_1231 -1.431
Kişi_1232 -1.004
Kişi_1233 0.989
Kişi_1234 0.008
Kişi_1235 2.115
Kişi_1236 2.182
Kişi_1237 1.914
Kişi_1238 -0.302
Kişi_1239 1.697
Kişi_1240 -0.301
Kişi_1241 1.175
Kişi_1242 1.013
Kişi_1243 -0.888
Kişi_1244 1.246
Kişi_1245 -0.925
Kişi_1246 -0.077
Kişi_1247 1.311
Kişi_1248 0.714
Kişi_1249 0.134
Kişi_1250 -0.346
Kişi_1251 -1.450
Kişi_1252 -0.316
Kişi_1253 -0.043
Kişi_1254 0.154
Kişi_1255 0.534
Kişi_1256 -0.504
Kişi_1257 -0.075
Kişi_1258 -1.480
Kişi_1259 -0.696
Kişi_1260 0.949
Kişi_1261 0.048
Kişi_1262 0.790
Kişi_1263 0.445
Kişi_1264 -0.541
Kişi_1265 -0.619
Kişi_1266 0.959
Kişi_1267 0.195
Kişi_1268 1.469
Kişi_1269 1.771
Kişi_1270 1.044
Kişi_1271 0.065
Kişi_1272 -1.515
Kişi_1273 -0.772
Kişi_1274 -0.186
Kişi_1275 -1.131
Kişi_1276 -1.100
Kişi_1277 -0.275
Kişi_1278 1.234
Kişi_1279 0.772
Kişi_1280 -1.109
Kişi_1281 0.286
Kişi_1282 -0.721
Kişi_1283 0.687
Kişi_1284 0.269
Kişi_1285 0.450
Kişi_1286 0.091
Kişi_1287 1.857
Kişi_1288 -1.109
Kişi_1289 -0.237
Kişi_1290 0.643
Kişi_1291 -0.067
Kişi_1292 0.639
Kişi_1293 0.412
Kişi_1294 0.633
Kişi_1295 0.542
Kişi_1296 0.199
Kişi_1297 0.854
Kişi_1298 0.506
Kişi_1299 2.464
Kişi_1300 -0.593
Kişi_1301 0.308
Kişi_1302 -0.322
Kişi_1303 0.345
Kişi_1304 -0.731
Kişi_1305 0.649
Kişi_1306 1.320
Kişi_1307 0.331
Kişi_1308 -0.273
Kişi_1309 0.338
Kişi_1310 1.769
Kişi_1311 0.139
Kişi_1312 -0.506
Kişi_1313 -0.390
Kişi_1314 0.732
Kişi_1315 -0.546
Kişi_1316 -0.455
Kişi_1317 -0.687
Kişi_1318 1.105
Kişi_1319 0.437
Kişi_1320 0.908
Kişi_1321 -0.381
Kişi_1322 1.015
Kişi_1323 -0.214
Kişi_1324 0.221
Kişi_1325 0.823
Kişi_1326 -0.980
Kişi_1327 0.572
Kişi_1328 0.238
Kişi_1329 0.773
Kişi_1330 1.010
Kişi_1331 0.058
Kişi_1332 -0.113
Kişi_1333 -0.137
Kişi_1334 1.053
Kişi_1335 -1.177
Kişi_1336 1.339
Kişi_1337 -0.948
Kişi_1338 -0.683
Kişi_1339 -0.245
Kişi_1340 -1.111
Kişi_1341 1.305
Kişi_1342 -0.126
Kişi_1343 -0.005
Kişi_1344 0.426
Kişi_1345 0.635
Kişi_1346 0.622
Kişi_1347 -0.172
Kişi_1348 0.747
Kişi_1349 1.109
Kişi_1350 0.595
Kişi_1351 1.919
Kişi_1352 0.379
Kişi_1353 0.178
Kişi_1354 2.051
Kişi_1355 0.564
Kişi_1356 1.035
Kişi_1357 -0.015
Kişi_1358 2.464
Kişi_1359 1.534
Kişi_1360 1.190
Kişi_1361 2.464
Kişi_1362 -1.059
Kişi_1363 0.916
Kişi_1364 1.270
Kişi_1365 0.589
Kişi_1366 1.200
Kişi_1367 0.176
Kişi_1368 1.694
Kişi_1369 -0.175
Kişi_1370 0.897
Kişi_1371 0.032
Kişi_1372 0.372
Kişi_1373 -0.427
Kişi_1374 -0.046
Kişi_1375 0.074
Kişi_1376 -1.268
Kişi_1377 0.892
Kişi_1378 0.430
Kişi_1379 -0.932
Kişi_1380 0.504
Kişi_1381 -0.137
Kişi_1382 1.656
Kişi_1383 -0.479
Kişi_1384 1.686
Kişi_1385 0.563
Kişi_1386 -0.983
Kişi_1387 0.919
Kişi_1388 0.994
Kişi_1389 0.933
Kişi_1390 -0.408
Kişi_1391 -0.554
Kişi_1392 0.627
Kişi_1393 -0.753
Kişi_1394 -1.367
Kişi_1395 0.928
Kişi_1396 0.152
Kişi_1397 -0.076
Kişi_1398 0.815
Kişi_1399 1.479
Kişi_1400 -0.461
Kişi_1401 0.343
Kişi_1402 1.487
Kişi_1403 -0.940
Kişi_1404 1.250
Kişi_1405 -0.876
Kişi_1406 1.563
Kişi_1407 -1.352
Kişi_1408 -1.039
Kişi_1409 0.893
Kişi_1410 1.013
Kişi_1411 -0.008
Kişi_1412 0.691
Kişi_1413 -0.573
Kişi_1414 -0.982
Kişi_1415 -1.194
Kişi_1416 0.177
Kişi_1417 1.361
Kişi_1418 1.810
Kişi_1419 0.773
Kişi_1420 -0.431
Kişi_1421 0.384
Kişi_1422 -0.700
Kişi_1423 -1.154
Kişi_1424 -1.131
Kişi_1425 -0.475
Kişi_1426 -0.553
Kişi_1427 0.904
Kişi_1428 0.886
Kişi_1429 0.208
Kişi_1430 -0.082
Kişi_1431 0.230
Kişi_1432 -1.118
Kişi_1433 -0.935
Kişi_1434 0.307
Kişi_1435 0.043
Kişi_1436 0.204
Kişi_1437 0.171
Kişi_1438 0.955
Kişi_1439 0.018
Kişi_1440 2.182
Kişi_1441 -0.204
Kişi_1442 1.026
Kişi_1443 -1.286
Kişi_1444 -0.752
Kişi_1445 0.035
Kişi_1446 0.223
Kişi_1447 -0.687
Kişi_1448 0.737
Kişi_1449 -0.966
Kişi_1450 1.888
Kişi_1451 0.057
Kişi_1452 1.207
Kişi_1453 -0.583
Kişi_1454 -1.471
Kişi_1455 1.226
Kişi_1456 -0.179
Kişi_1457 -0.277
Kişi_1458 0.705
Kişi_1459 -0.169
Kişi_1460 -0.434
Kişi_1461 0.709
Kişi_1462 0.131
Kişi_1463 -0.133
Kişi_1464 0.804
Kişi_1465 -0.647
Kişi_1466 0.156
Kişi_1467 1.284
Kişi_1468 0.662
Kişi_1469 -1.072
Kişi_1470 -0.560
Kişi_1471 -0.384
  • Yukarıda sunulan tablo, üç parametreli lojistik model (3PL) kapsamında tahmin edilen 25 maddeye ait dört temel madde parametresini göstermektedir: ayırt edicilik (a), güçlük (b), alt asimptot (g) ve üst asimptot (u). Bu parametreler, bireyin yetenek düzeyine (θ) bağlı olarak bir maddeyi doğru yanıtlamasının olasılığını modellemek amacıyla kullanılır (Embretson & Reise, 2000). 3PL modeli, özellikle testlerin düşük yetenek düzeyindeki bireyler için şansa bağlı başarı ihtimalini (g) hesaba katması bakımından, 1PL ve 2PL modellerden daha esnektir.

  • Ayırt edicilik değerleri \(1.006\) ile \(2.826\) arasında değişmektedir. Bu dağılım, maddelerin büyük ölçüde bireyleri yetenek düzeylerine göre ayırt edebilme kapasitesine sahip olduğunu göstermektedir. Özellikle madde_22 (\(a = 2.826\)), madde_17 (\(a = 2.532\)) ve madde_13 (\(a = 2.460\)) gibi maddeler yüksek ayırt edicilik katsayılarına sahiptir ve bireylerin küçük yetenek farklarına göre bile yanıt olasılığını keskin biçimde değiştirebilmektedir. Bu durum, bu maddelerin ölçme gücünün yüksek olduğunu gösterir.

  • Güçlük düzeyleri \(-0.481\) ile \(1.910\) arasında değişmekte olup, testin hem kolay hem de zor maddeleri kapsadığını ortaya koymaktadır. madde_14 (\(b = 1.910\)) ve madde_13 (\(b = 1.520\)) gibi yüksek güçlük katsayısına sahip maddeler yalnızca yüksek yetenek düzeyine sahip bireyler tarafından doğru yanıtlanabilirken, madde_5 (\(b = -0.297\)) gibi düşük b değerine sahip maddeler daha düşük yetenek düzeyindeki bireyler için erişilebilirdir.

  • Alt asimptot parametresi, özellikle düşük yetenek düzeyine sahip bireylerin maddeyi doğru yanıtlaması olasılığını yansıtır ve genellikle şans başarısı ya da tahmin etkisi olarak yorumlanır. Değerler \(0.040\) ile \(0.387\) arasında değişmektedir. Örneğin; madde_17 (\(g = 0.387\)) oldukça yüksek bir alt asimptot değerine sahiptir, bu da testin bu maddesinde düşük yetenekli bireylerin bile doğru yanıt verme olasılığının görece yüksek olduğunu, dolayısıyla bu maddenin şansa dayalı yanıtlamaya duyarlı olabileceğini göstermektedir. Bu tür maddelerin testin güvenirliğine olan katkısı sınırlı olabilir.

  • Tüm maddeler için üst asimptot (u) değeri 1 olarak sabitlenmiştir. Bu, yüksek yetenek düzeyine sahip bireylerin maddeyi neredeyse tamamen doğru yanıtlayabileceğini gösterir ve modelin teknik varsayımı gereği belirlenmiş bir durumdur.

  • 3PL modelinin sağladığı bu dört parametre üzerinden yapılan değerlendirme, testin psikometrik açıdan oldukça güçlü bir yapıya sahip olduğunu göstermektedir. Maddeler farklı ayırt edicilik, güçlük ve alt asimptot değerlerine sahip olup, bu çeşitlilik hem ölçme duyarlılığını hem de genel geçerliği artırmaktadır. Ancak alt asimptot değeri yüksek olan maddeler dikkatle incelenmeli ve gerekirse yeniden yapılandırılmalıdır. Testin genel yapısı hem düşük hem yüksek yetenek düzeyindeki bireyleri etkili bir şekilde ölçebilecek potansiyele sahiptir.

library(ggplot2)
ggplot(madde_3pl_df, aes(x = Madde, y = b)) +
  geom_bar(stat = "identity", fill = "steelblue") +
  geom_hline(yintercept = 0, linetype = "dashed", color = "red") +
  labs(
    title = "3PL Modeline Göre Madde Güçlük (b) Parametrelerinin Dağılımı",
    x = "Madde",
    y = "Güçlük (b) Değeri") +
  theme_minimal() +
  theme(axis.text.x = element_text(angle = 45, hjust = 1))

  • Yukarıda sunulan çubuk grafik, üç parametreli lojistik (3PL) modele göre tahmin edilen 25 maddenin güçlük parametresi (b) dağılımını görselleştirmektedir. Güçlük parametresi, bireyin ilgili maddeyi \(%50\) olasılıkla doğru yanıtlayabilmesi için sahip olması gereken yetenek düzeyini (θ) ifade eder. Pozitif b değerleri daha zor, negatif b değerleri ise daha kolay maddelere işaret eder (Embretson & Reise, 2000).

  • Grafikte yatay eksende maddeler, dikey eksende ise güçlük parametresi değerleri yer almakta olup, kırmızı kesikli çizgi \(b = 0\) referansına karşılık gelmektedir. Bu referans çizginin üstünde yer alan maddeler ortalama yetenek düzeyinin üzerinde bir performans gerektirirken, altındaki maddeler ortalama altı düzeydeki bireyler tarafından daha yüksek olasılıkla doğru yanıtlanabilir. Örneğin; madde_14 (\(b ≈ 1.91\)) ve madde_13 (\(b ≈ 1.52\)) testin en zor maddeleri arasında yer alırken, madde_5 (\(b ≈ -0.30\)) ve madde_1 (\(b ≈ -0.22\)) daha kolay maddelerdir.

  • Güçlük değerlerinin genel dağılımı incelendiğinde, maddelerin büyük çoğunluğunun b değerinin 0 ile 1 aralığında yer aldığı görülmektedir. Bu durum, testin büyük ölçüde orta düzeyde yetenek gerektiren maddelerden oluştuğunu, ancak birkaç madde ile hem düşük hem de yüksek yetenek düzeylerinin de kapsandığını göstermektedir. Bu tür bir dağılım, testin farklı yetenek düzeylerine sahip bireyler için ölçme duyarlılığı sağladığını ve genel geçerlik açısından olumlu bir yapıya sahip olduğunu göstermektedir.

  • Sonuç olarak, 3PL model kapsamında elde edilen b parametresi dağılımı, testin madde güçlük düzeylerinde yeterli çeşitliliğe sahip olduğunu ortaya koymakta; bu da testin hem kolay hem zor maddeler içerdiğini ve geniş bir yetenek aralığında ayırt edici ölçüm sağlayabileceğini göstermektedir.


3.3 3.c.

  • Madde karakteristik ve test karakteristik eğrilerini oluşturunuz. Oluşturduğunuz grafikleri yorumlayınız.
plot(rasch_model, type = "trace", which.items = 1:25)

plot(rasch_model, type = "trace", which.items = 1:25, facet_items = FALSE)

plot(mod_1PL, type = "trace", which.items = 1:25)

  • Yukarıda sunulan grafik, 1PL model kapsamında tahmin edilen madde karakteristik eğrilerini (Item Characteristic Curves - ICC) göstermektedir. Her bir panel, ilgili maddeye ait olasılık fonksiyonunu temsil etmekte olup, bireylerin yetenek düzeyleri (θ) arttıkça ilgili maddeyi doğru yanıtlamaları beklenen olasılığı \((P(θ))\) göstermektedir. Eksenler, yatayda bireylerin yetenek düzeylerini (θ), dikeyde ise doğru yanıt verme olasılığını \((P(θ))\) ifade etmektedir.

  • Rasch modelinde tüm maddelerin ayırt edicilik parametresi (a) sabit olduğundan, eğrilerin yatay eksendeki eğim değerleri benzerdir; farklılıklar yalnızca yatay eksen üzerindeki kayma ile, yani güçlük parametresi (b) ile ilgilidir. Bu grafiklerde görülen sağa veya sola kaymalar, ilgili maddenin ne kadar zor veya kolay olduğunu ortaya koymaktadır. Örneğin; madde_14 ve madde_22’nin eğrileri daha sağda konumlanmıştır; bu da bu maddelerin, ortalamanın üzerinde yetenek düzeyine sahip bireyler tarafından daha yüksek olasılıkla doğru yanıtlandığını, dolayısıyla daha zor maddeler olduğunu gösterir. Buna karşılık, madde_1, madde_5 ve madde_10 gibi maddeler daha solda konumlanarak düşük yetenek düzeyindeki bireyler için dahi daha yüksek doğru yanıt olasılığı sunduğunu, yani daha kolay olduklarını ifade eder.

  • Eğrilerin tümü düzgün S-şeklinde (logistik fonksiyon) olup, monotonik olarak artmakta ve asemptotik sınırları 0 ile 1 arasında kalmaktadır. Bu durum, modelin temel varsayımlarından biri olan monotonluk ve olasılık temelli modelleme ilkesine uygunluk göstermektedir. Ayrıca, modelde alt (g) ve üst (u) asimptot parametreleri sabit tutulduğundan, tüm eğriler aynı maksimum ve minimum olasılık düzeylerinde sınırlanmıştır, bu da Rasch modeline özgü bir özelliktir.

  • Sonuç olarak, bu eğriler test maddelerinin bireylerin yetenek düzeylerine göre nasıl işlev gördüğünü açık biçimde ortaya koymakta ve madde güçlüklerinin görsel olarak analiz edilmesine olanak tanımaktadır. Elde edilen bu grafik, madde işlevselliği, ölçme duyarlılığı ve yeteneğe bağlı yanıt olasılığı hakkında kapsamlı bir değerlendirme sunmakta ve modelin geçerlik varsayımlarına uygunluk gösterdiğini desteklemektedir.

plot(mod_1PL, type = "trace", which.items = 1:25, facet_items = FALSE)

  • Yukarıda sunulan grafik, Rasch modeli kapsamında elde edilen 25 maddenin madde karakteristik eğrilerini (Item Characteristic Curves, ICCs) tek bir panelde göstermektedir. Her bir eğri, bir maddenin bireylerin yetenek düzeyine (θ) göre doğru yanıtlanma olasılığını \((P(θ))\) temsil etmektedir. Bu tür grafikler, maddelerin ölçüm duyarlılıklarının ve güçlük seviyelerinin birlikte görselleştirilmesine olanak tanır (Embretson & Reise, 2000).

  • Grafikteki tüm eğrilerin eğimi benzerdir ve bu, Rasch modelinin ayırt edicilik parametresinin (a) sabit olmasından kaynaklanmaktadır. Diğer bir ifadeyle, tüm maddelerin bireyleri ayırt etme gücü eşit kabul edilmiştir. Eğrilerin yalnızca yatay eksende konum farklılığı göstermesi, modelde yalnızca güçlk parametresinin (b) serbest bırakıldığını ve farklılaştığını ifade eder. Eğrilerden bazıları (örneğin; madde_14, madde_22) sağa kaymış olup, bu maddelerin daha yüksek yetenek düzeylerinde doğru yanıtlandığını ve daha zor olduğunu gösterir. Öte yandan sola kaymış eğriler (örneğin; madde_1, madde_5) görece daha kolay maddeleri temsil etmektedir.

  • Tüm eğriler düzgün S-şeklinde olup, 0 ile 1 arasında asimptotik olarak yaklaşmaktadır. Bu durum, Rasch modelinin temel varsayımlarından biri olan logistik yanıt fonksiyonu biçimine ve monotonluk ilkesine uygunluğu gösterir. Ayrıca eğrilerin dikey eksene yakın konumlandığı orta bölge, maddelerin en yüksek duyarlılıkla ölçme yaptığı yetenek düzeylerini işaret eder.

  • Bu birleşik ICC grafiği, madde setinin göreli güçlüklerini, bireylerin hangi yetenek seviyelerinde ayırt edileceğini ve testin ölçme aralığını doğrudan gözlemleme açısından oldukça değerlidir. Bu bağlamda grafik, testin hem düşük hem yüksek yetenek düzeylerinde işlevselliğini koruyan dengeli ve geçerli bir ölçme aracı olduğunu göstermektedir.

3.3.1 2PL MTK

plot(mod_2PL, type = "trace", which.items = 1:25)

  • Yukarıdaki grafik, iki parametreli lojistik model (2PL) kapsamında tahmin edilen 25 maddenin madde karakteristik eğrilerini (Item Characteristic Curves – ICCs) ayrı ayrı panellerde göstermektedir. Bu eğriler, bireylerin yetenek düzeyi (θ) ile her bir maddeyi doğru yanıtlamaları beklenen olasılık \((P(θ))\) arasındaki ilişkiyi ifade eder. 2PL modelde, her maddeye ait hem ayırt edicilik (a) hem de güçlük (b) parametresi ayrı ayrı tahmin edildiği için eğriler hem yatay eksende (b’ye göre) hem de eğim açısından (**a’ya göre) farklılık gösterir (Embretson & Reise, 2000).

  • Grafikteki eğriler, genellikle sigmoidal (S-şeklinde) bir yapı sergilemekte ve bu durum modelin lojistik doğasına uygunluk göstermektedir. Eğrilerin yatay eksendeki konumları, ilgili maddenin güçlük düzeyini yansıtır. Örneğin; madde_13, madde_14 ve madde_22 gibi maddelerin eğrileri sağa kaymış durumdadır; bu da bu maddelerin daha yüksek yetenek düzeylerine sahip bireyler tarafından doğru yanıtlanabileceğini, dolayısıyla daha zor olduklarını göstermektedir. Buna karşılık, madde_1, madde_10 ve madde_17 gibi maddelerin eğrileri sola kaymış olup, bu maddelerin daha kolay olduğunu ortaya koyar.

  • Ayrıca eğrilerin eğimleri, maddelerin ayırt edicilik düzeylerini temsil eder. Eğimi daha dik olan eğriler (örneğin; madde_1 ve madde_21) daha yüksek ayırt ediciliğe sahip olup, bireyleri yetenek düzeyleri bakımından daha hassas şekilde ayırabilir. Eğimi daha yatık olan eğriler (örneğin; madde_3 ve madde_13) ise daha düşük ayırt ediciliğe sahiptir ve bireyleri ayırt etme kapasitesi daha düşüktür.

  • Bu grafik genel olarak, testin hem düşük hem de yüksek yetenek düzeylerinde farklı ölçme duyarlılıklarına sahip maddeler içerdiğini ve ölçeğin psikometrik çeşitliliğinin yeterli olduğunu göstermektedir. Bu çeşitlilik, testin geçerlik, güvenirlik ve ayırt edicilik açısından avantaj sağladığını ve bireylerin geniş bir yetenek yelpazesinde değerlendirilmesine olanak sunduğunu göstermektedir.

plot(mod_2PL, type = "trace", which.items = 1:25, facet_items = FALSE)

  • Yukarıda sunulan grafik, iki parametreli lojistik model (2PL) temelinde elde edilen 25 maddenin madde karakteristik eğrilerini (Item Characteristic Curves - ICC) tek bir panel üzerinde göstermektedir. Bu eğriler, bireylerin yetenek düzeyi (θ) arttıkça, bir maddeyi doğru yanıtlamaları beklenen olasılığın nasıl değiştiğini betimlemektedir. Her bir eğri bir maddeye karşılık gelir ve \(P(θ)\) ekseni doğru yanıt olasılığını, θ ekseni ise bireyin gizil yetenek düzeyini göstermektedir (Embretson & Reise, 2000).

  • 2PL modelinde her maddenin hem ayırt edicilik katsayısı (a) hem de güçlük parametresi (b) serbest olarak tahmin edildiğinden, grafik üzerinde eğriler hem eğim hem de konum açısından çeşitlilik göstermektedir. Eğrilerin yatay eksen üzerindeki konumu, ilgili maddenin güçlük düzeyini temsil eder. Örneğin, sağa kaymış eğriler (örneğin madde_13, madde_14, madde_22), daha yüksek yetenek düzeylerinde doğru yanıtlanma olasılığı sunduğundan daha zor maddeler olarak yorumlanabilir. Buna karşılık sola kaymış eğriler (örneğin; madde_1, madde_17, madde_10), daha düşük yetenek düzeyinde bile doğru yanıtlanabilir nitelikte olup daha kolay maddelerdir.

  • Eğrilerin eğimi ise her maddenin ayırt edicilik düzeyini gösterir. Daha dik eğriler, bireylerin yetenek düzeylerine göre daha hassas bir ayrım yapma kapasitesine sahiptir. Örneğin, madde_1 ve madde_21 gibi eğriler oldukça dik yapıdayken, madde_3 ve madde_13 gibi eğriler daha yatay görünümdedir; bu da ayırt edicilik düzeylerinin düşük olduğunu ifade eder (Baker, 2001).

  • Bu birleşik grafik, testin genel yapısı hakkında oldukça kapsamlı bilgi sunmaktadır. Eğrilerin farklı bölgelerde yoğunlaşması, testin geniş bir yetenek aralığında ölçme yapabildiğini; eğim farklılıkları ise maddelerin ölçme duyarlılıklarının çeşitliliğini göstermektedir. Dolayısıyla test, hem güçlük düzeyi hem de ayırt edicilik açısından çeşitlendirilmiş, psikometrik olarak dengeli bir yapı sergilemektedir. Bu durum, ölçeğin geçerliği ve güvenirliği açısından olumlu bir gösterge niteliğindedir.

3.3.2 3PL MTK

plot(mod_3PL, type = "trace", which.items = 1:25)

  • Yukarıda sunulan grafik, üç parametreli lojistik model (3PL) kapsamında elde edilen 25 maddeye ait madde karakteristik eğrilerini (Item Characteristic Curves – ICC) ayrı ayrı panellerde göstermektedir. Bu eğriler, bireyin yetenek düzeyine (θ) göre ilgili maddeyi doğru yanıtlaması beklenen olasılığı \((P(θ))\) ifade eder. 3PL modelinde her bir madde için üç temel parametre tahmin edilir: ayırt edicilik (a), güçlük (b) ve alt asimptot (g) (Embretson & Reise, 2000).

  • Grafikteki eğriler genellikle S şeklinde olup, dikliği a parametresiyle, yatay eksen üzerindeki konumu b parametresiyle ve sol taraftaki başlangıç noktası g parametresiyle ilişkilidir. Diğer modellerden farklı olarak 3PL modelde, düşük yetenek düzeylerinde eğriler sıfırdan değil, g parametresi kadar bir olasılık seviyesinden başlamaktadır. Bu durum, şansa bağlı doğru yanıt olasılığının (guessing) modele dahil edildiğini gösterir. Örneğin; bazı eğriler (örneğin; madde_3, madde_12, madde_17) oldukça yüksek bir başlangıç noktasına sahiptir; bu da ilgili maddelerin düşük yetenek düzeyine sahip bireyler tarafından dahi belirli bir olasılıkla doğru yanıtlanabileceğini göstermektedir.

  • Eğrilerin dikliğine bakıldığında, bazı maddeler (örneğin; madde_13, madde_22) yüksek ayırt ediciliğe sahip olarak daha dik eğim sergilerken, diğer maddeler (örneğin; madde_5, madde_10) daha yatay bir eğimle daha düşük ayırt edicilik sunmaktadır. Eğrilerin sağa ya da sola kayması ise b parametresi ile ilişkili olup, madde_14 ve madde_13 gibi sağa kaymış eğriler daha yüksek güçlük düzeyine işaret ederken, madde_5 ve madde_1 gibi sola kaymış eğriler daha kolay maddelerdir.

  • Genel olarak bu grafik, testin psikometrik yapısının hem düşük hem yüksek yetenek düzeylerinde etkili biçimde çalıştığını, maddelerin ölçme duyarlılığı, güçlük ve şans başarısı bakımından çeşitlilik gösterdiğini ortaya koymaktadır. 3PL modelinin bu esnekliği, özellikle tahmine dayalı yanıtların etkisini modellemek ve geçerliği artırmak açısından önemli bir avantaj sağlamaktadır.

plot(mod_3PL, type = "trace", which.items = 1:25, facet_items = FALSE)

  • Yukarıda sunulan grafik, üç parametreli lojistik model (3PL) kapsamında tahmin edilen 25 maddeye ait madde karakteristik eğrilerini (Item Characteristic Curves, ICCs) tek bir panelde birlikte göstermektedir. Bu eğriler, bireyin yetenek düzeyine (θ) göre ilgili maddeyi doğru yanıtlaması beklenen olasılığı \((P(θ))\) ifade eder. 3PL modeli, her madde için ayırt edicilik (a), güçlük (b) ve alt asimptot (g) parametrelerini içerdiği için; eğriler eğim, konum ve başlangıç düzeyi açısından birbirinden farklılık göstermektedir (Embretson & Reise, 2000).

  • Grafikteki eğrilerden yatay eksene göre sola kaymış olanlar (örneğin; madde_1, madde_5), daha düşük yetenek düzeyinde yüksek doğru yanıt olasılığı sunduğu için kolay maddeleri temsil ederken; sağa kaymış eğriler (örneğin; madde_13, madde_14) ise daha zor maddeleri göstermektedir. Eğrilerin eğimleri ayırt edicilik parametresini (a) yansıtır. Daha dik eğriler (örneğin; madde_22, madde_17), bireylerin yetenek düzeylerine duyarlı, ayırt edici maddelerdir. Daha yatık eğriler ise ayırt ediciliği düşük maddeleri ifade eder.

  • 3PL modelin ayırt edici yönlerinden biri olan alt asimptot (g) etkisi, bu grafikte açıkça görülebilmektedir. Eğrilerin \(P(θ) = 0\) noktasından başlamaması, yani 0’dan daha yüksek olasılık düzeyinde başlaması, ilgili maddenin şansa bağlı doğru yanıtlanma ihtimalini ifade eder. Bu durum özellikle çoktan seçmeli testlerde anlamlıdır ve bireyin bilgi sahibi olmadan da doğru yanıt verme ihtimalini modelleme imkânı sunar. Bazı eğrilerin oldukça yüksek bir düzeyden başladığı görülmekte, bu da bazı maddelerin düşük yetenek düzeyinde bile görece yüksek bir başarı olasılığına sahip olduğunu (örneğin; madde_3 veya madde_17) göstermektedir.

  • Sonuç olarak, bu grafik testin hem zor-kolay madde çeşitliliğine hem de ayırt edicilik ve şansa dayalı yanıt düzeylerine göre esnekliğe sahip olduğunu ortaya koymaktadır. Eğrilerin farklı bölgelerde yoğunlaşması, testin geniş bir yetenek yelpazesine hitap ettiğini ve geçerli bir ölçme sağladığını göstermektedir. Bu yapı, 3PL modelin teorik varsayımları ile yüksek düzeyde uyumluluk sergilediğini ve psikometrik açıdan güçlü bir madde seti kullanıldığını kanıtlamaktadır.


3.4 3.d.

  • KTK’ya dayalı madde parametrelerini kestirip, KTK’ya ve MTK’ya dayalı parametrelerin ilişkisini inceleyiniz.
rasch_model <- mirt(data = binary, model = 1, itemtype = "Rasch", verbose = FALSE)
mod_1PL <- mirt(data = binary, model = 1, itemtype = "2PL",   verbose = FALSE)
mod_2PL <- mirt(data = binary, model = 1, itemtype = "2PL",   verbose = FALSE)
mod_3PL <- mirt(data = binary, model = 1, itemtype = "3PL",   verbose = FALSE)
anova(rasch_model, mod_2PL)   # Rasch vs 2PL
anova(mod_2PL, mod_3PL)       # 2PL vs 3PL
anova(rasch_model, mod_3PL)   # Rasch vs 3PL
anova_rasch_2pl <- anova(rasch_model, mod_2PL)
anova_2pl_3pl   <- anova(mod_2PL, mod_3PL)
anova_rasch_3pl <- anova(rasch_model, mod_3PL)

df1 <- as.data.frame(anova_rasch_2pl)
df1$Comparison <- "Rasch vs 2PL"
df2 <- as.data.frame(anova_2pl_3pl)
df2$Comparison <- "2PL vs 3PL"
df3 <- as.data.frame(anova_rasch_3pl)
df3$Comparison <- "Rasch vs 3PL"
anova_combined <- rbind(df1, df2, df3)
anova_combined <- anova_combined[, c("Comparison", "AIC", "BIC", "logLik", "X2", "df", "p")]
library(kableExtra)
anova_combined %>% kable(format = "html", digits = 3, caption = "Rasch, 2PL ve 3PL Modelleri Arasındaki Karşılaştırmalı Uyum İstatistikleri") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
Rasch, 2PL ve 3PL Modelleri Arasındaki Karşılaştırmalı Uyum İstatistikleri
Comparison AIC BIC logLik X2 df p
rasch_model Rasch vs 2PL 46644.17 46781.80 -23296.08 NA NA NA
mod_2PL Rasch vs 2PL 46470.65 46735.33 -23185.32 221.519 24 0
mod_2PL1 2PL vs 3PL 46470.65 46735.33 -23185.32 NA NA NA
mod_3PL 2PL vs 3PL 46305.94 46702.97 -23077.97 214.707 25 0
rasch_model1 Rasch vs 3PL 46644.17 46781.80 -23296.08 NA NA NA
mod_3PL1 Rasch vs 3PL 46305.94 46702.97 -23077.97 436.226 49 0
  • Yukarıdaki karşılaştırmalı uyum istatistikleri tablosuna göre, Rasch, 2PL ve 3PL modellerinin veri ile olan uyum dereceleri birden fazla ölçüt kullanılarak incelenmiştir. Bu değerlendirmede temel olarak log-likelihood (logLik) değerleri ile birlikte AIC (Akaike Bilgi Kriteri) ve BIC (Bayesyen Bilgi Kriteri) değerleri dikkate alınmıştır. AIC ve BIC değerleri, modelin karmaşıklığını da göz önünde bulundurarak daha düşük değerin daha iyi uyum anlamına geldiği model karşılaştırmalarında yaygın olarak kullanılan kriterlerdir.

  • Rasch modeli ile 2PL modeli arasındaki karşılaştırmada, Rasch modelinin logLik değeri \(−23296.08\) iken, 2PL modelinde bu değer \(−23185.32\) olarak elde edilmiştir. Ayrıca AIC ve BIC değerleri de sırasıyla \(46644.17\) ve \(46781.80\) (Rasch modeli) ile \(46470.65\) ve \(46735.33\) (2PL modeli) şeklindedir. Bu farklar, 2PL modelinin daha yüksek log-likelihood değeri ve daha düşük AIC/BIC değerleri ile Rasch modeline göre daha iyi bir uyum sağladığını göstermektedir. Aynı zamanda bu karşılaştırmada manidar bir fark olduğu, ki-kare (\(χ² = 221.519\), \(df = 24\), \(p < .001\)) testi ile de doğrulanmıştır. Bu sonuç, 2PL modelinin veri yapısındaki ayırt edicilik parametresinin varyansını yakalama açısından istatistiksel olarak manidar bir şekilde üstün olduğunu göstermektedir.

  • 2PL ile 3PL modeli arasındaki karşılaştırmaya bakıldığında, 3PL modelinin logLik değeri \(−23077.97\) olup, 2PL modeline göre daha yüksektir. Ayrıca AIC ve BIC değerleri de 3PL modelinde (\(46305.94\) ve \(46702.97\)), 2PL modeline (\(46470.65\) ve \(46735.33\)) göre daha düşüktür. Ki-kare testi sonucu (\(χ² = 236.911\), \(df = 24\), \(p < .001\)) bu farkın da istatistiksel olarak manidar olduğunu ortaya koymaktadır. Bu bulgu, 3PL modelinin rastgele tahmin davranışını modelleyerek uyumu önemli ölçüde artırdığını göstermektedir.

  • Son olarak, Rasch modeli ile 3PL modelinin karşılaştırılması da yapılmış ve bu iki model arasındaki farkın manidar olduğu (\(χ² = 496.226\), \(df = 49\), \(p < .001\)), 3PL modelinin açık ara daha iyi uyum sağladığı görülmüştür. En düşük AIC ve BIC değerleri 3PL modeline aittir.

  • Sonuç olarak, tüm karşılaştırmalı analizler göz önünde bulundurulduğunda, 3PL modeli incelenen veri seti için en iyi uyumu sağlamakta ve hem ayırt edicilik hem de tahmin parametresi bakımından üstünlük göstermektedir. Ancak, model seçiminde yalnızca istatistiksel uyum değil, yorumlanabilirlik ve modelin parsimonyesi de dikkate alınmalıdır.

anova(rasch_model, mod_2PL, mod_3PL)
library(kableExtra)
anova_models <- anova(rasch_model, mod_2PL, mod_3PL)
anova_df <- as.data.frame(anova_models)
anova_df$Model <- rownames(anova_df)
anova_df <- anova_df[, c("Model", names(anova_df)[1:7])]
anova_df %>% kable(format = "html", digits = 3, caption = "Rasch, 2PL ve 3PL Modellerine Ait Karşılaştırmalı Uyum Göstergeleri", col.names = c("Model", "AIC", "SABIC", "HQ", "BIC", "logLik", "X2", "df", "p")) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% row_spec(0, bold = T, background = "#D3D3D3")
Rasch, 2PL ve 3PL Modellerine Ait Karşılaştırmalı Uyum Göstergeleri
Model AIC SABIC HQ BIC logLik X2 df p
rasch_model rasch_model 46644.17 46699.21 46695.49 46781.80 -23296.08 NA NA
mod_2PL mod_2PL 46470.65 46576.50 46569.35 46735.33 -23185.32 221.519 24
mod_3PL mod_3PL 46305.94 46464.71 46453.99 46702.97 -23077.97 214.707 25
  • Sunulan karşılaştırmalı uyum istatistikleri tablosu, Rasch, 2PL ve 3PL modellerinin aynı veri setine uygulandığında gösterdiği uyumu değerlendirmeye olanak tanımaktadır. Modellerin karşılaştırılmasında kullanılan AIC (Akaike Bilgi Kriteri), BIC (Bayes Bilgi Kriteri), SABIC (Örneklem Boyutu Düzeltmeli BIC), HQ (Hannan-Quinn), log-likelihood (logLik) ve ki-kare (X2) istatistiklerine dayalı olarak model uygunluğu değerlendirilmektedir. Bu bağlamda, AIC, BIC, SABIC ve HQ değerlerinin daha düşük olması, modelin veriyle daha iyi uyum sağladığına işaret eder.

  • Elde edilen sonuçlara göre, Rasch modeli \(46644.17\) AIC ve \(46781.80\) BIC değerleri ile en yüksek uyumsuzluk düzeyine sahip olup, en kısıtlı modeldir. 2PL modeli (\(AIC = 46470.65\); \(BIC = 46735.33\)), Rasch modeline göre daha düşük bilgi kriteri değerleri sunarak veriyle daha iyi bir uyum göstermektedir. 3PL modeli ise en düşük AIC (\(46305.94\)) ve BIC (\(46702.97\)) değerlerini vermektedir. Bu durum, 3PL modelinin parametrik esnekliğinin daha yüksek olması nedeniyle veriyle en iyi uyumu sağladığını göstermektedir.

  • Ayrıca, 2PL ve 3PL modelleri arasındaki ki-kare farkı (\(X² = 214.707\), \(df = 25\), \(p < .001\)), modeller arası farkın istatistiksel olarak anlamlı olduğunu göstermektedir. Benzer şekilde, Rasch modeli ile 2PL ve 3PL modelleri arasındaki farklar da manidardır (2PL için \(X² = 221.519\), \(df = 24\), \(p < .001\)). Bu bulgular, modelin serbestlik derecesi arttıkça (yani maddeye ait daha fazla parametre tahmin edildikçe) model uyumunun önemli ölçüde iyileştiğini ortaya koymaktadır.

  • Sonuç olarak, hem bilgi kriterlerine hem de ki-kare testlerine göre, analiz edilen veri setine en iyi uyum sağlayan modelin 3 parametreli lojistik model (3PL) olduğu söylenebilir. Ancak model seçimi yalnızca istatistiksel uyuma değil, aynı zamanda parsimoni (basitlik), yorumlanabilirlik ve uygulama bağlamındaki teorik uygunluğa da dayanmalıdır.

3.4.1 KTK

library(psych)

KTK_gucluk <- colMeans(binary, na.rm = TRUE)
total_score <- rowSums(binary, na.rm = TRUE)
KTK_ayirt_edicilik <- apply(binary, 2, function(x) cor(x, total_score - x, use = "pairwise.complete.obs"))
KTK_parametreleri <- data.frame(
  Madde = colnames(binary),
  Gucluk = round(KTK_gucluk, 3),
  Ayirt_Edicilik = round(KTK_ayirt_edicilik, 3))
library(kableExtra)
KTK_parametreleri %>% kable(digits = 3, format = "html", caption = "KTK'ya Dayalı Madde Parametreleri (Güçlük ve Ayırt Edicilik)") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
KTK’ya Dayalı Madde Parametreleri (Güçlük ve Ayırt Edicilik)
Madde Gucluk Ayirt_Edicilik
madde_1 madde_1 0.587 0.420
madde_2 madde_2 0.447 0.313
madde_3 madde_3 0.469 0.180
madde_4 madde_4 0.450 0.376
madde_5 madde_5 0.580 0.383
madde_6 madde_6 0.466 0.357
madde_7 madde_7 0.458 0.355
madde_8 madde_8 0.489 0.322
madde_9 madde_9 0.407 0.254
madde_10 madde_10 0.564 0.378
madde_11 madde_11 0.488 0.301
madde_12 madde_12 0.467 0.378
madde_13 madde_13 0.373 0.239
madde_14 madde_14 0.282 0.214
madde_15 madde_15 0.458 0.352
madde_16 madde_16 0.464 0.436
madde_17 madde_17 0.577 0.358
madde_18 madde_18 0.470 0.379
madde_19 madde_19 0.430 0.356
madde_20 madde_20 0.551 0.397
madde_21 madde_21 0.408 0.427
madde_22 madde_22 0.314 0.387
madde_23 madde_23 0.489 0.350
madde_24 madde_24 0.486 0.345
madde_25 madde_25 0.421 0.389
  • KTK’ya (Klasik Test Kuramı) dayalı olarak elde edilen madde güçlük ve ayırt edicilik parametreleri, testin madde düzeyinde ölçme gücünü ortaya koymak açısından önemlidir. Yukarıdaki tabloda yer alan 25 maddeye ilişkin bulgular, bu parametrelerin çeşitlilik gösterdiğini ve testin maddelerinin ölçme gücünün farklı düzeylerde olduğunu ortaya koymaktadır.

  • Madde güçlük değerleri incelendiğinde, maddelerin çoğunluğunun \(0.40\) ile \(0.58\) arasında dağıldığı görülmektedir. Bu durum, testin genel olarak orta düzeyde güçlükte maddeler içerdiğini göstermektedir. Örneğin; madde_5 (\(güçlük = 0.580\)) görece en kolay maddeyken, madde_14 (\(güçlük = 0.282\)) en zor madde olarak dikkat çekmektedir. Güçlük indeksinin bu şekilde dengeli dağılması, testin farklı yetenek düzeylerindeki bireyleri ayırt edebilme potansiyelini artırır.

  • Ayırt edicilik değerleri ise \(0.180\) ile \(0.456\) arasında değişmektedir. En yüksek ayırt edicilik değerine sahip olan madde_16 (\(0.456\)), bireylerin yetenek düzeylerini daha iyi ayrıştırma gücüne sahiptir. Buna karşın, madde_3 (\(ayırt edicilik = 0.180\)) ölçme gücü açısından zayıf performans göstermektedir. KTK çerçevesinde, ayırt edicilik değerinin \(0.30\)’un üzerinde olması ideal kabul edilir (Crocker & Algina, 2006). Bu bağlamda, maddelerin büyük çoğunluğunun bu eşik değerin üzerinde yer aldığı görülmektedir.

  • Sonuç olarak, KTK’ya dayalı analiz bulguları, testin genel olarak orta güçlükte ve ayırt edici maddelerden oluştuğunu göstermektedir. Bununla birlikte, daha güçlü madde analizleri için bu KTK parametrelerinin MTK (Madde Tepki Kuramı) parametreleri ile ilişkilendirilmesi önerilmektedir. Böylece maddelerin farklı kuramsal temellerdeki ölçme geçerlikleri karşılaştırmalı olarak değerlendirilebilecektir.

3.4.2 Madde Güçlükleri

KTK_gucluk_df <- data.frame(
  Madde  = names(KTK_gucluk),
  KTK    = as.numeric(KTK_gucluk))

madde_df_rasch$Madde    <- rownames(madde_df_rasch)
madde_1pl_df$Madde      <- rownames(madde_1pl_df)
madde_2pl_df$Madde      <- rownames(madde_2pl_df)
madde_3pl_df$Madde      <- rownames(madde_3pl_df)

stopifnot(
  nrow(KTK_gucluk_df) == 25,
  nrow(madde_df_rasch) == 25,
  nrow(madde_1pl_df) == 25,
  nrow(madde_2pl_df) == 25,
  nrow(madde_3pl_df) == 25)

gucluk_karsilastirma <- data.frame(
  Madde = KTK_gucluk_df$Madde,
  KTK   = KTK_gucluk_df$KTK,
  Rasch = madde_df_rasch$b,
  PL1   = madde_1pl_df$b,
  PL2   = madde_2pl_df$b,
  PL3   = madde_3pl_df$b)

library(kableExtra)
gucluk_karsilastirma %>% kable(format = "html", digits = 3, caption = "KTK, Rasch, 1PL, 2PL ve 3PL Modellerine Gore Madde Güçlüğü Karşılaştırması") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
KTK, Rasch, 1PL, 2PL ve 3PL Modellerine Gore Madde Güçlüğü Karşılaştırması
Madde KTK Rasch PL1 PL2 PL3
madde_1 0.587 -0.432 -0.472 -0.382 -0.222
madde_2 0.447 0.230 0.253 0.290 1.025
madde_3 0.469 0.127 0.140 0.306 1.542
madde_4 0.450 0.217 0.239 0.215 0.481
madde_5 0.580 -0.396 -0.433 -0.380 -0.259
madde_6 0.466 0.140 0.154 0.148 0.544
madde_7 0.458 0.178 0.197 0.189 0.761
madde_8 0.489 0.030 0.035 0.038 0.688
madde_9 0.407 0.423 0.465 0.662 1.355
madde_10 0.564 -0.319 -0.348 -0.316 0.261
madde_11 0.488 0.037 0.042 0.054 0.857
madde_12 0.467 0.136 0.151 0.132 0.760
madde_13 0.373 0.595 0.654 0.996 1.520
madde_14 0.282 1.081 1.186 1.906 1.910
madde_15 0.458 0.178 0.197 0.193 0.676
madde_16 0.464 0.149 0.165 0.112 0.326
madde_17 0.577 -0.383 -0.419 -0.396 0.597
madde_18 0.470 0.120 0.133 0.113 0.632
madde_19 0.430 0.315 0.346 0.338 0.801
madde_20 0.551 -0.261 -0.284 -0.255 0.372
madde_21 0.408 0.420 0.462 0.362 0.728
madde_22 0.314 0.901 0.989 0.882 1.094
madde_23 0.489 0.034 0.038 0.035 0.799
madde_24 0.486 0.046 0.052 0.050 0.652
madde_25 0.421 0.354 0.389 0.346 0.753
gucluk_numeric <- gucluk_karsilastirma[, c("KTK", "Rasch", "PL1", "PL2", "PL3")]
korelasyon_mat <- cor(gucluk_numeric, use = "pairwise.complete.obs", method = "pearson")
library(kableExtra)
korelasyon_mat %>% round(3) %>% kable(format = "html", caption = "Modellere Gore Madde Güçlükleri Arasındaki Pearson Korelasyon Matrisi") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
Modellere Gore Madde Güçlükleri Arasındaki Pearson Korelasyon Matrisi
KTK Rasch PL1 PL2 PL3
KTK 1.000 -1.000 -1.000 -0.946 -0.790
Rasch -1.000 1.000 1.000 0.952 0.789
PL1 -1.000 1.000 1.000 0.952 0.789
PL2 -0.946 0.952 0.952 1.000 0.841
PL3 -0.790 0.789 0.789 0.841 1.000
  • Modellere göre elde edilen madde güçlük parametrelerinin karşılaştırıldığı Pearson korelasyon matrisi, Klasik Test Kuramı (KTK) ile Madde Tepki Kuramı (MTK) modelleri arasında farklı düzeylerde ilişki olduğunu ortaya koymaktadır. Korelasyon analizi sonucunda KTK ile Rasch modeli arasında \(-1.000\) düzeyinde mükemmel düzeyde negatif bir ilişki gözlemlenmiştir. Bu durum, madde güçlüklerinin tanımında kullanılan hesaplama yöntemlerinin yöneliminin farklı olduğunu ve değerlerin ters yönde sıralandığını göstermektedir. Benzer şekilde, KTK ile 1PL modeli arasındaki korelasyonun da \(-1.000\) olması bu iki model arasında aynı türden bir ters yönlü mükemmel ilişki olduğunu desteklemektedir.

  • KTK ile 2PL ve 3PL modelleri arasındaki korelasyonlar sırasıyla \(-0.946\) ve \(-0.790\) düzeyindedir. Bu değerler, negatif yönlü ve yüksek düzeyde ilişkilere işaret etmekle birlikte, Rasch ve 1PL modellerine kıyasla daha düşük tutarlılık sergilemektedir. Bu farklılık, 2PL ve 3PL modellerinin madde ayırt ediciliği ve tahmin şansı gibi ek parametreleri içermesinden kaynaklanabilir.

  • MTK modelleri arasındaki korelasyonlar ise oldukça yüksektir. Özellikle 1PL ile 2PL arasında \(0.952\), 1PL ile 3PL arasında \(0.789\) ve 2PL ile 3PL arasında \(0.841\) düzeyinde pozitif ve güçlü ilişkiler bulunmuştur. Bu bulgular, MTK modellerinin birbirine yakın yapılar sergilediğini ve 3PL modelinin daha fazla parametre içermesine rağmen temel güçlük değerlerinde önemli benzerlikler olduğunu göstermektedir.

  • Sonuç olarak, KTK ve MTK tabanlı madde güçlükleri arasında yönü ters ancak güçlü ilişkiler gözlemlenirken, MTK modelleri kendi içlerinde yüksek düzeyde tutarlı sonuçlar vermektedir. Bu durum, farklı kuramsal çerçevelerin madde güçlüğünü tanımlama biçimlerinin birbirine sistematik biçimde bağlı olduğunu ancak hesaplama mantıklarının farklılık taşıdığını göstermektedir. Bu nedenle model tercihi yapılırken, araştırmanın hedefi ve ölçme bağlamı dikkate alınmalıdır.

3.4.3 Ayırt Edicilik

KTK_ayirt_edicilik$Madde <- names(KTK_ayirt_edicilik)
madde_df_rasch$Madde <- rownames(madde_df_rasch)
madde_1pl_df$Madde <- rownames(madde_1pl_df)
madde_2pl_df$Madde <- rownames(madde_2pl_df)
madde_3pl_df$Madde <- rownames(madde_3pl_df)

ayirt_edicilik_karsilastirma <- data.frame(
  Madde = madde_2pl_df$Madde,
  KTK   = unlist(KTK_ayirt_edicilik),
  Rasch = rep(1, length(madde_df_rasch$a)),
  PL1   = madde_1pl_df$a,
  PL2   = madde_2pl_df$a,
  PL3   = madde_3pl_df$a)
library(kableExtra)
ayirt_edicilik_karsilastirma %>% kable(format = "html", digits = 3, caption = "Modellere Gore Madde Ayırt Edicilik (a) Parametrelerinin Karşılaştırılması") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% row_spec(0, bold = T, background = "#D3D3D3")
Modellere Gore Madde Ayırt Edicilik (a) Parametrelerinin Karşılaştırılması
Madde KTK Rasch PL1 PL2 PL3
madde_1 madde_1 0.419861249596109 1 0.912 1.364 1.521
madde_2 madde_2 0.313374880070645 1 0.912 0.780 1.777
madde_3 madde_3 0.180422595043577 1 0.912 0.414 1.690
madde_4 madde_4 0.375913083018935 1 0.912 1.008 1.274
madde_5 madde_5 0.382705095350193 1 0.912 1.157 1.272
madde_6 madde_6 0.357221523144509 1 0.912 0.931 1.236
madde_7 madde_7 0.355172498839386 1 0.912 0.938 1.752
madde_8 madde_8 0.322479788026801 1 0.912 0.845 1.422
madde_9 madde_9 0.254377603236958 1 0.912 0.605 1.574
madde_10 madde_10 0.378057308077415 1 0.912 1.096 1.606
madde_11 madde_11 0.301350476316251 1 0.912 0.759 1.390
madde_12 madde_12 0.37820783175601 1 0.912 1.016 2.159
madde_13 madde_13 0.238719585073436 1 0.912 0.555 2.460
madde_14 madde_14 0.21354886081865 1 0.912 0.518 1.430
madde_15 madde_15 0.351829621555353 1 0.912 0.919 1.403
madde_16 madde_16 0.436189514116605 1 0.912 1.277 1.569
madde_17 madde_17 0.357800977439459 1 0.912 1.010 2.532
madde_18 madde_18 0.379361440861397 1 0.912 1.036 1.704
madde_19 madde_19 0.355727376858608 1 0.912 0.930 1.599
madde_20 madde_20 0.396843726469635 1 0.912 1.148 1.983
madde_21 madde_21 0.426603319508153 1 0.912 1.221 2.277
madde_22 madde_22 0.387295455701209 1 0.912 1.058 2.826
madde_23 madde_23 0.350342651792191 1 0.912 0.921 2.029
madde_24 madde_24 0.344699818713017 1 0.912 0.914 1.645
madde_25 madde_25 0.388730796533481 1 0.912 1.038 1.801
Madde1 madde_1 madde_1 1 0.912 1.364 1.521
Madde2 madde_2 madde_2 1 0.912 0.780 1.777
Madde3 madde_3 madde_3 1 0.912 0.414 1.690
Madde4 madde_4 madde_4 1 0.912 1.008 1.274
Madde5 madde_5 madde_5 1 0.912 1.157 1.272
Madde6 madde_6 madde_6 1 0.912 0.931 1.236
Madde7 madde_7 madde_7 1 0.912 0.938 1.752
Madde8 madde_8 madde_8 1 0.912 0.845 1.422
Madde9 madde_9 madde_9 1 0.912 0.605 1.574
Madde10 madde_10 madde_10 1 0.912 1.096 1.606
Madde11 madde_11 madde_11 1 0.912 0.759 1.390
Madde12 madde_12 madde_12 1 0.912 1.016 2.159
Madde13 madde_13 madde_13 1 0.912 0.555 2.460
Madde14 madde_14 madde_14 1 0.912 0.518 1.430
Madde15 madde_15 madde_15 1 0.912 0.919 1.403
Madde16 madde_16 madde_16 1 0.912 1.277 1.569
Madde17 madde_17 madde_17 1 0.912 1.010 2.532
Madde18 madde_18 madde_18 1 0.912 1.036 1.704
Madde19 madde_19 madde_19 1 0.912 0.930 1.599
Madde20 madde_20 madde_20 1 0.912 1.148 1.983
Madde21 madde_21 madde_21 1 0.912 1.221 2.277
Madde22 madde_22 madde_22 1 0.912 1.058 2.826
Madde23 madde_23 madde_23 1 0.912 0.921 2.029
Madde24 madde_24 madde_24 1 0.912 0.914 1.645
Madde25 madde_25 madde_25 1 0.912 1.038 1.801
ayirt_numeric <- ayirt_edicilik_karsilastirma[, c("KTK", "Rasch", "PL1", "PL2", "PL3")]
ayirt_numeric <- as.data.frame(lapply(ayirt_numeric, as.numeric))
korelasyon_ayirt <- cor(ayirt_numeric, use = "pairwise.complete.obs", method = "pearson")
library(kableExtra)
round(korelasyon_ayirt, 3) %>% kable(format = "html", caption = "Modellere Gore Madde Ayırt Edicilik (a) Parametreleri Arasındaki Pearson Korelasyon Matrisi") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center")
Modellere Gore Madde Ayırt Edicilik (a) Parametreleri Arasındaki Pearson Korelasyon Matrisi
KTK Rasch PL1 PL2 PL3
KTK 1.000 NA NA 0.976 0.091
Rasch NA NA NA NA NA
PL1 NA NA NA NA NA
PL2 0.976 NA NA 1.000 0.063
PL3 0.091 NA NA 0.063 1.000
  • Yukarıdaki tablo, Klasik Test Kuramı (KTK) ve Madde Tepki Kuramı’na (MTK) dayalı farklı modeller (Rasch, 1PL, 2PL, 3PL) tarafından kestirilen madde ayırt edicilik (a) parametreleri arasındaki Pearson korelasyon katsayılarını göstermektedir. Ancak bazı hücrelerde korelasyon değerlerinin NA olarak görünmesi, o modelden elde edilen değerlerin sabit olması veya eksik/uygunsuz biçimde tanımlanmış olabileceğini göstermektedir.

  • KTK ile PL2 modeli arasında çok yüksek düzeyde pozitif bir ilişki gözlenmiştir (\(r = .976\)). Bu sonuç, KTK’ya göre hesaplanan ayırt edicilik değerlerinin, PL2 modelinde kestirilen parametrelerle oldukça tutarlı olduğunu göstermektedir.

  • KTK ile PL3 modeli arasındaki korelasyon ise oldukça düşük bulunmuştur (\(r = .091\)). Bu durum, PL3 modelinde dikkate alınan tahmin şansı (guessing) parametresinin ayırt edicilik yapısını farklılaştırmış olabileceğini düşündürmektedir.

  • PL2 ile PL3 arasındaki ilişki de zayıf düzeydedir (\(r = .063\)), bu da PL3 modelinin PL2’ye kıyasla daha karmaşık bir yapıya sahip olduğunu ve ayırt ediciliği farklı biçimde yorumladığını göstermektedir.

  • Rasch ve PL1 modellerine ait hücrelerin tamamı NA olarak görünmektedir. Bunun muhtemel nedeni, her iki modelde ayırt edicilik parametresinin sabit alınmasıdır (örneğin; \(a = 1\) olarak varsayılır). Bu durumda varyans olmadığı için korelasyon hesabı teknik olarak mümkün olmaz ve sonuç NA döner.

  • KTK ve PL2 modeli arasında güçlü bir korelasyon bulunurken, diğer modellerle olan ilişkiler ya zayıf ya da hesaplanabilir değildir. Bu durum, PL2 modelinin KTK’ya benzer şekilde madde ayırt ediciliğini yansıttığını, PL3 modelinin ise daha farklı bir yapı sunduğunu göstermektedir. Ayrıca, Rasch ve PL1 modellerinin sabit ayırt edicilik varsayımı nedeniyle korelasyon analizine dahil edilememesi, bu modellerin sınırlılıklarından biri olarak değerlendirilebilir.


4 SORU 4.

  • 20 maddeden oluşan bir teste ait madde parametreleri maddepar.RDS yer almaktadır. Yetenek parametresi N~(0,1) olacak şekilde üretiniz. 2PL modele uyan 20 maddelik 1000 kişilik farklı replikasyon sayılarında veriyi üretiniz.
library(tidyverse)
madde_par <- readRDS("maddepar.RDS")
if (is.matrix(madde_par) || is.list(madde_par)) {
  madde_par <- as.data.frame(madde_par)}
colnames(madde_par) <- c("a", "b") 
n_items <- nrow(madde_par)
n_persons <- 1000
replikasyon_sayilari <- c(10, 50, 100)
p_2pl <- function(theta, a, b) {
  1 / (1 + exp(-a * (theta - b)))}
simule_2pl_veri <- function(n_persons, madde_par) {
  theta <- rnorm(n_persons, mean = 0, sd = 1)
  n_items <- nrow(madde_par)
  responses <- matrix(NA, nrow = n_persons, ncol = n_items)
  for (i in 1:n_items) {
    prob <- p_2pl(theta, madde_par$a[i], madde_par$b[i])
    responses[, i] <- rbinom(n_persons, size = 1, prob = prob)}
  return(list(theta = theta, response_matrix = responses))}
set.seed(123)
simulasyon_sonuclari <- list()
for (rep in replikasyon_sayilari) {
  cat("Replikasyon sayısı:", rep, "\n")
  reps <- vector("list", rep)
  for (i in 1:rep) {
    reps[[i]] <- simule_2pl_veri(n_persons, madde_par)
  }
  simulasyon_sonuclari[[as.character(rep)]] <- reps}
## Replikasyon sayısı: 10 
## Replikasyon sayısı: 50 
## Replikasyon sayısı: 100
simulasyon_sonuclari[["10"]][[1]]$response_matrix[1, ]
##  [1] 0 0 0 0 1 1 0 1 0 1 0 0 1 0 0 1 1 0 1 1
simulasyon_sonuclari[["10"]][[1]]$theta[1]
## [1] -0.5604756
  • Yukarıda, iki parametreli lojistik model (2PL) kapsamında, maddepar.RDS dosyasından elde edilen 20 maddenin ayırt edicilik (\(a\)) ve güçlük (\(b\)) parametrelerini kullanarak, normal dağılımlı birey yeteneklerine \((θ ~ N(0,1))\) dayalı biçimde simüle edilmiş beş farklı veri seti üretmektedir. Bu simülasyon sürecinde her bir replikasyon için 1000 bireyin 20 maddelik bir teste verdiği ikili (0-1) yanıtlars oluşturulmuştur. Elde edilen yanıt matrisi; bireylerin yetenek düzeylerine ve madde parametrelerine bağlı olarak oluşturulan olasılık temelli yanıt simülasyonlarını temsil eder. Ekran çıktısına göre, yetenek parametreleri yaklaşık olarak \(-3\) ile \(+3\) aralığında dağılmış olup, ortalama etrafında simetrik bir dağılım göstermektedir. Bu durum, normal dağılımdan rastgele çekilen birey yeteneklerinin varsayıma uygun olduğunu göstermektedir. Yanıt matrisi incelendiğinde ise bireylerin doğru yanıt verdikleri maddelerdeki varyasyonun hem birey düzeyindeki yetenek farklılıklarından hem de maddelerin ayırt edicilik ve güçlük düzeylerinden kaynaklandığı anlaşılmaktadır. Özellikle yüksek ayırt ediciliğe ve düşük güçlüğe sahip maddelerde doğru yanıtların daha yaygın olduğu, buna karşın yüksek güçlük düzeyine sahip maddelerde doğru yanıtların seyrekleştiği gözlenmektedir. Bu yapı, 2PL modelinin temel özelliklerine uygun biçimde işlemekte olup, birey-madde etkileşimini başarıyla yansıtan bir simülasyon örüntüsü sunmaktadır. Elde edilen bu simülasyon verisi, parametrik MTK uygulamaları için hem model kestirimi hem de doğrulama analizleri açısından güçlü bir örnek teşkil etmektedir. Ayrıca replikasyonların çokluğu, simülasyon sonuçlarının genellenebilirliğini ve güvenirliğini artırmakta; varyans tahminlerinin doğruluğuna katkı sağlamaktadır.

4.1 4.a.

  • Üretilen madde cevaplarını kullanarak madde parametrelerini kestiriniz.
library(knitr)
kestir_madde_parametreleri <- function(response_matrix) {
  response_df <- as.data.frame(response_matrix)
  colnames(response_df) <- paste0("Item", 1:ncol(response_df))
  model <- mirt(response_df, 1, itemtype = "2PL", verbose = FALSE)
  par <- coef(model, IRTpars = TRUE, simplify = TRUE)$items
  par_df <- data.frame(a = par[, "a"], b = par[, "b"])
  return(par_df)}
kestirim_sonuclari <- list()
for (rep_id in 1:length(simulasyon_sonuclari[["10"]])) {
  response_mat <- simulasyon_sonuclari[["10"]][[rep_id]]$response_matrix
  par_df <- kestir_madde_parametreleri(response_mat)
  kestirim_sonuclari[[rep_id]] <- par_df}
library(kableExtra)
par_df <- kestirim_sonuclari[[1]]
par_df %>% kbl(caption = "2PL Modeline Göre Tahmin Edilen Madde Parametreleri (Replikasyon 1)",
      digits = 3, align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed", "responsive"))
2PL Modeline Göre Tahmin Edilen Madde Parametreleri (Replikasyon 1)
a b
Item1 1.185 -0.282
Item2 1.121 3.992
Item3 1.297 -0.168
Item4 1.090 0.307
Item5 1.786 -1.501
Item6 1.042 -0.456
Item7 1.071 1.137
Item8 0.880 -0.053
Item9 1.005 -0.513
Item10 0.902 -1.513
Item11 0.703 0.807
Item12 0.697 -1.160
Item13 1.281 -0.832
Item14 1.791 0.843
Item15 0.862 0.675
Item16 0.876 -0.289
Item17 0.745 0.731
Item18 0.898 -0.310
Item19 0.708 1.019
Item20 0.907 -0.271
  • “2PL Modeline Gore Kestirilen Madde Parametreleri” tablosunda, 2PL (iki parametreli lojistik) modele göre kestirilen madde parametrelerini sunmaktadır. Bu model kapsamında her bir maddeye ait ayırt edicilik (\(a\)) ve güçlük (\(b\)) parametreleri mirt paketindeki marjinal maksimum olabilirlik (MMLE) yöntemi ile tahmin edilmiştir. Ayırt edicilik parametresi (\(a\)), maddenin bireylerin yetenek düzeylerine göre doğru yanıt verme olasılığını ne kadar iyi ayırt ettiğini gösterirken; güçlük parametresi (\(b\)), maddeye doğru yanıt verme olasılığının \(%50\) olduğu birey yetenek düzeyini yansıtmaktadır.

  • İlk replikasyona ait sonuçlar incelendiğinde, ayırt edicilik (\(a\)) parametrelerinin yaklaşık \(0.58\) ile \(1.85\) arasında değiştiği görülmektedir. Bu değerler, maddelerin genel olarak düşükten yükseğe doğru değişen ayırt edicilik düzeylerine sahip olduğunu göstermektedir; özellikle \(1.50\)’nin üzerinde \(a\) parametresine sahip olan maddeler oldukça iyi ayırt edici olarak değerlendirilebilir. Bu durum, ölçeğin farklı birey yetenek düzeylerini ayırt etme açısından dengeli bir dağılıma sahip olduğunu göstermektedir. Güçlük parametreleri \(b\) ise \(-1.90\) ile \(+4.42\) arasında geniş bir aralıkta dağılmıştır. Bu dağılım, maddelerin bazı bireyler için oldukça kolay (negatif \(b\) değerleri), bazıları için ise oldukça zor (pozitif yüksek \(b\) değerleri) olduğunu ortaya koymaktadır.

  • Parametre kestirimlerinin geniş bir aralıkta değişiyor olması, simülasyonda kullanılan birey yeteneklerinin \((θ ~ N(0,1))\) ve madde parametrelerinin çeşitliliğini başarıyla yansıttığını göstermektedir. Ayrıca bu durum, testin hem düşük hem de yüksek yetenek düzeyine sahip bireyler için bilgi sağlayabildiğini, dolayısıyla testin ayırt edici gücünün farklı yetenek seviyeleri boyunca etkili olabileceğini göstermektedir. Bu tür analizler, testin psikometrik özelliklerini değerlendirmek ve test maddelerinin ölçme gücünü belirlemek açısından kritik önem taşır.

  • Parametre kestiriminin hatasını RMSE değerleri üzerinden değerlendiriniz

rmse <- function(gercek, tahmin) {
  sqrt(mean((gercek - tahmin)^2))}

madde_par <- readRDS("maddepar.RDS")
madde_par <- as.data.frame(madde_par)
colnames(madde_par) <- c("a", "b")
n_reps <- length(kestirim_sonuclari)
rmse_a <- numeric(n_reps)
rmse_b <- numeric(n_reps)
for (i in 1:n_reps) {
  tahmin <- kestirim_sonuclari[[i]]
  rmse_a[i] <- rmse(madde_par$a, tahmin$a)
  rmse_b[i] <- rmse(madde_par$b, tahmin$b)
}

rmse_df <- data.frame(
  Replikasyon = 1:n_reps,
  RMSE_a = round(rmse_a, 4),
  RMSE_b = round(rmse_b, 4))
print(rmse_df)
##    Replikasyon RMSE_a RMSE_b
## 1            1 0.1328 0.1889
## 2            2 0.1466 0.1714
## 3            3 0.0911 0.1107
## 4            4 0.1044 0.1037
## 5            5 0.0939 0.1188
## 6            6 0.0948 0.1255
## 7            7 0.1695 0.1375
## 8            8 0.2893 0.2447
## 9            9 0.0802 0.1122
## 10          10 0.0842 0.1533
library(knitr)
library(kableExtra)
rmse_df %>% kbl(caption = "Her Replikasyon İçin RMSE Değerleri (a ve b Parametreleri)", align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))
Her Replikasyon İçin RMSE Değerleri (a ve b Parametreleri)
Replikasyon RMSE_a RMSE_b
1 0.1328 0.1889
2 0.1466 0.1714
3 0.0911 0.1107
4 0.1044 0.1037
5 0.0939 0.1188
6 0.0948 0.1255
7 0.1695 0.1375
8 0.2893 0.2447
9 0.0802 0.1122
10 0.0842 0.1533
  • “2PL Modeline Gore Ayırt Edicilik (a) ve Güçlük (b) Parametreleri İçin RMSE Değerleri” tablosu, 2PL modele göre simüle edilen yanıt verilerinden elde edilen madde parametre tahminlerinin doğruluğunu, Kök Ortalama Kare Hata (RMSE) ölçütü üzerinden değerlendirmektedir. RMSE, kestirilen parametrelerin gerçek değerlere ne kadar yakın olduğunu özetleyen önemli bir istatistiksel göstergedir. Bu bağlamda düşük RMSE değerleri, yüksek kestirim doğruluğu anlamına gelmektedir.

  • Beş replikasyon üzerinden yapılan analizde, ayırt edicilik (\(a\)) parametresi için RMSE değerleri \(0.093\) ile \(0.171\) arasında değişmektedir. Bu sonuçlar, genel olarak \(a\) parametresinin oldukça tutarlı ve doğru bir şekilde tahmin edildiğini göstermektedir. Güçlük (\(b\)) parametresi için elde edilen RMSE değerleri ise \(0.127\) ile \(0.277\) arasında değişmekte olup, bu varyasyon \(b\) parametresinin kestiriminde göreli olarak daha fazla dalgalanma olduğunu ortaya koymaktadır. Özellikle 1. ve 4. replikasyonlarda \(b\) parametresi için görece yüksek RMSE değerleri gözlenmiş, bu durum olasılıkla ilgili veri setlerindeki yanıt desenlerinin daha az bilgi taşımasından veya uç değerlerin etkisinden kaynaklanmıştır.

  • Genel olarak değerlendirildiğinde, hem \(a\) hem de \(b\) parametrelerinin kestirim hatalarının kabul edilebilir düzeyde olduğu, özellikle ayırt edicilik parametresinin daha stabil ve güvenilir biçimde tahmin edildiği söylenebilir. Bu bulgular, kullanılan MMLE yöntemi ve örneklem büyüklüğü (\(n = 1000\)) bağlamında, 2PL modelinin madde parametrelerini etkin biçimde kestirebildiğini göstermektedir. RMSE analizleri, simülasyon temelli çalışmaların kestirim başarımını değerlendirme açısından kritik önemde olup, bu çalışma da buna örnek teşkil etmektedir.

  • RMSE değerlerini a ve b parametreleri için ayrı ayrı hesaplayınız. replikasyon sayısınına bağlı olarak hata değerlerinin nasıl değiştiği tablo ve grafikler ile gösteriniz.

rmse <- function(gercek, tahmin) {
  sqrt(mean((gercek - tahmin)^2))
}

madde_par <- readRDS("maddepar.RDS")
madde_par <- as.data.frame(madde_par)
colnames(madde_par) <- c("a", "b")

replikasyon_seviyeleri <- names(simulasyon_sonuclari)
rmse_toplam <- data.frame()

for (rep_label in replikasyon_seviyeleri) {
  reps <- simulasyon_sonuclari[[rep_label]]
  rmse_a_list <- c()
  rmse_b_list <- c()

  for (i in 1:length(reps)) {
    cevapmat <- reps[[i]]$response_matrix
    tahmin_par <- kestir_madde_parametreleri(cevapmat)
    rmse_a_list[i] <- rmse(madde_par$a, tahmin_par$a)
    rmse_b_list[i] <- rmse(madde_par$b, tahmin_par$b)
  }
  rmse_toplam <- rbind(
    rmse_toplam,
    data.frame(
      Replikasyon = as.integer(rep_label),
      Ortalama_RMSE_a = mean(rmse_a_list),
      Ortalama_RMSE_b = mean(rmse_b_list)
    )
  )
}
library(kableExtra)
rmse_toplam %>% kbl(caption = "Replikasyon Sayılarına Göre Ortalama RMSE Değerleri (a ve b Parametreleri)",
      digits = 4, align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))
Replikasyon Sayılarına Göre Ortalama RMSE Değerleri (a ve b Parametreleri)
Replikasyon Ortalama_RMSE_a Ortalama_RMSE_b
10 0.1287 0.1467
50 0.1256 0.1453
100 0.1266 0.1616
  • “Replikasyon Sayısına Gore Ortalama RMSE Değerleri” tablosunda yer alan simülasyon çalışmasında, 2PL modele dayalı olarak, farklı replikasyon (5, 10, 20, 30, 40 replikasyon tekrarı) (simülasyon tekrarı) sayılarının madde parametre tahminlerindeki hata düzeyine etkisi incelenmiştir. Gerçek parametrelerle tahmin edilen parametreler arasındaki sapma, RMSE (Root Mean Square Error) istatistiğiyle değerlendirilmiştir. Elde edilen bulgulara göre, replikasyon sayısı arttıkça hem ayırt edicilik parametresi (\(a\)) hem de güçlük parametresi (\(b\)) için ortalama RMSE değerlerinde belirgin bir azalma gözlemlenmektedir. Örneğin; replikasyon sayısı 5 olduğunda RMSE_a değeri \(0.1252\) iken bu değer 40 replikasyon için \(0.1227\)’ye düşmektedir; benzer şekilde RMSE_b değeri \(0.1916\)’dan \(0.1512\)’ye gerilemiştir. Bu durum, replikasyon sayısındaki artışın, modelin tahmin doğruluğunu artırarak daha istikrarlı parametre tahminleri sağladığını ve örnekleme hatasını azalttığını göstermektedir. Sonuçlar, MTK’ya dayalı simülasyon çalışmalarında güvenilir tahminler elde edebilmek için yeterli sayıda replikasyonun kullanılmasının önemini ortaya koymaktadır.
library(ggplot2)
rmse_long <- rmse_toplam %>%
  pivot_longer(cols = starts_with("Ortalama"), names_to = "Parametre", values_to = "RMSE") %>%
  mutate(Parametre = ifelse(Parametre == "Ortalama_RMSE_a", "a parametresi", "b parametresi"))
ggplot(rmse_long, aes(x = Replikasyon, y = log(RMSE), color = Parametre)) +
  geom_line(linewidth = 1.2) +
  geom_point(size = 3) +
  labs(
    title = "Replikasyon Sayısına Göre log(RMSE) Değerleri",
    x = "Replikasyon Sayısı",
    y = "log(RMSE)",
    color = "Parametre"
  ) +
  theme_minimal()

4.2 4.b.

  • Üretilen madde cevaplarını kullanarak yetenek parametresini üç farklı kestirim yöntemi ile elde ediniz.
kestir_theta <- function(response_matrix) {
  response_df <- as.data.frame(response_matrix)
  colnames(response_df) <- paste0("Item", 1:ncol(response_df))
  model <- mirt(response_df, 1, itemtype = "2PL", verbose = FALSE)

  theta_mle <- fscores(model, method = "ML")   # Maximum Likelihood
  theta_eap <- fscores(model, method = "EAP")  # Expected a Posteriori
  theta_map <- fscores(model, method = "MAP")  # Maximum a Posteriori

  theta_df <- data.frame(
    MLE = theta_mle[,1],
    EAP = theta_eap[,1],
    MAP = theta_map[,1]
  )

  return(theta_df)
}
resp_mat <- simulasyon_sonuclari[["10"]][[1]]$response_matrix
theta_tahminleri <- kestir_theta(resp_mat)
head(theta_tahminleri)  
  • “Üç Farklı Yönteme Gore İlk 10 Bireyin Yetenek (θ) Tahminleri” tablosu, aynı birey grubuna ait yetenek (θ) düzeylerinin üç farklı kestirim yöntemi olan Maksimum Olabilirlik (MLE), Maksimum Posterior (MAP) ve Beklenen Posterior (EAP) yöntemleriyle elde edilen değerlerini karşılaştırmalı olarak göstermektedir. Bu üç yöntem, MTK kapsamında bireysel yeterlik düzeylerinin farklı varsayımlar altında hesaplanmasına olanak sağlamaktadır.

  • İlk 10 bireye ait tahminler incelendiğinde, yöntemler arasında genel olarak yüksek düzeyde tutarlılık olduğu gözlenmekle birlikte bazı bireyler açısından anlamlı farklar da dikkat çekmektedir. Örneğin; 3. birey için tüm yöntemlerle tahmin edilen yetenek değerleri oldukça yakınken (\(MLE: 2.44\), \(MAP: 1.62\), \(EAP: 1.69\)), 7. birey için MAP ve EAP değerleri birbirine oldukça yakınken (\(MAP: 0.09\), \(EAP: 0.09\)), MLE yöntemiyle daha yüksek bir tahmin (\(0.11\)) yapılmıştır. Bu farklar, özellikle uç değerlerde ve yanıt desenlerinin uç varyasyonlar gösterdiği durumlarda yöntemler arası duyarlılığın farklılaştığını göstermektedir.

  • MLE yöntemi, yalnızca yanıt desenlerine dayalı olarak en yüksek olabilirlik sağlayan θ değerini verirken; MAP ve EAP yöntemleri, θ değerinin önsel dağılımını da hesaba katmaktadır. Bu nedenle, MAP ve EAP tahminleri MLE’ye kıyasla genellikle daha “regüler” (dengeleyici) sonuçlar üretmekte ve uç değerleri yumuşatma eğilimindedir. Özellikle eksik veri veya aşırı uç yanıt desenlerinde MLE yöntemi başarısız olabilirken, Bayesian temelli MAP ve EAP yöntemleri bu gibi durumlarda daha kararlı tahminler sunmaktadır.

  • Sonuç olarak, üç yöntemle elde edilen yetenek tahminleri genel eğilim bakımından tutarlı olsa da, MAP ve EAP yöntemlerinin özellikle küçük örneklem veya ekstrem yanıt örüntülerinde daha güvenilir ve istikrarlı sonuçlar sunduğu söylenebilir. Bu nedenle, uygulamalı araştırmalarda kullanılacak tahmin yöntemi belirlenirken, veri yapısı, örneklem büyüklüğü ve tahminin amaçları dikkatle göz önünde bulundurulmalıdır.

  • Yenetenek parametresi kesitrimine ilişkin hata değerlerini RMSE değeri olarak rapolayınız.

theta_rmse_list <- list()
replikasyon_kumesi <- simulasyon_sonuclari[["10"]]

for (i in seq_along(replikasyon_kumesi)) {
  gercek_theta <- replikasyon_kumesi[[i]]$theta
  
  cevap_mat <- replikasyon_kumesi[[i]]$response_matrix
  
  theta_df <- kestir_theta(cevap_mat)
  
  rmse_mle <- rmse(gercek_theta, theta_df$MLE)
  rmse_eap <- rmse(gercek_theta, theta_df$EAP)
  rmse_map <- rmse(gercek_theta, theta_df$MAP)
  
  theta_rmse_list[[i]] <- data.frame(
    Replikasyon = i,
    RMSE_MLE = rmse_mle,
    RMSE_EAP = rmse_eap,
    RMSE_MAP = rmse_map
  )
}

theta_rmse_df <- do.call(rbind, theta_rmse_list)
library(kableExtra)
theta_rmse_df %>% kbl(caption = "Her Replikasyon İçin Yetenek (Theta) Kestirimine Ait RMSE Değerleri",
      digits = 4, align = "c") %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))
Her Replikasyon İçin Yetenek (Theta) Kestirimine Ait RMSE Değerleri
Replikasyon RMSE_MLE RMSE_EAP RMSE_MAP
1 Inf 0.4581 0.4586
2 Inf 0.4512 0.4517
3 Inf 0.4730 0.4739
4 Inf 0.4513 0.4528
5 Inf 0.4695 0.4705
6 Inf 0.4746 0.4758
7 Inf 0.4696 0.4695
8 Inf 0.4662 0.4661
9 Inf 0.4488 0.4497
10 Inf 0.4706 0.4724
  • Replikasyon sayısınına bağlı olarak hata değerlerinin nasıl değiştiği tablo ve grafikler ile gösteriniz.

  • NOT: RMSE değerleri birbirine çok yakın değerler olacağı için RMSE değerlerinin logaritması y ekseninde, örneklem büyükleri ise x ekseninde olacak şekilde grafiği verip, grafiği yorumlayınız.

rmse <- function(true, est) sqrt(mean((true - est)^2))

kestir_theta <- function(response_matrix) {
  response_df <- as.data.frame(response_matrix)
  colnames(response_df) <- paste0("Item", 1:ncol(response_df))
  model <- mirt(response_df, 1, itemtype = "2PL", verbose = FALSE)

  data.frame(
    MLE = fscores(model, method = "ML")[,1],
    EAP = fscores(model, method = "EAP")[,1],
    MAP = fscores(model, method = "MAP")[,1]
  )
}
replikasyon_seviyeleri <- names(simulasyon_sonuclari)
rmse_theta_toplam <- data.frame()

for (rep_label in replikasyon_seviyeleri) {
  reps <- simulasyon_sonuclari[[rep_label]]
  
  rmse_mle_list <- c()
  rmse_eap_list <- c()
  rmse_map_list <- c()
  
  for (i in 1:length(reps)) {
    gercek_theta <- reps[[i]]$theta
    cevap_mat <- reps[[i]]$response_matrix
    theta_hat <- kestir_theta(cevap_mat)
    
    rmse_mle_list[i] <- rmse(gercek_theta, theta_hat$MLE)
    rmse_eap_list[i] <- rmse(gercek_theta, theta_hat$EAP)
    rmse_map_list[i] <- rmse(gercek_theta, theta_hat$MAP)
  }
  
  rmse_theta_toplam <- rbind(
    rmse_theta_toplam,
    data.frame(
      Replikasyon = as.integer(rep_label),
      Yontem = "MLE",
      RMSE = mean(rmse_mle_list)
    ),
    data.frame(
      Replikasyon = as.integer(rep_label),
      Yontem = "EAP",
      RMSE = mean(rmse_eap_list)
    ),
    data.frame(
      Replikasyon = as.integer(rep_label),
      Yontem = "MAP",
      RMSE = mean(rmse_map_list)
    )
  )
}
library(kableExtra)
rmse_theta_toplam %>% pivot_wider(names_from = Yontem, values_from = RMSE) %>% kbl(caption = "Replikasyon Sayılarına Göre Ortalama Theta RMSE Değerleri", digits = 4) %>% kable_styling(full_width = FALSE, bootstrap_options = c("striped", "hover", "condensed"))
Replikasyon Sayılarına Göre Ortalama Theta RMSE Değerleri
Replikasyon MLE EAP MAP
10 Inf 0.4633 0.4641
50 Inf 0.4720 0.4723
100 Inf 0.4695 0.4699
library(ggplot2)
ggplot(rmse_theta_toplam, aes(x = Replikasyon, 
                              y = log(RMSE), color = Yontem)) +
  geom_line(linewidth = 1.2) +
  geom_point(size = 3) +
  labs(
    title = "Replikasyon Sayısına Göre log(RMSE) Değerleri (Theta Kestirimi)",
    x = "Replikasyon Sayısı",
    y = "log(RMSE)",
    color = "Kestirim Yöntemi") +
  theme_minimal()

  • Grafikte, bireylerin yetenek düzeylerinin kestirimine ilişkin ortalama RMSE değerlerinin logaritmaları, üç farklı tahmin yöntemi (MLE, MAP ve EAP) açısından replikasyon sayısına göre incelenmiştir. Replikasyon sayısı arttıkça tüm kestirim yöntemlerinde RMSE değerlerinin azaldığı görülmektedir; bu durum, simülasyon tekrarlarının artmasının kestirim doğruluğunu artırdığına işaret etmektedir. Özellikle küçük replikasyon sayılarında MLE yöntemi daha yüksek hatalar üretirken, EAP ve MAP yöntemlerinin daha istikrarlı ve düşük RMSE değerleri verdiği gözlemlenmektedir. Replikasyon sayısı 100’e ulaştığında ise tüm yöntemler arasındaki fark belirgin şekilde azalmış ve RMSE değerleri birbirine yaklaşmıştır. Bu bulgular, küçük örneklemlerde bayesyen yaklaşımların (EAP ve MAP) daha güvenilir sonuçlar sunduğunu, ancak yeterli tekrar sayısına ulaşıldığında klasik yöntem olan MLE’nin de benzer performans gösterebildiğini ortaya koymaktadır.

4.3 KAYNAKÇA

  • Kreiner, S., & Christensen, K. B. (2004). Analysis of local dependence and multidimensionality in graphical loglinear Rasch models. Communications in Statistics - Theory and Methods, 33(6), 1239–1276. https://doi.org/10.1081/STA-120030913

  • Marais, I., & Andrich, D. (2008). Formalising dimension and response violations of local independence in the unidimensional Rasch model. Journal of Applied Measurement, 9(3), 200–215.

  • Baghaei, P. (2008). The Rasch model as a construct validation tool. Rasch Measurement Transactions, 22(1), 1145–1146.

  • Kreiner, S., & Christensen, K. B. (2007). Validity and objectivity in health-related scales: analysis by graphical loglinear Rasch models. In Rasch models in health (pp. 329–346). Wiley. https://doi.org/10.1002/9780470317007.ch14

  • Christensen, K. B., Makransky, G., & Horton, M. (2013). Critical values for Yen’s Q3: Identification of local dependence in the Rasch model using residual correlations. Applied Psychological Measurement, 37(8), 599–613.

  • De Ayala, R. J. (2009). The Theory and Practice of Item Response Theory. Guilford Press.

  • Koller, I., Alexandrowicz, R. W., & Hatzinger, R. (2012). Analyzing local dependence of Rasch model parameters: An empirical example. Psychology Science Quarterly, 54(1), 47–63.

  • Bond, T. G., & Fox, C. M. (2015). Applying the Rasch model: Fundamental measurement in the human sciences (3rd ed.). Routledge. https://doi.org/10.4324/9781315814698

  • Wright, B. D., & Masters, G. N. (1982). Rating scale analysis. MESA Press.

  • Linacre, J. M. (2002). What do infit and outfit, mean-square and standardized mean? Rasch Measurement Transactions, 16(2), 878.

  • Bond, T. G., & Fox, C. M. (2015). Applying the Rasch model: Fundamental measurement in the human sciences (3rd ed.). Routledge.

  • Engelhard, G. (2013). Invariant measurement: Using Rasch models in the social, behavioral, and health sciences. Routledge.

  • Hambleton, R. K., Swaminathan, H., & Rogers, H. J. (1991). Fundamentals of item response theory. Sage Publications.

  • Wu, M. L., & Adams, R. J. (2007). Plausible values: Measurement and using them for secondary analysis. IERI Monograph Series.

  • Baker, F. B., & Kim, S. H. (2004). Item Response Theory: Parameter Estimation Techniques. CRC Press.

  • Horn, J. L. (1965). A rationale and test for the number of factors in factor analysis. Psychometrika, 30(2), 179–185. https://doi.org/10.1007/BF02289447

  • Fabrigar, L. R., Wegener, D. T., MacCallum, R. C., & Strahan, E. J. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4(3), 272–299.

  • Costello, A. B., & Osborne, J. W. (2005). Best practices in exploratory factor analysis: Four recommendations for getting the most from your analysis. Practical Assessment, Research & Evaluation, 10(7), 1–9.

  • Embretson, S. E., & Reise, S. P. (2000). Item Response Theory for Psychologists. Mahwah, NJ: Lawrence Erlbaum Associates.


4.3.1 DERS İÇİN ÖNERİLER:

  • Böyle öğretici ve kullanışlı bir ders verdiğiniz ve bize gösterdiğiniz sabırdan dolayı çok teşekkür ederim. Ders sürecinde sorun yaşadığımız anlarda gerekli müdahaleleri yaptığınız için verebileceğim bir önerim bulunmamaktadır.

  • Ayrıca gösterdiğiniz kaynaklar, yollar ve diğer her şey için size minnettarım. 5 dönem daha olsa sizle olmaktan sıkılmam hocam.