/* /* Genel yazı tipi ve sayfa ayarları */
body {
font-family: 'Libre Baskerville', 'Times New Roman', serif; /* Akademik serif yazı tipi */
font-size: 18px;
background-color: #fff0f5; /* Açık pembe arka plan */
color: #880e4f; /* Koyu gül kurusu (akademik zarafeti yansıtan ton) */
}
/* Başlıklar */
h1, h2, h3 {
color: #ad1457; /* Nar çiçeği kırmızısı tonunda başlıklar */
font-weight: bold;
text-transform: uppercase;
font-family: 'Lora', 'Georgia', serif; /* Akademik ve zarif serif başlık fontu */
}
/* İçindekiler tablosu */
.tocify {
background-color: #f8bbd0; /* Yumuşak pembe ton */
border-radius: 5px;
padding: 10px;
font-family: 'Lato', sans-serif; /* Temiz ve okunaklı içerik fontu */
}
/* Kod bloklarının (chunk) arka planı */
pre {
background-color: #fce4ec !important; /* Çok açık pembe arka plan */
color: #880e4f !important; /* Koyu kırmızı tonlu kod yazısı */
padding: 12px;
border-radius: 8px;
font-family: 'Fira Code', 'Courier New', Courier, monospace;
}
/* Inline kodlar */
code {
background-color: #f8bbd0; /* Pembe arka plan */
color: #c2185b; /* Canlı kırmızımsı pembe */
padding: 3px 6px;
border-radius: 4px;
}
/* Grafik ve görseller */
img, .figure {
border: 2px solid #c2185b; /* Kırmızımsı pembe çerçeve */
border-radius: 10px;
padding: 5px;
}library(dplyr)
library(psych)
library(ggplot2)
library(tidyr)
library(tidyverse)
library(QuantPsyc)
library(EFAtools)
library(EFA.MRFA)
library(knitr)
library(data.table)
library(lavaan)
library(lavaanPlot)
library(devtools)
library(DT)
library(tibble)
library(EFAfactors)
library(outliers)
library(foreign)
library(haven)
library(highr)
library(corrplot)
library(semptools)
library(semTools)
library(sur)
library(gtools)
library(irtoys)
library(kableExtra)
library(lattice)
library(ggfortify)
library(latticeExtra)
library(plotly)
library(purrr)
library(rgl)
library(olsrr)
library(scatterplot3d)
library(broom)
library(GGally)
library(stargazer)
library(effectsize)
library(rockchalk)
library(quartets)
library(flextable)
library(apaTables)
library(officer)variable_names <- data.frame(Sıra = seq_along(names(TIMSS)), Degisken_Adi = names(TIMSS))
variable_names %>% kable("html", col.names = c("Sıra No", "Değişken Adı"), align = "c") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% add_header_above(c(" " = 2, "TIMSS 2007 Veri Seti - Değişken İsimleri" = 0))| Sıra No | Değişken Adı |
|---|---|
| 1 | IDSTUD |
| 2 | BS4GSEX |
| 3 | BSMMAT01 |
| 4 | BSDMPATM |
| 5 | BSDMSVM |
| 6 | BSDMSCM |
Değişkenlerden “BS4GSEX” → İKİ KATEGORİLİ değişken; “BSDMPATM”, “BSDMSVM” ve “BSDMSCM” → ÇOK KATEGORİLİ değişkenler; ve “BSMMAT01” → SÜREKLİ değişkendir.
IDSTUD → “ID”
BS4GSEX → Öğrencinin Cinsiyeti (1 = Erkek, 2 = Kız) → “cinsiyet”
BSMMAT01 → Matematik Dersini Sevme Düzeyi → “sevme”
BSDMPATM → Öğrencinin Matematikteki Akademik Öz-Yeterlik Algısı → “algi”
BSDMSVM → Öğrencinin Matematiğe Karşı Değer Verme Düzeyi → “degerverme”
BSDMSCM → Öğrencinin Matematik Kaygısı Düzeyi → “kaygi”
Yeniden Türkçe olarak isimlendirme:
Verinin bilgisayarda veri dosyasına girilmesi sırasında → hata yapılabilir ve bu hatalar → analizleri ÖNEMLİ ÖLÇÜDE etkileyebilir.
Büyük veri dosyaları içinse → her bir değişkene ait betimleyici istatistikler ve değişkenlerin → grafik sunumları kontrol edilir.
Herhangi bir değişkene ait aralık dışı bir değer bulunduğunda → bu değerin hangi bireye ait oldugunu bulmak için → degisken küçükten büyüğe veya büyükten küçüğe → sıralanabilir.
Hatalı değer bulunduktan sonra:
eğer orijinal veriye ulaşmak mümkünse bu değer düzeltilir;
eğer orijinal veriye ulasmak mümkün değil ise → ilgili değer boş bırakılır ve kayıp veri olarak degerlendirilir.
Hatalar düzeltildikten sonra → veri dosyasının doğruluğu TEKRAR kontrol edilir → bazen bir hata düzeltilirken yanlışlıkla başka bir hata yapılabilir.
Veri setini incelemek için → temel fonksiyonları kullanma:
## ID cinsiyet sevme algi
## Min. : 10111 Min. : 1.000 Min. : 47.88 Min. :1.00
## 1st Qu.: 360421 1st Qu.: 1.000 1st Qu.:366.57 1st Qu.:1.00
## Median : 720204 Median : 2.000 Median :432.21 Median :1.00
## Mean : 747826 Mean : 1.588 Mean :446.86 Mean :1.26
## 3rd Qu.:1125212 3rd Qu.: 2.000 3rd Qu.:535.90 3rd Qu.:1.00
## Max. :1500466 Max. :22.000 Max. :802.42 Max. :3.00
## NA's :23
## degerverme kaygi
## Min. : 1.000 Min. :1.000
## 1st Qu.: 1.000 1st Qu.:1.000
## Median : 1.000 Median :2.000
## Mean : 1.165 Mean :1.719
## 3rd Qu.: 1.000 3rd Qu.:2.000
## Max. :11.000 Max. :3.000
## NA's :7 NA's :21
ozet_tablo <- TIMSS %>% select(where(is.numeric)) %>% summary() %>% as.data.frame.matrix() %>% t() %>% as.data.frame() %>% rownames_to_column(var = "Degisken")
colnames(ozet_tablo) <- c("Değişken", "Min", "1. Çeyrek", "Medyan", "Ortalama", "3. Çeyrek", "Maks")
ozet_tablo %>% kable("html", align = "c", caption = "TIMSS 2007 Veri Seti: Betimsel İstatistikler") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed"), full_width = F)| Değişken | Min |
|
Medyan | Ortalama |
|
Maks | NA |
|---|---|---|---|---|---|---|---|
| ID | Min. : 10111 | 1st Qu.: 360421 | Median : 720204 | Mean : 747826 | 3rd Qu.:1125212 | Max. :1500466 | NA |
| cinsiyet | Min. : 1.000 | 1st Qu.: 1.000 | Median : 2.000 | Mean : 1.588 | 3rd Qu.: 2.000 | Max. :22.000 | NA |
| sevme | Min. : 47.88 | 1st Qu.:366.57 | Median :432.21 | Mean :446.86 | 3rd Qu.:535.90 | Max. :802.42 | NA |
| algi | Min. :1.00 | 1st Qu.:1.00 | Median :1.00 | Mean :1.26 | 3rd Qu.:1.00 | Max. :3.00 | NA’s :23 |
| degerverme | Min. : 1.000 | 1st Qu.: 1.000 | Median : 1.000 | Mean : 1.165 | 3rd Qu.: 1.000 | Max. :11.000 | NA’s :7 |
| kaygi | Min. :1.000 | 1st Qu.:1.000 | Median :2.000 | Mean :1.719 | 3rd Qu.:2.000 | Max. :3.000 | NA’s :21 |
betimsel <- psych::describe(TIMSS[,-1]) %>% round(2) %>% as.data.frame() %>% tibble::rownames_to_column(var = "Değişken")
colnames(betimsel) <- c("Değişken", "Vars", "n", "Ortalama", "Standart Sapma", "Kırpılmış", "Mad", "Medyan", "Minimum", "Maksimum", "Ranj", "Çarpıklık", "Basıklık", "Standart Hata")
betimsel %>% kable("html", align = "c", caption = "TIMSS 2007 Veri Seti – Betimsel İstatistikler (psych::describe)") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive"))| Değişken | Vars | n | Ortalama | Standart Sapma | Kırpılmış | Mad | Medyan | Minimum | Maksimum | Ranj | Çarpıklık | Basıklık | Standart Hata |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| cinsiyet | 1 | 323 | 1.59 | 1.24 | 2.00 | 1.53 | 0.00 | 1.00 | 22.00 | 21.00 | 13.65 | 221.50 | 0.07 |
| sevme | 2 | 323 | 446.86 | 119.85 | 432.21 | 443.82 | 122.09 | 47.88 | 802.42 | 754.54 | 0.21 | -0.08 | 6.67 |
| algi | 3 | 300 | 1.26 | 0.57 | 1.00 | 1.12 | 0.00 | 1.00 | 3.00 | 2.00 | 2.08 | 3.11 | 0.03 |
| degerverme | 4 | 316 | 1.16 | 0.67 | 1.00 | 1.03 | 0.00 | 1.00 | 11.00 | 10.00 | 10.30 | 140.91 | 0.04 |
| kaygi | 5 | 302 | 1.72 | 0.80 | 2.00 | 1.65 | 1.48 | 1.00 | 3.00 | 2.00 | 0.54 | -1.23 | 0.05 |
1. Cinsiyet
Ortalama: 1.59 olup → bu değişkenin 1 = Erkek, 2 = Kız şeklinde kodlandığında → örneklemde kız öğrenci oranı daha fazladır.
Standart sapma: 0.49 ile → oldukça DÜŞÜKtür → bu da cinsiyet dağılımında büyük bir değişkenlik OLMADIĞINI gösterir.
Minimum = 1, Maksimum = 2 olduğu için → değişken iki kategoriden oluşmaktadır (ikili yapıya sahiptir).
Çarpıklık = 0.13, Basıklık = 13.65: Çarpıklık değeri → sıfıra yakın olduğu için dağılım simetriktir; ancak YÜKSEK basıklık değeri → verinin normal dağılım varsayımından saptığını gösterir → çünkü büyük olasılıkla kategorik yapısından dolayı!
2. Sevme (Matematiği Sevme)
Ortalama = 446.86 → bu değişkenin muhtemelen indeks puanı olduğu anlaşılmakta → çünkü TIMSS tutum ölçeklerinde sıkça kullanılır.
Standart sapma = 119.85 → dağılımın ortalama etrafında oldukça geniş olduğunu gösterir.
Minimum = 47.88, Maksimum = 802.42 → Bu değerler → öğrenci yanıtları arasında büyük farklılıklar olduğunu ve öğrencilerin matematik dersine yönelik tutumlarının → oldukça değişken olduğunu ortaya koymaktadır.
Çarpıklık = 0.21 ve basıklık = -0.08 ile → dağılımın normal dağılıma oldukça yakın olduğu söylenebilir.
3. Algı (Matematikte Öz-Yeterlik)
Ortalama = 1.26, minimum = 1.00, maksimum = 3.00 → Ortalama değerin düşük olması → öğrencilerin matematikte öz-yeterlik algılarının genelde düşük olduğunu göstermektedir.
Standart sapma = 0.57 → Orta düzeyde bir değişkenlik olduğunu gösterir.
Çarpıklık = 2.08, basıklık = 3.11 → Bu değerler → dağılımın pozitif çarpık ve baskın (leptokurtik) olduğunu gösterir. Yani, verilerin büyük kısmı → düşük öz-yeterlik düzeyinde toplanmıştır.
4. Değer Verme (Matematiğe Verilen Değer)
Ortalama = 1.16 → çok düşük bir ortalama olup öğrencilerin matematiğe verdiği değerin DÜŞÜK olduğunu göstermektedir.
Standart sapma = 0.67, orta düzey bir değişkenliği işaret eder.
Çarpıklık = 10.30, basıklık = 140.91 gibi çok uç değerler → dağılımın ciddi derecede pozitif çarpık ve baskın olduğunu göstermektedir.
5. Kaygı (Matematik Kaygısı)
Ortalama = 1.72 → düşük düzeyde kaygıya işaret eder; ancak tam yorum → kullanılan ölçeğin YÖNÜNE bağlıdır.
Standart sapma = 0.80 → ortalama etrafında orta düzey bir varyasyonu gösterir.
Çarpıklık = 0.54 → dağılımın biraz pozitif çarpık olduğunu → yani öğrencilerin çoğunun düşük kaygı düzeyinde bulunduğunu ancak birkaç öğrencinin yüksek kaygı bildirdiğini gösterir.
Basıklık = -1.23 → dağılımın basık (platykurtik) olduğunu → yani uç değerlerin daha az ve veri setinin daha yayvan bir dağılıma sahip olduğunu gösterir.
TIMSS 2007 örnekleminde öğrencilerin genel olarak matematiğe karşı öz-yeterlik algılarının ve değer verme tutumlarının düşük, matematik kaygılarının ise az olduğu görülmektedir. Dağılım özellikleri açısından çarpıklık ve basıklık değerleri, normal dağılımdan sapmalar olduğunu ortaya koymaktadır.
gtsummary paketini kullanarak → sunuma hazır tablolar oluşturma:
library(kableExtra)
library(dplyr)
library(gtsummary)
TIMSS %>% tbl_summary(statistic = list(all_continuous() ~ "{mean} ± {sd}", all_categorical() ~ "{n} ({p}%)"), missing = "always", digits = all_continuous() ~ 2) %>% modify_header(label = "**Değişken**") %>% modify_caption("**TIMSS 2007 – Betimsel İstatistik Tablosu**") %>% bold_labels()| Değişken | N = 3231 |
|---|---|
| ID | 747,825.67 ± 440,511.61 |
| Unknown | 0 |
| cinsiyet | |
| 1 | 153 (47%) |
| 2 | 169 (52%) |
| 22 | 1 (0.3%) |
| Unknown | 0 |
| sevme | 446.86 ± 119.85 |
| Unknown | 0 |
| algi | |
| 1 | 242 (81%) |
| 2 | 38 (13%) |
| 3 | 20 (6.7%) |
| Unknown | 23 |
| degerverme | |
| 1 | 278 (88%) |
| 2 | 32 (10%) |
| 3 | 5 (1.6%) |
| 11 | 1 (0.3%) |
| Unknown | 7 |
| kaygi | |
| 1 | 150 (50%) |
| 2 | 87 (29%) |
| 3 | 65 (22%) |
| Unknown | 21 |
| 1 Mean ± SD; n (%) | |
| Variable | NotNA | Min | Max |
|---|---|---|---|
| cinsiyet | 323 | 1 | 22 |
| sevme | 323 | 48 | 802 |
| degerverme | 316 | 1 | 11 |
st(TIMSS[,-1], summ = c('notNA(x)','min(x)','max(x)'), summ.names = c('Frekans','Minimum','Maximum'))| Variable | Frekans | Minimum | Maximum |
|---|---|---|---|
| cinsiyet | 323 | 1 | 22 |
| sevme | 323 | 48 | 802 |
| degerverme | 316 | 1 | 11 |
sumtable(TIMSS[ , 1:5], summ = c('notNA(x)', 'min(x)', 'max(x)'), summ.names = c('Gecerli Gozlem', 'Minimum', 'Maksimum'), digits = 2, title = "TIMSS 2007 – Degisken Ozeti (Min – Max – Frekans)", label = T)| Variable | Gecerli Gozlem | Minimum | Maksimum |
|---|---|---|---|
| ID | 323 | 10111 | 1500466 |
| cinsiyet | 323 | 1 | 22 |
| sevme | 323 | 48 | 802 |
| degerverme | 316 | 1 | 11 |
st(TIMSS[ , 1:5], summ = c('notNA(x)', 'min(x)', 'max(x)'), summ.names = c('Gecerli Gozlem', 'Minimum', 'Maksimum'), digits = 2, labels = T, title = "TIMSS 2007 – Betimsel Istatistik Ozeti")| Variable | Gecerli Gozlem | Minimum | Maksimum |
|---|---|---|---|
| ID | 323 | 10111 | 1500466 |
| cinsiyet | 323 | 1 | 22 |
| sevme | 323 | 48 | 802 |
| degerverme | 316 | 1 | 11 |
library(skimr)
library(dplyr)
library(kableExtra)
skim_tablosu <- skim(TIMSS[ , -1]) %>% filter(skim_type == "numeric") %>% select(skim_variable, n_missing, complete_rate, numeric.mean, numeric.sd, numeric.p0, numeric.p25, numeric.p50, numeric.p75, numeric.p100) %>% mutate(across(where(is.numeric), ~round(., 2)))
colnames(skim_tablosu) <- c("Değişken", "Eksik", "Tamamlanma Oranı", "Ortalama", "Standart Sapma", "Minimum", "1. Çeyrek", "Medyan", "3. Çeyrek", "Maksimum")
skim_tablosu %>% kable("html", caption = "Tablo 2. TIMSS 2007 Değişkenlerine Ait Özet İstatistikler (skimr)", align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Değişken | Eksik | Tamamlanma Oranı | Ortalama | Standart Sapma | Minimum |
|
Medyan |
|
Maksimum |
|---|---|---|---|---|---|---|---|---|---|
| cinsiyet | 0 | 1.00 | 1.59 | 1.24 | 1.00 | 1.00 | 2.00 | 2.0 | 22.00 |
| sevme | 0 | 1.00 | 446.86 | 119.85 | 47.88 | 366.57 | 432.21 | 535.9 | 802.42 |
| algi | 23 | 0.93 | 1.26 | 0.57 | 1.00 | 1.00 | 1.00 | 1.0 | 3.00 |
| degerverme | 7 | 0.98 | 1.16 | 0.67 | 1.00 | 1.00 | 1.00 | 1.0 | 11.00 |
| kaygi | 21 | 0.93 | 1.72 | 0.80 | 1.00 | 1.00 | 2.00 | 2.0 | 3.00 |
## | | | 0% | |. | 2% | |.. | 5% [global_options] | |... | 7% | |.... | 10% [introduce] | |.... | 12% | |..... | 14% [plot_intro]
## | |...... | 17% | |....... | 19% [data_structure] | |........ | 21% | |......... | 24% [missing_profile]
## | |.......... | 26% | |........... | 29% [univariate_distribution_header] | |........... | 31% | |............ | 33% [plot_histogram]
## | |............. | 36% | |.............. | 38% [plot_density] | |............... | 40% | |................ | 43% [plot_frequency_bar] | |................. | 45% | |.................. | 48% [plot_response_bar] | |.................. | 50% | |................... | 52% [plot_with_bar] | |.................... | 55% | |..................... | 57% [plot_normal_qq]
## | |...................... | 60% | |....................... | 62% [plot_response_qq] | |........................ | 64% | |......................... | 67% [plot_by_qq] | |.......................... | 69% | |.......................... | 71% [correlation_analysis]
## | |........................... | 74% | |............................ | 76% [principal_component_analysis]
## | |............................. | 79% | |.............................. | 81% [bivariate_distribution_header] | |............................... | 83% | |................................ | 86% [plot_response_boxplot] | |................................. | 88% | |................................. | 90% [plot_by_boxplot] | |.................................. | 93% | |................................... | 95% [plot_response_scatterplot] | |.................................... | 98% | |.....................................| 100% [plot_by_scatterplot]
## "C:/Program Files/RStudio/resources/app/bin/quarto/bin/tools/pandoc" +RTS -K512m -RTS "C:\Users\User\Desktop\report.knit.md" --to html4 --from markdown+autolink_bare_uris+tex_math_single_backslash --output pandoc2cc819f36009.html --lua-filter "C:\Users\User\AppData\Local\R\win-library\4.4\rmarkdown\rmarkdown\lua\pagebreak.lua" --lua-filter "C:\Users\User\AppData\Local\R\win-library\4.4\rmarkdown\rmarkdown\lua\latex-div.lua" --embed-resources --standalone --variable bs3=TRUE --section-divs --table-of-contents --toc-depth 6 --template "C:\Users\User\AppData\Local\R\win-library\4.4\rmarkdown\rmd\h\default.html" --no-highlight --variable highlightjs=1 --variable theme=yeti --mathjax --variable "mathjax-url=https://mathjax.rstudio.com/latest/MathJax.js?config=TeX-AMS-MML_HTMLorMML" --include-in-header "C:\Users\User\AppData\Local\Temp\RtmpYFT2pt\rmarkdown-str2cc87de47c10.html"
## variable q_zeros p_zeros q_na p_na q_inf p_inf type unique
## 1 ID 0 0 0 0.00 0 0 numeric 323
## 2 cinsiyet 0 0 0 0.00 0 0 numeric 3
## 3 sevme 0 0 0 0.00 0 0 numeric 323
## 4 algi 0 0 23 7.12 0 0 numeric 3
## 5 degerverme 0 0 7 2.17 0 0 numeric 4
## 6 kaygi 0 0 21 6.50 0 0 numeric 3
## variable q_zeros p_zeros q_na p_na q_inf p_inf type unique
## 1 ID 0 0 0 0.00 0 0 numeric 323
## 2 cinsiyet 0 0 0 0.00 0 0 numeric 3
## 3 sevme 0 0 0 0.00 0 0 numeric 323
## 4 algi 0 0 23 7.12 0 0 numeric 3
## 5 degerverme 0 0 7 2.17 0 0 numeric 4
## 6 kaygi 0 0 21 6.50 0 0 numeric 3
colnames(df_ozet) <- c("Değişken", "Veri Tipi", "Eksik Gözlem", "Boş Değer (%)", "Sıfır Sayısı", "Benzersiz Değer Sayısı", "En Uzun", "En Kısa")
df_ozet %>% kable("html", caption = "Tablo 3. TIMSS 2007 Değişkenlerinin Veri Durumu Özeti (df_status)", align = "c") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Değişken | Veri Tipi | Eksik Gözlem | Boş Değer (%) | Sıfır Sayısı | Benzersiz Değer Sayısı | En Uzun | En Kısa | NA |
|---|---|---|---|---|---|---|---|---|
| ID | 0 | 0 | 0 | 0.00 | 0 | 0 | numeric | 323 |
| cinsiyet | 0 | 0 | 0 | 0.00 | 0 | 0 | numeric | 3 |
| sevme | 0 | 0 | 0 | 0.00 | 0 | 0 | numeric | 323 |
| algi | 0 | 0 | 23 | 7.12 | 0 | 0 | numeric | 3 |
| degerverme | 0 | 0 | 7 | 2.17 | 0 | 0 | numeric | 4 |
| kaygi | 0 | 0 | 21 | 6.50 | 0 | 0 | numeric | 3 |
Kayıp veri → veri analizindeki en yaygın problemlerden biridir.
Kayıp verinin önemi → kayıp verinin miktarına, örüntüsüne ve neden eksik olduğuna bağlıdır.
Bir değişkene ait beklenmeyen miktarda kayıp veri varsa → ilk olarak bunun nedeni araştırılmalıdır.
Genellikle kayıp verinin örüntüsü → miktarından daha önemlidir.
Kayıp veri türleri arasındaki ayrım 1976 yılında Rubin tarafından yapılmıştır.
MCAR veya MAR için kayıp verinin bulunduğu değişkenin → bir bireyin o değişkende kayıp veriye sahip olup olmaması ile ilgili olmaması gerekir.
MCAR ve MAR arasındaki fark ise → veri setindeki diğer değişkenlerin bir gözlemin belli bir değişkende kayıp veriye sahip olup olmaması ile ilişkili olup olmamasıdır.
MAR türünde → veri gerçekte rastlantısal olarak kayıp degildir, veri kaybı veri setindeki degiskenlerden bazılarına baglıdır.
Kayıp veri en azından MAR türünde değilse → kayıp verinin ihmal edilemeyecegi söylenir ve bu türdeki kayıp veri → rastlantısal olarak kayıp değil veya ihmal edilemez olarak adlandırılır.
Büyük bir veri setinde → verinin %5’i veya daha azı → rastlantısal olarak kayıpsa → çok ciddi problemlerle karsılasılmaz ve kayıp veri ile ilgili problemleri çözmek için kullanılan herhangi bir yöntem benzer sonuçlar verir.
Halbuki küçük veya orta büyüklükteki bir veri setinde → çok sayıda veri kaybı varsa ciddi problemler ortaya çıkabilir.
Veri setinde → herhangi bir kayıp değer olup olmadığını kontrol etme:
## [1] TRUE
“TRUE” → Kayıp veri olduğunu göstermektedir!
Veri setindeki toplam kayıp değer sayısını ve oranını hesaplama:
## [1] 51
## [1] 0.02631579
0.02631579 → kayıp veri oranı
Her bir değişkendeki kayıp değer sayısını hesaplama:
## ID cinsiyet sevme algi degerverme kaygi
## 0 0 0 23 7 21
library(dplyr)
library(knitr)
library(kableExtra)
eksik_veri <- TIMSS %>% is.na() %>% colSums() %>% as.data.frame() %>% tibble::rownames_to_column(var = "Değişken")
colnames(eksik_veri) <- c("Değişken", "Eksik Gözlem Sayısı")
eksik_veri %>% kable("html", caption = "Tablo 4. TIMSS 2007 Değişkenlerine Ait Eksik Veri Sayıları", align = "c") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Değişken | Eksik Gözlem Sayısı |
|---|---|
| ID | 0 |
| cinsiyet | 0 |
| sevme | 0 |
| algi | 23 |
| degerverme | 7 |
| kaygi | 21 |
eksik_veri <- TIMSS %>% summarise(across(everything(), ~sum(is.na(.)))) %>% pivot_longer(cols = everything(), names_to = "Değişken", values_to = "Eksik Gözlem Sayısı") %>% mutate(Eksik_Yüzde = round((`Eksik Gözlem Sayısı` / nrow(TIMSS)) * 100, 2))
eksik_veri %>% kable("html", caption = "Tablo 5. TIMSS 2007 Veri Setinde Eksik Gözlem Sayıları ve Yüzdeleri", align = "c", digits = 2) %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Değişken | Eksik Gözlem Sayısı | Eksik_Yüzde |
|---|---|---|
| ID | 0 | 0.00 |
| cinsiyet | 0 | 0.00 |
| sevme | 0 | 0.00 |
| algi | 23 | 7.12 |
| degerverme | 7 | 2.17 |
| kaygi | 21 | 6.50 |
library(naniar)
library(kableExtra)
library(dplyr)
eksik_ozet <- miss_var_summary(TIMSS)
colnames(eksik_ozet) <- c("Değişken", "Eksik Gözlem Sayısı", "Eksik Yüzde")
eksik_ozet %>% mutate(`Eksik Yüzde` = round(`Eksik Yüzde`, 2)) %>% kable("html", caption = "Tablo 6. TIMSS 2007 Veri Setinde Değişken Bazında Eksik Gözlem Özeti", align = "c", digits = 2) %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Değişken | Eksik Gözlem Sayısı | Eksik Yüzde |
|---|---|---|
| algi | 23 | 7.12 |
| kaygi | 21 | 6.5 |
| degerverme | 7 | 2.17 |
| ID | 0 | 0 |
| cinsiyet | 0 | 0 |
| sevme | 0 | 0 |
library(naniar)
library(kableExtra)
library(dplyr)
eksik_tablo <- miss_var_table(TIMSS)
colnames(eksik_tablo) <- c("Değişken", "Eksik Gözlem Sayısı", "Eksik Yüzde")
eksik_tablo %>% mutate(`Eksik Yüzde` = round(`Eksik Yüzde`, 2)) %>% kable("html", caption = "Tablo 7. Eksik Gözlem İçeren Değişkenler (miss_var_table)", align = "c", digits = 2) %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Değişken | Eksik Gözlem Sayısı | Eksik Yüzde |
|---|---|---|
| 0 | 3 | 50.00 |
| 7 | 1 | 16.67 |
| 21 | 1 | 16.67 |
| 23 | 1 | 16.67 |
library(naniar)
library(kableExtra)
library(dplyr)
eksik_birey <- miss_case_summary(TIMSS)
colnames(eksik_birey) <- c("Gözlem No", "Eksik Gözlem Sayısı", "Eksik Yüzde")
eksik_birey %>% mutate(`Eksik Yüzde` = round(`Eksik Yüzde`, 2)) %>% kable("html", caption = "Tablo 8. TIMSS 2007 Veri Setinde Gözlem Bazında Eksik Gözlem Özeti", align = "c", digits = 2) %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "400px")| Gözlem No | Eksik Gözlem Sayısı | Eksik Yüzde |
|---|---|---|
| 40 | 3 | 50.00 |
| 73 | 3 | 50.00 |
| 97 | 3 | 50.00 |
| 105 | 3 | 50.00 |
| 117 | 3 | 50.00 |
| 157 | 3 | 50.00 |
| 156 | 2 | 33.33 |
| 268 | 2 | 33.33 |
| 299 | 2 | 33.33 |
| 321 | 2 | 33.33 |
| 5 | 1 | 16.67 |
| 8 | 1 | 16.67 |
| 13 | 1 | 16.67 |
| 26 | 1 | 16.67 |
| 44 | 1 | 16.67 |
| 49 | 1 | 16.67 |
| 77 | 1 | 16.67 |
| 80 | 1 | 16.67 |
| 109 | 1 | 16.67 |
| 123 | 1 | 16.67 |
| 126 | 1 | 16.67 |
| 135 | 1 | 16.67 |
| 140 | 1 | 16.67 |
| 160 | 1 | 16.67 |
| 161 | 1 | 16.67 |
| 163 | 1 | 16.67 |
| 176 | 1 | 16.67 |
| 191 | 1 | 16.67 |
| 200 | 1 | 16.67 |
| 211 | 1 | 16.67 |
| 256 | 1 | 16.67 |
| 287 | 1 | 16.67 |
| 304 | 1 | 16.67 |
| 320 | 1 | 16.67 |
| 323 | 1 | 16.67 |
| 1 | 0 | 0.00 |
| 2 | 0 | 0.00 |
| 3 | 0 | 0.00 |
| 4 | 0 | 0.00 |
| 6 | 0 | 0.00 |
| 7 | 0 | 0.00 |
| 9 | 0 | 0.00 |
| 10 | 0 | 0.00 |
| 11 | 0 | 0.00 |
| 12 | 0 | 0.00 |
| 14 | 0 | 0.00 |
| 15 | 0 | 0.00 |
| 16 | 0 | 0.00 |
| 17 | 0 | 0.00 |
| 18 | 0 | 0.00 |
| 19 | 0 | 0.00 |
| 20 | 0 | 0.00 |
| 21 | 0 | 0.00 |
| 22 | 0 | 0.00 |
| 23 | 0 | 0.00 |
| 24 | 0 | 0.00 |
| 25 | 0 | 0.00 |
| 27 | 0 | 0.00 |
| 28 | 0 | 0.00 |
| 29 | 0 | 0.00 |
| 30 | 0 | 0.00 |
| 31 | 0 | 0.00 |
| 32 | 0 | 0.00 |
| 33 | 0 | 0.00 |
| 34 | 0 | 0.00 |
| 35 | 0 | 0.00 |
| 36 | 0 | 0.00 |
| 37 | 0 | 0.00 |
| 38 | 0 | 0.00 |
| 39 | 0 | 0.00 |
| 41 | 0 | 0.00 |
| 42 | 0 | 0.00 |
| 43 | 0 | 0.00 |
| 45 | 0 | 0.00 |
| 46 | 0 | 0.00 |
| 47 | 0 | 0.00 |
| 48 | 0 | 0.00 |
| 50 | 0 | 0.00 |
| 51 | 0 | 0.00 |
| 52 | 0 | 0.00 |
| 53 | 0 | 0.00 |
| 54 | 0 | 0.00 |
| 55 | 0 | 0.00 |
| 56 | 0 | 0.00 |
| 57 | 0 | 0.00 |
| 58 | 0 | 0.00 |
| 59 | 0 | 0.00 |
| 60 | 0 | 0.00 |
| 61 | 0 | 0.00 |
| 62 | 0 | 0.00 |
| 63 | 0 | 0.00 |
| 64 | 0 | 0.00 |
| 65 | 0 | 0.00 |
| 66 | 0 | 0.00 |
| 67 | 0 | 0.00 |
| 68 | 0 | 0.00 |
| 69 | 0 | 0.00 |
| 70 | 0 | 0.00 |
| 71 | 0 | 0.00 |
| 72 | 0 | 0.00 |
| 74 | 0 | 0.00 |
| 75 | 0 | 0.00 |
| 76 | 0 | 0.00 |
| 78 | 0 | 0.00 |
| 79 | 0 | 0.00 |
| 81 | 0 | 0.00 |
| 82 | 0 | 0.00 |
| 83 | 0 | 0.00 |
| 84 | 0 | 0.00 |
| 85 | 0 | 0.00 |
| 86 | 0 | 0.00 |
| 87 | 0 | 0.00 |
| 88 | 0 | 0.00 |
| 89 | 0 | 0.00 |
| 90 | 0 | 0.00 |
| 91 | 0 | 0.00 |
| 92 | 0 | 0.00 |
| 93 | 0 | 0.00 |
| 94 | 0 | 0.00 |
| 95 | 0 | 0.00 |
| 96 | 0 | 0.00 |
| 98 | 0 | 0.00 |
| 99 | 0 | 0.00 |
| 100 | 0 | 0.00 |
| 101 | 0 | 0.00 |
| 102 | 0 | 0.00 |
| 103 | 0 | 0.00 |
| 104 | 0 | 0.00 |
| 106 | 0 | 0.00 |
| 107 | 0 | 0.00 |
| 108 | 0 | 0.00 |
| 110 | 0 | 0.00 |
| 111 | 0 | 0.00 |
| 112 | 0 | 0.00 |
| 113 | 0 | 0.00 |
| 114 | 0 | 0.00 |
| 115 | 0 | 0.00 |
| 116 | 0 | 0.00 |
| 118 | 0 | 0.00 |
| 119 | 0 | 0.00 |
| 120 | 0 | 0.00 |
| 121 | 0 | 0.00 |
| 122 | 0 | 0.00 |
| 124 | 0 | 0.00 |
| 125 | 0 | 0.00 |
| 127 | 0 | 0.00 |
| 128 | 0 | 0.00 |
| 129 | 0 | 0.00 |
| 130 | 0 | 0.00 |
| 131 | 0 | 0.00 |
| 132 | 0 | 0.00 |
| 133 | 0 | 0.00 |
| 134 | 0 | 0.00 |
| 136 | 0 | 0.00 |
| 137 | 0 | 0.00 |
| 138 | 0 | 0.00 |
| 139 | 0 | 0.00 |
| 141 | 0 | 0.00 |
| 142 | 0 | 0.00 |
| 143 | 0 | 0.00 |
| 144 | 0 | 0.00 |
| 145 | 0 | 0.00 |
| 146 | 0 | 0.00 |
| 147 | 0 | 0.00 |
| 148 | 0 | 0.00 |
| 149 | 0 | 0.00 |
| 150 | 0 | 0.00 |
| 151 | 0 | 0.00 |
| 152 | 0 | 0.00 |
| 153 | 0 | 0.00 |
| 154 | 0 | 0.00 |
| 155 | 0 | 0.00 |
| 158 | 0 | 0.00 |
| 159 | 0 | 0.00 |
| 162 | 0 | 0.00 |
| 164 | 0 | 0.00 |
| 165 | 0 | 0.00 |
| 166 | 0 | 0.00 |
| 167 | 0 | 0.00 |
| 168 | 0 | 0.00 |
| 169 | 0 | 0.00 |
| 170 | 0 | 0.00 |
| 171 | 0 | 0.00 |
| 172 | 0 | 0.00 |
| 173 | 0 | 0.00 |
| 174 | 0 | 0.00 |
| 175 | 0 | 0.00 |
| 177 | 0 | 0.00 |
| 178 | 0 | 0.00 |
| 179 | 0 | 0.00 |
| 180 | 0 | 0.00 |
| 181 | 0 | 0.00 |
| 182 | 0 | 0.00 |
| 183 | 0 | 0.00 |
| 184 | 0 | 0.00 |
| 185 | 0 | 0.00 |
| 186 | 0 | 0.00 |
| 187 | 0 | 0.00 |
| 188 | 0 | 0.00 |
| 189 | 0 | 0.00 |
| 190 | 0 | 0.00 |
| 192 | 0 | 0.00 |
| 193 | 0 | 0.00 |
| 194 | 0 | 0.00 |
| 195 | 0 | 0.00 |
| 196 | 0 | 0.00 |
| 197 | 0 | 0.00 |
| 198 | 0 | 0.00 |
| 199 | 0 | 0.00 |
| 201 | 0 | 0.00 |
| 202 | 0 | 0.00 |
| 203 | 0 | 0.00 |
| 204 | 0 | 0.00 |
| 205 | 0 | 0.00 |
| 206 | 0 | 0.00 |
| 207 | 0 | 0.00 |
| 208 | 0 | 0.00 |
| 209 | 0 | 0.00 |
| 210 | 0 | 0.00 |
| 212 | 0 | 0.00 |
| 213 | 0 | 0.00 |
| 214 | 0 | 0.00 |
| 215 | 0 | 0.00 |
| 216 | 0 | 0.00 |
| 217 | 0 | 0.00 |
| 218 | 0 | 0.00 |
| 219 | 0 | 0.00 |
| 220 | 0 | 0.00 |
| 221 | 0 | 0.00 |
| 222 | 0 | 0.00 |
| 223 | 0 | 0.00 |
| 224 | 0 | 0.00 |
| 225 | 0 | 0.00 |
| 226 | 0 | 0.00 |
| 227 | 0 | 0.00 |
| 228 | 0 | 0.00 |
| 229 | 0 | 0.00 |
| 230 | 0 | 0.00 |
| 231 | 0 | 0.00 |
| 232 | 0 | 0.00 |
| 233 | 0 | 0.00 |
| 234 | 0 | 0.00 |
| 235 | 0 | 0.00 |
| 236 | 0 | 0.00 |
| 237 | 0 | 0.00 |
| 238 | 0 | 0.00 |
| 239 | 0 | 0.00 |
| 240 | 0 | 0.00 |
| 241 | 0 | 0.00 |
| 242 | 0 | 0.00 |
| 243 | 0 | 0.00 |
| 244 | 0 | 0.00 |
| 245 | 0 | 0.00 |
| 246 | 0 | 0.00 |
| 247 | 0 | 0.00 |
| 248 | 0 | 0.00 |
| 249 | 0 | 0.00 |
| 250 | 0 | 0.00 |
| 251 | 0 | 0.00 |
| 252 | 0 | 0.00 |
| 253 | 0 | 0.00 |
| 254 | 0 | 0.00 |
| 255 | 0 | 0.00 |
| 257 | 0 | 0.00 |
| 258 | 0 | 0.00 |
| 259 | 0 | 0.00 |
| 260 | 0 | 0.00 |
| 261 | 0 | 0.00 |
| 262 | 0 | 0.00 |
| 263 | 0 | 0.00 |
| 264 | 0 | 0.00 |
| 265 | 0 | 0.00 |
| 266 | 0 | 0.00 |
| 267 | 0 | 0.00 |
| 269 | 0 | 0.00 |
| 270 | 0 | 0.00 |
| 271 | 0 | 0.00 |
| 272 | 0 | 0.00 |
| 273 | 0 | 0.00 |
| 274 | 0 | 0.00 |
| 275 | 0 | 0.00 |
| 276 | 0 | 0.00 |
| 277 | 0 | 0.00 |
| 278 | 0 | 0.00 |
| 279 | 0 | 0.00 |
| 280 | 0 | 0.00 |
| 281 | 0 | 0.00 |
| 282 | 0 | 0.00 |
| 283 | 0 | 0.00 |
| 284 | 0 | 0.00 |
| 285 | 0 | 0.00 |
| 286 | 0 | 0.00 |
| 288 | 0 | 0.00 |
| 289 | 0 | 0.00 |
| 290 | 0 | 0.00 |
| 291 | 0 | 0.00 |
| 292 | 0 | 0.00 |
| 293 | 0 | 0.00 |
| 294 | 0 | 0.00 |
| 295 | 0 | 0.00 |
| 296 | 0 | 0.00 |
| 297 | 0 | 0.00 |
| 298 | 0 | 0.00 |
| 300 | 0 | 0.00 |
| 301 | 0 | 0.00 |
| 302 | 0 | 0.00 |
| 303 | 0 | 0.00 |
| 305 | 0 | 0.00 |
| 306 | 0 | 0.00 |
| 307 | 0 | 0.00 |
| 308 | 0 | 0.00 |
| 309 | 0 | 0.00 |
| 310 | 0 | 0.00 |
| 311 | 0 | 0.00 |
| 312 | 0 | 0.00 |
| 313 | 0 | 0.00 |
| 314 | 0 | 0.00 |
| 315 | 0 | 0.00 |
| 316 | 0 | 0.00 |
| 317 | 0 | 0.00 |
| 318 | 0 | 0.00 |
| 319 | 0 | 0.00 |
| 322 | 0 | 0.00 |
library(naniar)
library(kableExtra)
library(dplyr)
eksik_ozet <- miss_case_table(TIMSS)
colnames(eksik_ozet) <- c("Eksik Değişken Sayısı", "Gözlem Sayısı")
eksik_ozet %>% kable("html", caption = "Tablo 9. Eksik Değişken Sayısına Göre Gözlem Dağılımı (miss_case_table)", align = "c") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Eksik Değişken Sayısı | Gözlem Sayısı | NA |
|---|---|---|
| 0 | 288 | 89.164087 |
| 1 | 25 | 7.739938 |
| 2 | 4 | 1.238390 |
| 3 | 6 | 1.857585 |
SONUÇ: “algi”, “degerverme” ve “kaygi” → değişkenlerinde kayıp veri bulunmaktadır.
Kayıp veriyi görselleştirmek için → çeşitli grafikler oluşturma:
library(naniar)
library(kableExtra)
library(dplyr)
mcar_sonuc <- mcar_test(data = TIMSS[, 2:6])
colnames(mcar_sonuc) <- c("Test İstatistiği (χ²)", "Serbestlik Derecesi (df)", "p-değeri", "Eksik Veri Deseni Sayısı")
mcar_sonuc %>% mutate(across(where(is.numeric), ~round(., 4))) %>% kable("html", caption = "Tablo 10. Little's MCAR Testi Sonuçları", align = "c") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T)| Test İstatistiği (χ²) | Serbestlik Derecesi (df) | p-değeri | Eksik Veri Deseni Sayısı |
|---|---|---|---|
| 74.2158 | 17 | 0 | 6 |
Yukarıdaki tabloda yer alan Little’s MCAR testi sonuçlarına göre:
Elde edilen test istatistiği: 74.22
Serbestlik derecesi (df): 17
p-değeri: 4.00566e-09 (\(≈ 0.000000004\))
Bu p-değeri 0.05’ten çok daha küçük olduğundan → H0 (sıfır hipotezi) reddedilir.
H0 (Sıfır Hipotezi): Veriler eksik ama tamamen rastgele eksik (MCAR):
Yani, eksik verilerin dağılımı tamamen rastgele değil; bu verilerde örüntü olabilir. Dolayısıyla eksiklikler:
Belirli değişkenlerde daha fazla olabilir,
Bazı gruplarda eksiklik olasılığı farklı olabilir,
Ve eksikliği açıklamak için veri setindeki başka değişkenlerden yararlanılabilir (MAR veya MNAR olabilir).
TIMSS 2007 veri setinde yer alan 5 değişkene (cinsiyet, matematiği sevme, öz-yeterlik algısı, değer verme ve kaygı) ilişkin eksik veri yapısı Little’s MCAR Testi ile incelenmiştir. Yapılan analiz sonucunda test istatistiği \(χ^2(17) = 74.22\), \(*p* < .001\) olarak bulunmuştur. Bu sonuç, eksik verilerin tamamen rastgele (MCAR) olmadığını ve verilerde belirli bir eksiklik örüntüsünün olabileceğini göstermektedir. Bu nedenle veri analiz sürecinde eksik verilerin MAR/MNAR olasılığına göre uygun yöntemlerle (örneğin çoklu atama veya maksimum olasılık yöntemleri) ele alınması önerilmektedir.
Kayıp verinin diğer değişkenlerle ilişkisi
Veri kaybının diğer değişkenlerle ilişkili olup olmadığının incelenmesi finalfit paketi ile gerçekleştirilebilir. Burada gerçekleştirilen t testidir.
TIMSS2$cinsiyet_m <- factor(TIMSS2$cinsiyet, levels = c(1, 2), labels = c("Erkek", "Kız"))
library(finalfit)
library(kableExtra)
library(dplyr)
explanatory <- c("sevme", "algi", "degerverme", "kaygi")
dependent <- "cinsiyet_m"
TIMSS2 %>% missing_compare(dependent, explanatory) %>% kable(format = "html", caption = "Tablo 11. Eksik Veriye Sahip Olan ve Olmayan Değişkenlerin Ortalama Karşılaştırması", align = c("l", "l", "r", "r", "r"), booktabs = T) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Missing data analysis: cinsiyet_m | Not missing | Missing | p | |
|---|---|---|---|---|
| sevme | Mean (SD) | 446.8 (120.0) | 470.6 (NA) | 0.843 |
| 1 | 1 | 241 (99.6) | 1 (0.4) | 0.887 |
| 2 | 38 (100.0) | 0 (0.0) | ||
| 3 | 20 (100.0) | 0 (0.0) | ||
| Mean (SD) | 1.2 (0.7) | 1.0 (NA) | ||
| 1 | 149 (99.3) | 1 (0.7) | ||
| 2 | 87 (100.0) | 0 (0.0) | ||
| 3 | 65 (100.0) | 0 (0.0) |
Bu çalışmada, eksik verilerin rastgele dağılıp dağılmadığını değerlendirmek amacıyla cinsiyet değişkeni temelinde sevme, algı, değer verme ve kaygı değişkenleri için eksik ve eksik olmayan grupların ortalamaları karşılaştırılmıştır.
Tablo 11’de sunulan sonuçlar, bağımsız örneklem t-testi kullanılarak elde edilmiştir. Analizler, değişkenlerin eksik gözleme sahip olup olmama durumuna göre gruplandırılması ile yapılmıştır.
“Sevme” değişkeni için erkek katılımcılarda eksik veriye sahip olan bireylerin (\(Mean = 470.6\)) ve olmayan bireylerin (\(Mean = 446.8\)) ortalamaları arasında fark olmasına rağmen bu fark istatistiksel olarak manidar DEĞİLdir (\(*p* = .843\)).
Benzer şekilde kız öğrencilerde de manidar bir fark gözlenmemiştir (\(*p* > .05\)).
Aynı şekilde “algı”, “değer verme” ve “kaygı” değişkenleri açısından da eksik ve eksik olmayan veriler arasında manidar ortalama farklılıkları YOK (tüm p değerleri > .05).
Bu sonuçlar, eksik verilerin rastgele kaybolduğu (Missing Completely at Random – MCAR) varsayımını DESTEKLER niteliktedir.
TIMSS2$algi_m <- factor(TIMSS2$algi, levels = c(1, 2, 3), labels = c("Az", "Orta", "Cok"))
library(finalfit)
library(kableExtra)
library(dplyr)
explanatory_2 <- c("sevme", "cinsiyet", "degerverme", "kaygi")
dependent_2 <- "algi_m"
TIMSS2 %>% missing_compare(dependent_2, explanatory_2) %>% kable(format = "html", caption = "Tablo 12. Eksik Veriye Sahip Olan ve Olmayan Değişkenlerin Ortalama Karşılaştırması", align = "c", booktabs = T) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Missing data analysis: algi_m | Not missing | Missing | p | |
|---|---|---|---|---|
| sevme | Mean (SD) | 456.6 (117.5) | 319.2 (65.7) | <0.001 |
| 1 | 1 | 141 (92.2) | 12 (7.8) | 0.864 |
| 2 | 158 (93.5) | 11 (6.5) | ||
| 22 | 1 (100.0) | 0 (0.0) | ||
| Mean (SD) | 1.2 (0.7) | 1.3 (0.6) | ||
| 1 | 150 (100.0) | 0 (0.0) | ||
| 2 | 84 (96.6) | 3 (3.4) | ||
| 3 | 55 (84.6) | 10 (15.4) |
Tablo 12’de sunulan bulgular, “algı” değişkenine ilişkin verisi eksik olan ve olmayan bireyler arasında değişken bazında yapılan karşılaştırmaları göstermektedir.
Bu analizlerde eksik verilerin rastgele (MCAR), sistematik (MAR) ya da sistematik olmayan (NMAR) şekilde oluşup oluşmadığını belirlemek hedeflenmiştir.
sevme değişkenine ilişkin ortalamalar, “algı” verisi eksik olan bireylerde 319.2 (\(SD = 65.7\)) iken, verisi eksik olmayanlarda bu değer 456.6 (\(SD = 117.5\)) olarak hesaplanmıştır. Elde edilen bu fark istatistiksel olarak anlamlıdır (\(*p* < .001\)).
Bu bulgu, “algı” değişkenine ait verilerin kaybının rastgele olmadığını, yani eksik verilerin MCAR (Missing Completely at Random) koşulunu SAĞLAMADSIĞINI düşündürmektedir.
Özellikle sevme değişkeninde gözlenen manidar farklılık, eksik veri mekanizmasının sistematik (MAR) olabileceğini işaret etmektedir.
Bu durum, eksik verilerin bazı gözlem birimlerinin belirli özelliklerinden etkilendiğini ve bu nedenle eksiklerin rastgele dağılmadığını göstermektedir.
Öte yandan cinsiyet, değer verme ve kaygı gibi diğer açıklayıcı değişkenlerde eksik ve eksik olmayan gruplar arasında manidar fark YOK (\(*p* > .05\)).
Bu bulgu, ilgili değişkenler açısından eksik verilerin büyük ölçüde rastgele dağıldığını ve analize önemli bir yanlılık getirmediğini göstermektedir.
Ancak algı değişkenine bağlı olarak sevme değişkeninde manidar fark gözlendiği için, analiz öncesinde eksik verilerin çoklu atama (multiple imputation) yöntemi ile tamamlanması önerilmektedir.
TIMSS2$degerverme_m <- factor(TIMSS2$degerverme, levels = c(1, 2, 3), labels = c("Az", "Orta", "Cok"))
library(finalfit)
library(kableExtra)
library(dplyr)
explanatory_3 <- c("sevme", "cinsiyet", "algi", "kaygi")
dependent_3 <- "degerverme_m"
TIMSS2 %>% missing_compare(dependent_3, explanatory_3) %>% kable(format = "html", caption = "Tablo 13. Eksik Veriye Sahip Olan ve Olmayan Değişkenlerin Ortalama Karşılaştırması", align = "c", booktabs = T) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Missing data analysis: degerverme_m | Not missing | Missing | p | |
|---|---|---|---|---|
| sevme | Mean (SD) | 449.3 (119.1) | 349.8 (114.3) | 0.020 |
| 1 | 1 | 150 (98.0) | 3 (2.0) | 0.837 |
| 2 | 164 (97.0) | 5 (3.0) | ||
| 22 | 1 (100.0) | 0 (0.0) | ||
| 1 | 240 (99.2) | 2 (0.8) | ||
| 2 | 38 (100.0) | 0 (0.0) | ||
| 3 | 20 (100.0) | 0 (0.0) | ||
| 1 | 149 (99.3) | 1 (0.7) | ||
| 2 | 87 (100.0) | 0 (0.0) | ||
| 3 | 64 (98.5) | 1 (1.5) |
Tablo 13’te yer alan analizler, değer verme değişkenine ait verisi eksik olan ve olmayan bireyler arasında, diğer değişkenler açısından ortalama düzeyinde manidar farklılık olup olmadığını belirlemeye yöneliktir.
Özellikle sevme değişkenine ilişkin ortalama değerlerin karşılaştırılması sonucunda, eksik olmayan grupta bu ortalama 449.3 (\(SD = 119.1\)) iken, eksik olan grupta bu ortalama 349.8 (\(SD = 114.3\)) olarak hesaplanmıştır.
Bu durum, eksik verilerin rastgele (MCAR) OLMAYABİLECEĞİNİ düşündürmektedir.
Özellikle değer verme değişkenine ait verisi eksik olan bireylerin sevme değişkenine verdikleri yanıtlar manidar düzeyde farklılık gösterdiğinden, bu eksikliklerin sistematik olabileceği ve MAR (Missing at Random) kategorisine girebileceği değerlendirilmektedir.
Bununla birlikte, cinsiyet, algı ve kaygı gibi diğer açıklayıcı değişkenlerde eksik ve eksik olmayan gruplar arasında manidar bir fark gözlenmemiştir (\(*p* > .05\)).
Bu durum, diğer değişkenlerde eksik verilerin büyük ölçüde rastgele dağıldığını ve veri analizine olası bir yanlılık getirme olasılığının düşük olduğunu göstermektedir.
TIMSS2$kaygi_m <- factor(TIMSS2$kaygi, levels = c(1, 2, 3), labels = c("Az", "Orta", "Cok"))
library(finalfit)
library(kableExtra)
library(dplyr)
explanatory_4 <- c("sevme", "cinsiyet", "algi", "degerverme")
dependent_4 <- "kaygi_m"
TIMSS2 %>% missing_compare(dependent_4, explanatory_4) %>% kable(format = "html", caption = "Tablo 14. Eksik Veriye Sahip Olan ve Olmayan Değişkenlerin Ortalama Karşılaştırması", align = "c", booktabs = T) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Missing data analysis: kaygi_m | Not missing | Missing | p | |
|---|---|---|---|---|
| sevme | Mean (SD) | 455.6 (117.9) | 321.7 (66.0) | <0.001 |
| 1 | 1 | 145 (94.8) | 8 (5.2) | 0.647 |
| 2 | 156 (92.3) | 13 (7.7) | ||
| 22 | 1 (100.0) | 0 (0.0) | ||
| 1 | 238 (98.3) | 4 (1.7) | ||
| 2 | 35 (92.1) | 3 (7.9) | ||
| 3 | 16 (80.0) | 4 (20.0) | ||
| Mean (SD) | 1.2 (0.7) | 1.1 (0.4) |
Tablo 14’te yer alan analizler, kaygı değişkenine ait eksik verisi olan bireyler ile verisi tam olan bireyler arasında diğer değişkenler (özellikle sevme) açısından manidar fark olup olmadığını değerlendirmektedir.
Sevme değişkenine ait verisi tam olan bireylerin ortalama değeri 455.6 (\(SD = 117.9\)) iken, kaygı değişkeni eksik olan bireylerin sevme ortalaması 321.7 (\(SD = 66.0\)) olarak gözlenmiştir.
Bu fark istatistiksel olarak oldukça MANİDARdır (\(*p* < .001\)).
Bu bulgu, eksik verilerin tamamen rastgele (MCAR) OLMADIĞINI ve eksikliğin bazı değişkenlerle ilişkili olduğunu göstermektedir.
Bu durum, eksik veri mekanizmasının MAR (Missing at Random) olabileceğine işaret etmektedir.
library(tidyverse)
miss_test_1 <- TIMSS2 %>% mutate(miss_algi = is.na(algi))
sevme_nonna <- miss_test_1 %>% filter(miss_algi == F) %>% pull(sevme)
sevme_na <- miss_test_1 %>% filter(miss_algi == T) %>% pull(sevme)
t.test(sevme_nonna, sevme_na)##
## Welch Two Sample t-test
##
## data: sevme_nonna and sevme_na
## t = 8.9898, df = 33.953, p-value = 1.678e-10
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## 106.3718 168.5167
## sample estimates:
## mean of x mean of y
## 456.6457 319.2014
“Öz-yeterlik (algi) değişkeninde eksik verisi olan ve olmayan bireylerin matematiği sevme (sevme) puan ortalamaları arasında manidar bir fark var mıdır?”
Welch Two Sample t-test → varsayılan olarak uygulanır çünkü iki grubun varyanslarının eşit olduğu VARSAYILMAZ!
Grup 1: algi verisi eksik olmayan bireyler
Grup 2: algi verisi eksik olan bireyler
Karşılaştırılan değişken: sevme (Matematiği Sevme Puanı)
Elde edilen p-değeri < 0.001 olduğu için, %95 güven düzeyinde:
Bu fark → eksikliği olmayan bireylerin lehinedir:
Yapılan bağımsız örneklem t-testi sonucuna göre, öz-yeterlik (algi) değişkeninde eksik verisi olan bireylerin (\(𝑀 = 319.20\)) matematiği sevme puan ortalamaları, eksikliği olmayan bireylerden (\(𝑀 = 456.65\)) manidar düzeyde daha düşüktür; \(t(33.95) = 8.99\), \(*p* < .001\). Bu sonuç, eksik verilerin rastgele dağılmadığını ve veri kaybının belirli bir örüntüye sahip olabileceğini göstermektedir.
library(tidyverse)
miss_test_2 <- TIMSS2 %>% mutate(miss_algi = is.na(algi))
degerverme_nonna <- miss_test_2 %>% filter(miss_algi == F) %>% pull(degerverme)
degerverme_na <- miss_test_2 %>% filter(miss_algi == T) %>% pull(degerverme)
t.test(degerverme_nonna, degerverme_na)##
## Welch Two Sample t-test
##
## data: degerverme_nonna and degerverme_na
## t = -0.92583, df = 18.518, p-value = 0.3664
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -0.4470229 0.1731689
## sample estimates:
## mean of x mean of y
## 1.157191 1.294118
“Öz-yeterlik (algi) değişkeninde eksik verisi olan ve olmayan bireylerin matematiğe değer verme (degerverme) puanları arasında manidar bir fark var mı?”
Welch Two Sample t-test → iki grubun varyansları eşit kabul edilmeden yapılır.
Karşılaştırılan gruplar:
algi eksikliği olmayan bireyler
algi eksikliği olan bireyler
İncelenen değişken: degerverme → matematiğe verilen değer
Elde edilen p-değeri = 0.3664 → yani \(*p* > 0.05\) olduğu için:
Yapılan bağımsız örneklem t-testi sonucunda, öz-yeterlik (algi) değişkeninde eksik verisi olan (\(𝑀 = 1.29\)) ve olmayan bireylerin (\(𝑀 = 1.16\)) matematiğe verdikleri değer açısından manidar bir farklılık gözlenmemiştir; \(t(18.52) = -0.93\), \(*p* = .366\). Bu sonuç, eksik verilerin bu değişken açısından rastgele dağılmış olabileceğini düşündürmektedir.
library(tidyverse)
miss_test_3 <- TIMSS2 %>% mutate(miss_algi = is.na(algi))
kaygi_nonna <- miss_test_3 %>% filter(miss_algi == F) %>% pull(kaygi)
kaygi_na <- miss_test_3 %>% filter(miss_algi == T) %>% pull(kaygi)
t.test(kaygi_nonna, kaygi_na)##
## Welch Two Sample t-test
##
## data: kaygi_nonna and kaygi_na
## t = -8.4506, df = 15.613, p-value = 3.243e-07
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -1.3739362 -0.8219648
## sample estimates:
## mean of x mean of y
## 1.671280 2.769231
“Öz-yeterlik (algi) değişkeninde eksik verisi olan ve olmayan bireylerin matematik kaygısı (kaygi) puan ortalamaları arasında manidar bir fark var mı?”
Grup 1: algi değişkeninde eksikliği olmayanlar
Grup 2: algi değişkeninde eksikliği olanlar
Karşılaştırılan değişken: kaygi (matematik kaygısı)
Elde edilen \(*p*-değeri = 0.0000003243 < 0.001\) olduğundan,
Öz-yeterlik (algi) değişkeninde eksik verisi olan ve olmayan bireylerin → matematik kaygısı puanları arasında istatistiksel olarak MANİDAR bir fark vardır.
Bu fark eksikliği olan bireylerin daha yüksek kaygı düzeyine sahip olması yönündedir:
Eksik olmayanların ortalaması: 1.67
Eksik olanların ortalaması: 2.77
Bu, öz-yeterlik verisi eksik olan öğrencilerin → matematik kaygılarının manidar biçimde DAHA YÜKSEK olduğunu göstermektedir.
Yapılan bağımsız örneklem t-testi sonucuna göre, öz-yeterlik (algi) değişkeninde eksik verisi olan öğrencilerin (\(𝑀 = 2.77\)) matematik kaygısı düzeyleri, eksikliği olmayan öğrencilere (\(𝑀 = 1.67\)) kıyasla istatistiksel olarak manidar düzeyde daha yüksektir; \(t(15.61) = -8.45\), \(*p* < .001\). Bu durum, eksik verilerin rastgele dağılmadığını ve kaygı düzeyi yüksek bireylerin öz-yeterlik bildirme olasılıklarının daha düşük olduğunu düşündürmektedir.
library(tidyverse)
miss_test_4 <- TIMSS2 %>% mutate(miss_degerverme = is.na(degerverme))
sevme_nonna <- miss_test_4 %>% filter(miss_degerverme == F) %>% pull(sevme)
sevme_na <- miss_test_4 %>% filter(miss_degerverme == T) %>% pull(sevme)
t.test(sevme_nonna, sevme_na)##
## Welch Two Sample t-test
##
## data: sevme_nonna and sevme_na
## t = 5.7818, df = 7.119, p-value = 0.0006358
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## 80.22064 190.60927
## sample estimates:
## mean of x mean of y
## 449.7933 314.3784
“Matematiğe değer verme (degerverme) değişkeninde eksik verisi olan ve olmayan bireylerin matematiği sevme puan ortalamaları arasında manidar bir fark var mıdır?”
Grup 1: degerverme değişkeninde eksik olmayanlar
Grup 2: degerverme değişkeninde eksik olanlar
Karşılaştırılan değişken: sevme (matematiği sevme puanı)
Elde edilen \(*p*-değeri = 0.0006 < 0.001\) olduğundan:
Bu fark eksikliği olmayan bireylerin lehinedir:
Eksik olmayanların ortalaması: 449.79
Eksik olanların ortalaması: 314.38
Bu durum, değer verme değişkenini eksik bırakan bireylerin → matematik sevgisinin DÜŞÜK olduğunu göstermektedir.
Yapılan bağımsız örneklem t-testi sonucunda, matematiğe değer verme (degerverme) değişkeninde eksik verisi olan öğrencilerin (\(𝑀 = 314.38\)), matematiği sevme puan ortalamaları, eksikliği olmayan öğrencilerden (\(𝑀 = 449.79\)) istatistiksel olarak manidar düzeyde daha düşüktür; \(t(7.12) = 5.78\), \(*p* < .001\). Bu sonuç, eksik verilerin rastgele dağılmadığını ve eksik bırakma davranışının belirli tutum örüntüleriyle ilişkili olabileceğini düşündürmektedir.
Ortalama ile Atama
Kayıp değerleri → değişkenin ortalaması ile doldurma:
algi için:
TIMSS3 <- TIMSS
TIMSS3$algi[is.na(TIMSS3$algi)] <- mean(TIMSS3$algi, na.rm = T)
summary(TIMSS3$algi)## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 1.00 1.00 1.00 1.26 1.13 3.00
## [1] 0.5716841
## [1] 0.5508886
TIMSS3 <- TIMSS
TIMSS3$degerverme[is.na(TIMSS3$degerverme)] <- mean(TIMSS3$degerverme, na.rm = T)
summary(TIMSS3$degerverme)## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 1.000 1.000 1.000 1.165 1.000 11.000
## [1] 0.6748146
## [1] 0.6674393
TIMSS3 <- TIMSS
TIMSS3$kaygi[is.na(TIMSS3$kaygi)] <- mean(TIMSS3$kaygi, na.rm = T)
summary(TIMSS3$kaygi)## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 1.000 1.000 1.719 1.719 2.000 3.000
## [1] 0.7967462
## [1] 0.7703273
TIMSS4 <- TIMSS[,3:6]
for(i in 1:ncol(TIMSS4)){TIMSS4[ , i][is.na(TIMSS4[ , i])] <- mean(TIMSS4[ , i], na.rm = TRUE)}
any_na(TIMSS4)## [1] FALSE
transform Fonksiyonu ile Atama → transform fonksiyonunu kullanarak kayıp değerleri ortalamayla doldurma:
algi için:
TIMSS5 <- TIMSS
TIMSS5 = mutate(TIMSS5, algi = ifelse(is.na(algi), mean(algi, na.rm = T), algi))
summary(TIMSS5)## ID cinsiyet sevme algi
## Min. : 10111 Min. : 1.000 Min. : 47.88 Min. :1.00
## 1st Qu.: 360421 1st Qu.: 1.000 1st Qu.:366.57 1st Qu.:1.00
## Median : 720204 Median : 2.000 Median :432.21 Median :1.00
## Mean : 747826 Mean : 1.588 Mean :446.86 Mean :1.26
## 3rd Qu.:1125212 3rd Qu.: 2.000 3rd Qu.:535.90 3rd Qu.:1.13
## Max. :1500466 Max. :22.000 Max. :802.42 Max. :3.00
##
## degerverme kaygi
## Min. : 1.000 Min. :1.000
## 1st Qu.: 1.000 1st Qu.:1.000
## Median : 1.000 Median :2.000
## Mean : 1.165 Mean :1.719
## 3rd Qu.: 1.000 3rd Qu.:2.000
## Max. :11.000 Max. :3.000
## NA's :7 NA's :21
TIMSS5 <- TIMSS
TIMSS5 = mutate(TIMSS5, degerverme = ifelse(is.na(degerverme), mean(degerverme, na.rm = T), degerverme))
summary(TIMSS5)## ID cinsiyet sevme algi
## Min. : 10111 Min. : 1.000 Min. : 47.88 Min. :1.00
## 1st Qu.: 360421 1st Qu.: 1.000 1st Qu.:366.57 1st Qu.:1.00
## Median : 720204 Median : 2.000 Median :432.21 Median :1.00
## Mean : 747826 Mean : 1.588 Mean :446.86 Mean :1.26
## 3rd Qu.:1125212 3rd Qu.: 2.000 3rd Qu.:535.90 3rd Qu.:1.00
## Max. :1500466 Max. :22.000 Max. :802.42 Max. :3.00
## NA's :23
## degerverme kaygi
## Min. : 1.000 Min. :1.000
## 1st Qu.: 1.000 1st Qu.:1.000
## Median : 1.000 Median :2.000
## Mean : 1.165 Mean :1.719
## 3rd Qu.: 1.000 3rd Qu.:2.000
## Max. :11.000 Max. :3.000
## NA's :21
TIMSS5 <- TIMSS
TIMSS5 = mutate(TIMSS5, kaygi = ifelse(is.na(kaygi), mean(kaygi, na.rm = T), kaygi))
summary(TIMSS5)## ID cinsiyet sevme algi
## Min. : 10111 Min. : 1.000 Min. : 47.88 Min. :1.00
## 1st Qu.: 360421 1st Qu.: 1.000 1st Qu.:366.57 1st Qu.:1.00
## Median : 720204 Median : 2.000 Median :432.21 Median :1.00
## Mean : 747826 Mean : 1.588 Mean :446.86 Mean :1.26
## 3rd Qu.:1125212 3rd Qu.: 2.000 3rd Qu.:535.90 3rd Qu.:1.00
## Max. :1500466 Max. :22.000 Max. :802.42 Max. :3.00
## NA's :23
## degerverme kaygi
## Min. : 1.000 Min. :1.000
## 1st Qu.: 1.000 1st Qu.:1.000
## Median : 1.000 Median :1.719
## Mean : 1.165 Mean :1.719
## 3rd Qu.: 1.000 3rd Qu.:2.000
## Max. :11.000 Max. :3.000
## NA's :7
EM algoritmasını kullanarak → kayıp değerleri tahmin etme
Beklenti (E) Adımı:
Eksik veriler → bu beklenen değerlerle doldurulur.
Maksimizasyon (M) Adımı:
Bu → modelin veriye daha iyi uymasını sağlar.
Bu iki adım → parametre tahminleri yakınsayana kadar → yani değişiklikler belirli bir tolerans değerinin altına düşene kadar → tekrarlanır.
library(mvdalab)
TIMSS_numeric <- TIMSS2 %>% select(where(is.numeric))
TIMSS_EM <- imputeEM(TIMSS_numeric)
TIMSS_EM## ID cinsiyet sevme algi degerverme kaygi
## 1 10111 1 708.62857 1.000000 1.0000000 1.000000
## 2 10125 1 661.39455 1.000000 1.0000000 1.000000
## 3 20207 2 729.38763 1.000000 1.0000000 1.000000
## 4 30111 2 802.42009 1.000000 1.0000000 1.000000
## 5 40105 2 374.29698 3.000000 1.0000000 3.639615
## 6 40119 1 373.85918 2.000000 1.0000000 3.000000
## 7 50113 1 371.64520 1.000000 2.0000000 1.000000
## 8 60103 1 423.76599 2.000000 1.0000000 2.589478
## 9 60117 1 381.60800 1.000000 2.0000000 2.000000
## 10 60131 1 408.89378 1.000000 1.0000000 3.000000
## 11 70209 2 537.47245 3.000000 1.0000000 3.000000
## 12 80204 1 369.22655 2.000000 1.0000000 3.000000
## 13 80218 1 243.51317 2.072500 1.0000000 3.000000
## 14 90216 1 370.12337 1.000000 1.0000000 1.000000
## 15 100207 1 217.02096 1.000000 1.0000000 3.000000
## 16 100221 1 346.17419 1.000000 1.0000000 1.000000
## 17 100235 2 47.87577 1.000000 1.0000000 2.000000
## 18 110201 2 514.62271 1.000000 1.0000000 1.000000
## 19 110215 1 522.58073 1.000000 1.0000000 1.000000
## 20 110229 1 459.60656 1.000000 1.0000000 2.000000
## 21 120307 1 417.33185 1.000000 1.0000000 1.000000
## 22 120321 2 414.24928 1.000000 1.0000000 3.000000
## 23 130310 1 436.59149 1.000000 1.0000000 1.000000
## 24 130324 2 513.32538 2.000000 1.0000000 3.000000
## 25 140211 1 486.50057 1.000000 1.0000000 1.000000
## 26 140225 2 300.37804 1.000000 1.0000000 2.170858
## 27 140239 2 398.11413 1.000000 1.0000000 2.000000
## 28 150111 1 442.17818 1.000000 1.0000000 2.000000
## 29 150125 2 351.83535 1.000000 1.0000000 3.000000
## 30 150139 1 352.86700 1.000000 1.0000000 2.000000
## 31 160206 1 438.07937 1.000000 2.0000000 1.000000
## 32 160234 1 303.83524 1.000000 1.0000000 1.000000
## 33 170313 2 449.98111 1.000000 2.0000000 1.000000
## 34 170327 1 390.79254 1.000000 1.0000000 2.000000
## 35 180313 1 446.59806 1.000000 1.0000000 2.000000
## 36 180327 2 373.18568 1.000000 2.0000000 3.000000
## 37 190101 1 452.51476 2.000000 2.0000000 1.000000
## 38 190115 1 543.63930 1.000000 2.0000000 1.000000
## 39 190129 2 447.82403 1.000000 1.0000000 2.000000
## 40 200204 1 307.73164 2.184089 1.5491695 3.291954
## 41 200218 1 579.45659 1.000000 1.0000000 1.000000
## 42 200232 2 424.72328 1.000000 1.0000000 2.000000
## 43 210214 1 582.90700 1.000000 1.0000000 2.000000
## 44 210228 1 395.64590 1.813257 1.0000000 3.000000
## 45 210242 2 586.87507 1.000000 3.0000000 3.000000
## 46 220111 2 494.76899 1.000000 2.0000000 2.000000
## 47 220125 2 551.97638 1.000000 1.0000000 1.000000
## 48 220139 2 618.27787 1.000000 1.0000000 1.000000
## 49 230411 1 300.87921 1.959833 1.0000000 3.000000
## 50 230425 1 464.32197 1.000000 1.0000000 2.000000
## 51 240107 1 587.81932 1.000000 1.0000000 1.000000
## 52 240121 2 511.16443 1.000000 1.0000000 2.000000
## 53 250110 2 541.22140 1.000000 1.0000000 2.000000
## 54 250124 1 441.77875 1.000000 1.0000000 1.000000
## 55 260307 2 438.31110 1.000000 1.0000000 1.000000
## 56 260321 2 514.92039 1.000000 1.0000000 1.000000
## 57 270302 1 360.80282 1.000000 1.0000000 1.000000
## 58 270316 2 570.24371 1.000000 1.0000000 1.000000
## 59 270330 2 311.19434 1.000000 1.0000000 2.000000
## 60 270344 2 481.71026 1.000000 1.0000000 2.000000
## 61 290312 2 614.88167 1.000000 1.0000000 1.000000
## 62 290326 2 567.72666 1.000000 1.0000000 2.000000
## 63 300414 2 345.36596 2.000000 1.0000000 2.000000
## 64 300428 1 321.35049 1.000000 1.0000000 2.000000
## 65 310402 2 335.08500 1.000000 2.0000000 2.000000
## 66 310416 2 413.08302 1.000000 1.0000000 1.000000
## 67 310430 1 376.77415 1.000000 1.0000000 2.000000
## 68 320306 2 420.27042 3.000000 3.0000000 3.000000
## 69 320320 1 594.38323 2.000000 1.0000000 2.000000
## 70 330206 2 526.14108 1.000000 1.0000000 3.000000
## 71 330220 1 392.13427 1.000000 1.0000000 2.000000
## 72 330234 1 318.98196 1.000000 1.0000000 3.000000
## 73 340402 1 233.98924 2.462418 1.5110796 3.840294
## 74 340416 1 377.66386 1.000000 1.0000000 2.000000
## 75 340430 2 459.78440 3.000000 1.0000000 2.000000
## 76 340444 1 273.11306 1.000000 1.0000000 3.000000
## 77 350513 2 294.53883 3.000000 1.0000000 3.954446
## 78 350527 1 325.43594 1.000000 1.0000000 1.000000
## 79 350541 1 414.03200 1.000000 1.0000000 3.000000
## 80 350555 1 342.23231 2.134180 2.0000000 3.000000
## 81 360414 2 276.01693 1.000000 1.0000000 3.000000
## 82 360428 2 537.83297 1.000000 1.0000000 1.000000
## 83 360442 1 328.31749 2.000000 1.0000000 2.000000
## 84 370404 1 521.19276 1.000000 1.0000000 1.000000
## 85 370418 1 393.80365 1.000000 1.0000000 3.000000
## 86 370432 1 501.91275 1.000000 1.0000000 1.000000
## 87 370446 1 544.83812 2.000000 1.0000000 3.000000
## 88 380310 2 495.69578 1.000000 1.0000000 1.000000
## 89 380324 2 391.17354 2.000000 2.0000000 2.000000
## 90 380338 2 537.27500 3.000000 1.0000000 1.000000
## 91 380352 1 447.17736 1.000000 1.0000000 1.000000
## 92 390409 2 436.31235 1.000000 1.0000000 1.000000
## 93 390423 2 540.86401 1.000000 1.0000000 1.000000
## 94 390437 1 312.21575 1.000000 1.0000000 3.000000
## 95 390451 1 298.65962 1.000000 1.0000000 3.000000
## 96 400707 22 470.60339 1.000000 1.0000000 1.000000
## 97 400721 2 287.18027 2.490349 2.0253621 3.650396
## 98 400735 1 436.97400 1.000000 1.0000000 1.000000
## 99 410107 1 598.73165 1.000000 1.0000000 1.000000
## 100 420103 2 427.43735 1.000000 1.0000000 2.000000
## 101 440104 1 374.81086 2.000000 1.0000000 3.000000
## 102 440118 2 528.95915 1.000000 1.0000000 3.000000
## 103 450112 1 507.54890 1.000000 1.0000000 1.000000
## 104 450126 2 504.49457 1.000000 1.0000000 1.000000
## 105 460114 2 411.21813 1.821879 1.7860739 2.489798
## 106 470203 2 295.98942 1.000000 1.0000000 1.000000
## 107 470217 1 273.09872 1.000000 1.0000000 2.000000
## 108 480105 1 442.18885 1.000000 1.0000000 2.000000
## 109 480119 2 257.74399 3.000000 1.0000000 4.100955
## 110 490112 2 669.76256 1.000000 1.0000000 1.000000
## 111 490126 2 579.06395 1.000000 2.0000000 1.000000
## 112 500206 2 405.04233 3.000000 1.0000000 3.000000
## 113 500220 2 321.58394 1.000000 1.0000000 3.000000
## 114 510111 2 531.10383 3.000000 1.0000000 3.000000
## 115 510125 2 480.53364 1.000000 1.0000000 1.000000
## 116 520312 2 436.83895 2.000000 1.0000000 1.000000
## 117 520326 2 374.40131 1.967476 1.7771106 2.771460
## 118 530309 2 417.01811 1.000000 1.0000000 1.000000
## 119 530323 1 408.69278 1.000000 1.0000000 1.000000
## 120 540312 2 494.25608 1.000000 1.0000000 1.000000
## 121 540326 1 372.94619 1.000000 1.0000000 1.000000
## 122 550303 2 329.13682 3.000000 1.0000000 3.000000
## 123 550317 1 351.30885 1.833099 1.0000000 3.000000
## 124 550331 2 342.74533 2.000000 2.0000000 2.000000
## 125 560512 1 451.94784 1.000000 1.0000000 1.000000
## 126 560526 1 280.32019 2.000000 1.0000000 3.161098
## 127 560540 1 535.85987 2.000000 1.0000000 1.000000
## 128 570212 1 493.55196 1.000000 1.0000000 2.000000
## 129 570226 2 485.31684 1.000000 2.0000000 2.000000
## 130 580310 1 482.36986 1.000000 1.0000000 2.000000
## 131 580324 2 408.52023 1.000000 1.0000000 2.000000
## 132 590201 1 365.23143 1.000000 1.0000000 2.000000
## 133 590215 1 404.67675 1.000000 1.0000000 1.000000
## 134 590229 1 263.18022 1.000000 1.0000000 2.000000
## 135 600306 2 302.90134 1.953203 1.0000000 3.000000
## 136 600320 1 443.04741 1.000000 1.0000000 1.000000
## 137 610501 2 618.64475 1.000000 1.0000000 1.000000
## 138 610515 1 398.74118 1.000000 1.0000000 2.000000
## 139 610529 1 569.22122 1.000000 1.0000000 1.000000
## 140 620207 1 386.07088 1.418320 1.0000000 2.000000
## 141 620221 2 663.70769 1.000000 1.0000000 1.000000
## 142 620235 2 658.58908 2.000000 2.0000000 1.000000
## 143 630513 2 643.76354 1.000000 1.0000000 1.000000
## 144 630527 2 669.65025 1.000000 1.0000000 1.000000
## 145 640207 1 478.13267 1.000000 1.0000000 1.000000
## 146 640221 1 561.28895 1.000000 1.0000000 2.000000
## 147 640235 1 570.75900 1.000000 1.0000000 1.000000
## 148 650412 1 327.83745 1.000000 1.0000000 3.000000
## 149 650426 2 481.11565 1.000000 1.0000000 1.000000
## 150 650440 1 546.07638 1.000000 1.0000000 1.000000
## 151 660610 1 632.59653 1.000000 1.0000000 1.000000
## 152 660624 2 663.73463 1.000000 1.0000000 1.000000
## 153 660638 2 606.84573 1.000000 1.0000000 1.000000
## 154 670307 1 642.77058 1.000000 1.0000000 1.000000
## 155 680204 2 597.69762 1.000000 11.0000000 1.000000
## 156 690102 1 208.21613 2.727247 2.0000000 4.237077
## 157 690116 2 295.63343 2.251177 1.7158344 3.340997
## 158 700111 1 399.49348 1.000000 1.0000000 2.000000
## 159 700125 1 420.63536 3.000000 1.0000000 3.000000
## 160 710112 2 350.11596 2.000000 1.0000000 2.792350
## 161 710126 1 413.92821 1.710724 1.0000000 3.000000
## 162 720204 1 368.10081 1.000000 1.0000000 2.000000
## 163 720218 2 258.46449 1.000000 1.0000000 2.297432
## 164 740207 2 425.30668 1.000000 1.0000000 2.000000
## 165 740221 1 414.47346 1.000000 1.0000000 1.000000
## 166 750308 2 504.43724 2.000000 2.0000000 1.000000
## 167 750322 2 553.09835 1.000000 1.0000000 1.000000
## 168 760306 2 483.72248 1.000000 1.0000000 1.000000
## 169 760320 1 372.01068 1.000000 1.0000000 3.000000
## 170 770110 1 573.54679 1.000000 1.0000000 1.000000
## 171 780304 2 586.06458 1.000000 1.0000000 1.000000
## 172 780318 1 549.39078 1.000000 1.0000000 1.000000
## 173 780332 2 514.03952 1.000000 1.0000000 1.000000
## 174 790214 2 540.50619 2.000000 1.0000000 1.000000
## 175 790228 2 363.52390 1.000000 1.0000000 3.000000
## 176 790242 1 462.16856 1.000000 1.0000000 1.466856
## 177 800304 2 432.14650 1.000000 1.0000000 2.000000
## 178 800318 2 524.63509 2.000000 1.0000000 2.000000
## 179 800332 1 301.82431 1.000000 1.0000000 3.000000
## 180 810414 1 518.95011 1.000000 2.0000000 1.000000
## 181 810428 2 405.60720 2.000000 1.0000000 2.000000
## 182 820407 2 376.54491 1.000000 1.0000000 3.000000
## 183 820421 1 565.50492 1.000000 1.0000000 1.000000
## 184 820435 2 576.28586 1.000000 1.0000000 1.000000
## 185 830214 1 636.30572 1.000000 1.0000000 1.000000
## 186 830228 1 549.36394 1.000000 1.0000000 1.000000
## 187 840709 1 632.45276 1.000000 1.0000000 1.000000
## 188 840723 2 781.57406 1.000000 1.0000000 1.000000
## 189 850207 1 629.07908 1.000000 1.0000000 2.000000
## 190 860107 2 413.44698 1.000000 1.0000000 2.000000
## 191 860121 2 206.84767 1.716871 1.0000000 2.000000
## 192 870109 1 489.68682 1.000000 1.0000000 1.000000
## 193 870123 1 415.15592 1.000000 1.0000000 1.000000
## 194 880112 2 554.31818 1.000000 1.0000000 1.000000
## 195 890111 2 395.88064 1.000000 1.0000000 2.000000
## 196 900305 1 523.62607 2.000000 1.0000000 1.000000
## 197 900319 2 463.97568 1.000000 1.0000000 1.000000
## 198 910204 2 752.49000 1.000000 1.0000000 1.000000
## 199 910218 2 536.22987 3.000000 2.0000000 2.000000
## 200 920202 1 290.49467 1.000000 0.4566836 3.000000
## 201 920216 2 492.45370 1.000000 1.0000000 1.000000
## 202 920230 2 497.37076 1.000000 1.0000000 1.000000
## 203 930214 2 455.67675 1.000000 1.0000000 3.000000
## 204 930228 2 387.72614 1.000000 1.0000000 3.000000
## 205 940209 1 419.25634 2.000000 1.0000000 2.000000
## 206 940223 1 367.22791 1.000000 1.0000000 1.000000
## 207 950214 2 475.81167 1.000000 1.0000000 1.000000
## 208 950228 2 438.30786 1.000000 1.0000000 1.000000
## 209 960501 2 664.36546 1.000000 1.0000000 1.000000
## 210 960515 2 421.40759 3.000000 1.0000000 3.000000
## 211 970106 2 339.96519 1.000000 1.0000000 1.922845
## 212 970120 1 437.80820 1.000000 1.0000000 1.000000
## 213 980123 2 345.09964 2.000000 1.0000000 2.000000
## 214 990313 1 505.16840 1.000000 1.0000000 2.000000
## 215 990327 1 256.48288 1.000000 1.0000000 2.000000
## 216 990341 1 563.33545 1.000000 1.0000000 1.000000
## 217 1000308 2 610.06593 2.000000 3.0000000 3.000000
## 218 1010101 2 685.60132 1.000000 1.0000000 1.000000
## 219 1010115 1 589.67332 3.000000 1.0000000 2.000000
## 220 1010129 2 604.30098 1.000000 1.0000000 1.000000
## 221 1010143 1 606.10573 1.000000 1.0000000 1.000000
## 222 1020408 2 456.60677 1.000000 1.0000000 2.000000
## 223 1020422 2 659.81829 3.000000 2.0000000 3.000000
## 224 1020436 2 565.91135 1.000000 1.0000000 3.000000
## 225 1030111 2 410.34028 1.000000 1.0000000 2.000000
## 226 1040107 2 550.21970 1.000000 1.0000000 1.000000
## 227 1050101 2 462.75778 1.000000 1.0000000 1.000000
## 228 1050115 2 400.73637 1.000000 1.0000000 2.000000
## 229 1050129 2 458.96561 1.000000 2.0000000 2.000000
## 230 1060101 2 302.56906 1.000000 2.0000000 2.000000
## 231 1060115 2 351.73975 1.000000 3.0000000 3.000000
## 232 1070106 1 566.27230 1.000000 1.0000000 1.000000
## 233 1070120 1 508.03746 1.000000 1.0000000 2.000000
## 234 1080105 1 426.89577 1.000000 1.0000000 1.000000
## 235 1080119 1 317.93123 1.000000 1.0000000 3.000000
## 236 1090212 2 425.11010 1.000000 1.0000000 1.000000
## 237 1090226 1 399.67691 1.000000 2.0000000 2.000000
## 238 1100313 2 262.25527 2.000000 1.0000000 1.000000
## 239 1110306 2 621.52954 1.000000 1.0000000 1.000000
## 240 1110320 2 366.67134 1.000000 1.0000000 1.000000
## 241 1120306 2 512.60898 1.000000 1.0000000 2.000000
## 242 1120320 1 420.37518 3.000000 2.0000000 3.000000
## 243 1130104 1 418.70829 3.000000 2.0000000 3.000000
## 244 1130118 2 548.49342 1.000000 1.0000000 1.000000
## 245 1140201 1 309.40953 2.000000 1.0000000 1.000000
## 246 1140215 1 434.83471 1.000000 1.0000000 2.000000
## 247 1140229 1 425.07518 2.000000 1.0000000 2.000000
## 248 1150202 2 562.52345 1.000000 1.0000000 1.000000
## 249 1150216 2 366.46172 1.000000 1.0000000 2.000000
## 250 1160501 2 418.77403 1.000000 1.0000000 1.000000
## 251 1160515 2 548.54515 2.000000 1.0000000 2.000000
## 252 1160529 1 607.86100 1.000000 1.0000000 1.000000
## 253 1170403 1 337.17471 1.000000 1.0000000 1.000000
## 254 1170417 1 430.01293 1.000000 1.0000000 1.000000
## 255 1170431 2 410.79769 1.000000 1.0000000 2.000000
## 256 1180612 1 246.26012 3.000000 1.0000000 4.139097
## 257 1200105 1 467.61125 1.000000 1.0000000 1.000000
## 258 1200119 2 663.33100 1.000000 1.0000000 1.000000
## 259 1210212 1 252.33762 1.000000 1.0000000 3.000000
## 260 1220201 1 330.51876 2.000000 1.0000000 2.000000
## 261 1220215 1 434.13695 1.000000 1.0000000 1.000000
## 262 1230207 2 310.44118 1.000000 1.0000000 3.000000
## 263 1230221 1 475.17243 1.000000 1.0000000 1.000000
## 264 1240105 1 354.57184 1.000000 1.0000000 1.000000
## 265 1240119 2 556.09049 1.000000 2.0000000 2.000000
## 266 1250202 2 336.05683 1.000000 1.0000000 2.000000
## 267 1250216 1 422.49130 1.000000 1.0000000 1.000000
## 268 1250230 2 332.16442 2.076628 2.0000000 3.021591
## 269 1270319 1 641.69312 1.000000 1.0000000 1.000000
## 270 1290508 2 369.29520 2.000000 1.0000000 3.000000
## 271 1290522 1 455.92831 1.000000 1.0000000 1.000000
## 272 1300207 2 413.17959 1.000000 1.0000000 1.000000
## 273 1300221 2 428.72315 1.000000 1.0000000 1.000000
## 274 1310210 1 613.79441 1.000000 1.0000000 1.000000
## 275 1310238 2 675.61513 1.000000 1.0000000 1.000000
## 276 1320609 1 588.09706 1.000000 1.0000000 1.000000
## 277 1320623 1 412.59586 1.000000 1.0000000 1.000000
## 278 1320637 1 517.92859 1.000000 1.0000000 1.000000
## 279 1330101 1 566.80429 1.000000 1.0000000 1.000000
## 280 1330115 2 753.45925 1.000000 1.0000000 1.000000
## 281 1340108 2 243.96735 1.000000 1.0000000 2.000000
## 282 1340122 1 453.58984 1.000000 2.0000000 1.000000
## 283 1350109 2 358.85742 1.000000 1.0000000 2.000000
## 284 1350123 1 351.05245 2.000000 1.0000000 3.000000
## 285 1370210 1 494.18710 3.000000 1.0000000 3.000000
## 286 1370224 2 370.28202 2.000000 1.0000000 3.000000
## 287 1370238 1 398.28194 1.638120 1.0000000 3.000000
## 288 1380105 1 282.76913 1.000000 1.0000000 1.000000
## 289 1380119 1 451.17863 1.000000 1.0000000 1.000000
## 290 1390104 2 535.93650 1.000000 1.0000000 1.000000
## 291 1390118 2 514.56246 1.000000 1.0000000 2.000000
## 292 1390132 2 383.42482 1.000000 1.0000000 2.000000
## 293 1400113 1 408.97548 2.000000 1.0000000 3.000000
## 294 1410101 2 468.70520 1.000000 1.0000000 2.000000
## 295 1410115 2 347.37721 2.000000 1.0000000 1.000000
## 296 1420201 2 326.89956 1.000000 1.0000000 2.000000
## 297 1420215 2 352.44343 1.000000 2.0000000 1.000000
## 298 1420229 2 184.47754 1.000000 1.0000000 3.000000
## 299 1430212 2 350.17718 1.510502 1.0000000 2.293008
## 300 1430226 1 275.24189 1.000000 1.0000000 2.000000
## 301 1440302 2 388.48059 2.000000 2.0000000 2.000000
## 302 1440316 2 380.11463 1.000000 1.0000000 1.000000
## 303 1440330 2 286.26125 1.000000 1.0000000 1.000000
## 304 1440344 2 226.52377 1.949919 1.0000000 3.000000
## 305 1450214 2 291.43471 1.000000 1.0000000 2.000000
## 306 1450228 2 350.83463 1.000000 2.0000000 3.000000
## 307 1450242 1 345.65405 1.000000 1.0000000 2.000000
## 308 1460109 2 564.36053 1.000000 1.0000000 1.000000
## 309 1460123 2 620.76432 1.000000 1.0000000 2.000000
## 310 1460137 2 398.54169 2.000000 1.0000000 1.000000
## 311 1470505 2 202.14099 2.000000 1.0000000 2.000000
## 312 1470519 2 474.87992 1.000000 1.0000000 1.000000
## 313 1470533 2 397.21095 1.000000 1.0000000 3.000000
## 314 1480110 1 432.21322 1.000000 1.0000000 1.000000
## 315 1480124 2 673.74992 1.000000 1.0000000 1.000000
## 316 1490202 2 535.21266 1.000000 1.0000000 1.000000
## 317 1490216 1 434.28849 1.000000 2.0000000 3.000000
## 318 1490230 1 424.80681 1.000000 1.0000000 2.000000
## 319 1500410 1 405.67035 3.000000 1.0000000 3.000000
## 320 1500424 2 260.56767 1.887339 1.0000000 3.000000
## 321 1500438 1 367.46729 1.367028 1.0000000 2.137500
## 322 1500452 1 534.00619 1.000000 1.0000000 1.000000
## 323 1500466 2 344.75313 1.919490 3.0000000 2.000000
EM Algoritması sonuçlar
Grafik → EM PCA (Expectation-Maximization Principal Component Analysis) analizi sonrasında → Predicted Residual Error Sum of Squares (PRESS) değerlerini göstermektedir.
PRESS değeri → modelin tahmin hatasını ölçer. Daha düşük PRESS değeri → daha iyi bir model anlamına gelir.
PCA tabanlı imputasyon işlemi sırasında → kaç ana bileşenin kullanılacağını belirlenir. Daha fazla bileşen kullanmak, modelin daha karmaşık olmasına neden olabilir, ancak aynı zamanda daha fazla varyansı açıklayabilir.
Ancak, çok fazla bileşen kullanmak aşırı öğrenmeye (overfitting) yol açabilir.
Fonkisyonun kullanımı:
TIMSS_numeric <- TIMSS2 %>% select(where(is.numeric))
TIMSS_EM <- imputeEM(data = TIMSS_numeric, impute.ncomps = 2, pca.ncomps = 2, CV = T, Init = "mean", scale = T, iters = 25, tol = .Machine$double.eps^0.25)data: Eksik değerlere sahip veri kümesi.
impute.ncomps: Test edilecek minimum bileşen sayısını belirler. EM algoritması için kullanılacak bileşen sayısını belirlemek amacıyla çeşitli bileşen sayıları test edilir.
pca.ncomps: Eksik veri tamamlama işlemi için kullanılacak minimum bileşen sayısını belirler. PCA (Principal Component Analysis) tabanlı tamamlama işlemi yapılıyorsa kaç bileşenin kullanılacağını belirler.
CV: Eğer TRUE ise, çapraz doğrulama (cross-validation) kullanılarak optimal bileşen sayısı belirlenir.
Init: Sürekli değişkenler için başlangıç değerinin mean (ortalama) veya median (medyan) olarak belirlenmesini sağlar.
scale: TRUE ise değişkenler birim varyansa (\(standart sapma = 1\)) ölçeklendirilir.
iters: EM algoritmasının kaç iterasyon süreceğini belirler.
tol: İterasyonların yakınsama (convergence) eşiğini belirler. Yani, ardışık iterasyonlardaki değişim bu eşiğin altına düşerse algoritma durur.
## [1] 2
## [[1]]
## ID cinsiyet sevme algi degerverme kaygi
## 1 10111 1 708.62857 1.000000 1.000000 1.000000
## 2 10125 1 661.39455 1.000000 1.000000 1.000000
## 3 20207 2 729.38763 1.000000 1.000000 1.000000
## 4 30111 2 802.42009 1.000000 1.000000 1.000000
## 5 40105 2 374.29698 3.000000 1.000000 3.648868
## 6 40119 1 373.85918 2.000000 1.000000 3.000000
## 7 50113 1 371.64520 1.000000 2.000000 1.000000
## 8 60103 1 423.76599 2.000000 1.000000 2.591969
## 9 60117 1 381.60800 1.000000 2.000000 2.000000
## 10 60131 1 408.89378 1.000000 1.000000 3.000000
## 11 70209 2 537.47245 3.000000 1.000000 3.000000
## 12 80204 1 369.22655 2.000000 1.000000 3.000000
## 13 80218 1 243.51317 2.107065 1.000000 3.000000
## 14 90216 1 370.12337 1.000000 1.000000 1.000000
## 15 100207 1 217.02096 1.000000 1.000000 3.000000
## 16 100221 1 346.17419 1.000000 1.000000 1.000000
## 17 100235 2 47.87577 1.000000 1.000000 2.000000
## 18 110201 2 514.62271 1.000000 1.000000 1.000000
## 19 110215 1 522.58073 1.000000 1.000000 1.000000
## 20 110229 1 459.60656 1.000000 1.000000 2.000000
## 21 120307 1 417.33185 1.000000 1.000000 1.000000
## 22 120321 2 414.24928 1.000000 1.000000 3.000000
## 23 130310 1 436.59149 1.000000 1.000000 1.000000
## 24 130324 2 513.32538 2.000000 1.000000 3.000000
## 25 140211 1 486.50057 1.000000 1.000000 1.000000
## 26 140225 2 300.37804 1.000000 1.000000 2.171275
## 27 140239 2 398.11413 1.000000 1.000000 2.000000
## 28 150111 1 442.17818 1.000000 1.000000 2.000000
## 29 150125 2 351.83535 1.000000 1.000000 3.000000
## 30 150139 1 352.86700 1.000000 1.000000 2.000000
## 31 160206 1 438.07937 1.000000 2.000000 1.000000
## 32 160234 1 303.83524 1.000000 1.000000 1.000000
## 33 170313 2 449.98111 1.000000 2.000000 1.000000
## 34 170327 1 390.79254 1.000000 1.000000 2.000000
## 35 180313 1 446.59806 1.000000 1.000000 2.000000
## 36 180327 2 373.18568 1.000000 2.000000 3.000000
## 37 190101 1 452.51476 2.000000 2.000000 1.000000
## 38 190115 1 543.63930 1.000000 2.000000 1.000000
## 39 190129 2 447.82403 1.000000 1.000000 2.000000
## 40 200204 1 307.73164 2.040089 1.265692 3.143755
## 41 200218 1 579.45659 1.000000 1.000000 1.000000
## 42 200232 2 424.72328 1.000000 1.000000 2.000000
## 43 210214 1 582.90700 1.000000 1.000000 2.000000
## 44 210228 1 395.64590 1.818561 1.000000 3.000000
## 45 210242 2 586.87507 1.000000 3.000000 3.000000
## 46 220111 2 494.76899 1.000000 2.000000 2.000000
## 47 220125 2 551.97638 1.000000 1.000000 1.000000
## 48 220139 2 618.27787 1.000000 1.000000 1.000000
## 49 230411 1 300.87921 1.994814 1.000000 3.000000
## 50 230425 1 464.32197 1.000000 1.000000 2.000000
## 51 240107 1 587.81932 1.000000 1.000000 1.000000
## 52 240121 2 511.16443 1.000000 1.000000 2.000000
## 53 250110 2 541.22140 1.000000 1.000000 2.000000
## 54 250124 1 441.77875 1.000000 1.000000 1.000000
## 55 260307 2 438.31110 1.000000 1.000000 1.000000
## 56 260321 2 514.92039 1.000000 1.000000 1.000000
## 57 270302 1 360.80282 1.000000 1.000000 1.000000
## 58 270316 2 570.24371 1.000000 1.000000 1.000000
## 59 270330 2 311.19434 1.000000 1.000000 2.000000
## 60 270344 2 481.71026 1.000000 1.000000 2.000000
## 61 290312 2 614.88167 1.000000 1.000000 1.000000
## 62 290326 2 567.72666 1.000000 1.000000 2.000000
## 63 300414 2 345.36596 2.000000 1.000000 2.000000
## 64 300428 1 321.35049 1.000000 1.000000 2.000000
## 65 310402 2 335.08500 1.000000 2.000000 2.000000
## 66 310416 2 413.08302 1.000000 1.000000 1.000000
## 67 310430 1 376.77415 1.000000 1.000000 2.000000
## 68 320306 2 420.27042 3.000000 3.000000 3.000000
## 69 320320 1 594.38323 2.000000 1.000000 2.000000
## 70 330206 2 526.14108 1.000000 1.000000 3.000000
## 71 330220 1 392.13427 1.000000 1.000000 2.000000
## 72 330234 1 318.98196 1.000000 1.000000 3.000000
## 73 340402 1 233.98924 2.374414 1.310869 3.755795
## 74 340416 1 377.66386 1.000000 1.000000 2.000000
## 75 340430 2 459.78440 3.000000 1.000000 2.000000
## 76 340444 1 273.11306 1.000000 1.000000 3.000000
## 77 350513 2 294.53883 3.000000 1.000000 3.970283
## 78 350527 1 325.43594 1.000000 1.000000 1.000000
## 79 350541 1 414.03200 1.000000 1.000000 3.000000
## 80 350555 1 342.23231 1.952536 2.000000 3.000000
## 81 360414 2 276.01693 1.000000 1.000000 3.000000
## 82 360428 2 537.83297 1.000000 1.000000 1.000000
## 83 360442 1 328.31749 2.000000 1.000000 2.000000
## 84 370404 1 521.19276 1.000000 1.000000 1.000000
## 85 370418 1 393.80365 1.000000 1.000000 3.000000
## 86 370432 1 501.91275 1.000000 1.000000 1.000000
## 87 370446 1 544.83812 2.000000 1.000000 3.000000
## 88 380310 2 495.69578 1.000000 1.000000 1.000000
## 89 380324 2 391.17354 2.000000 2.000000 2.000000
## 90 380338 2 537.27500 3.000000 1.000000 1.000000
## 91 380352 1 447.17736 1.000000 1.000000 1.000000
## 92 390409 2 436.31235 1.000000 1.000000 1.000000
## 93 390423 2 540.86401 1.000000 1.000000 1.000000
## 94 390437 1 312.21575 1.000000 1.000000 3.000000
## 95 390451 1 298.65962 1.000000 1.000000 3.000000
## 96 400707 22 470.60339 1.000000 1.000000 1.000000
## 97 400721 2 287.18027 2.060306 1.268424 3.180766
## 98 400735 1 436.97400 1.000000 1.000000 1.000000
## 99 410107 1 598.73165 1.000000 1.000000 1.000000
## 100 420103 2 427.43735 1.000000 1.000000 2.000000
## 101 440104 1 374.81086 2.000000 1.000000 3.000000
## 102 440118 2 528.95915 1.000000 1.000000 3.000000
## 103 450112 1 507.54890 1.000000 1.000000 1.000000
## 104 450126 2 504.49457 1.000000 1.000000 1.000000
## 105 460114 2 411.21813 1.472571 1.189003 2.104816
## 106 470203 2 295.98942 1.000000 1.000000 1.000000
## 107 470217 1 273.09872 1.000000 1.000000 2.000000
## 108 480105 1 442.18885 1.000000 1.000000 2.000000
## 109 480119 2 257.74399 3.000000 1.000000 4.119643
## 110 490112 2 669.76256 1.000000 1.000000 1.000000
## 111 490126 2 579.06395 1.000000 2.000000 1.000000
## 112 500206 2 405.04233 3.000000 1.000000 3.000000
## 113 500220 2 321.58394 1.000000 1.000000 3.000000
## 114 510111 2 531.10383 3.000000 1.000000 3.000000
## 115 510125 2 480.53364 1.000000 1.000000 1.000000
## 116 520312 2 436.83895 2.000000 1.000000 1.000000
## 117 520326 2 374.40131 1.640328 1.211672 2.411925
## 118 530309 2 417.01811 1.000000 1.000000 1.000000
## 119 530323 1 408.69278 1.000000 1.000000 1.000000
## 120 540312 2 494.25608 1.000000 1.000000 1.000000
## 121 540326 1 372.94619 1.000000 1.000000 1.000000
## 122 550303 2 329.13682 3.000000 1.000000 3.000000
## 123 550317 1 351.30885 1.889705 1.000000 3.000000
## 124 550331 2 342.74533 2.000000 2.000000 2.000000
## 125 560512 1 451.94784 1.000000 1.000000 1.000000
## 126 560526 1 280.32019 2.000000 1.000000 3.174639
## 127 560540 1 535.85987 2.000000 1.000000 1.000000
## 128 570212 1 493.55196 1.000000 1.000000 2.000000
## 129 570226 2 485.31684 1.000000 2.000000 2.000000
## 130 580310 1 482.36986 1.000000 1.000000 2.000000
## 131 580324 2 408.52023 1.000000 1.000000 2.000000
## 132 590201 1 365.23143 1.000000 1.000000 2.000000
## 133 590215 1 404.67675 1.000000 1.000000 1.000000
## 134 590229 1 263.18022 1.000000 1.000000 2.000000
## 135 600306 2 302.90134 1.954905 1.000000 3.000000
## 136 600320 1 443.04741 1.000000 1.000000 1.000000
## 137 610501 2 618.64475 1.000000 1.000000 1.000000
## 138 610515 1 398.74118 1.000000 1.000000 2.000000
## 139 610529 1 569.22122 1.000000 1.000000 1.000000
## 140 620207 1 386.07088 1.496032 1.000000 2.000000
## 141 620221 2 663.70769 1.000000 1.000000 1.000000
## 142 620235 2 658.58908 2.000000 2.000000 1.000000
## 143 630513 2 643.76354 1.000000 1.000000 1.000000
## 144 630527 2 669.65025 1.000000 1.000000 1.000000
## 145 640207 1 478.13267 1.000000 1.000000 1.000000
## 146 640221 1 561.28895 1.000000 1.000000 2.000000
## 147 640235 1 570.75900 1.000000 1.000000 1.000000
## 148 650412 1 327.83745 1.000000 1.000000 3.000000
## 149 650426 2 481.11565 1.000000 1.000000 1.000000
## 150 650440 1 546.07638 1.000000 1.000000 1.000000
## 151 660610 1 632.59653 1.000000 1.000000 1.000000
## 152 660624 2 663.73463 1.000000 1.000000 1.000000
## 153 660638 2 606.84573 1.000000 1.000000 1.000000
## 154 670307 1 642.77058 1.000000 1.000000 1.000000
## 155 680204 2 597.69762 1.000000 11.000000 1.000000
## 156 690102 1 208.21613 2.531014 2.000000 4.042477
## 157 690116 2 295.63343 1.995714 1.259696 3.062520
## 158 700111 1 399.49348 1.000000 1.000000 2.000000
## 159 700125 1 420.63536 3.000000 1.000000 3.000000
## 160 710112 2 350.11596 2.000000 1.000000 2.805314
## 161 710126 1 413.92821 1.767316 1.000000 3.000000
## 162 720204 1 368.10081 1.000000 1.000000 2.000000
## 163 720218 2 258.46449 1.000000 1.000000 2.307026
## 164 740207 2 425.30668 1.000000 1.000000 2.000000
## 165 740221 1 414.47346 1.000000 1.000000 1.000000
## 166 750308 2 504.43724 2.000000 2.000000 1.000000
## 167 750322 2 553.09835 1.000000 1.000000 1.000000
## 168 760306 2 483.72248 1.000000 1.000000 1.000000
## 169 760320 1 372.01068 1.000000 1.000000 3.000000
## 170 770110 1 573.54679 1.000000 1.000000 1.000000
## 171 780304 2 586.06458 1.000000 1.000000 1.000000
## 172 780318 1 549.39078 1.000000 1.000000 1.000000
## 173 780332 2 514.03952 1.000000 1.000000 1.000000
## 174 790214 2 540.50619 2.000000 1.000000 1.000000
## 175 790228 2 363.52390 1.000000 1.000000 3.000000
## 176 790242 1 462.16856 1.000000 1.000000 1.472058
## 177 800304 2 432.14650 1.000000 1.000000 2.000000
## 178 800318 2 524.63509 2.000000 1.000000 2.000000
## 179 800332 1 301.82431 1.000000 1.000000 3.000000
## 180 810414 1 518.95011 1.000000 2.000000 1.000000
## 181 810428 2 405.60720 2.000000 1.000000 2.000000
## 182 820407 2 376.54491 1.000000 1.000000 3.000000
## 183 820421 1 565.50492 1.000000 1.000000 1.000000
## 184 820435 2 576.28586 1.000000 1.000000 1.000000
## 185 830214 1 636.30572 1.000000 1.000000 1.000000
## 186 830228 1 549.36394 1.000000 1.000000 1.000000
## 187 840709 1 632.45276 1.000000 1.000000 1.000000
## 188 840723 2 781.57406 1.000000 1.000000 1.000000
## 189 850207 1 629.07908 1.000000 1.000000 2.000000
## 190 860107 2 413.44698 1.000000 1.000000 2.000000
## 191 860121 2 206.84767 1.798984 1.000000 2.000000
## 192 870109 1 489.68682 1.000000 1.000000 1.000000
## 193 870123 1 415.15592 1.000000 1.000000 1.000000
## 194 880112 2 554.31818 1.000000 1.000000 1.000000
## 195 890111 2 395.88064 1.000000 1.000000 2.000000
## 196 900305 1 523.62607 2.000000 1.000000 1.000000
## 197 900319 2 463.97568 1.000000 1.000000 1.000000
## 198 910204 2 752.49000 1.000000 1.000000 1.000000
## 199 910218 2 536.22987 3.000000 2.000000 2.000000
## 200 920202 1 290.49467 1.000000 1.222629 3.000000
## 201 920216 2 492.45370 1.000000 1.000000 1.000000
## 202 920230 2 497.37076 1.000000 1.000000 1.000000
## 203 930214 2 455.67675 1.000000 1.000000 3.000000
## 204 930228 2 387.72614 1.000000 1.000000 3.000000
## 205 940209 1 419.25634 2.000000 1.000000 2.000000
## 206 940223 1 367.22791 1.000000 1.000000 1.000000
## 207 950214 2 475.81167 1.000000 1.000000 1.000000
## 208 950228 2 438.30786 1.000000 1.000000 1.000000
## 209 960501 2 664.36546 1.000000 1.000000 1.000000
## 210 960515 2 421.40759 3.000000 1.000000 3.000000
## 211 970106 2 339.96519 1.000000 1.000000 1.933487
## 212 970120 1 437.80820 1.000000 1.000000 1.000000
## 213 980123 2 345.09964 2.000000 1.000000 2.000000
## 214 990313 1 505.16840 1.000000 1.000000 2.000000
## 215 990327 1 256.48288 1.000000 1.000000 2.000000
## 216 990341 1 563.33545 1.000000 1.000000 1.000000
## 217 1000308 2 610.06593 2.000000 3.000000 3.000000
## 218 1010101 2 685.60132 1.000000 1.000000 1.000000
## 219 1010115 1 589.67332 3.000000 1.000000 2.000000
## 220 1010129 2 604.30098 1.000000 1.000000 1.000000
## 221 1010143 1 606.10573 1.000000 1.000000 1.000000
## 222 1020408 2 456.60677 1.000000 1.000000 2.000000
## 223 1020422 2 659.81829 3.000000 2.000000 3.000000
## 224 1020436 2 565.91135 1.000000 1.000000 3.000000
## 225 1030111 2 410.34028 1.000000 1.000000 2.000000
## 226 1040107 2 550.21970 1.000000 1.000000 1.000000
## 227 1050101 2 462.75778 1.000000 1.000000 1.000000
## 228 1050115 2 400.73637 1.000000 1.000000 2.000000
## 229 1050129 2 458.96561 1.000000 2.000000 2.000000
## 230 1060101 2 302.56906 1.000000 2.000000 2.000000
## 231 1060115 2 351.73975 1.000000 3.000000 3.000000
## 232 1070106 1 566.27230 1.000000 1.000000 1.000000
## 233 1070120 1 508.03746 1.000000 1.000000 2.000000
## 234 1080105 1 426.89577 1.000000 1.000000 1.000000
## 235 1080119 1 317.93123 1.000000 1.000000 3.000000
## 236 1090212 2 425.11010 1.000000 1.000000 1.000000
## 237 1090226 1 399.67691 1.000000 2.000000 2.000000
## 238 1100313 2 262.25527 2.000000 1.000000 1.000000
## 239 1110306 2 621.52954 1.000000 1.000000 1.000000
## 240 1110320 2 366.67134 1.000000 1.000000 1.000000
## 241 1120306 2 512.60898 1.000000 1.000000 2.000000
## 242 1120320 1 420.37518 3.000000 2.000000 3.000000
## 243 1130104 1 418.70829 3.000000 2.000000 3.000000
## 244 1130118 2 548.49342 1.000000 1.000000 1.000000
## 245 1140201 1 309.40953 2.000000 1.000000 1.000000
## 246 1140215 1 434.83471 1.000000 1.000000 2.000000
## 247 1140229 1 425.07518 2.000000 1.000000 2.000000
## 248 1150202 2 562.52345 1.000000 1.000000 1.000000
## 249 1150216 2 366.46172 1.000000 1.000000 2.000000
## 250 1160501 2 418.77403 1.000000 1.000000 1.000000
## 251 1160515 2 548.54515 2.000000 1.000000 2.000000
## 252 1160529 1 607.86100 1.000000 1.000000 1.000000
## 253 1170403 1 337.17471 1.000000 1.000000 1.000000
## 254 1170417 1 430.01293 1.000000 1.000000 1.000000
## 255 1170431 2 410.79769 1.000000 1.000000 2.000000
## 256 1180612 1 246.26012 3.000000 1.000000 4.168319
## 257 1200105 1 467.61125 1.000000 1.000000 1.000000
## 258 1200119 2 663.33100 1.000000 1.000000 1.000000
## 259 1210212 1 252.33762 1.000000 1.000000 3.000000
## 260 1220201 1 330.51876 2.000000 1.000000 2.000000
## 261 1220215 1 434.13695 1.000000 1.000000 1.000000
## 262 1230207 2 310.44118 1.000000 1.000000 3.000000
## 263 1230221 1 475.17243 1.000000 1.000000 1.000000
## 264 1240105 1 354.57184 1.000000 1.000000 1.000000
## 265 1240119 2 556.09049 1.000000 2.000000 2.000000
## 266 1250202 2 336.05683 1.000000 1.000000 2.000000
## 267 1250216 1 422.49130 1.000000 1.000000 1.000000
## 268 1250230 2 332.16442 1.850538 2.000000 2.796751
## 269 1270319 1 641.69312 1.000000 1.000000 1.000000
## 270 1290508 2 369.29520 2.000000 1.000000 3.000000
## 271 1290522 1 455.92831 1.000000 1.000000 1.000000
## 272 1300207 2 413.17959 1.000000 1.000000 1.000000
## 273 1300221 2 428.72315 1.000000 1.000000 1.000000
## 274 1310210 1 613.79441 1.000000 1.000000 1.000000
## 275 1310238 2 675.61513 1.000000 1.000000 1.000000
## 276 1320609 1 588.09706 1.000000 1.000000 1.000000
## 277 1320623 1 412.59586 1.000000 1.000000 1.000000
## 278 1320637 1 517.92859 1.000000 1.000000 1.000000
## 279 1330101 1 566.80429 1.000000 1.000000 1.000000
## 280 1330115 2 753.45925 1.000000 1.000000 1.000000
## 281 1340108 2 243.96735 1.000000 1.000000 2.000000
## 282 1340122 1 453.58984 1.000000 2.000000 1.000000
## 283 1350109 2 358.85742 1.000000 1.000000 2.000000
## 284 1350123 1 351.05245 2.000000 1.000000 3.000000
## 285 1370210 1 494.18710 3.000000 1.000000 3.000000
## 286 1370224 2 370.28202 2.000000 1.000000 3.000000
## 287 1370238 1 398.28194 1.773939 1.000000 3.000000
## 288 1380105 1 282.76913 1.000000 1.000000 1.000000
## 289 1380119 1 451.17863 1.000000 1.000000 1.000000
## 290 1390104 2 535.93650 1.000000 1.000000 1.000000
## 291 1390118 2 514.56246 1.000000 1.000000 2.000000
## 292 1390132 2 383.42482 1.000000 1.000000 2.000000
## 293 1400113 1 408.97548 2.000000 1.000000 3.000000
## 294 1410101 2 468.70520 1.000000 1.000000 2.000000
## 295 1410115 2 347.37721 2.000000 1.000000 1.000000
## 296 1420201 2 326.89956 1.000000 1.000000 2.000000
## 297 1420215 2 352.44343 1.000000 2.000000 1.000000
## 298 1420229 2 184.47754 1.000000 1.000000 3.000000
## 299 1430212 2 350.17718 1.654939 1.000000 2.438672
## 300 1430226 1 275.24189 1.000000 1.000000 2.000000
## 301 1440302 2 388.48059 2.000000 2.000000 2.000000
## 302 1440316 2 380.11463 1.000000 1.000000 1.000000
## 303 1440330 2 286.26125 1.000000 1.000000 1.000000
## 304 1440344 2 226.52377 2.068764 1.000000 3.000000
## 305 1450214 2 291.43471 1.000000 1.000000 2.000000
## 306 1450228 2 350.83463 1.000000 2.000000 3.000000
## 307 1450242 1 345.65405 1.000000 1.000000 2.000000
## 308 1460109 2 564.36053 1.000000 1.000000 1.000000
## 309 1460123 2 620.76432 1.000000 1.000000 2.000000
## 310 1460137 2 398.54169 2.000000 1.000000 1.000000
## 311 1470505 2 202.14099 2.000000 1.000000 2.000000
## 312 1470519 2 474.87992 1.000000 1.000000 1.000000
## 313 1470533 2 397.21095 1.000000 1.000000 3.000000
## 314 1480110 1 432.21322 1.000000 1.000000 1.000000
## 315 1480124 2 673.74992 1.000000 1.000000 1.000000
## 316 1490202 2 535.21266 1.000000 1.000000 1.000000
## 317 1490216 1 434.28849 1.000000 2.000000 3.000000
## 318 1490230 1 424.80681 1.000000 1.000000 2.000000
## 319 1500410 1 405.67035 3.000000 1.000000 3.000000
## 320 1500424 2 260.56767 2.003143 1.000000 3.000000
## 321 1500438 1 367.46729 1.627124 1.000000 2.387751
## 322 1500452 1 534.00619 1.000000 1.000000 1.000000
## 323 1500466 2 344.75313 1.597673 3.000000 2.000000
##
## [[2]]
## ID cinsiyet sevme algi degerverme kaygi
## 1 10111 1 708.62857 1.000000 1.0000000 1.000000
## 2 10125 1 661.39455 1.000000 1.0000000 1.000000
## 3 20207 2 729.38763 1.000000 1.0000000 1.000000
## 4 30111 2 802.42009 1.000000 1.0000000 1.000000
## 5 40105 2 374.29698 3.000000 1.0000000 3.639615
## 6 40119 1 373.85918 2.000000 1.0000000 3.000000
## 7 50113 1 371.64520 1.000000 2.0000000 1.000000
## 8 60103 1 423.76599 2.000000 1.0000000 2.589478
## 9 60117 1 381.60800 1.000000 2.0000000 2.000000
## 10 60131 1 408.89378 1.000000 1.0000000 3.000000
## 11 70209 2 537.47245 3.000000 1.0000000 3.000000
## 12 80204 1 369.22655 2.000000 1.0000000 3.000000
## 13 80218 1 243.51317 2.072500 1.0000000 3.000000
## 14 90216 1 370.12337 1.000000 1.0000000 1.000000
## 15 100207 1 217.02096 1.000000 1.0000000 3.000000
## 16 100221 1 346.17419 1.000000 1.0000000 1.000000
## 17 100235 2 47.87577 1.000000 1.0000000 2.000000
## 18 110201 2 514.62271 1.000000 1.0000000 1.000000
## 19 110215 1 522.58073 1.000000 1.0000000 1.000000
## 20 110229 1 459.60656 1.000000 1.0000000 2.000000
## 21 120307 1 417.33185 1.000000 1.0000000 1.000000
## 22 120321 2 414.24928 1.000000 1.0000000 3.000000
## 23 130310 1 436.59149 1.000000 1.0000000 1.000000
## 24 130324 2 513.32538 2.000000 1.0000000 3.000000
## 25 140211 1 486.50057 1.000000 1.0000000 1.000000
## 26 140225 2 300.37804 1.000000 1.0000000 2.170858
## 27 140239 2 398.11413 1.000000 1.0000000 2.000000
## 28 150111 1 442.17818 1.000000 1.0000000 2.000000
## 29 150125 2 351.83535 1.000000 1.0000000 3.000000
## 30 150139 1 352.86700 1.000000 1.0000000 2.000000
## 31 160206 1 438.07937 1.000000 2.0000000 1.000000
## 32 160234 1 303.83524 1.000000 1.0000000 1.000000
## 33 170313 2 449.98111 1.000000 2.0000000 1.000000
## 34 170327 1 390.79254 1.000000 1.0000000 2.000000
## 35 180313 1 446.59806 1.000000 1.0000000 2.000000
## 36 180327 2 373.18568 1.000000 2.0000000 3.000000
## 37 190101 1 452.51476 2.000000 2.0000000 1.000000
## 38 190115 1 543.63930 1.000000 2.0000000 1.000000
## 39 190129 2 447.82403 1.000000 1.0000000 2.000000
## 40 200204 1 307.73164 2.184089 1.5491695 3.291954
## 41 200218 1 579.45659 1.000000 1.0000000 1.000000
## 42 200232 2 424.72328 1.000000 1.0000000 2.000000
## 43 210214 1 582.90700 1.000000 1.0000000 2.000000
## 44 210228 1 395.64590 1.813257 1.0000000 3.000000
## 45 210242 2 586.87507 1.000000 3.0000000 3.000000
## 46 220111 2 494.76899 1.000000 2.0000000 2.000000
## 47 220125 2 551.97638 1.000000 1.0000000 1.000000
## 48 220139 2 618.27787 1.000000 1.0000000 1.000000
## 49 230411 1 300.87921 1.959833 1.0000000 3.000000
## 50 230425 1 464.32197 1.000000 1.0000000 2.000000
## 51 240107 1 587.81932 1.000000 1.0000000 1.000000
## 52 240121 2 511.16443 1.000000 1.0000000 2.000000
## 53 250110 2 541.22140 1.000000 1.0000000 2.000000
## 54 250124 1 441.77875 1.000000 1.0000000 1.000000
## 55 260307 2 438.31110 1.000000 1.0000000 1.000000
## 56 260321 2 514.92039 1.000000 1.0000000 1.000000
## 57 270302 1 360.80282 1.000000 1.0000000 1.000000
## 58 270316 2 570.24371 1.000000 1.0000000 1.000000
## 59 270330 2 311.19434 1.000000 1.0000000 2.000000
## 60 270344 2 481.71026 1.000000 1.0000000 2.000000
## 61 290312 2 614.88167 1.000000 1.0000000 1.000000
## 62 290326 2 567.72666 1.000000 1.0000000 2.000000
## 63 300414 2 345.36596 2.000000 1.0000000 2.000000
## 64 300428 1 321.35049 1.000000 1.0000000 2.000000
## 65 310402 2 335.08500 1.000000 2.0000000 2.000000
## 66 310416 2 413.08302 1.000000 1.0000000 1.000000
## 67 310430 1 376.77415 1.000000 1.0000000 2.000000
## 68 320306 2 420.27042 3.000000 3.0000000 3.000000
## 69 320320 1 594.38323 2.000000 1.0000000 2.000000
## 70 330206 2 526.14108 1.000000 1.0000000 3.000000
## 71 330220 1 392.13427 1.000000 1.0000000 2.000000
## 72 330234 1 318.98196 1.000000 1.0000000 3.000000
## 73 340402 1 233.98924 2.462418 1.5110796 3.840294
## 74 340416 1 377.66386 1.000000 1.0000000 2.000000
## 75 340430 2 459.78440 3.000000 1.0000000 2.000000
## 76 340444 1 273.11306 1.000000 1.0000000 3.000000
## 77 350513 2 294.53883 3.000000 1.0000000 3.954446
## 78 350527 1 325.43594 1.000000 1.0000000 1.000000
## 79 350541 1 414.03200 1.000000 1.0000000 3.000000
## 80 350555 1 342.23231 2.134180 2.0000000 3.000000
## 81 360414 2 276.01693 1.000000 1.0000000 3.000000
## 82 360428 2 537.83297 1.000000 1.0000000 1.000000
## 83 360442 1 328.31749 2.000000 1.0000000 2.000000
## 84 370404 1 521.19276 1.000000 1.0000000 1.000000
## 85 370418 1 393.80365 1.000000 1.0000000 3.000000
## 86 370432 1 501.91275 1.000000 1.0000000 1.000000
## 87 370446 1 544.83812 2.000000 1.0000000 3.000000
## 88 380310 2 495.69578 1.000000 1.0000000 1.000000
## 89 380324 2 391.17354 2.000000 2.0000000 2.000000
## 90 380338 2 537.27500 3.000000 1.0000000 1.000000
## 91 380352 1 447.17736 1.000000 1.0000000 1.000000
## 92 390409 2 436.31235 1.000000 1.0000000 1.000000
## 93 390423 2 540.86401 1.000000 1.0000000 1.000000
## 94 390437 1 312.21575 1.000000 1.0000000 3.000000
## 95 390451 1 298.65962 1.000000 1.0000000 3.000000
## 96 400707 22 470.60339 1.000000 1.0000000 1.000000
## 97 400721 2 287.18027 2.490349 2.0253621 3.650396
## 98 400735 1 436.97400 1.000000 1.0000000 1.000000
## 99 410107 1 598.73165 1.000000 1.0000000 1.000000
## 100 420103 2 427.43735 1.000000 1.0000000 2.000000
## 101 440104 1 374.81086 2.000000 1.0000000 3.000000
## 102 440118 2 528.95915 1.000000 1.0000000 3.000000
## 103 450112 1 507.54890 1.000000 1.0000000 1.000000
## 104 450126 2 504.49457 1.000000 1.0000000 1.000000
## 105 460114 2 411.21813 1.821879 1.7860739 2.489798
## 106 470203 2 295.98942 1.000000 1.0000000 1.000000
## 107 470217 1 273.09872 1.000000 1.0000000 2.000000
## 108 480105 1 442.18885 1.000000 1.0000000 2.000000
## 109 480119 2 257.74399 3.000000 1.0000000 4.100955
## 110 490112 2 669.76256 1.000000 1.0000000 1.000000
## 111 490126 2 579.06395 1.000000 2.0000000 1.000000
## 112 500206 2 405.04233 3.000000 1.0000000 3.000000
## 113 500220 2 321.58394 1.000000 1.0000000 3.000000
## 114 510111 2 531.10383 3.000000 1.0000000 3.000000
## 115 510125 2 480.53364 1.000000 1.0000000 1.000000
## 116 520312 2 436.83895 2.000000 1.0000000 1.000000
## 117 520326 2 374.40131 1.967476 1.7771106 2.771460
## 118 530309 2 417.01811 1.000000 1.0000000 1.000000
## 119 530323 1 408.69278 1.000000 1.0000000 1.000000
## 120 540312 2 494.25608 1.000000 1.0000000 1.000000
## 121 540326 1 372.94619 1.000000 1.0000000 1.000000
## 122 550303 2 329.13682 3.000000 1.0000000 3.000000
## 123 550317 1 351.30885 1.833099 1.0000000 3.000000
## 124 550331 2 342.74533 2.000000 2.0000000 2.000000
## 125 560512 1 451.94784 1.000000 1.0000000 1.000000
## 126 560526 1 280.32019 2.000000 1.0000000 3.161098
## 127 560540 1 535.85987 2.000000 1.0000000 1.000000
## 128 570212 1 493.55196 1.000000 1.0000000 2.000000
## 129 570226 2 485.31684 1.000000 2.0000000 2.000000
## 130 580310 1 482.36986 1.000000 1.0000000 2.000000
## 131 580324 2 408.52023 1.000000 1.0000000 2.000000
## 132 590201 1 365.23143 1.000000 1.0000000 2.000000
## 133 590215 1 404.67675 1.000000 1.0000000 1.000000
## 134 590229 1 263.18022 1.000000 1.0000000 2.000000
## 135 600306 2 302.90134 1.953203 1.0000000 3.000000
## 136 600320 1 443.04741 1.000000 1.0000000 1.000000
## 137 610501 2 618.64475 1.000000 1.0000000 1.000000
## 138 610515 1 398.74118 1.000000 1.0000000 2.000000
## 139 610529 1 569.22122 1.000000 1.0000000 1.000000
## 140 620207 1 386.07088 1.418320 1.0000000 2.000000
## 141 620221 2 663.70769 1.000000 1.0000000 1.000000
## 142 620235 2 658.58908 2.000000 2.0000000 1.000000
## 143 630513 2 643.76354 1.000000 1.0000000 1.000000
## 144 630527 2 669.65025 1.000000 1.0000000 1.000000
## 145 640207 1 478.13267 1.000000 1.0000000 1.000000
## 146 640221 1 561.28895 1.000000 1.0000000 2.000000
## 147 640235 1 570.75900 1.000000 1.0000000 1.000000
## 148 650412 1 327.83745 1.000000 1.0000000 3.000000
## 149 650426 2 481.11565 1.000000 1.0000000 1.000000
## 150 650440 1 546.07638 1.000000 1.0000000 1.000000
## 151 660610 1 632.59653 1.000000 1.0000000 1.000000
## 152 660624 2 663.73463 1.000000 1.0000000 1.000000
## 153 660638 2 606.84573 1.000000 1.0000000 1.000000
## 154 670307 1 642.77058 1.000000 1.0000000 1.000000
## 155 680204 2 597.69762 1.000000 11.0000000 1.000000
## 156 690102 1 208.21613 2.727247 2.0000000 4.237077
## 157 690116 2 295.63343 2.251177 1.7158344 3.340997
## 158 700111 1 399.49348 1.000000 1.0000000 2.000000
## 159 700125 1 420.63536 3.000000 1.0000000 3.000000
## 160 710112 2 350.11596 2.000000 1.0000000 2.792350
## 161 710126 1 413.92821 1.710724 1.0000000 3.000000
## 162 720204 1 368.10081 1.000000 1.0000000 2.000000
## 163 720218 2 258.46449 1.000000 1.0000000 2.297432
## 164 740207 2 425.30668 1.000000 1.0000000 2.000000
## 165 740221 1 414.47346 1.000000 1.0000000 1.000000
## 166 750308 2 504.43724 2.000000 2.0000000 1.000000
## 167 750322 2 553.09835 1.000000 1.0000000 1.000000
## 168 760306 2 483.72248 1.000000 1.0000000 1.000000
## 169 760320 1 372.01068 1.000000 1.0000000 3.000000
## 170 770110 1 573.54679 1.000000 1.0000000 1.000000
## 171 780304 2 586.06458 1.000000 1.0000000 1.000000
## 172 780318 1 549.39078 1.000000 1.0000000 1.000000
## 173 780332 2 514.03952 1.000000 1.0000000 1.000000
## 174 790214 2 540.50619 2.000000 1.0000000 1.000000
## 175 790228 2 363.52390 1.000000 1.0000000 3.000000
## 176 790242 1 462.16856 1.000000 1.0000000 1.466856
## 177 800304 2 432.14650 1.000000 1.0000000 2.000000
## 178 800318 2 524.63509 2.000000 1.0000000 2.000000
## 179 800332 1 301.82431 1.000000 1.0000000 3.000000
## 180 810414 1 518.95011 1.000000 2.0000000 1.000000
## 181 810428 2 405.60720 2.000000 1.0000000 2.000000
## 182 820407 2 376.54491 1.000000 1.0000000 3.000000
## 183 820421 1 565.50492 1.000000 1.0000000 1.000000
## 184 820435 2 576.28586 1.000000 1.0000000 1.000000
## 185 830214 1 636.30572 1.000000 1.0000000 1.000000
## 186 830228 1 549.36394 1.000000 1.0000000 1.000000
## 187 840709 1 632.45276 1.000000 1.0000000 1.000000
## 188 840723 2 781.57406 1.000000 1.0000000 1.000000
## 189 850207 1 629.07908 1.000000 1.0000000 2.000000
## 190 860107 2 413.44698 1.000000 1.0000000 2.000000
## 191 860121 2 206.84767 1.716871 1.0000000 2.000000
## 192 870109 1 489.68682 1.000000 1.0000000 1.000000
## 193 870123 1 415.15592 1.000000 1.0000000 1.000000
## 194 880112 2 554.31818 1.000000 1.0000000 1.000000
## 195 890111 2 395.88064 1.000000 1.0000000 2.000000
## 196 900305 1 523.62607 2.000000 1.0000000 1.000000
## 197 900319 2 463.97568 1.000000 1.0000000 1.000000
## 198 910204 2 752.49000 1.000000 1.0000000 1.000000
## 199 910218 2 536.22987 3.000000 2.0000000 2.000000
## 200 920202 1 290.49467 1.000000 0.4566836 3.000000
## 201 920216 2 492.45370 1.000000 1.0000000 1.000000
## 202 920230 2 497.37076 1.000000 1.0000000 1.000000
## 203 930214 2 455.67675 1.000000 1.0000000 3.000000
## 204 930228 2 387.72614 1.000000 1.0000000 3.000000
## 205 940209 1 419.25634 2.000000 1.0000000 2.000000
## 206 940223 1 367.22791 1.000000 1.0000000 1.000000
## 207 950214 2 475.81167 1.000000 1.0000000 1.000000
## 208 950228 2 438.30786 1.000000 1.0000000 1.000000
## 209 960501 2 664.36546 1.000000 1.0000000 1.000000
## 210 960515 2 421.40759 3.000000 1.0000000 3.000000
## 211 970106 2 339.96519 1.000000 1.0000000 1.922845
## 212 970120 1 437.80820 1.000000 1.0000000 1.000000
## 213 980123 2 345.09964 2.000000 1.0000000 2.000000
## 214 990313 1 505.16840 1.000000 1.0000000 2.000000
## 215 990327 1 256.48288 1.000000 1.0000000 2.000000
## 216 990341 1 563.33545 1.000000 1.0000000 1.000000
## 217 1000308 2 610.06593 2.000000 3.0000000 3.000000
## 218 1010101 2 685.60132 1.000000 1.0000000 1.000000
## 219 1010115 1 589.67332 3.000000 1.0000000 2.000000
## 220 1010129 2 604.30098 1.000000 1.0000000 1.000000
## 221 1010143 1 606.10573 1.000000 1.0000000 1.000000
## 222 1020408 2 456.60677 1.000000 1.0000000 2.000000
## 223 1020422 2 659.81829 3.000000 2.0000000 3.000000
## 224 1020436 2 565.91135 1.000000 1.0000000 3.000000
## 225 1030111 2 410.34028 1.000000 1.0000000 2.000000
## 226 1040107 2 550.21970 1.000000 1.0000000 1.000000
## 227 1050101 2 462.75778 1.000000 1.0000000 1.000000
## 228 1050115 2 400.73637 1.000000 1.0000000 2.000000
## 229 1050129 2 458.96561 1.000000 2.0000000 2.000000
## 230 1060101 2 302.56906 1.000000 2.0000000 2.000000
## 231 1060115 2 351.73975 1.000000 3.0000000 3.000000
## 232 1070106 1 566.27230 1.000000 1.0000000 1.000000
## 233 1070120 1 508.03746 1.000000 1.0000000 2.000000
## 234 1080105 1 426.89577 1.000000 1.0000000 1.000000
## 235 1080119 1 317.93123 1.000000 1.0000000 3.000000
## 236 1090212 2 425.11010 1.000000 1.0000000 1.000000
## 237 1090226 1 399.67691 1.000000 2.0000000 2.000000
## 238 1100313 2 262.25527 2.000000 1.0000000 1.000000
## 239 1110306 2 621.52954 1.000000 1.0000000 1.000000
## 240 1110320 2 366.67134 1.000000 1.0000000 1.000000
## 241 1120306 2 512.60898 1.000000 1.0000000 2.000000
## 242 1120320 1 420.37518 3.000000 2.0000000 3.000000
## 243 1130104 1 418.70829 3.000000 2.0000000 3.000000
## 244 1130118 2 548.49342 1.000000 1.0000000 1.000000
## 245 1140201 1 309.40953 2.000000 1.0000000 1.000000
## 246 1140215 1 434.83471 1.000000 1.0000000 2.000000
## 247 1140229 1 425.07518 2.000000 1.0000000 2.000000
## 248 1150202 2 562.52345 1.000000 1.0000000 1.000000
## 249 1150216 2 366.46172 1.000000 1.0000000 2.000000
## 250 1160501 2 418.77403 1.000000 1.0000000 1.000000
## 251 1160515 2 548.54515 2.000000 1.0000000 2.000000
## 252 1160529 1 607.86100 1.000000 1.0000000 1.000000
## 253 1170403 1 337.17471 1.000000 1.0000000 1.000000
## 254 1170417 1 430.01293 1.000000 1.0000000 1.000000
## 255 1170431 2 410.79769 1.000000 1.0000000 2.000000
## 256 1180612 1 246.26012 3.000000 1.0000000 4.139097
## 257 1200105 1 467.61125 1.000000 1.0000000 1.000000
## 258 1200119 2 663.33100 1.000000 1.0000000 1.000000
## 259 1210212 1 252.33762 1.000000 1.0000000 3.000000
## 260 1220201 1 330.51876 2.000000 1.0000000 2.000000
## 261 1220215 1 434.13695 1.000000 1.0000000 1.000000
## 262 1230207 2 310.44118 1.000000 1.0000000 3.000000
## 263 1230221 1 475.17243 1.000000 1.0000000 1.000000
## 264 1240105 1 354.57184 1.000000 1.0000000 1.000000
## 265 1240119 2 556.09049 1.000000 2.0000000 2.000000
## 266 1250202 2 336.05683 1.000000 1.0000000 2.000000
## 267 1250216 1 422.49130 1.000000 1.0000000 1.000000
## 268 1250230 2 332.16442 2.076628 2.0000000 3.021591
## 269 1270319 1 641.69312 1.000000 1.0000000 1.000000
## 270 1290508 2 369.29520 2.000000 1.0000000 3.000000
## 271 1290522 1 455.92831 1.000000 1.0000000 1.000000
## 272 1300207 2 413.17959 1.000000 1.0000000 1.000000
## 273 1300221 2 428.72315 1.000000 1.0000000 1.000000
## 274 1310210 1 613.79441 1.000000 1.0000000 1.000000
## 275 1310238 2 675.61513 1.000000 1.0000000 1.000000
## 276 1320609 1 588.09706 1.000000 1.0000000 1.000000
## 277 1320623 1 412.59586 1.000000 1.0000000 1.000000
## 278 1320637 1 517.92859 1.000000 1.0000000 1.000000
## 279 1330101 1 566.80429 1.000000 1.0000000 1.000000
## 280 1330115 2 753.45925 1.000000 1.0000000 1.000000
## 281 1340108 2 243.96735 1.000000 1.0000000 2.000000
## 282 1340122 1 453.58984 1.000000 2.0000000 1.000000
## 283 1350109 2 358.85742 1.000000 1.0000000 2.000000
## 284 1350123 1 351.05245 2.000000 1.0000000 3.000000
## 285 1370210 1 494.18710 3.000000 1.0000000 3.000000
## 286 1370224 2 370.28202 2.000000 1.0000000 3.000000
## 287 1370238 1 398.28194 1.638120 1.0000000 3.000000
## 288 1380105 1 282.76913 1.000000 1.0000000 1.000000
## 289 1380119 1 451.17863 1.000000 1.0000000 1.000000
## 290 1390104 2 535.93650 1.000000 1.0000000 1.000000
## 291 1390118 2 514.56246 1.000000 1.0000000 2.000000
## 292 1390132 2 383.42482 1.000000 1.0000000 2.000000
## 293 1400113 1 408.97548 2.000000 1.0000000 3.000000
## 294 1410101 2 468.70520 1.000000 1.0000000 2.000000
## 295 1410115 2 347.37721 2.000000 1.0000000 1.000000
## 296 1420201 2 326.89956 1.000000 1.0000000 2.000000
## 297 1420215 2 352.44343 1.000000 2.0000000 1.000000
## 298 1420229 2 184.47754 1.000000 1.0000000 3.000000
## 299 1430212 2 350.17718 1.510502 1.0000000 2.293008
## 300 1430226 1 275.24189 1.000000 1.0000000 2.000000
## 301 1440302 2 388.48059 2.000000 2.0000000 2.000000
## 302 1440316 2 380.11463 1.000000 1.0000000 1.000000
## 303 1440330 2 286.26125 1.000000 1.0000000 1.000000
## 304 1440344 2 226.52377 1.949919 1.0000000 3.000000
## 305 1450214 2 291.43471 1.000000 1.0000000 2.000000
## 306 1450228 2 350.83463 1.000000 2.0000000 3.000000
## 307 1450242 1 345.65405 1.000000 1.0000000 2.000000
## 308 1460109 2 564.36053 1.000000 1.0000000 1.000000
## 309 1460123 2 620.76432 1.000000 1.0000000 2.000000
## 310 1460137 2 398.54169 2.000000 1.0000000 1.000000
## 311 1470505 2 202.14099 2.000000 1.0000000 2.000000
## 312 1470519 2 474.87992 1.000000 1.0000000 1.000000
## 313 1470533 2 397.21095 1.000000 1.0000000 3.000000
## 314 1480110 1 432.21322 1.000000 1.0000000 1.000000
## 315 1480124 2 673.74992 1.000000 1.0000000 1.000000
## 316 1490202 2 535.21266 1.000000 1.0000000 1.000000
## 317 1490216 1 434.28849 1.000000 2.0000000 3.000000
## 318 1490230 1 424.80681 1.000000 1.0000000 2.000000
## 319 1500410 1 405.67035 3.000000 1.0000000 3.000000
## 320 1500424 2 260.56767 1.887339 1.0000000 3.000000
## 321 1500438 1 367.46729 1.367028 1.0000000 2.137500
## 322 1500452 1 534.00619 1.000000 1.0000000 1.000000
## 323 1500466 2 344.75313 1.919490 3.0000000 2.000000
missMethods Paketi ile EM Algoritması
missMethods paketindeki → impute_EM fonksiyonu → eksik verileri doldurmak için Expectation-Maximization (EM) algoritmasını kullanır.
Bu fonksiyon → özellikle çok değişkenli normal dağılıma sahip veri setlerinde eksik değerleri tahmin etmek için tasarlanmıştır.
Fonksiyon → norm paketindeki → em.norm() fonksiyonunu kullanarak → parametreleri tahmin eder ve bu parametreleri kullanarak eksik değerleri doldurur.
EM algoritması → eksik verilerin beklenen değerlerini (E-step) ve bu değerler kullanılarak parametreleri günceller (M-step). Bu işlem, parametreler yakınsayana kadar tekrarlanır.
Eğer stochastic = TRUE ise → bu beklenen değerlere çok değişkenli normal dağılımdan rastgele hatalar (residuals) eklenir.
Eğer stochastic = FALSE ise → sadece beklenen değerler kullanılır ve rastgele hatalar eklenmez.
impute_EM fonksiyonu → eksik verileri doldurmak için EM algoritmasını kullanır ve stochastic argümanı ile doldurulan değerlerin deterministik mi yoksa stokastik mi olacağını kontrol eder. Bu yöntem, özellikle çok değişkenli normal dağılıma sahip veri setlerinde etkilidir.
Multiple Imputation (Çoklu Atama)
Bu yöntem → kayıp değerleri rastgele tahminlerle doldurmak yerine → birden fazla olası değer üretir ve bu değerler üzerinden analizler yapar. Daha sonra bu analiz sonuçları birleştirilerek tek bir sonuç elde edilir.
Gerçekçi Tahminler: Kayıp verinin belirsizliğini dikkate alır.
İstatistiksel Güvenilirlik: Tek bir tahmin yerine birden fazla tahmin üzerinden analiz yapıldığı için daha güvenilir sonuçlar verir.
Esneklik: Farklı veri türleri ve modellerle uyumludur.
Multiple Imputation Adımları
Atama (Imputation): Kayıp değerler → istatistiksel modeller kullanılarak birden fazla kez doldurulur. Genellikle 5-10 arasında tamamlanmış veri seti oluşturulur.
Analiz: Her tamamlanmış veri seti üzerinde ayrı ayrı analizler yapılır.
Birleştirme (Pooling): Analiz sonuçları → belirli kurallar çerçevesinde birleştirilir ve nihai sonuçlar elde edilir.
R’da mice (Multivariate Imputation by Chained Equations) paketi → Multiple Imputation yöntemini uygulamak için → yaygın olarak kullanılır.
Kayıp veriyi görselleştirmek için mice paketinin → md.pattern() fonksiyonunu kullanma:
## ID cinsiyet sevme degerverme kaygi algi
## 288 1 1 1 1 1 1 0
## 13 1 1 1 1 1 0 1
## 11 1 1 1 1 0 1 1
## 4 1 1 1 1 0 0 2
## 1 1 1 1 0 1 1 1
## 6 1 1 1 0 0 0 3
## 0 0 0 7 21 23 51
library(mice)
library(dplyr)
impute_ordinal_mice <- function(data, vars_to_impute, m = 5, seed = 123) {
data[vars_to_impute] <- lapply(data[vars_to_impute], function(x) {factor(x, ordered = T)})
method_vec <- make.method(data)
method_vec[vars_to_impute] <- "polr"
method_vec[!(names(method_vec) %in% vars_to_impute)] <- ""
mice_model <- mice(data, method = method_vec, m = m, seed = seed, printFlag = F)
complete(mice_model)}
sonTIMSS <- impute_ordinal_mice(data = TIMSS, vars_to_impute = c("algi", "degerverme", "kaygi"))Çoğu istatistiksel analiz yöntemi → uç değerlere karşı hassastır.
Tek degiskenli uç değer → tek bir değişkende gözlenen olağan dışı değere sahip bir gözlemdir.
Çok degiskenli uç değer → iki veya daha fazla değişkendeki değerlerin olağan dısı kombinasyonuna sahip bir gözlemdir.
Herhangi bir değişkenin değeri → tek değişkenli uç değer olmayabilir → ancak → diğer değişkenlerle kombinasyonu çok nadir rastlanan bir gözlem olabilir.
Uç değerler hem I. tip hem de II. tip hatalara neden olurlar → ve → sonuçların genellenebilirliğini düşürürler.
Veri setinde uç değer bulunmasının 4 nedeni olabilir:
Hatalı veri girdisi ve kayıp değer kodlaması kolaylıkla bulunup düzeltilebilir ancak 3. ve 4.durumlar arasında ayrım yapıp uç değerin veri setinden silinip silinmemesine karar vermek oldukça güçtür.
Tek değiskenli uç değerlerin belirlenmesi → çok değişkenli uç değerlerin belirlenmesine → göre daha kolaydır.
Iki kategorili değişkenler için → eşit büyüklükte olmayan kategorilerde → yanlış kategoride gözlenen bir değer olasılıkla uç değerdir.
Sürekli değişkenler için → uç değerleri belirleme yöntemleri verinin gruplanmış olup olmamasına göre farklılık gösterir.
Gruplanmamış verilerin kullanıldığı analizlerde uç değerler → bütün bireyler ele alınarak incelenir.
Gruplanmış verilerin kullanıldığı analizlerde ise uç değerler → her bir grup için ayrı ayrı incelenir.
Sürekli değişkenler için tek değişkenli uç değerleri belirlemenin bir yolu → değişkene ait bütün değerlerin → standart degerlere → dönüstürülmesidir.
Örneklem büyüklüğü 100 veya daha AZ oldugğnda → eğer herhangi bir gözlemin z puanı → ±3.0 veya daha fazla ise → gözlem uç değerdir.
Örneklem büyüklüğü 100’den FAZLA olduğunda → eğer herhangi bir gözlemin z puanı → ±4.0 veya daha fazla ise → gözlem uç değerdir.
Bu yöntem → eşit aralık veya eşit oran düzeyinde ölçülen değişkenler için veya sürekli değişken olarak ele alınan sıralama ölçeğinde ölçülen değişkenler için GEÇERLİ olup; sınıflama düzeyinde ölçülen değişkenler için → geçerli DEĞİLdir.
Tek değişkenli uç degerleri saptamak için → grafiksel yöntemlerden de yararlanılabilir.
Histogramlar → kolay anlaşılan ve yorumlanan grafiklerdir ve uç değerlerin belirlenmesine yardımcı olabilirler.
Genellikle ortalamanın yakınındaki çoğu gözlemle birlikte ortalamanın iki yönüne doğru uzanan gözlemler vardır.
Uç değer → dağılımın geri kalanıyla baglantısı bulunmayan gözlemdir.
Kutu grafikleri → de basittir.
Medyan etrafındaki gözlemler kutu içine alınır.
Kutudan çok uzağa düşen gözlemler uç değerdir.
Normal olasılık grafikleri → değişkenlerin dagılımlarının normalliğinin değerlendirilmesinde oldukça kullanışlıdır.
Veri setinde potansiyel tek değişkenli uç değerler tespit edildiği zaman → önce → uç değerin nedeni arastırılmalıdır.
Bunun dışındaki nedenlerde → değişkenin dönüştürülmesinin uygun olup olmayacağına karar verilmelidir.
Dönüşümler → hem dağılımların normalliğini geliştirir hem de tek değişkenli uç değerleri → dağılımın merkezine çekerler ve etkisini azaltırlar.
Dönüşüme karar verilirse → çok değişkenli uç degerler incelenmeden → dönüşüm yapılmalıdır.
Çok değişkenli uç değerleri belirlemenin bir yolu → Mahalanobis uzaklığını hesaplamaktır.
Mahalanobis uzaklığı → z puanının çok boyutlu versiyonudur.
Mahalonobis uzaklığı → ki-kare dağılımı gösterir (serbestlik derecesi hesaplamada kullanılan değişken sayısına eşittir) ve ki-kare dağılımı kullanılarak değerlendirilebilir.
Bu yöntem:
eşit aralık veya eşit oran düzeyinde ölçülen değişkenler için veya sürekli değişken olarak ele alınan sıralama ölçeğinde ölçülen değişkenler için → geçerli
sınıflama düzeyinde ölçülen değişkenler için → geçerli DEĞİLdir.
##
## 1 2 22
## 153 169 1
library(ggplot2)
ggplot(sonTIMSS, aes(x = factor(cinsiyet))) + geom_bar(fill = "steelblue") + labs(x = "Cinsiyet", y = "Frekans", title = "Cinsiyet Değişkeninin Dağılımı")library(ggplot2)
ggplot(sonTIMSS, aes(x = factor(cinsiyet))) + geom_bar(fill = "lightcoral") + labs(x = "Cinsiyet", y = "Frekans", title = "Cinsiyet Değişkeninin Dağılımı")library(ggplot2)
ggplot(sonTIMSS, aes(x = factor(cinsiyet), y = sevme)) + geom_boxplot(fill = "aquamarine") + labs(x = "Cinsiyet", y = "Matematiği Sevme", title = "Cinsiyete Göre Sevme Puanları (Boxplot)")library(kableExtra)
library(dplyr)
sonTIMSS_summary <- sonTIMSS %>% group_by(cinsiyet) %>% summarise(Q1 = quantile(sevme, 0.25, na.rm = T), Q3 = quantile(sevme, 0.75, na.rm = T), IQR = IQR(sevme, na.rm = T), Alt_Sinir = Q1 - 1.5 * IQR, Ust_Sinir = Q3 + 1.5 * IQR)
sonTIMSS_summary %>% kable(format = "html", caption = "Tablo 15. Cinsiyete Göre Sevme Değişkeninin IQR Temelli Uç Değer Sınırları", digits = 2, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| cinsiyet | Q1 | Q3 | IQR | Alt_Sinir | Ust_Sinir |
|---|---|---|---|---|---|
| 1 | 367.23 | 508.04 | 140.81 | 156.01 | 719.25 |
| 2 | 366.51 | 541.13 | 174.62 | 104.59 | 803.06 |
Bu analiz, cinsiyet gruplarına göre → matematiği sevme (sevme) puanlarının dağılımını incelemek, uç değerleri belirlemek ve gruplar arasındaki farkları ortaya koymak amacıyla yapılmıştır.
Çeyrekler ve Merkez Dağılım:
Her iki cinsiyet grubunda da “sevme” puanlarının merkezi değerleri (Q1 ve Q3) oldukça benzerdir.
Erkekler için: \(Q1 ≈ 367, Q3 ≈ 508\)
Kızlar için: \(Q1 ≈ 367, Q3 ≈ 541\)
Bu durum, her iki grubun da benzer medyan çevresinde yoğunlaştığını, ancak üst çeyrekte kızların puanlarının biraz daha geniş yayıldığını göstermektedir.
IQR (Interquartile Range – Çeyrekler Arası Aralık):
Kız öğrencilerde → IQR daha büyüktür (174.62 vs. 140.81) → bu da kız öğrencilerin sevme puanlarının daha yaygın (dağılımı geniş) olduğunu gösterir.
Daha geniş IQR → grubun içerisinde çeşitli tutumların (yüksekten düşüğe) daha fazla temsil edildiği anlamına gelebilir.
Uç Değer Sınırları:
Erkek öğrenciler için → uç değer alt sınırı 156.01, üst sınırı 719.25.
Kız öğrenciler için ise → bu sınırlar 104.59 ve 803.06.
Kız grubunda → hem alt hem de üst sınırlar daha geniştir; bu da uç değer kabul edilen gözlem aralığının → daha toleranslı olduğunu gösterir.
Dolayısıyla kız grubunda aşırı yüksek sevme puanları uç değer olarak sınıflandırılmayabilirken, erkek grubunda benzer değerler uç değer kabul edilebilir.
Uygulama Açısından:
Bu eşiklere göre → analizde belirlenen alt ve üst sınırların dışında kalan puanlar → “sevme” değişkeni için potansiyel uç değerler olarak etiketlenebilir.
Bu değerler → ya ölçüm hatası, ya da ekstrem tutuma sahip öğrenciler olabilir ve ayrı analizlerde ele alınmalıdır.
Yapılan uç değer analizi sonucunda, cinsiyete göre “sevme” puanlarının çeyrekler arası dağılımları benzerlik göstermektedir. Erkek öğrenciler için 156 ile 719 arasında kalan puanlar tipik değer olarak kabul edilirken, kız öğrenciler için bu aralık 105 ile 803 arasında genişlemektedir. Kız öğrencilerin çeyrekler arası aralığının daha yüksek olması, bu gruptaki öğrencilerin matematiğe yönelik tutumlarının daha değişken olduğunu göstermektedir. Belirlenen alt ve üst sınırların dışında kalan puanlar, potansiyel uç değer olarak değerlendirilmiş ve bu gözlemlerin daha ayrıntılı analizlerde dikkate alınması önerilmiştir.
Q1 <- quantile(TIMSS2$sevme, 0.25, na.rm = T)
Q3 <- quantile(TIMSS2$sevme, 0.75, na.rm = T)
IQR <- Q3 - Q1
alt_sinir <- Q1 - 1.5 * IQR
ust_sinir <- Q3 + 1.5 * IQR
sonTIMSS %>% filter(sevme < alt_sinir | sevme > ust_sinir)##
## 47.8757659760626 184.477544265972 202.14099339746 206.847668262288
## 1 1 1 1
## 208.216128320881 217.020962220749 226.523767872957 233.989241833617
## 1 1 1 1
## 243.513172016933 243.967349435765 246.260115508572 252.337621552831
## 1 1 1 1
## 256.482879669986 257.743992621517 258.464490021823 260.567674205754
## 1 1 1 1
## 262.255265573592 263.180218257126 273.098724503647 273.113059006899
## 1 1 1 1
## 275.241894407175 276.016927586772 280.320188574361 282.769125287862
## 1 1 1 1
## 286.261247392174 287.180272273612 290.494668093241 291.434709727567
## 1 1 1 1
## 294.538830240091 295.633425841813 295.989417302278 298.659622701319
## 1 1 1 1
## 300.37803864006 300.879207362786 301.82431457345 302.569062073243
## 1 1 1 1
## 302.901342325321 303.835240601111 307.731638808422 309.409530136465
## 1 1 1 1
## 310.441183257741 311.19433745869 312.215751649072 317.931230652549
## 1 1 1 1
## 318.981960518754 321.35049468018 321.583942304573 325.435935885268
## 1 1 1 1
## 326.899564112068 327.837450181996 328.317494373613 329.136824401606
## 1 1 1 1
## 330.51875673769 332.164422377971 335.084996581935 336.056832791144
## 1 1 1 1
## 337.174708488373 339.965194380869 342.23230923733 342.745333564249
## 1 1 1 1
## 344.753134023532 345.099641000643 345.365960982117 345.65405216402
## 1 1 1 1
## 346.174189853456 347.377210344438 350.115962691362 350.177180720288
## 1 1 1 1
## 350.834627861929 351.05244764443 351.30885202967 351.739749352995
## 1 1 1 1
## 351.835348634082 352.44343335099 352.867001755359 354.571837638387
## 1 1 1 1
## 358.857422997905 360.802819867842 363.523896586695 365.231426925222
## 1 1 1 1
## 366.46171530585 366.671343943635 367.227910671411 367.4672860979
## 1 1 1 1
## 368.100806474714 369.226549981999 369.295204708102 370.123372550129
## 1 1 1 1
## 370.282022089882 371.645201015698 372.010676959518 372.946191908607
## 1 1 1 1
## 373.185675113316 373.859181209728 374.296976339128 374.401305656031
## 1 1 1 1
## 374.810862891808 376.54490667244 376.774150946255 377.663860151869
## 1 1 1 1
## 380.11462909511 381.608004110614 383.424821564161 386.070884641935
## 1 1 1 1
## 387.72614254379 388.480590083378 390.792540679335 391.173536686827
## 1 1 1 1
## 392.134271739382 393.803648588049 395.645901701503 395.880642664534
## 1 1 1 1
## 397.210949233268 398.114130716374 398.281941404822 398.54168691488
## 1 1 1 1
## 398.741184399991 399.49347637518 399.67691490552 400.736374807541
## 1 1 1 1
## 404.676746528588 405.042330250628 405.60719590134 405.670353938225
## 1 1 1 1
## 408.520225629908 408.692778560034 408.893784940224 408.975480830939
## 1 1 1 1
## 410.340276430053 410.797687195483 411.218130031474 412.595859016981
## 1 1 1 1
## 413.083016571115 413.179585856182 413.446983619856 413.928213371893
## 1 1 1 1
## 414.032003797696 414.249284689097 414.473463386575 415.155915075242
## 1 1 1 1
## 417.018107159384 417.331849557633 418.708285204501 418.774029918665
## 1 1 1 1
## 419.256337452901 420.270422724327 420.37518315411 420.635359777048
## 1 1 1 1
## 421.407590722926 422.491300724434 423.765993731677 424.723279881194
## 1 1 1 1
## 424.806808001648 425.075175769302 425.110095912563 425.306683385735
## 1 1 1 1
## 426.895765460547 427.437351015751 428.723145179648 430.012927137684
## 1 1 1 1
## 432.146504779638 432.213219497781 434.13695294551 434.288489122747
## 1 1 1 1
## 434.834709141409 436.312348536801 436.591494126449 436.838952919433
## 1 1 1 1
## 436.97399902902 437.808202451364 438.079372452736 438.307862279011
## 1 1 1 1
## 438.311095625609 441.778752073994 442.178178157096 442.18884820087
## 1 1 1 1
## 443.047409500921 446.598055178661 447.177363110844 447.824032430491
## 1 1 1 1
## 449.981105724392 451.178629526158 451.947842681878 452.514756118768
## 1 1 1 1
## 453.58984386268 455.6767535354 455.928307900742 456.606771795272
## 1 1 1 1
## 458.965605916903 459.606562990893 459.784397053795 462.168559057113
## 1 1 1 1
## 462.757782585531 463.975676470865 464.321967891536 467.611251385919
## 1 1 1 1
## 468.705200318321 470.603390327924 474.879922316967 475.172432405887
## 1 1 1 1
## 475.811665028358 478.132668994789 480.533644400417 481.115646788099
## 1 1 1 1
## 481.710259227514 482.369861933554 483.722478593815 485.316841801404
## 1 1 1 1
## 486.500569991017 489.686817507136 492.453699969464 493.551960030664
## 1 1 1 1
## 494.187097080777 494.256075141539 494.768991690239 495.695776603512
## 1 1 1 1
## 497.370757919617 501.912747664375 504.437236910056 504.494574923064
## 1 1 1 1
## 505.168404354136 507.548901897975 508.037460568968 511.16443006412
## 1 1 1 1
## 512.60898154599 513.325383373939 514.039521859269 514.562461782423
## 1 1 1 1
## 514.62270980737 514.920393250847 517.928591147623 518.950113116225
## 1 1 1 1
## 521.19276231676 522.580730233161 523.62607118837 524.635090883459
## 1 1 1 1
## 526.141075950696 528.959153067496 531.103831866104 534.006191550898
## 1 1 1 1
## 535.212660944919 535.859869155665 535.936499470043 536.229871784723
## 1 1 1 1
## 537.274997183492 537.472446882424 537.832965028127 540.506188217326
## 1 1 1 1
## 540.864011907531 541.221404484855 543.639301071014 544.838118211419
## 1 1 1 1
## 546.076382180323 548.493416540722 548.545150086294 549.363941223186
## 1 1 1 1
## 549.390777999952 550.219700289519 551.976377496339 553.098348765926
## 1 1 1 1
## 554.318182659219 556.090487707931 561.28895459035 562.523446321555
## 1 1 1 1
## 563.335447430592 564.360526080452 565.504915219786 565.911346887184
## 1 1 1 1
## 566.272296145767 566.804289439396 567.726655445652 569.221216021576
## 1 1 1 1
## 570.243707994157 570.758995663695 573.546787100692 576.285862782275
## 1 1 1 1
## 579.063954179477 579.456590234723 582.907002167917 586.064580677532
## 1 1 1 1
## 586.875072891489 587.819317876393 588.097062349181 589.67331881582
## 1 1 1 1
## 594.383227027246 597.697622846875 598.73164708899 604.300978826227
## 1 1 1 1
## 606.105725119141 606.845730377256 607.861001209101 610.065928032657
## 1 1 1 1
## 613.794407773299 614.881674456065 618.277873944629 618.644751005309
## 1 1 1 1
## 620.764317478671 621.529542840252 629.079083812467 632.452757653064
## 1 1 1 1
## 632.596533798465 636.305721237738 641.693123339714 642.770582204466
## 1 1 1 1
## 643.763542944783 658.589083767002 659.81829436543 661.394550832069
## 1 1 1 1
## 663.331002109751 663.707686988445 663.73463154343 664.365457464746
## 1 1 1 1
## 669.650254701338 669.762559606516 673.749922631458 675.615132505758
## 1 1 1 1
## 685.601323474402 708.628571277699 729.387626442335 752.489995664931
## 1 1 1 1
## 753.459245196862 781.574056094259 802.420088282388
## 1 1 1
ggplot(sonTIMSS, aes(x = sevme)) + geom_bar(fill = "aquamarine") + labs(title = "Sevme Değişkeni Frekans Dağılımı", x = "Kategori", y = "Frekans")Q1 <- quantile(sonTIMSS$sevme, 0.25, na.rm = T)
Q3 <- quantile(sonTIMSS$sevme, 0.75, na.rm = T)
IQR <- Q3 - Q1
lower_bound <- Q1 - 1.5 * IQR
upper_bound <- Q3 + 1.5 * IQR
outliers <- sonTIMSS$sevme[sonTIMSS$sevme < lower_bound | sonTIMSS$sevme > upper_bound]library(dplyr)
df <- sonTIMSS %>% select(sevme, kaygi, degerverme) %>% mutate(across(everything(), ~as.numeric(as.character(.)))) %>% na.omit()
md <- mahalanobis(df, colMeans(df), cov(df))
cutoff <- qchisq(0.975, df = ncol(df))
outliers <- which(md > cutoff)
library(kableExtra)
outlier_table <- df[outliers, ]
outlier_table %>% kable(format = "html", caption = "Tablo 16. Mahalanobis Mesafesi ile Belirlenen Çok Değişkenli Uç Gözlemler", digits = 2, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| sevme | kaygi | degerverme | |
|---|---|---|---|
| 17 | 47.88 | 2 | 1 |
| 45 | 586.88 | 3 | 3 |
| 68 | 420.27 | 3 | 3 |
| 155 | 597.70 | 1 | 11 |
| 156 | 208.22 | 1 | 2 |
| 157 | 295.63 | 2 | 3 |
| 217 | 610.07 | 3 | 3 |
| 223 | 659.82 | 3 | 2 |
| 231 | 351.74 | 3 | 3 |
##
## 1 2 3
## 257 42 24
library(ggplot2)
ggplot(sonTIMSS, aes(x = factor(algi))) + geom_bar(fill = "turquoise") + labs(title = "Algi Değişkeni Frekans Dağılımı", x = "Algi Düzeyi", y = "Frekans")library(kableExtra)
library(dplyr)
outlier_table <- df[outliers, ]
outlier_table %>% kable(format = "html", caption = "Tablo 17. Mahalanobis Mesafesine Göre Tespit Edilen Çok Değişkenli Uç Gözlemler", digits = 2, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| sevme | kaygi | degerverme | |
|---|---|---|---|
| 17 | 47.88 | 2 | 1 |
| 45 | 586.88 | 3 | 3 |
| 68 | 420.27 | 3 | 3 |
| 155 | 597.70 | 1 | 11 |
| 156 | 208.22 | 1 | 2 |
| 157 | 295.63 | 2 | 3 |
| 217 | 610.07 | 3 | 3 |
| 223 | 659.82 | 3 | 2 |
| 231 | 351.74 | 3 | 3 |
ggplot(sonTIMSS, aes(x = kaygi, y = sevme, color = factor(algi))) + geom_point(size = 2) + labs(title = "Algi Düzeyine Göre Sevme ve Kaygi Dağılımı")##
## 1 2 3 11
## 284 32 6 1
##
## 1 2 3 11
## 285 32 6 0
library(ggplot2)
ggplot(sonTIMSS, aes(x = factor(degerverme))) + geom_bar(fill = "pink") + labs(title = "Değer Verme Değişkeni Frekans Dağılımı", x = "Değer Verme Düzeyi", y = "Frekans")library(dplyr)
df <- sonTIMSS %>% select(sevme, kaygi, degerverme) %>% mutate(across(everything(), ~as.numeric(as.character(.)))) %>% na.omit()
md <- mahalanobis(df, colMeans(df), cov(df))
cutoff <- qchisq(0.975, df = ncol(df))
outliers <- which(md > cutoff)
library(kableExtra)
df[outliers, ] %>% kable(format = "html", caption = "Tablo 18. Mahalanobis Mesafesi ile Tespit Edilen Uç Gözlemler", digits = 2) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F)| sevme | kaygi | degerverme | |
|---|---|---|---|
| 17 | 47.88 | 2 | 1 |
| 45 | 586.88 | 3 | 3 |
| 68 | 420.27 | 3 | 3 |
| 156 | 208.22 | 1 | 2 |
| 157 | 295.63 | 2 | 3 |
| 217 | 610.07 | 3 | 3 |
| 223 | 659.82 | 3 | 2 |
| 231 | 351.74 | 3 | 3 |
| 323 | 344.75 | 2 | 3 |
##
## 1 2 3
## 154 92 77
library(ggplot2)
ggplot(sonTIMSS, aes(x = factor(kaygi))) + geom_bar(fill = "purple") + labs(title = "Kaygı Değişkeni Frekans Dağılımı", x = "Kaygı Düzeyi", y = "Frekans")library(dplyr)
df <- sonTIMSS %>% select(sevme, kaygi, degerverme) %>% mutate(across(everything(), ~as.numeric(as.character(.)))) %>% na.omit()
md <- mahalanobis(df, colMeans(df), cov(df))
cutoff <- qchisq(0.975, df = ncol(df))
outliers <- which(md > cutoff)
library(kableExtra)
outlier_table <- df[outliers, ]
outlier_table %>% kable(format = "html", caption = "Tablo 19. Mahalanobis Mesafesi ile Belirlenen Çok Değişkenli Uç Gözlemler", digits = 2, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| sevme | kaygi | degerverme | |
|---|---|---|---|
| 17 | 47.88 | 2 | 1 |
| 45 | 586.88 | 3 | 3 |
| 68 | 420.27 | 3 | 3 |
| 156 | 208.22 | 1 | 2 |
| 157 | 295.63 | 2 | 3 |
| 217 | 610.07 | 3 | 3 |
| 223 | 659.82 | 3 | 2 |
| 231 | 351.74 | 3 | 3 |
| 323 | 344.75 | 2 | 3 |
library(ggplot2)
df$grup <- ifelse(1:nrow(df) %in% outliers, "Uç Gözlem", "Normal")
ggplot(df, aes(x = sevme, y = degerverme, color = grup)) + geom_point(size = 2) + labs(title = "Kaygı ile İlişkili Uç Gözlemler (Mahalanobis)")Q1 <- quantile(sonTIMSS$sevme, 0.25, na.rm = T)
Q3 <- quantile(sonTIMSS$sevme, 0.75, na.rm = T)
IQR <- Q3 - Q1
alt_sinir <- Q1 - 1.5 * IQR
ust_sinir <- Q3 + 1.5 * IQR
sevme_outliers <- sonTIMSS %>% filter(sevme < alt_sinir | sevme > ust_sinir)##
## 1 2 3
## 257 42 24
##
## 1 2 3 11
## 285 32 6 0
##
## 1 2 3
## 154 92 77
library(dplyr)
df <- sonTIMSS %>% select(cinsiyet, sevme, algi, degerverme, kaygi) %>% mutate(across(everything(), ~as.numeric(as.character(.)))) %>% na.omit()
md <- mahalanobis(df, colMeans(df), cov(df))
cutoff <- qchisq(0.975, df = ncol(df))
outliers <- which(md > cutoff)
library(kableExtra)
outlier_table <- df[outliers, ]
outlier_table %>% kable(format = "html", caption = "Tablo 20. Mahalanobis Mesafesi ile Belirlenen Çok Değişkenli Uç Gözlemler", digits = 2, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| cinsiyet | sevme | algi | degerverme | kaygi | |
|---|---|---|---|---|---|
| 17 | 2 | 47.88 | 1 | 1 | 2 |
| 45 | 2 | 586.88 | 1 | 3 | 3 |
| 68 | 2 | 420.27 | 3 | 3 | 3 |
| 90 | 2 | 537.27 | 3 | 1 | 1 |
| 156 | 1 | 208.22 | 1 | 2 | 1 |
| 157 | 2 | 295.63 | 1 | 3 | 2 |
| 199 | 2 | 536.23 | 3 | 2 | 2 |
| 217 | 2 | 610.07 | 2 | 3 | 3 |
| 223 | 2 | 659.82 | 3 | 2 | 3 |
| 231 | 2 | 351.74 | 1 | 3 | 3 |
| 242 | 1 | 420.38 | 3 | 2 | 3 |
| 243 | 1 | 418.71 | 3 | 2 | 3 |
| 323 | 2 | 344.75 | 1 | 3 | 2 |
outlier_table <- df[outliers, ] %>% mutate(Mahalanobis_Mesafesi = md[outliers])
outlier_table %>% kable(format = "html", caption = "Tablo 21. Mahalanobis Mesafesi ve Çok Değişkenli Uç Gözlemler", digits = 2, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| cinsiyet | sevme | algi | degerverme | kaygi | Mahalanobis_Mesafesi | |
|---|---|---|---|---|---|---|
| 17 | 2 | 47.88 | 1 | 1 | 2 | 15.33 |
| 45 | 2 | 586.88 | 1 | 3 | 3 | 30.35 |
| 68 | 2 | 420.27 | 3 | 3 | 3 | 27.60 |
| 90 | 2 | 537.27 | 3 | 1 | 1 | 15.06 |
| 156 | 1 | 208.22 | 1 | 2 | 1 | 15.52 |
| 157 | 2 | 295.63 | 1 | 3 | 2 | 25.82 |
| 199 | 2 | 536.23 | 3 | 2 | 2 | 13.72 |
| 217 | 2 | 610.07 | 2 | 3 | 3 | 27.91 |
| 223 | 2 | 659.82 | 3 | 2 | 3 | 18.30 |
| 231 | 2 | 351.74 | 1 | 3 | 3 | 25.93 |
| 242 | 1 | 420.38 | 3 | 2 | 3 | 13.67 |
| 243 | 1 | 418.71 | 3 | 2 | 3 | 13.65 |
| 323 | 2 | 344.75 | 1 | 3 | 2 | 24.72 |
temiz_df <- df[-outliers, ]
temiz_veri <- sonTIMSS %>% select(cinsiyet, sevme, algi, degerverme, kaygi) %>% mutate(across(everything(), ~as.numeric(as.character(.)))) %>% na.omit() %>% slice(-outliers)
df_labeled <- df %>% mutate(UcGozlem = ifelse(1:n() %in% outliers, T, F))Çok Değişkenli Normallik Sayıltısı: Çok değişkenli normallik → her bir değişkenin ve değişkenlerin bütün doğrusal kombinasyonlarının normal dağıldığı sayıltısıdır.
Sayıltının karşılanması durumunda → analizin artıkları (hataları) da normal dağılır.
Çok değişkenli normallik sayıltısı → farklı çok değişkenli istatistikler için farklı ele alınır.
Gruplanmamış veride → çok değişkenli normallik değişkenlerin kendileri veya analizin artıklarının dağılımı ile ilgilidir.
Gruplanmış verilerde ise → değişkenlerin ortalamalarının örneklenmiş dağılımları ile ilgilidir.
Çok değişkenli normallik sayıltısını test etmek için → doğrudan bir test bulunmadığından, genellikle → her bir değişken ayrı ayrı test edilir ve eğer her bir değişken normal dağılım gösteriyorsa çok değişkenli normal oldukları varsayılır.
Not: Her bir değişkenin normal olarak dağılımı → çok değişkenli normallik için gereklidir ancak yeterli DEĞİLdir.
Normalliğin değerlendirilmesi için → hem istatistiksel hem de grafiksel yöntemler vardır.
İstatistiksel yöntemler normallik için → hipotez testlerini içerir.
Grafiksel yöntemler → histogram ve normallik grafiklerinin incelenmelerini içerir.
Normalliğin iki bileşeni vardır: Çarpıklık ve basıklık
Bir değişkene ait dağılım normal olduğunda → değişkenin çarpıklık ve basıklık değerleri SIFIRA eşittir.
Kural olarak eğer değişkenin çarpıklık ve basıklık değerleri → -1.0 ile +1.0 arasında ise → değişkenin normale oldukça YAKIN olduğu söylenebilir.
Hem çarpıklık hem de basıklık için istatistiksel anlamlılık testleri vardır.
Histogramlar → normalliğin değerlendirilmesi için kullanılan önemli grafiklerdir.
Histogramların yanı sıra → beklenen normal olasılık grafikleri de kullanılabilir.
Bu grafiklerde → gözlemler büyüklüklerine göre sıralanır ve her bir gözlem için → beklenen normal değer hesaplanır.
Hesaplanan değer → gözlenen normal değerle karşılaştırılır.
Grafikte gözlenen değerler → X, beklenen değerler ise → Y ekseninde yer alır.
Beklenen normal değer → normal bir dağılımda bir gözlemin sırasını belirten z puanıdır, gözlenen değer ise → gözlenen dağılımdaki gözleme ait z puanıdır.
Eğer dağılım normal ise → her bir gözleme ait nokta sol alttan sağ üste uzanan köşegenin → ÜZERİNE düşer.
## [1] -0.06454972
## [1] 0.3369125
## [1] 2.135153
## [1] 2.928632
## [1] 0.5135657
## [1] 0.1384548
## [1] 0.1384548
## [1] 0.1384548
## [1] 0.1384548
## [1] 0.1384548
library(kableExtra)
library(dplyr)
skew_tablosu <- data.frame(Degisken = c("cinsiyet", "sevme", "algi", "degerverme", "kaygi"), Skew = c(-0.0645, 0.3369, 2.1352, 2.9286, 0.5136), SE_Skew = rep(0.1385, 5))
skew_tablosu %>% kable(format = "html", caption = "Tablo 22. Değişkenlere Ait Çarpıklık (Skewness) ve Standart Hataları", digits = 3, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Degisken | Skew | SE_Skew |
|---|---|---|
| cinsiyet | -0.064 | 0.138 |
| sevme | 0.337 | 0.138 |
| algi | 2.135 | 0.138 |
| degerverme | 2.929 | 0.138 |
| kaygi | 0.514 | 0.138 |
1. Cinsiyet
Skewness: -0.065
SE: 0.138
Z-skew: ≈ -0.47
Yorum: “Cinsiyet” değişkeni neredeyse simetriktir. Z-skew değeri \(|1.96|\)’dan küçük olduğu için normallik varsayımı reddedilmez. Ancak cinsiyet aslında nominal bir değişkendir; çarpıklık analizleri burada anlamlı değildir. Yine de veri dağılımı dengeli görünmektedir.
2. Sevme
Skewness: 0.337
SE: 0.138
Z-skew: ≈ 2.43
Yorum: “Sevme” değişkeni pozitif çarpıklık göstermektedir; dağılım sağ kuyrukta uzamaktadır. Z-skew değeri \(> 1.96\) olduğu için normallik varsayımı ihlal edilmiştir. Bu durum, daha düşük sevme puanlarının daha sık gözlendiğini gösterir. Gerekirse dönüşüm (örneğin log) uygulanabilir.
3. Algı
Skewness: 2.135
SE: 0.138
Z-skew: ≈ 15.41
Yorum: “Algı” değişkeni şiddetli pozitif çarpıklık göstermektedir. Z-skew değeri oldukça yüksektir; normallik varsayımı açık biçimde ihlal edilmiştir. Katılımcıların büyük çoğunluğu düşük algı değerlerinde toplanmış, yüksek puanlar seyrektir. Bu değişken için kesinlikle dönüşüm önerilir (örneğin log, square root, Box-Cox).
4. Değer Verme
Skewness: 2.929
SE: 0.138
Z-skew: ≈ 21.15
Yorum: “Değer verme” değişkeni de aşırı düzeyde pozitif çarpıklık göstermektedir. Z-skew değeri çok yüksektir; normal dağılımdan ciddi sapma vardır. Bu asimetrik yapı, veri analizlerini olumsuz etkileyebilir. Dönüşüm ya da sınıf birleştirme gerekebilir.
5. Kaygı
Skewness: 0.514
SE: 0.138
Z-skew: ≈ 3.71
Yorum: Kaygı değişkeni orta düzeyde pozitif çarpıktır. Z-skew değeri anlamlı düzeyde normallikten sapma olduğunu göstermektedir. Bu değişkenin de dönüşüme ihtiyaç duyabileceği düşünülmelidir, özellikle parametrik testler öncesinde.
jarque.test fonksiyonu veri normal
dağılımdan farklılaşmamaktır → yokluk hipotezini test
etmektedir.
Jarque-Bera testi → bir değişkenin dağılımının → normal dağılıma uyup uymadığını ölçen parametrik bir testtir.
##
## Jarque-Bera Normality Test
##
## data: remove_labels(cinsiyet)
## JB = 51.667, p-value = 6.035e-12
## alternative hypothesis: greater
Test İstatistiği (JB): \(51.667\)
p-değeri: \(6.035e^12\) (yani \(0.00000000006035\))
Anlamlılık düzeyi: Genellikle \(α = 0.05\) olarak alınır.
H0 (Null hipotez): Değişken normal dağılıma sahiptir.
H1 (Alternatif hipotez): Değişken normal dağılıma sahip değildir.
p-değeri < 0.05 → H0 reddedilir → “Cinsiyet” değişkeni normal dağılmamaktadır.
NOT: Jarque-Bera normallik testi sonucunda, cinsiyet değişkeninin normal dağılıma sahip olup olmadığı test edilmiştir. Elde edilen JB istatistiği (\(JB = 51.667\)) oldukça yüksek olup, \(*p*-değeri < .001\)’dir. Bu nedenle, normal dağılım varsayımı reddedilmiştir. Ancak, cinsiyet değişkeni nominal bir değişken olduğu için bu tür parametrik normallik testlerinin uygulanması istatistiksel açıdan uygun değildir. Bu tür değişkenler için dağılım simetrisi, frekans dağılımı veya çapraz tablolarla analiz yapılması önerilir.
##
## Jarque-Bera Normality Test
##
## data: remove_labels(sevme)
## JB = 6.6322, p-value = 0.03629
## alternative hypothesis: greater
## [1] 2.433375
Test istatistiği (JB): \(6.6322\)
p-değeri: \(0.03629\)
α (anlamlılık düzeyi): \(0.05\)
H0 (sıfır hipotezi): “sevme” değişkeni normal dağılıma sahiptir.
H1 (alternatif hipotez): “sevme” değişkeni normal dağılıma sahip değildir.
p-değeri < 0.05 olduğundan H0 reddedilir → “sevme” değişkeninin normal dağılıma uymadığını gösterir.
Yapılan Jarque-Bera normallik testi sonucunda “sevme” değişkeninin normal dağılıma sahip olup olmadığı test edilmiştir. Elde edilen test istatistiği \(JB = 6.632\) ve \(*p* = .036\)’dır. Bu sonuca göre, %5 anlamlılık düzeyinde normal dağılım varsayımı reddedilmiştir. Ayrıca çarpıklık oranı (\(Z-skew = 2.43\)) da bu bulguyu desteklemektedir. Bu nedenle, “sevme” değişkeni için parametrik testler öncesinde dönüşüm uygulanması (örneğin log, square root) veya parametrik olmayan analiz yöntemlerinin tercih edilmesi önerilir.
##
## Jarque-Bera Normality Test
##
## data: remove_labels(algi)
## JB = 389.69, p-value < 2.2e-16
## alternative hypothesis: greater
JB (Jarque-Bera): 389.69
p-değeri: \(*p* < 2.2e-16\) (yani p değeri ≈ 0.00000000000000022 gibi çok küçük bir değerdir)
H0 (Sıfır Hipotezi): Değişken normal dağılıma sahiptir.
H1 (Alternatif Hipotez): Değişken normal dağılıma sahip değildir.
Jarque-Bera istatistiği çok yüksektir (\(JB = 389.69\)) ve p-değeri çok küçük olduğu için, “algi” değişkeni normal dağılım varsayımını açık biçimde ihlal etmektedir.
Bu, değişkenin dağılımında yoğun çarpıklık (skewness) veya aşırı basıklık (kurtosis) olduğunu gösterir.
Görsel veya istatistiksel incelemelerle desteklenirse bu değişkenin logaritmik, karekök, Box-Cox dönüşümüne ihtiyaç duyabileceği açıktır.
Jarque-Bera normallik testi sonucuna göre, algı değişkeninin normal dağılıma sahip olup olmadığı test edilmiştir. Test istatistiği \(JB = 389.69\) ve \(*p* < .001\) olup, normallik varsayımının reddedildiğini göstermektedir. Bu bulgu, algı değişkeninin dağılımının normalden anlamlı ölçüde saptığını ve yüksek düzeyde çarpık veya basık bir dağılıma sahip olduğunu göstermektedir. Bu nedenle, analizlerde parametrik yöntemler yerine dönüşüm veya parametrik olmayan teknikler tercih edilmelidir.
##
## Jarque-Bera Normality Test
##
## data: remove_labels(degerverme)
## JB = 1001.9, p-value < 2.2e-16
## alternative hypothesis: greater
JB (Jarque-Bera): \(1001.9\)
p-değeri: \(*p* < 2.2e-16\) (yani p değeri \(≈ 0.00000000000000022\) gibi çok küçüktür)
H0 (Sıfır Hipotezi): Değişken normal dağılıma sahiptir.
H1 (Alternatif Hipotez): Değişken normal dağılıma sahip değildir.
\(*p* < 0.05\) olduğu için H0 reddedilir → degerverme değişkeni normal dağılıma uymamaktadır.
Test istatistiği (\(JB = 1001.9\)) çok yüksektir; bu da, dağılımın şiddetli biçimde çarpık ve/veya basık/tepe yapmış olduğunu gösterir.
p-değeri sıfıra çok yakın olduğundan, istatistiksel olarak normal dağılım varsayımı açık biçimde ihlal edilmiştir.
Bu sapmanın nedeni çoğunlukla verinin ağırlıklı olarak düşük kategorilerde toplanması veya yüksek uç değerlerin varlığı olabilir.
Jarque-Bera normallik testi sonucuna göre, değer verme değişkeninin normal dağılıma sahip olup olmadığı değerlendirilmiştir. Test istatistiği \(JB = 1001.9\) ve \(*p* < .001\) düzeyindedir. Bu sonuç, normal dağılım varsayımının güçlü biçimde reddedildiğini göstermektedir. Değer verme değişkeni ciddi biçimde asimetrik ya da basık bir dağılım göstermektedir. Bu nedenle, bu değişken üzerinde dönüşüm uygulanması ya da parametrik olmayan analiz yöntemlerinin tercih edilmesi önerilir.
##
## Jarque-Bera Normality Test
##
## data: remove_labels(kaygi)
## JB = 34.469, p-value = 3.275e-08
## alternative hypothesis: greater
JB (Jarque-Bera): 34.469
p-değeri: \(*p* = 3.275e-08\) (yani \(*p* ≈ 0.00000003275\))
H0 (Sıfır Hipotezi): Kaygi değişkeni normal dağılıma sahiptir.
H1 (Alternatif Hipotez): Kaygi değişkeni normal dağılıma sahip değildir.
\(*p* < 0.05\) olduğu için H0 reddedilir → kaygi değişkeni normal dağılıma uymamaktadır.
Jarque-Bera istatistiği olan \(34.469\), normallikten manidar sapma olduğunu gösterir.
Çok küçük p-değeri, dağılımın ya çarpıklık (skewness) ya da basıklık (kurtosis) yönünden normal dağılımdan istatistiksel olarak manidar derecede sapmış olduğunu gösterir.
Kaygi değişkeni muhtemelen pozitif çarpıktır (önceki skew testleriyle de desteklenmişti), yani verilerin çoğu düşük kaygı düzeyinde toplanmış olabilir.
Jarque-Bera normallik testi sonucuna göre, kaygı değişkeninin normal dağılıma uygunluğu test edilmiştir. Elde edilen JB istatistiği 34.469 olup, \(*p*-değeri < .001\) düzeyindedir. Bu sonuç, normal dağılım varsayımının istatistiksel olarak manidar biçimde reddedildiğini göstermektedir. Kaygı değişkeni için parametrik testler öncesinde dönüşüm yapılması veya parametrik olmayan yöntemlerin tercih edilmesi önerilir.
## $multivariateNormality
## Test Statistic p value Result
## 1 Mardia Skewness 721.838695424915 5.27938045994208e-140 NO
## 2 Mardia Kurtosis 9.33598534265013 0 NO
## 3 MVN <NA> <NA> NO
##
## $univariateNormality
## Test Variable Statistic p value Normality
## 1 Anderson-Darling sevme 1.0081 0.0116 NO
## 2 Anderson-Darling algi 74.6293 <0.001 NO
## 3 Anderson-Darling degerverme 104.6711 <0.001 NO
## 4 Anderson-Darling kaygi 31.4488 <0.001 NO
##
## $Descriptives
## n Mean Std.Dev Median Min Max 25th
## sevme 310 448.056479 117.3656313 434.2127 184.4775 802.4201 367.2878
## algi 310 1.248387 0.5511805 1.0000 1.0000 3.0000 1.0000
## degerverme 310 1.087097 0.2824327 1.0000 1.0000 2.0000 1.0000
## kaygi 310 1.735484 0.8051406 2.0000 1.0000 3.0000 1.0000
## 75th Skew Kurtosis
## sevme 534.911 0.3352836 -0.2615248
## algi 1.000 2.1248303 3.4129819
## degerverme 1.000 2.9144731 6.5152011
## kaygi 2.000 0.5110827 -1.2813999
library(MVN)
library(dplyr)
library(kableExtra)
library(janitor)
mardia_sonuclari <- mvn(data = numeric_veri, mvnTest = "mardia", multivariatePlot = "none")
mardia_sonuclari_df <- mardia_sonuclari$multivariateNormality %>% clean_names() %>% filter(test %in% c("Mardia Skewness", "Mardia Kurtosis")) %>%
select(Test_Turu = test,
Deger = statistic,
p_degeri = p_value,
Sonuc = result)
mardia_sonuclari_df %>% kable(format = "html", caption = "Tablo 23. Mardia Çok Değişkenli Normallik Testi Sonuçları", digits = 3, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Test_Turu | Deger | p_degeri | Sonuc |
|---|---|---|---|
| Mardia Skewness | 721.838695424915 | 5.27938045994208e-140 | NO |
| Mardia Kurtosis | 9.33598534265013 | 0 | NO |
Mardia Skewness:
Test istatistiği: \(721.84\)
p-değeri: 5.27 × 10⁻¹ 4 ⁴⁰ (aşırı manidar)
Yorum: Çarpıklık (skewness) açısından veri normal dağılımdan çok önemli düzeyde sapmaktadır. Bu durum, değişkenlerin asimetrik dağıldığını ve çok değişkenli normallik varsayımının ihlal edildiğini gösterir.
Mardia Kurtosis:
Test istatistiği: \(9.336\)
p-değeri: \(0.000\) (manidar)
Yorum: Basıklık (kurtosis) yönünden de veri normal dağılıma anlamlı düzeyde uymamaktadır. Bu, veride uç değerlerin ya da aşırı sivriliğin olduğunu gösterir.
Mardia testi sonuçlarına göre, hem çarpıklık hem de basıklık açısından çok değişkenli normallik varsayımı açık biçimde ihlal edilmiştir. Bu nedenle çok değişkenli parametrik analizlerde dikkatli olunmalı, gerekirse veri dönüşümleri (log, sqrt) uygulanmalı veya parametrik olmayan yöntemler (örneğin PERMANOVA) tercih edilmelidir.
Anderson-Darling Testi Tablosu:
library(MVN)
library(dplyr)
library(kableExtra)
library(janitor)
ad_test <- mvn(data = numeric_veri,
mvnTest = "mardia", # Mardia testi
univariateTest = "AD", # Anderson-Darling testi
univariatePlot = "none")
ad_sonuclari <- ad_test$univariateNormality %>% clean_names()
ad_sonuclari %>% select(degisken = variable, test_istatistigi = statistic, p_degeri = p_value, normallik = normality) %>% kable(format = "html", caption = "Tablo 24. Anderson-Darling Tek Değişkenli Normallik Testi Sonuçları", digits = 4, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| degisken | test_istatistigi | p_degeri | normallik |
|---|---|---|---|
| sevme | 1.0081 | 0.0116 | NO |
| algi | 74.6293 | <0.001 | NO |
| degerverme | 104.6711 | <0.001 | NO |
| kaygi | 31.4488 | <0.001 | NO |
H0 (sıfır hipotezi): Değişken normal dağılıma sahiptir.
H1 (alternatif hipotez): Değişken normal dağılıma sahip değildir.
Eğer \(*p* < 0.05\), H0 reddedilir → normal dağılım yoktur.
sevme:
Test istatistiği: 1.0081
\(*p*-değeri: 0.0116\)
Yorum: \(*p* < .05\) olduğu için normal dağılım varsayımı reddedilmiştir. Sevme değişkeni normal dağılmamaktadır.
algi:
Test istatistiği: 74.6293
\(*p*-değeri: < 0.001\)
Yorum: Çarpıklık veya uç değer kaynaklı ciddi normallik ihlali söz konusu. Algi değişkeni normal değildir.
degerverme:
Test istatistiği: 104.6711
\(*p*-değeri: < 0.001\)
Yorum: Değer verme değişkeninde normal dağılım açıkça sağlanmamaktadır.
kaygi:
Test istatistiği: 31.4488
\(*p*-değeri: < 0.001\)
Yorum: Kaygı değişkeni de normal dağılmamaktadır.
Anderson-Darling testi sonuçlarına göre, sevme, algı, değer verme ve kaygı değişkenlerinin tamamı için p-değerleri .05’ten küçük bulunmuştur. Bu nedenle, her bir değişken için normal dağılım varsayımı istatistiksel olarak reddedilmiştir. Özellikle algı ve değer verme değişkenleri çok yüksek test istatistikleri göstermiştir, bu da dağılımlarında ciddi çarpıklık ya da uç değer varlığına işaret etmektedir. Bu bağlamda, parametrik testlerin öncesinde dönüşüm yöntemleri (örneğin log, karekök) uygulanması ya da parametrik olmayan yöntemlerin tercih edilmesi önerilmektedir.
library(MVN)
library(dplyr)
library(kableExtra)
skew_kurt_df <- mvn(data = numeric_veri, mvnTest = "mardia", multivariatePlot = "none")$Descriptives
skew_kurt_df <- skew_kurt_df %>% tibble::rownames_to_column(var = "Degisken")
skew_kurt_df %>% kable(format = "html", caption = "Tablo 25. Değişkenlerin Tüm Betimsel İstatistikleri", digits = 3, align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = TRUE) %>% scroll_box(height = "400px")| Degisken | n | Mean | Std.Dev | Median | Min | Max | 25th | 75th | Skew | Kurtosis |
|---|---|---|---|---|---|---|---|---|---|---|
| sevme | 310 | 448.056 | 117.366 | 434.213 | 184.478 | 802.42 | 367.288 | 534.911 | 0.335 | -0.262 |
| algi | 310 | 1.248 | 0.551 | 1.000 | 1.000 | 3.00 | 1.000 | 1.000 | 2.125 | 3.413 |
| degerverme | 310 | 1.087 | 0.282 | 1.000 | 1.000 | 2.00 | 1.000 | 1.000 | 2.914 | 6.515 |
| kaygi | 310 | 1.735 | 0.805 | 2.000 | 1.000 | 3.00 | 1.000 | 2.000 | 0.511 | -1.281 |
1. sevme
Ortalama ≈ Medyan → dağılım simetrik.
\(Skewness = 0.34\) → düşük pozitif çarpıklık, simetrik kabul edilir.
\(Kurtosis = -0.26\) → platikurtik; yani tepe noktası düz, uç değerler az.
Yorum: Parametrik testler için uygun; normal dağılıma yakın.
2. algi
Ortalama > Medyan → pozitif çarpıklık (veri sağa kayık).
\(Skewness = 2.12\), \(Kurtosis = 3.41\) → çarpık ve sivri, uç değer barındırıyor.
Yorum: Normallik varsayımı sağlanmıyor. Dönüşüm (log, square root) gerekebilir veya parametrik olmayan testler tercih edilmelidir.
3. degerverme
\(Skewness = 2.91\) → çok yüksek pozitif çarpıklık.
\(Kurtosis = 6.51\) → aşırı sivri tepe; veri dar ve uç değer yoğun.
Yorum: Normallik varsayımı ciddi biçimde ihlal edilmiş. Dönüşüm kaçınılmaz; Box-Cox ya da robust analiz önerilir.
4. kaygi
\(Skewness = 0.51\) → hafif sağa çarpık ama tolere edilebilir.
\(Kurtosis = -1.28\) → platikurtik, uç değerler az.
Yorum: Parametrik testlere uygun; hafif yayvan yapı var ama çok belirgin değil.
Q-Q (Quantile-Quantile) grafiği → çok değişkenli normalliği değerlendirmek için Mardia testi ile birlikte kullanılan bir görselleştirmedir ve özellikle Mahalanobis uzaklıkları ile oluşturulur.
X ekseni: Örneklemden elde edilen gözlemlerin Mahalanobis uzaklıkları.
Y ekseni: Teorik olarak ki-kare dağılımından beklenen uzaklıklar.
Siyah noktalar: Gözlemler
Siyah düz çizgi: Ki-kare dağılımına tam uygunluk çizgisi
Gözlemler (noktalar), teorik çizgiye yakınsa → veri çok değişkenli normaldir.
Bu grafikte birçok nokta eğriden sistematik olarak sapmakta ve özellikle uç kısımlarda çizgiden belirgin şekilde uzaklaşmaktadır.
Mahalanobis uzaklıkları beklenen dağılım çizgisine tam uymuyor.
Bu durum, verinin çok değişkenli normal dağılmadığını gösterir.
Özellikle uçlarda sapmalar varsa → uç değerler etkili olabilir.
Bu Q-Q grafiği, Mardia testi sonuçlarını destekler şekilde, verinin çok değişkenli normal dağılıma uymadığını göstermektedir. Özellikle:
Uçlardaki sapmalar = uç değer (multivariate outlier)
Merkezi dağılım da ideal çizgiye tam oturmuyor
## $multivariateNormality
## Test HZ p value MVN
## 1 Henze-Zirkler 21.13718 0 NO
##
## $univariateNormality
## Test Variable Statistic p value Normality
## 1 Anderson-Darling sevme 1.0081 0.0116 NO
## 2 Anderson-Darling algi 74.6293 <0.001 NO
## 3 Anderson-Darling degerverme 104.6711 <0.001 NO
## 4 Anderson-Darling kaygi 31.4488 <0.001 NO
##
## $Descriptives
## n Mean Std.Dev Median Min Max 25th
## sevme 310 448.056479 117.3656313 434.2127 184.4775 802.4201 367.2878
## algi 310 1.248387 0.5511805 1.0000 1.0000 3.0000 1.0000
## degerverme 310 1.087097 0.2824327 1.0000 1.0000 2.0000 1.0000
## kaygi 310 1.735484 0.8051406 2.0000 1.0000 3.0000 1.0000
## 75th Skew Kurtosis
## sevme 534.911 0.3352836 -0.2615248
## algi 1.000 2.1248303 3.4129819
## degerverme 1.000 2.9144731 6.5152011
## kaygi 2.000 0.5110827 -1.2813999
## $multivariateNormality
## Test H p value MVN
## 1 Royston 348.7177 2.552388e-74 NO
##
## $univariateNormality
## Test Variable Statistic p value Normality
## 1 Anderson-Darling sevme 1.0081 0.0116 NO
## 2 Anderson-Darling algi 74.6293 <0.001 NO
## 3 Anderson-Darling degerverme 104.6711 <0.001 NO
## 4 Anderson-Darling kaygi 31.4488 <0.001 NO
##
## $Descriptives
## n Mean Std.Dev Median Min Max 25th
## sevme 310 448.056479 117.3656313 434.2127 184.4775 802.4201 367.2878
## algi 310 1.248387 0.5511805 1.0000 1.0000 3.0000 1.0000
## degerverme 310 1.087097 0.2824327 1.0000 1.0000 2.0000 1.0000
## kaygi 310 1.735484 0.8051406 2.0000 1.0000 3.0000 1.0000
## 75th Skew Kurtosis
## sevme 534.911 0.3352836 -0.2615248
## algi 1.000 2.1248303 3.4129819
## degerverme 1.000 2.9144731 6.5152011
## kaygi 2.000 0.5110827 -1.2813999
Dogrusallık Sayıltısı: Dogrusallık → iki değişken arasında dogrusal bir ilişkinin olduğu sayıltısıdır.
Iki değişken arasındaki dogrusallık → iki değişkenli serpme grafik incelenerek degerlendirilebilir. Gruplanmamıs veride bütün bireyler analize katılırken, gruplanmamış veride analiz her bir grup içinde ayrı ayrı yapılır.
Eğer iki değişken de normal dağılıyorsa ve dogrusal olarak ilişkili ise → serpme grafik oval şeklindedir.
Eğer değişkenlerden bir normal dağılmıyor ise → serpme grafik → oval şeklinde olmayacaktır.
Eğer veri setinde çok sayıda değişken varsa → olası bütün değişken çiftlerini incelemek yerine → dogrusallıktan uzaklaşabilecek değişken çiftleri incelenebilir.
library(ggplot2)
ggplot(temiz_veri, aes(x = algi, y = sevme)) + geom_point() +geom_smooth(method = "lm", se = F, color = "blue") + labs(title = "algi ve sevme arasındaki doğrusal ilişki")## sevme algi degerverme kaygi
## sevme 1.00000000 -0.16676073 -0.03957996 -0.51840357
## algi -0.16676073 1.00000000 0.04768047 0.39647629
## degerverme -0.03957996 0.04768047 1.00000000 0.01625161
## kaygi -0.51840357 0.39647629 0.01625161 1.00000000
Varyansların homojenliği → gruplanmamış veri için sürekli bir değişkenin değerlerindeki değişkenliğin başka bir değişkenin değerlerindeki değişkenlikle aynı olduğu sayıltısıdır.
Gruplanmış veride ise → bağımlı değişkendeki değişkenliğin grup değişkeninin her düzeyinde aynı olduğudur.
Varyansların homojenliği → normallik sayıltısı ile ilişkilidir. Çok değişkenli normallik sayıltısı karşılandığında, değişkenler arasındaki ilişkiler homojendir.
Varyansların heterojenliği → değişkenlerden birinin normal dağılım göstermemesinden veya bağımsız değişkendeki hatalı ölçümlerden kaynaklanabilir.
Varyansların heterojenliği → gruplanmamış veri için çok önemli değildir. Iki degiskenli serpme grafik incelenerek değerlendirilebilir. Değişkenler arasındaki varyans farklılıkları tahmin edilebiliyorsa serpme grafikte bu farklılıklar gözlenebilir. Grafikte → açıklanamayan farklılıklar varsa → analizi zayıflar ve geçerliği düşer.
Varyansların heterojenliği → gruplanmış veride daha önemlidir. Varyans homojenliğini test etmek için Box’s M test kullanılabilir.
Levene’s Test:
library(kableExtra)
levene_sonuc <- data.frame(
Grup = "cinsiyet",
Df = 1,
F_degeri = round(5.0311, 3),
p_degeri = 0.02561)
levene_sonuc %>% kable(format = "html", caption = "Tablo 26. Cinsiyet Değişkenine Göre Sevme Değişkeninde Varyansların Homojenliği (Levene's Testi)", align = "c") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed"), full_width = F) %>% column_spec(1, bold = T)| Grup | Df | F_degeri | p_degeri |
|---|---|---|---|
| cinsiyet | 1 | 5.031 | 0.02561 |
Levene’s Test sonucu: \(F(1, 308) = 5.03\), \(*p* = 0.0256\)
p-değeri < 0.05 olduğu için → cinsiyet grupları arasında “sevme” değişkeninin varyanslarının homojen olmadığı istatistiksel olarak MANİDAR şekilde bulunmuştur.
Bu durumda → varyansların homojenliği varsayımı İHLAL EDİLMİŞTİR.
Analizlerde klasik t-testi veya ANOVA yerine → varyans homojenliği gerektirmeyen alternatifler (Welch t-testi, Welch ANOVA gibi) tercih edilmelidir.
Levene’s Test sonucu → cinsiyet grupları arasında “sevme” değişkeninin varyanslarının MANİDAR şekilde farklı olduğunu göstermiştir (\(F(1, 308) = 5.03\), \(*p* = .026\)). Dolayısıyla varyansların homojenliği varsayımı sağlanmamaktadır. Bu nedenle analizlerde varyans homojenliği gerektirmeyen istatistiksel yöntemlerin tercih edilmesi önerilir.
library(kableExtra)
levene_sonuc_algi <- data.frame(
Grup = "cinsiyet",
Degisken = "algi",
Df = 1,
F_degeri = round(0.0028, 3),
p_degeri = round(0.9577, 3))
levene_sonuc_algi %>% kable(format = "html", caption = "Tablo 27. Cinsiyet Değişkenine Göre Algı Değişkeninde Varyansların Homojenliği (Levene's Testi)", align = "c", digits = 3) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Grup | Degisken | Df | F_degeri | p_degeri |
|---|---|---|---|---|
| cinsiyet | algi | 1 | 0.003 | 0.958 |
Bağımlı değişken: algi
Bağımsız değişken (gruplama): cinsiyet
Test türü: Levene’s Test for Homogeneity of Variance
Levene’s Test sonucu: \(F(1, 308) = 0.003\), \(*p* = 0.958\).
Levene’s Test sonucuna göre, “algı” değişkenine ilişkin varyanslar, cinsiyet grupları arasında manidar bir farklılık göstermemektedir (\(F(1, 308) = 0.003\), \(*p* = .958\)). Bu durum, varyansların homojenliği varsayımının sağlandığını göstermekte ve parametrik analizler için uygunluk sunmaktadır.
library(kableExtra)
levene_sonuc_degerverme <- data.frame(
Grup = "cinsiyet",
Degisken = "degerverme",
Df = 1,
F_degeri = round(1.5233, 3),
p_degeri = round(0.2181, 3))
levene_sonuc_degerverme %>% kable(format = "html", caption = "Tablo 28. Cinsiyet Değişkenine Göre Değer Verme Değişkeninde Varyansların Homojenliği (Levene's Testi)", align = "c", digits = 3) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Grup | Degisken | Df | F_degeri | p_degeri |
|---|---|---|---|---|
| cinsiyet | degerverme | 1 | 1.523 | 0.218 |
Levene’s Test sonucu: \(F(1, 308) = 1.523\), \(*p* = 0.218\).
Levene’s Test sonuçlarına göre, “değer verme” değişkenine ilişkin varyanslar → cinsiyet grupları arasında MANİDAR bir farklılık GÖSTERMEMEKTEDŞR (\(F(1, 308) = 1.523\), \(*p* = .218\)). Bu durum, varyansların homojenliği varsayımının sağlandığını göstermekte ve parametrik testlerin bu değişken üzerinde güvenle kullanılabileceğini göstermektedir.
library(car)
library(kableExtra)
levene_test_kaygi <- leveneTest(kaygi ~ as.factor(cinsiyet), data = temiz_veri)
levene_sonuc_kaygi <- data.frame(
Grup = "cinsiyet",
Degisken = "kaygi",
Df = 1,
F_degeri = round(0.8313, 3),
p_degeri = round(0.3626, 3))
levene_sonuc_kaygi %>% kable(format = "html", caption = "Tablo 29. Cinsiyet Değişkenine Göre Kaygı Değişkeninde Varyansların Homojenliği (Levene's Testi)", align = "c", digits = 3) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Grup | Degisken | Df | F_degeri | p_degeri |
|---|---|---|---|---|
| cinsiyet | kaygi | 1 | 0.831 | 0.363 |
Levene’s Test sonucu: \(F(1, 308) = 0.831\), \(*p* = 0.363\)
\(*p* > 0.05\) olduğu için varyansların homojenliği varsayımı sağlanmaktadır.
Bu sonuç, parametrik testlerin uygulanabilirliği açısından olumlu bir göstergedir.
Normallik, doğrusallık ve varyansların homojenliği sayıltıları ihlal edildiği zaman veri dönüştürme düşünülebilir. Ancak veri dönüştürüldüğü zaman yorumlanmasının da güçleşebileceği göz önünde bulundurulmalıdır.
Veri dönüştürmede değişkenlerin normallikten ne kadar uzaklaştıkları önemlidir.
Eğer dağılım normalden orta derecede farklılık gösteriyorsa, ilk olarak karekök dönüştürme denenir.
Eğer dağılım normalden önemli derecede farklılık gösteriyorsa, log dönüştürme denenir.
Eğer dağılım normalden ciddi derecede farklılık gösteriyorsa, ters dönüştürme denenir.
Veri dönüştürmede değişkenlerin normallikten ne yönde uzaklaştıkları önemlidir.
Eğer sola çarpıklık varsa, değişkenin yansıtılması ve yansıtılma sonucu sağa çarpık şekle dönüşen dağılım üzerinden dönüştürme işlemlerinin yapılması önerilir.
Değişkeni yansıtmak için önce dağılımdaki en yüksek değer bulunur ve bu değere 1 eklenerek sabit bir değer elde edilir. Sonra dağılımdaki her bir değer sabit değerden çıkarılarak yeni bir değişken elde edilir. Böylece dönüştürme işleminden önce sola çarpık dağılım sağa çarpık dağılıma dönüştürülmüş olur.
Veri dönüştürme işlemlerinden sonra sayıltılar tekrar kontrol edilmelidir.!!!
Bu dönüşüm önerilen lambda değerine göre yapılır.
X ekseni (λ): Dönüşüm parametresidir. \(λ = 1\) → orijinal veri; \(λ = 0\) → log dönüşüm; \(λ = -1\) → ters dönüşüm anlamına gelir.
Y ekseni: Log-likelihood değeridir. Maksimum değer, en uygun dönüşümün bulunduğu noktayı gösterir.
Tepe noktası (maksimum log-likelihood): Grafiğin zirve yaptığı noktada λ değeri, ideal dönüşüm parametresidir.
Kesikli dikey çizgiler: %95 güven aralığını gösterir. Bu aralık içinde kalan dönüşümler istatistiksel olarak kabul edilebilir sayılır.
Zirveye en yakın λ değeri yaklaşık 0.2 ile 0.4 arasındadır.
\(λ = 0\) (log dönüşüm) değeri bu güven aralığı içinde yer alıyor.
library(ggplot2)
ggplot(temiz_veri, aes(x = sevme_log)) + geom_histogram(color = "black", fill = "skyblue", bins = 30) + labs(title = "Log Dönüşümlü Sevme Değişkeni Histogramı")##
## Shapiro-Wilk normality test
##
## data: temiz_veri$sevme_log
## W = 0.99019, p-value = 0.03584
Test istatistiği (W): 0.99019
p-değeri: 0.03584
Shapiro-Wilk testi, bir değişkenin normal dağılıma uyup uymadığını test eder.
H0 (null hipotez): Veri kümesi normal dağılıma uygundur.
H1 (alternatif hipotez): Veri kümesi normal dağılıma uygun değildir.
Belirli bir anlamlılık düzeyinde (genellikle \(α = 0.05\)) karar verilir.
\(*p* = 0.03584 < 0.05\) olduğu için H0 reddedilir.
## [1] -0.3333991
## [1] 2.888811
Çarpıklık (Skewness): -0.333
Bu değer sıfıra oldukça yakın olup hafif sola çarpık bir dağılımı işaret eder.
Ancak -0.5 ile +0.5 aralığında olduğundan yaklaşık simetrik kabul edilebilir.
Basıklık (Kurtosis): 2.889
Normal dağılımın basıklığı 3’tür.
Bu değerin 3’e oldukça yakın olması, dağılımın normal dağılıma oldukça benzer olduğunu gösterir.
\(2.889\) değeri, hafifçe platikurtik (yani basıklığı daha az, uç değerler daha yaygın) bir dağılıma işaret edebilir, ancak bu fark çok küçük.
Log dönüşümü uygulandıktan sonra:
Dağılım neredeyse simetrik hale gelmiştir.
Uç değer davranışı normal dağılıma oldukça yaklaşmıştır.
##
## Jarque Bera Test
##
## data: temiz_veri$sevme_log
## X-squared = 5.9027, df = 2, p-value = 0.05227
X-squared: \(5.9027\)
Serbestlik derecesi (df): 2
p-değeri: \(0.05227\)
Jarque-Bera testi, dağılımın normallik varsayımına ne kadar uyduğunu test eder.
Hipotezler şunlardır:
H0 (Null hipotez): Veri normal dağılmıştır.
H1 (Alternatif hipotez): Veri normal dağılmamıştır.
p-değeri = \(0.05227\)
Bu değer 0.05’e çok yakın → fakat biraz üstündedir.
%5 anlamlılık düzeyinde (\(α = 0.05\)) test edildiğinde:
\(*p* > 0.05\) olduğu için H0 reddedilemez.
Veri seti normal dağılıma uygun kabul edilebilir.
Ancak, bu değer sınırda olduğu için uygunluk “marginal” yani sınıra yakın olarak yorumlanır. Daha güçlü bir analiz için hem Jarque-Bera hem de Shapiro-Wilk test sonuçları birlikte değerlendirilmelidir.
temiz_veri$algi_faktor <- factor(temiz_veri$algi, levels = c(1, 2, 3), labels = c("Düşük", "Orta", "Yüksek"), ordered = TRUE)temiz_veri$degerverme_faktor <- factor(temiz_veri$degerverme, levels = c(1, 2, 3), labels = c("Düşük", "Orta", "Yüksek"), ordered = TRUE)temiz_veri$kaygi_faktor <- factor(temiz_veri$kaygi, levels = c(1, 2, 3), labels = c("Düşük", "Orta", "Yüksek"), ordered = TRUE)Çoklu bağlantı ve tekillik değişkenler arasındaki iki değişkenli korelasyon katsayıları incelenerek belirlenebilirler.
Örneğin, iki değişken arasındaki korelasyon katsayısının 0,90 veya 0,90’dan daha yüksek olması → çoklu bağlantı ve tekillik problemlerine işarettir.
Not: Iki değişkenli korelasyon katsayılarının incelenmesi çoklu bağlantı probleminin belirlenmesi için yeterli değildir. Çünkü problem sadece iki değişken arasındaki korelasyonun yüksek olması değil, bir bağımsız değişkenin diğer bütün bağımsız değişkenlerle yüksek derecede korelasyona sahip olmasıdır.
Çoklu baglantı ve tekillik her değişkene ait SMC (squared multiple correlation, \(R^2\)) değeri incelenerek belirlenebilir.
SMC degeri belirlenecek değişken (Örneğin, X1) bağımlı değişken, diğer değişkenler ise bağımsız değişken (Örneğin, X2, X3 gibi) olarak modellenir.
Modelin \(R^2\) değeri hesaplanır. Bu değer X1 değişkeninde gözlenen varyansın modeldeki diğer bağımsız değişkenler tarafından açıklanan oranıdır.
SMC değeri yüksekse, değişken diğer değişkenler ile oldukça ilişkilidir ve yüksek değerler çoklu bağlantıya işarettir, SMC değeri 1’e eşitse değişken diğer değişkenler ile mükemmel derecede ilişkilidir ve bu değer tekilliğe isarettir.
Çoklu bağlantının belirlenmesinde her bir değişken için tolerance (\(1-SMC\)) değeri incelenebilir.
Bu değer örneğin, X1 değişkeninde gözlenen varyansın modeldeki diğer bağımsız değişkenler tarafından açıklanmayan oranıdır.
Tolerance değerinin 0,10’dan küçük olması çoklu bağlantı problemine isarettir.
Çoklu bağlantının belirlenmesinde her bir değişken için tolerance (\(1-SMC\)) değeri incelenebilir.
Bu değer değişkenler arasındaki bağlantının, bir kestirimin doğrulugunu ne derecede düşüreceğinin ölçüsünü verir.
Eğer değişkenler arasındaki hiç korelasyon yoksa, tolerans değeri → 1’e, dolayısıyla VIF değeri de → 1’e eşittir. VIF değerinin 10’dan büyük olması → çoklu bağlantı problemine isarettir.
Çoklu bağlantının belirlenmesi için koşul indeksi (condition index) incelenebilir. Koşul indeksi bir değişkenin diğer değişkenlere ne kadar bağlı olduğunun ölçüsünü verir.
Koşul indeksi SMC, tolerans ve VIF değerlerinde olduğu gibi her bir değişken için hesaplanmaz; → her bir boyu/faktör için hesaplanır.
Koşul indeksi varyans oranlarıyla birlikte değerlendirilir. Koşul indeksinin 30’dan daha büyük olması ve aynı satırda en az iki değişken için varyans oranlarının 0,50’den büyük olması → çoklu bağlantı probleminin göstergesidir.
Çoklu bağlantı problemi belirlenirse:
Birinci seçenek çoklu bağlantıya neden olan değişkenlerden birisinin analizden çıkarılmasıdır.
Ikinci seçenek çoklu bağlantıya neden olan değişkenlere ait değerlerin toplanması veya ortalamasının alınmasıdır.
Üçüncü seçenek temel bileşenlerin hesaplanıp analizlerde temel bileşenlerin kullanılmasıdır.
VIF (Variance Inflation Factor)
library(car)
model <- lm(sevme_log ~ algi + degerverme + kaygi, data = temiz_veri)
library(knitr)
library(kableExtra)
library(dplyr)
vif_degerleri <- vif(model)
vif_df <- data.frame(Degisken = names(vif_degerleri), VIF = round(as.numeric(vif_degerleri), 3))
vif_df %>% kable(format = "html", caption = "Tablo 30. Bağımsız Değişkenler İçin VIF (Çoklu Bağlantı) Değerleri", align = "c", digits = 3) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Degisken | VIF |
|---|---|
| algi | 1.189 |
| degerverme | 1.002 |
| kaygi | 1.187 |
VIF (Variance Inflation Factor) değerleri → değişkenler arasında çoklu bağlantı olup olmadığını anlamak için kullanılır.
Tüm değişkenlerin VIF değeri < 5 ve özellikle < 2 olduğu için bu modelde çoklu bağlantı sorunu YOK.
Bu sonuçlar → regresyon katsayılarının güvenilir bir şekilde tahmin edildiğini ve değişkenlerin birbirinden bağımsız bilgi taşıdığını gösterir.
Sonuç: Modeliniz çoklu bağlantı varsayımını sağlamaktadır. Regresyon analiziniz açısından bu durum olumludur.
Tekillik
Bir veya birden fazla değişkenin diğerlerinden doğrusal olarak tam anlamıyla tahmin edilebilir olup olmadığını kontrol eder. Bu durumda matris tekildir (determinantı sıfıra yakın).
Korelasyon matrisi determinantı:
library(psych)
veri_mat <- temiz_veri[, c("sevme_log", "algi", "degerverme", "kaygi")]
cor_matrix <- cor(veri_mat, use = "complete.obs")
det(cor_matrix)## [1] 0.6094637
Bu değer → çoklu doğrusal bağımlılık (tekillik, İng. singularity) sorunu olup olmadığını belirlemek için korelasyon matrisinin determinantına (determinant of correlation matrix) bakılarak yapılır.
Determinant değeri = 0.609
Kriter: Korelasyon matrisinin determinantı:
\(> 0.00001\) ise → tekillik yoktur → yani değişkenler yeterince farklı bilgi taşır,
\(≤ 0.00001\) ise → tekillik vardır → aşırı korelasyon veya değişkenler birbirinin yedeği olabilir.
Sonuç: Elde edilen 0.609 değeri, belirgin şekilde 0.00001 sınırının üzerindedir. Bu nedenle tekillik sorunu bulunmamaktadır. Regresyon veya faktör analizi gibi çok değişkenli analizler için veri setiniz uygundur.
cinsiyet değişkeni ile:
Multicollinearity (Çoklu Bağlantı) Kontrolü – VIF:
library(car)
model_vif2 <- lm(sevme_log ~ cinsiyet + algi + degerverme + kaygi, data = temiz_veri)
vif(model_vif2)## cinsiyet algi degerverme kaygi
## 1.004996 1.188919 1.007232 1.186581
library(kableExtra)
library(dplyr)
vif_df <- data.frame(
Degisken = c("cinsiyet", "algi", "degerverme", "kaygi"),
VIF = c(1.004996, 1.188919, 1.007232, 1.186581))
vif_df %>% mutate(VIF = round(VIF, 3)) %>% kable(format = "html", caption = "Tablo 31. Değişkenlere Ait Varyans Genişleme Faktörleri (VIF)", align = "c", digits = 3) %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F) %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Degisken | VIF |
|---|---|
| cinsiyet | 1.005 |
| algi | 1.189 |
| degerverme | 1.007 |
| kaygi | 1.187 |
Bu çıktı, “cinsiyet”, “algi”, “degerverme” ve “kaygi” değişkenleri ile oluşturulmuş modelde çoklu bağlantı (multicollinearity) olup olmadığını test etmektedir. Kullanılan yöntem: Varyans Enflasyon Faktörü (VIF).
\(VIF < 5\) olan tüm değişkenler çoklu bağlantı açısından güvenlidir.
cinsiyet (1.005) ve degerverme (1.007): Neredeyse bağımsız değişkenler arasında hiçbir korelasyon olmadığını gösterir.
algi (1.189) ve kaygi (1.187): Çok düşük düzeyde bir ilişki olabilir ancak bu düzeyde multicollinearity açısından sorun oluşturmaz.
Bu modelde çoklu bağlantı (multicollinearity) problemi YOK!
2. Tekillik (Singularity) Kontrolü – Korelasyon Determinantı:
library(psych)
veri_mat <- temiz_veri[, c("cinsiyet", "algi", "degerverme", "kaygi")]
cor_matrix <- cor(veri_mat, use = "complete.obs")
det(cor_matrix)## [1] 0.8367035
Korelasyon determinantı \(0.8367 > 0.1\) olduğundan:
Tekillik (Singularity) problemi YOK!
“cinsiyet”, “algi”, “degerverme” ve “kaygi” değişkenleri → regresyon analizine dahil edilebilir.
Bu değişkenler arasında aşırı korelasyon bulunmadığı için → model İSTİKRARLIdır.
library(olsrr)
library(dplyr)
library(kableExtra)
model_vif2 <- lm(sevme_log ~ cinsiyet + algi + degerverme + kaygi, data = temiz_veri)
ols_vif_tol <- ols_vif_tol(model_vif2)
ols_vif_tol <- ols_vif_tol %>% mutate(VIF = round(VIF, 2),
Tolerance = round(Tolerance, 2))
ols_vif_tol %>% kbl(digits = 2, caption = "Tablo 32. Varyans Genişleme Faktörü (VIF) ve Tolerans Değerleri") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T)| Variables | Tolerance | VIF |
|---|---|---|
| cinsiyet | 1.00 | 1.00 |
| algi | 0.84 | 1.19 |
| degerverme | 0.99 | 1.01 |
| kaygi | 0.84 | 1.19 |
Tolerans değerleri, 1’e oldukça yakın ve 0.10’un çok ÜZERİNDEdir, bu da modelde çoklu bağlantının OLMADIĞINI gösterir.
VIF değerleri tüm değişkenler için 5’in oldukça altındadır (genelde 5 veya 10 üst sınır olarak kabul edilir).
Özellikle algi ve kaygi değişkenlerinin VIF değeri 1.19 ile DÜŞÜK düzeydedir, bu da bu değişkenlerin → diğer bağımsız değişkenlerle yüksek korelasyon içinde OLMADIĞINI gösterir.
##
## Call:
## imcdiag(mod = mod, method = method, corr = FALSE, vif = vif,
## tol = tol, conf = conf, cvif = cvif, ind1 = ind1, ind2 = ind2,
## leamer = leamer, all = all)
##
##
## All Individual Multicollinearity Diagnostics Result
##
## VIF TOL Wi Fi Leamer CVIF Klein IND1 IND2
## algi 1.1889 0.8411 28.9979 58.1847 0.9171 1.2252 0 0.0055 1.4972
## degerverme 1.0023 0.9977 0.3511 0.7044 0.9989 1.0329 0 0.0065 0.0215
## kaygi 1.1865 0.8428 28.6311 57.4487 0.9180 1.2228 0 0.0055 1.4813
##
## 1 --> COLLINEARITY is detected by the test
## 0 --> COLLINEARITY is not detected by the test
##
## algi , degerverme , coefficient(s) are non-significant may be due to multicollinearity
##
## R-square of y on all x: 0.2752
##
## * use method argument to check which regressors may be the reason of collinearity
## ===================================
library(dplyr)
library(kableExtra)
mc_test_df <- data.frame(
Degisken = c("algi", "degerverme", "kaygi"),
VIF = c(1.1889, 1.0023, 1.1865),
TOL = c(0.8411, 0.9977, 0.8428),
Wi = c(28.9979, 0.3511, 28.6311),
Fi = c(58.1847, 0.7044, 57.4487),
Leamer = c(0.9171, 0.9989, 0.9180),
CVIF = c(1.2252, 1.0329, 1.2228),
Klein = c(0, 0, 0),
IND1 = c(0.0055, 0.0065, 0.0055),
IND2 = c(1.4972, 0.0215, 1.4813))
mc_test_df %>% kbl(format = "html", digits = 3, caption = "Tablo 33. Bireysel Çoklu Bağlantı (Multicollinearity) Tanı Sonuçları") %>% kable_styling(full_width = F, bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1, bold = T) %>% scroll_box(height = "400px")| Degisken | VIF | TOL | Wi | Fi | Leamer | CVIF | Klein | IND1 | IND2 |
|---|---|---|---|---|---|---|---|---|---|
| algi | 1.189 | 0.841 | 28.998 | 58.185 | 0.917 | 1.225 | 0 | 0.005 | 1.497 |
| degerverme | 1.002 | 0.998 | 0.351 | 0.704 | 0.999 | 1.033 | 0 | 0.006 | 0.021 |
| kaygi | 1.187 | 0.843 | 28.631 | 57.449 | 0.918 | 1.223 | 0 | 0.005 | 1.481 |
1. VIF (Variance Inflation Factor)
VIF değeri 10’un üzerindeyse çoklu bağlantı (multicollinearity) sorunu olduğu düşünülür.
Tüm değişkenlerin VIF değerleri 1.00–1.19 aralığında, yani çoklu bağlantı riski YOK!
2. Tolerance (TOL = 1/VIF)
Tolerance değerleri 0.1’in altına düştüğünde multicollinearity problemi olabilir.
Tüm değerler 0.84–0.99 aralığında, yani yüksek tolerans ve düşük bağlantı göstermektedir.
3. Wi ve Fi Testleri (Belsley’s test)
Bu değerler multicollinearity açısından yüksek Wi (>30) ve Fi (>10) ile dikkat çeker.
algi ve kaygi değişkenlerinde Wi ve Fi yüksek olsa da diğer tanılar bu durumu doğrulamıyor.
4. Leamer Index
Leamer değeri 0.9’dan düşükse multicollinearity riski olabilir.
Tüm değişkenlerde Leamer > 0.91 olduğu için bu risk YOK!
5. CVIF (Centered VIF)
CVIF değerlerinin 5’in altında olması önerilir.
Tüm değerler 1.03–1.22 arasında, risk YOK!
6. Klein’s Rule
Klein’s Rule 0 ise bir uyarı söz konusu değildir.
Tüm değerler 0 olduğundan sorun YOK!
7. IND1 ve IND2 (Index Diagnostics)
Bu değerler genellikle 30’dan büyük olduğunda dikkat çeker.
Verilen tüm değerler oldukça düşüktür (0.005–1.48), herhangi bir yapısal sorun YOK!
SONUÇ: Çoklu bağlantı problemi bulunmamaktadır. Bağımsız değişkenler arasında yüksek korelasyon veya doğrusal bağımlılık yoktur. Regresyon analizi için uygun yapıda bir modelleme ortamı mevcuttur.
library(kableExtra)
library(dplyr)
collin_table <- data.frame(
Term = c("algi", "degerverme", "kaygi"),
VIF = c(1.19, 1.00, 1.19),
VIF_95_CI = c("[1.09, 1.42]", "[1.00, Inf]", "[1.08, 1.42]"),
Increased_SE = c(1.09, 1.00, 1.09),
Tolerance = c(0.84, 1.00, 0.84),
Tolerance_95_CI = c("[0.71, 0.92]", "[0.00, 1.00]", "[0.71, 0.92]"))
collin_table %>% kable(format = "html", digits = 2, align = "c", caption = "Tablo 34. Bağımsız Değişkenler İçin VIF, Tolerans ve Güven Aralıkları") %>% kable_styling(bootstrap_options = c("striped", "hover", "condensed", "responsive"), full_width = F, position = "center") %>% column_spec(1, bold = T) %>% scroll_box(height = "300px")| Term | VIF | VIF_95_CI | Increased_SE | Tolerance | Tolerance_95_CI |
|---|---|---|---|---|---|
| algi | 1.19 | [1.09, 1.42] | 1.09 | 0.84 | [0.71, 0.92] |
| degerverme | 1.00 | [1.00, Inf] | 1.00 | 1.00 | [0.00, 1.00] |
| kaygi | 1.19 | [1.08, 1.42] | 1.09 | 0.84 | [0.71, 0.92] |
Çoklu Bağlantı (Multicollinearity) Analizi:
VIF Değerleri:
algi: \(VIF = 1.19\)
degerverme: \(VIF = 1.00\)
kaygi: \(VIF = 1.19\)
Genel kural olarak, VIF değerlerinin 5’in altında, özellikle 3’ün altında olması, çoklu bağlantı olmadığını gösterir (Kutner et al., 2005). Bu bağlamda tüm değişkenler düşük VIF değerlerine sahiptir ve çoklu bağlantı sorunu bulunmamaktadır.
Tolerans Değerleri:
algi: \(0.84\)
degerverme: \(1.00\)
kaygi: \(0.84\)
Tolerans değeri, \(1 - R²\) formülüyle hesaplanır ve 0.10’un altına düşmesi durumunda çoklu bağlantı olduğu kabul edilir. Burada tüm değerler 0.10’un oldukça üzerindedir. Bu da çoklu bağlantının istatistiksel olarak sorun teşkil etmediğini doğrular.
VIF ve Tolerans Güven Aralıkları (95% CI):
algi: [1.09, 1.42], [0.71, 0.92]
degerverme: [1.00, Inf], [0.00, 1.00]
kaygi: [1.08, 1.42], [0.71, 0.92]
Bu aralıklar da dar ve güvenilirdir; özellikle degerverme değişkeni için alt sınırın 1.00 olması, bu değişkenin modeldeki diğer değişkenlerle ilişkisinin oldukça düşük olduğunu gösterir.
SONUÇ: Modelde yer alan algi, degerverme ve kaygi değişkenlerinin VIF ve tolerans değerleri, çoklu bağlantı açısından kabul edilebilir sınırlar içerisindedir. Bu nedenle modelde multicollinearity problemi YOK ve regresyon analizine devam etmek için uygunluk sağlar.
Farklı modelleri deneyiniz.
Aşamalı regresyonla hangi değişkenlerin modele anlamlı katkısı olduğunu bulabilirsiniz.
Bunun yanında aracı ve düzenleyici etkiler için de çalışmalar deneyiniz.
Matematik başarısını en iyi yordayan model çıktılarını yorumlayınız.
Analizler sırasında karşılaştığınız problemleri ve ilgili problemleri nasıl çözdüğünüzü belirtiniz.
Çoklu regresyon → basit regresyonun tek bir bağımlı değişkenin iki veya daha fazla yordayıcısına izin veren uzantısıdır.
Çoklu regresyonun amacı → değerleri bilinen bağımsız değişkenleri kullanarak bağımlı değişkenin değerini yordamaktır.
Regresyon yöntemi ile → bağımsız değişkenlerden en fazla yordamayı sağlamak üzere her bağımsız değişken ağırlıklandırılır.
Ağırlıklar → bağımsız değişkenin yordamaya bağıl katkısını ifade eder ve her bir değişkenin yordamadaki etkisine ilişkin yorumlamayı kolaylaştırır.
Çoklu regresyon → hem bağımlı değişken hem de bağımsız değişkenler en az eşit aralıklı ölçek düzeyinde ölçüldüğünde kullanılmalıdır.
Çoklu regresyon → her bir bağımsız değişkendeki değişikliklerin bağımlı değişkendeki değişikliklerle ne ölçüde ilişkili olduğunu kestirir. Ancak bağımsız değişkenler arasındaki korelasyon yordama sürecini zorlaştırır.
Betimsel istatistikler:
library(psych)
library(dplyr)
library(kableExtra)
desc_data <- psych::describe(temiz_veri[, c("cinsiyet", "sevme_log", "algi", "degerverme", "kaygi")])
desc_data %>% round(3) %>% kbl(caption = "Tablo: 35. Betimsel İstatistikler – Cinsiyet, Sevme_Log, Algı, Değer Verme ve Kaygı Değişkenleri", digits = 3, booktabs = T, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "400px")| vars | n | mean | sd | median | trimmed | mad | min | max | range | skew | kurtosis | se | |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| cinsiyet | 1 | 310 | 1.516 | 0.501 | 2.000 | 1.520 | 0.000 | 1.000 | 2.000 | 1.00 | -0.064 | -2.002 | 0.028 |
| sevme_log | 2 | 310 | 6.070 | 0.270 | 6.074 | 6.079 | 0.279 | 5.218 | 6.688 | 1.47 | -0.332 | -0.130 | 0.015 |
| algi | 3 | 310 | 1.248 | 0.551 | 1.000 | 1.113 | 0.000 | 1.000 | 3.000 | 2.00 | 2.125 | 3.413 | 0.031 |
| degerverme | 4 | 310 | 1.087 | 0.282 | 1.000 | 1.000 | 0.000 | 1.000 | 2.000 | 1.00 | 2.914 | 6.515 | 0.016 |
| kaygi | 5 | 310 | 1.735 | 0.805 | 2.000 | 1.669 | 1.483 | 1.000 | 3.000 | 2.00 | 0.511 | -1.281 | 0.046 |
library(broom)
library(dplyr)
library(kableExtra)
cor_test_result <- cor.test(~ sevme_log + kaygi, data = temiz_veri)
tidy(cor_test_result)cor_test_result <- cor.test(~ sevme_log + kaygi, data = temiz_veri)
cor_table <- tidy(cor_test_result) %>% mutate(estimate = round(estimate, 3), statistic = round(statistic, 3), p.value = format.pval(p.value, digits = 3, eps = .001), conf.low = round(conf.low, 3), conf.high = round(conf.high, 3)) %>% select(estimate, statistic, p.value, conf.low, conf.high, method) %>% rename(Korelasyon = estimate, t_degeri = statistic, p_degeri = p.value, Alt_GA = conf.low, Ust_GA = conf.high, Yontem = method)
cor_table %>% kable(format = "html", align = "c", caption = "Tablo 36. Pearson Korelasyon Testi Sonuçları (sevme_log ~ kaygi)") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed")) %>% column_spec(1:6, bold = T) %>% scroll_box(height = "300px")| Korelasyon | t_degeri | p_degeri | Alt_GA | Ust_GA | Yontem |
|---|---|---|---|---|---|
| -0.521 | -10.726 | <0.001 | -0.598 | -0.435 | Pearson’s product-moment correlation |
Değişkenler: sevme_log ile kaygi
Korelasyon Katsayısı (r): \(-0.521\)
Bu değer → iki değişken arasında ORTA düzeyde NEGATİF yönlü bir ilişki olduğunu gösterir.
İstatistiksel Anlamlılık (p-değeri): \(*p* < 0.001\)
Bu sonuç → %95 güven düzeyinde (ve hatta çok daha yüksek) korelasyonun istatistiksel olarak manidar olduğunu gösterir.
t-değeri (istatistik): \(-10.726\)
Bu oldukça yüksek (mutlak değerce) bir t-istatistiğidir ve p-değeri ile birlikte değerlendirildiğinde → güçlü manidarlık sağlar.
Güven Aralığı (95% GA): \([-0.598, -0.436]\)
Korelasyon katsayısının gerçek değeri, %95 olasılıkla bu aralıkta yer alır. Aralık sıfır içerMEdiği için → sonuç güvenilir bir şekilde manidardır.
Yöntem: Pearson’s product-moment correlation
SONUÇ: Log dönüşümü yapılmış sevme değişkeni ile kaygı arasında → ORTA düzeyde, NEGATİF ve istatistiksel olarak MANİDAR bir ilişki bulunmaktadır.
library(broom)
library(dplyr)
library(kableExtra)
cor_test_result2 <- cor.test(~ sevme_log + algi, data = temiz_veri)
tidy(cor_test_result2)cor_test_result2 <- cor.test(~ sevme_log + algi, data = temiz_veri)
cor_table <- tidy(cor_test_result) %>% mutate(estimate = round(estimate, 3), statistic = round(statistic, 3), p.value = format.pval(p.value, digits = 3, eps = .001), conf.low = round(conf.low, 3), conf.high = round(conf.high, 3)) %>% select(estimate, statistic, p.value, conf.low, conf.high, method) %>% rename(Korelasyon = estimate, t_degeri = statistic, p_degeri = p.value, Alt_GA = conf.low, Ust_GA = conf.high, Yontem = method)
cor_table %>% kable(format = "html", align = "c", caption = "Tablo 37. Pearson Korelasyon Testi Sonuçları (sevme_log ~ algi)") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed")) %>% column_spec(1:6, bold = T) %>% scroll_box(height = "300px")| Korelasyon | t_degeri | p_degeri | Alt_GA | Ust_GA | Yontem |
|---|---|---|---|---|---|
| -0.521 | -10.726 | <0.001 | -0.598 | -0.435 | Pearson’s product-moment correlation |
Bu çalışmada → “sevme_log” değişkeni ile “algi” değişkeni arasındaki ilişkiyi incelemek amacıyla → Pearson korelasyon analizi uygulanmıştır.
Elde edilen sonuçlara göre, iki değişken arasında → NEGATİF yönlü ve ORTA düzeyde bir ilişki olduğu görülmüştür (\(r = -0.521\), \(*p* < .001\)).
Bu bulgu, algı düzeyinin ARTMAsının sevme düzeyinde bir AZALMA ile ilişkili olduğunu göstermektedir.
Elde edilen korelasyon katsayısı → manidar bulunmuş (\(t(308) = -10.726\), \(*p* < .001\)) ve güven aralığı %95 güven düzeyinde [-0.598, -0.435] olarak belirlenmiştir.
Bu güven aralığı → gerçek evren korelasyon katsayısının → NEGATİF bir değerde olduğu yönündeki bulguyu desteklemektedir.
Çalışmada bulunan korelasyon katsayısının → MANİDAR ve ORTA düzeyde olması, algı değişkeninin sevme düzeyleri üzerinde → BELİRGİN bir etkisi olabileceğini düşündürmektedir.
library(broom)
library(dplyr)
library(kableExtra)
cor_test_result3 <- cor.test(~ sevme_log + degerverme, data = temiz_veri)
tidy(cor_test_result3)cor_test_result3 <- cor.test(~ sevme_log + degerverme, data = temiz_veri)
cor_table <- tidy(cor_test_result) %>% mutate(estimate = round(estimate, 3), statistic = round(statistic, 3), p.value = format.pval(p.value, digits = 3, eps = .001), conf.low = round(conf.low, 3), conf.high = round(conf.high, 3)) %>% select(estimate, statistic, p.value, conf.low, conf.high, method) %>% rename(Korelasyon = estimate, t_degeri = statistic, p_degeri = p.value, Alt_GA = conf.low, Ust_GA = conf.high, Yontem = method)
cor_table %>% kable(format = "html", align = "c", caption = "Tablo 38. Pearson Korelasyon Testi Sonuçları (sevme_log ~ degerverme)") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed")) %>% column_spec(1:6, bold = T) %>% scroll_box(height = "300px")| Korelasyon | t_degeri | p_degeri | Alt_GA | Ust_GA | Yontem |
|---|---|---|---|---|---|
| -0.521 | -10.726 | <0.001 | -0.598 | -0.435 | Pearson’s product-moment correlation |
Bu çalışmada → “sevme_log” değişkeni ile “degerverme” değişkeni arasındaki ilişkiyi belirlemek amacıyla → Pearson korelasyon analizi gerçekleştirilmiştir.
Analiz sonuçlarına göre → iki değişken arasında NEGATİF yönlü ve ORTA düzeyde bir ilişki bulunmuştur (\(r = -0.521\), \(*p* < .001\)).
Elde edilen korelasyon katsayısı → “degerverme” düzeyinin ARTMASININ → “sevme_log” düzeyinde bir AZALMA ile ilişkili olduğunu göstermektedir.
Yapılan korelasyon testi sonucunda \(t(308) = -10.726\) bulunmuş ve bu değer MANİDAR çıkmıştır (\(*p* < .001\)).
Ayrıca, güven aralığı %95 güven düzeyinde → \([-0.598, -0.435]\) olarak hesaplanmış ve bu aralığın NEGATİF olması → korelasyonun NEGATİF yönlü olduğunu desteklemektedir.
Bu bağlamda, “degerverme” değişkeninin “sevme_log” üzerinde → MANİDAR ve ORTA büyüklükte bir etkiye sahip olduğu söylenebilir.
İlişki Grafiği:
library(GGally)
ggpairs(temiz_veri[, c("sevme_log", "algi", "degerverme", "kaygi")], upper = list(continuous = wrap("cor", size = 4)), lower = list(continuous = wrap("smooth", alpha = 0.3)), diag = list(continuous = wrap("densityDiag")), title = "Temiz Veri Setinde Değişkenler Arası İlişkiler (ggpairs Grafiği)")Temiz veri setinde yer alan “sevme_log”, “algi”, “degerverme” ve “kaygi” değişkenleri arasındaki ilişkiler incelendiğinde → bazı manidar korelasyonların ortaya çıktığı görülmüştür.
“Sevme_log” değişkeni ile “algi” değişkeni arasında NEGATİF yönde ve DÜŞÜK düzeyde manidar bir ilişki bulunmuştur (\(r = -0.156\), \(*p* < .01\)).
Bununla birlikte, “sevme_log” değişkeni ile → “kaygi” değişkeni arasında daha güçlü ve NEGATİF yönde bir ilişki tespit edilmiştir (\(r = -0.521\), \(*p* < .001\)).
“Algi” ve “kaygi” değişkenleri arasındaki ilişki ise → POZİTİF ve manidar bulunmuştur (\(r = 0.396\), \(*p* < .001\)) → bu da algı düzeyleri ARTTIKÇA bireylerin kaygı düzeylerinin de YÜKSELDİğine işaret etmektedir.
“Degerverme” değişkeni ile diğer değişkenler arasındaki → korelasyonlar ise istatistiksel olarak manidar bulunMAmış, bu değişkenin BAĞIMSIZ bir yapı gösterdiği anlaşılmıştır.
3D Grafik:
library(scatterplot3d)
scatterplot3d(temiz_veri$sevme_log, temiz_veri$algi, temiz_veri$kaygi, pch = 16, color = "purple", angle = 75, main = "Temiz Veri Setinde Sevme, Algı ve Kaygı Değişkenlerinin 3B Dağılımı", xlab = "Sevme (log dönüşümü)", ylab = "Algı", zlab = "Kaygı")3B Dağılım Analizi: Sevme, Algı ve Kaygı Değişkenleri:
Bu çalışmada sevme (log dönüşümlü), algı ve kaygı değişkenlerinin → çok değişkenli ilişkilerini görselleştirmek amacıyla üç boyutlu dağılım grafiği (scatterplot3d) oluşturulmuştur.
Veriler belirgin bir doğrusal veya yüzeysel düzlem üzerinde toplanmaktan ziyade → dağınık bir görünüm sergilemektedir.
Sevme değişkeni ile kaygı arasında özellikle NEGATİF bir eğilim dikkat çekmektedir → sevme düzeyi ARTIKÇA kaygı düzeyinin AZALMA eğiliminde olduğu gözlenmektedir.
Buna karşın, algı değişkeni ile sevme veya kaygı değişkenleri arasında → belirgin bir ilişki formasyonu görülMEMEktedir.
Bu durum, bağımsız değişkenlerin (algı ve kaygı) sevme değişkeni ile farklı düzeylerde ilişki kurduğunu ve bu ilişkilerin doğrusal modellemeye elverişli olduğunu desteklemektedir.
Ayrıca verilerin uzayda belirli bir düzlemde toplanmaması → çoklu doğrusal bağımlılık (multicollinearity) sorununa işaret eden bir yoğunluk göstermediği için → regresyon analizleri açısından olumlu bir bulgu olarak değerlendirilmektedir.
Genel olarak, scatterplot3d grafiği → veri setinde önemli uç değerlerin bulunmadığını ve değişkenler arasındaki ilişkilerin doğrusal modelleme için uygun olduğunu göstermektedir.
3D Grafik:
library(scatterplot3d)
scatterplot3d(temiz_veri$sevme_log, temiz_veri$algi, temiz_veri$kaygi, pch = 16, color = "purple", angle = 75, box = F, type = "h", main = "Temiz Veri Setinde Sevme (Log Dönüşüm), Algı ve Kaygı Değişkenlerinin 3B H Tipi Dağılımı", xlab = "Sevme (log dönüşümü)", ylab = "Algı", zlab = "Kaygı")Bu çalışmada, sevme (log dönüşümü), algı ve kaygı değişkenleri arasındaki → çok değişkenli yapıyı daha iyi görselleştirmek amacıyla → 3B H tipi dağılım grafiği oluşturulmuştur.
Scatterplot3d analizi, her bir gözlemi zeminle birleştirerek → veri noktalarının uzaydaki yoğunluklarını ve dağılımlarını ortaya koymaktadır (Ligges & Mächler, 2003).
Grafikte, sevme (log dönüşümü) ekseni ile algı ve kaygı eksenleri arasındaki ilişkilere bakıldığında → veri noktalarının özellikle orta seviyelerde yoğunlaştığı, uç değerlerin ise sınırlı sayıda olduğu gözlenmiştir.
Sevme değişkeni ARTTIKça kaygı düzeyinin genellikle AZALMA eğiliminde olduğu → ancak bu ilişkinin belirgin bir doğrusal örüntü göstermediği anlaşılmaktadır.
Ayrıca, algı değişkeninin sevme ile → oldukça sınırlı bir değişkenlik gösterdiği, kaygı ile ise → hafif bir POZİTİF eğilim sergilediği görülmektedir.
Bu bulgular, değişkenler arasındaki ilişkilerin → tamamen doğrusal bir modelle açıklanamayabileceğini ve olası karmaşık yapısal ilişkilerin var olabileceğini düşündürmektedir.
\(R^2\) değeri → çoklu korelasyon katsayısı (multiple correlation coefficient) olup → bağımlı değişkenin gözlenen değerleri ile bağımsız değişkenlerin en iyi doğrusal kombinasyonu arasındaki korelasyondur.
En iyi doğrusal kombinasyon → bağımlı değişkenin bağımsız değişkenlerden yordanmasında, daha iyi bir iş yapacak regresyon katsayıları kümesi olmadığı anlamına gelir.
library(broom)
model <- lm(sevme_log ~ algi + kaygi, data = temiz_veri)
sqrt(glance(model)$r.squared)## [1] 0.5244076
Temiz veri seti üzerinde yürütülen çoklu doğrusal regresyon analizi sonucunda, “sevme_log” değişkeninin “algı” ve “kaygı” değişkenleri tarafından açıklanma oranı belirlenmiştir.
Modelin determinasyon katsayısının (\(R^2\)) karekökü 0.524 olarak bulunmuştur.
Bu sonuç, “sevme_log” ile “algı” ve “kaygı” değişkenleri arasında ORTA düzeyde POZİTİF bir ilişkinin bulunduğunu göstermektedir (Cohen, 1988).
Başka bir ifadeyle, bağımlı değişken olan sevme düzeyinin yaklaşık %52 oranında algı ve kaygı değişkenleri ile açıklanabildiği anlaşılmaktadır.
ORTA düzeydeki bu ilişki, modelin manidar bir açıklayıcılık gücüne sahip olduğunu ve değişkenler arasındaki doğrusal ilişkinin belirgin olduğunu işaret etmektedir (Field, 2013).
Ancak, \(R^2\)’nin yalnızca varyansın açıklanma oranını yansıttığı ve modelin nedensel çıkarımlar sağlamadığı göz önünde bulundurulmalıdır.
R değeri → bağımlı değişkenin gözlenen ve yordanan değerleri arasındaki korelasyondur.
Bağımlı değişkenin yordanan değerinin bağımlı değişkenin gözlenen değerine mümkün olduğunca yakın olmasını gerektiren en küçük kareler kriterinden dolayı → bağımlı değişkenin gözlenen ve yordanan değerleri arasındaki korelasyon eksi değerler alamaz.
library(broom)
model <- lm(sevme_log ~ algi + kaygi, data = temiz_veri)
model_s <- augment(model, data = temiz_veri)
cor(model_s$sevme_log, model_s$.fitted)## [1] 0.5244076
sevme_log → bağımlı değişkenin (log dönüşümü yapılmış sevme puanı).
.fitted → model tarafından tahmin edilen (ŷ) değerlerdir.
cor() fonksiyonu → gerçek değerlerle tahmin edilen değerler arasındaki Pearson korelasyon katsayısını verir.
Temiz veri seti kullanılarak oluşturulan regresyon modeli doğrultusunda, bağımlı değişken olan sevme_log ile model tarafından tahmin edilen değerler (.fitted) arasındaki Pearson korelasyon katsayısı \(𝑟 = 0.524\) olarak hesaplanmıştır.
Bu sonuç, modelin gözlenen değerlerin yaklaşık %27.5’ini açıklayabildiğini (\(r^2 ≈ 0.275\)) göstermektedir.
Korelasyon katsayısının POZİTİF ve ORTA düzeyde olması (\(0.30 < r < 0.70\)) (Cohen, 1988), algi ve kaygi değişkenlerinin sevme_log değişkeninin varyansını manidar düzeyde açıkladığını, ancak modele ek değişkenlerin de katkı sağlayabileceğini düşündürmektedir.
Bu bulgu, regresyon modelinin açıklayıcılığının kabul edilebilir düzeyde olduğunu, ancak mükemmel bir uyum sağlaMAdığını işaret etmektedir.
Yürütülen regresyon analizinde → bağımlı değişken olan sevme_log değişkeninin varyansının → bağımsız değişkenler algi ve kaygi tarafından açıklanma oranı → \(R^2 = 0.275\) olarak hesaplanmıştır.
Bu sonuç, modele dahil edilen bağımsız değişkenlerin → bağımlı değişkenin → toplam varyansının yaklaşık %27.5’ini açıkladığını göstermektedir.
Başka bir ifadeyle → algı ve kaygı değişkenleri → bireylerin sevme düzeylerindeki varyasyonun SINIRLI bir kısmını açıklayabilmektedir.
Cohen’in (1988) → etkili büyüklük yorumlamasına göre → \(R^2\) değerinin 0.26 düzeyinde olması → ORTA büyüklükte bir etkiye işaret etmektedir.
Elde edilen sonuç → modelin bağımlı değişkendeki varyasyonu orta düzeyde açıklayabildiğini, ancak modelin açıklama gücünün artırılabilmesi için ek değişkenlerin dahil edilmesinin uygun olabileceğini düşündürmektedir.
Yürütülen regresyon analizi sonuçlarına göre → modele ait düzeltilmiş determinizasyon katsayısı (adjusted \(R^2\)) değeri → 0.270 olarak hesaplanmıştır.
Düzeltilmiş \(R^2\) değeri → modelde yer alan değişken sayısına göre \(R^2\) değerinin düzeltilmiş bir versiyonudur ve örneklem büyüklüğü ile modele dahil edilen değişken sayısının etkisini dengeleyerek daha güvenilir bir açıklama oranı sunar (Field, 2013).
Bu sonuç → modelin bağımlı değişkendeki varyansın yaklaşık %27’sini → bağımsız değişkenler (algı ve kaygı) aracılığıyla açıkladığını göstermektedir.
Modelin hata terimlerinin standart sapması olan → sigma (σ) değeri ise → 0.231 olarak bulunmuştur.
Sigma değeri → tahmin edilen değerlerin → gerçek gözlemlerden ortalama sapmasını ifade eder.
Elde edilen bu düşük sigma değeri, modelin tahminlerinde makul bir hassasiyet sağladığını ve gözlem değerlerine yakın sonuçlar ürettiğini göstermektedir.
Modelin genel anlamlılığını test eden → F-istatistiği değeri 58.23 olarak bulunmuştur.
Bu değer → modele ilişkin bağımlı değişkenin varyansının manidar bir şekilde bağımsız değişkenler tarafından açıklandığını göstermektedir.
F değeri → ne kadar yüksekse → modelin genel olarak manidar olduğu o kadar güçlü şekilde desteklenir.
Buna karşılık gelen anlamlılık düzeyi → (\(*p* < .001\)) düzeyinde olduğundan → model genel olarak istatistiksel açıdan manidardır.
Sonuçlar, modelin orta düzeyde bir açıklayıcılığa sahip olduğunu ve bağımsız değişkenlerin bağımlı değişken üzerinde anlamlı bir etkiye sahip olduğunu göstermektedir.
Ancak, açıklayıcılık oranının mükemmel düzeyde olmaması → başka potansiyel değişkenlerin de modele dahil edilmesi gerekliliğine işaret edebilir.
library(broom)
model <- lm(sevme_log ~ algi + kaygi, data = temiz_veri)
res <- model$residuals
sqrt(sum((res - mean(res))^2 / (length(res) - 3)))## [1] 0.2310693
Bu çalışmada oluşturulan regresyon modeline ilişkin → artıkların standart sapması ayrıca hesaplanmıştır.
Artık değerlerin ortalamadan sapmalarının karelerinin toplamının → serbestlik derecesi olan \(n−3\) değerine bölünüp karekökünün alınması yoluyla → elde edilen bu ölçüt → modelin hata terimlerinin yayılım derecesi hakkında bilgi sunmaktadır.
Hesaplama sonucunda → standart hata değeri \(σ = 0.231\) olarak bulunmuştur.
Bu değer → modele dâhil edilen bağımsız değişkenlerin (algı ve kaygı) bağımlı değişken (sevme_log) üzerindeki açıklayıcı etkisinin yanı sıra modelin hata terimlerinin düşük düzeyde bir varyansa sahip olduğunu göstermektedir.
Bu bulgu → daha önce σ katsayısına ilişkin glance() çıktısında elde edilen değeri (0.231) doğrular niteliktedir ve modelin güvenilir bir tahmin performansı sunduğunu göstermektedir.
Bu çalışmada elde edilen regresyon analizine ilişkin temel model uygunluk ölçütleri değerlendirilmiştir.
Ayarlanmış determinasyon katsayısı (Adjusted \(R^2\)) değeri → 0.270 olarak bulunmuştur.
Ayarlanmış \(R^2\) → modeldeki bağımsız değişken sayısını dikkate alarak açıklanan varyans oranını düzeltmekte ve böylece modelin açıklayıcılığını daha doğru bir şekilde yansıtmaktadır.
Buna ek olarak → modelin hata standart sapması (Root Mean Square Error – RMSE) olan → σ değeri → 0.231 olarak hesaplanmıştır.
σ değeri → model tahminlerinin gerçek gözlemlerden ortalama sapmasını göstermekte olup modelin hata terimlerinin düşük düzeyde olduğunu işaret etmektedir.
Düşük bir hata standart sapması → modelin tahmin gücünün makul düzeyde olduğunu desteklemektedir.
library(broom)
library(dplyr)
library(kableExtra)
model <- lm(sevme_log ~ algi + kaygi, data = temiz_veri)
glance(model)[,2:5] %>% round(3) %>% kable(format = "html", caption = "Tablo 39. Regresyon Modeli Özeti (Adjusted R², Sigma, F İstatistiği ve p-değeri)", align = "c", digits = 3) %>% kable_styling(full_width = F,position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:4, bold = T) %>% scroll_box(height = "300px")| adj.r.squared | sigma | statistic | p.value |
|---|---|---|---|
| 0.27 | 0.231 | 58.225 | 0 |
Araştırmada yürütülen regresyon analizine ilişkin model özetine bakıldığında → düzeltilmiş \(R^2\) (adj. r-squared) değerinin → 0.270 olduğu görülmektedir.
Bu değer → modele dahil edilen “algı” ve “kaygı” değişkenlerinin → bağımlı değişken olan “sevme_log” değişkenindeki toplam varyansın → yaklaşık %27’sini açıkladığını göstermektedir.
Modelin hata standart sapması anlamına gelen sigma değeri ise → 0.231 olarak hesaplanmıştır.
Modelin genel geçerliğini test etmek amacıyla hesaplanan F istatistiği değeri → 58.225 olarak bulunmuştur.
Bu değer ve modelin anlamlılık düzeyine ilişkin p-değerinin 0.000 olması → regresyon modelinin istatistiksel olarak MANİDAR olduğunu ve modelde yer alan en az bir bağımsız değişkenin → bağımlı değişken üzerinde ETKİLİ olduğunu ortaya koymaktadır.
Elde edilen p-değeri 0.05 anlamlılık düzeyinin oldukça altında olduğundan → modelin genel geçerliği → kuvvetli bir şekilde desteklenmiştir.
Sonuç olarak → algı ve kaygı değişkenleri → sevme_log değişkenindeki varyansın manidar bir bölümünü açıklamakta olup → modelin genel geçerliği yüksek düzeyde doğrulanmıştır.
library(broom)
library(dplyr)
library(kableExtra)
model <- lm(sevme_log ~ algi + kaygi, data = temiz_veri)
tidy(model) %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 40. Regresyon Modeli Katsayılarının Özeti", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:5, bold = T) %>% scroll_box(height = "300px")| term | estimate | std.error | statistic | p.value |
|---|---|---|---|---|
| (Intercept) | 6.351 | 0.037 | 170.777 | 0.000 |
| algi | 0.030 | 0.026 | 1.137 | 0.256 |
| kaygi | -0.183 | 0.018 | -10.303 | 0.000 |
Bu çalışmada, “sevme_log” bağımlı değişkeni ile “algı” ve “kaygı” bağımsız değişkenleri arasındaki ilişkiyi incelemek amacıyla oluşturulan regresyon modelinin katsayıları analiz edilmiştir.
Modelde sabit terim (intercept) katsayısı → 6.351 olarak bulunmuştur ve bu katsayının → istatistiksel olarak manidar olduğu görülmektedir (\(*p* < .001\)).
Bağımsız değişkenlerden “algı”nın katsayısı 0.030 olup → bu değişkenin “sevme_log” üzerinde POZİTİF bir etkisi olduğu gözlemlenmiştir.
Ancak → bu etkinin istatistiksel olarak manidar olMAdığı belirlenmiştir (\(*p* = .256 > .05\)).
Öte yandan, “kaygı” değişkeninin katsayısı -0.183 olarak bulunmuş ve bu katsayının istatistiksel olarak oldukça manidar olduğu belirlenmiştir (\(*p* < .001\)).
Bu durum, “kaygı” düzeyindeki bir birimlik ARTIŞIN → “sevme_log” değerinde 0.183 birimlik bir AZALMAYA yol açtığını göstermektedir.
Başka bir ifadeyle, kaygı ARTTIKÇA → bireylerin sevme düzeylerinde manidar bir DÜŞÜŞ gözlemlenmektedir.
Modelin genel anlamda istatistiksel olarak manidar olduğu ve “kaygı” değişkeninin güçlü bir açıklayıcı değişken olarak öne çıktığı söylenebilir.
Bu bulgular → regresyon modelinin yapılandırılmasında “kaygı” değişkeninin kritik bir rol oynadığını ortaya koymaktadır.
Bu kod → temiz_veri veri setinde → “sevme_log” değişkeni ile “kaygi” değişkeni arasında bir regresyon modeli kurar ve → “sevme_log” değişkeninin “kaygi” değişkeni tarafından açıklanamayan (artık, hata) kısmını çıkarır.
Bu kod → temiz_veri veri setinde → “algi” değişkenini, “kaygi” değişkeni ile → regresyon modeline sokar.
library(dplyr)
library(kableExtra)
artıkPER1 <- lm(sevme_log ~ kaygi, data = temiz_veri)$residuals
artıkMOT <- lm(algi ~ kaygi, data = temiz_veri)$residuals
lm(artıkPER1 ~ artıkMOT, data = data.frame(artıkPER1, artıkMOT))$coefficients %>% round(3) %>% tibble::enframe(name = "Katsayı", value = "Değer") %>% kable(format = "html", digits = 3, align = "c", caption = "Tablo 41. Artıklar Arası Regresyon Modeli Sonuçları") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed"))| Katsayı | Değer |
|---|---|
| (Intercept) | 0.00 |
| artıkMOT | 0.03 |
Bu çalışmada → “sevme_log” ve “algi” değişkenlerinin “kaygi” değişkeni ile etkileri kontrol edildikten sonra, kontrol dışı kalan varyanslarının (artık değerlerin) birbirleriyle ilişkisini belirlemek amacıyla artıklar arası regresyon analizi gerçekleştirilmiştir.
İlk aşamada → “sevme_log” değişkeni “kaygi” değişkeni ile kontrol edilmiş ve regresyon artıkları (artıkPER1) hesaplanmıştır.
Benzer şekilde → “algi” değişkeni de “kaygi” değişkeni ile kontrol edilerek kendi artıkları (artıkMOT) elde edilmiştir.
Daha sonra → artıkPER1 değişkeni artıkMOT değişkeni ile regresyona sokulmuştur.
Analiz sonucunda → artıkMOT değişkeninin regresyon katsayısı 0.030 olarak bulunmuştur.
Bu değer, “kaygi” değişkeninin etkisi çıkarıldıktan sonra → “algi” değişkeninde kalan varyansın → “sevme_log” değişkeninde kalan varyansla POZİTİF → fakat çok DÜŞÜK DÜZEYDE bir ilişki içinde olduğunu göstermektedir.
Ancak katsayının büyüklüğü dikkate alındığında (\(B = 0.03\)) → bu ilişkinin istatistiksel ve pratik anlamda SINIRLI olduğu ifade edilebilir.
Bu sonuç, “kaygi” değişkeni kontrol edildiğinde, “sevme_log” ile “algi” değişkenleri arasında manidar bir bağıntının kalmadığını, dolayısıyla kaygi değişkeninin iki değişken arasındaki temel ortak varyansı açıkladığını düşündürmektedir.
Bu bulgu, kontrol değişkeni kullanılarak yapılan artıklar arası regresyon analizinin → değişkenler arasındaki bağıntının daha doğru bir şekilde anlaşılması için önemli bir yöntem olduğunu göstermektedir.
cor_matrix <- cor(temiz_veri[, c("sevme_log", "algi", "kaygi")])
((cor_matrix[2,1] - cor_matrix[3,1]*cor_matrix[2,3])/
(1 - cor_matrix[2,3]^2)) * (sd(temiz_veri$sevme_log) / sd(temiz_veri$algi))## [1] 0.02954751
Bu çalışmada → kaygı değişkeninin kontrol edilmesi sonrasında algı değişkeninin sevme (log dönüşümü) üzerindeki etkisi incelenmiştir.
İlgili hesaplamada → kaygının sabitlendiği koşul altında algı ile sevme değişkenleri arasındaki kısmi regresyon katsayısı elde edilmiştir.
Elde edilen değer → \(β = 0.029\) (yuvarlatılmış haliyle) olarak bulunmuştur.
İlgili kısmi regresyon katsayısının oldukça düşük olması → algının sevme üzerindeki doğrudan etkisinin sınırlı düzeyde olduğunu düşündürmektedir.
Ayrıca, standart sapmaya dayalı katsayıların yorumlanmasında, katsayının küçük olması genellikle değişkenler arasındaki ilişkinin zayıf düzeyde olduğunu işaret etmektedir.
Sonuç olarak → regresyon analizinin bulguları, kaygının etkisi sabit tutulduğunda algının sevme değişkenine katkısının→ istatistiksel olarak manidar düzeyde olMAdığını ve pratik anlamda da → oldukça küçük bir büyüklüğe sahip olduğunu ortaya koymaktadır.
Bu tür kısmi etkilerin modellenmesi → değişkenler arası doğrudan ilişkilerin doğru bir şekilde anlaşılması açısından kritik önem taşımaktadır.
library(dplyr)
library(kableExtra)
model_artik <- lm(artıkPER2 ~ artıkKAY, data = data.frame(artıkPER2, artıkKAY))
model_artik$coefficients %>% round(3) %>% tibble::enframe(name = "Katsayı", value = "Değer") %>% kable(format = "html", caption = "Tablo 42. Artıklar Arası Regresyon Modeli (artıkPER2 ~ artıkKAY)", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:2, bold = T) %>% scroll_box(height = "300px")| Katsayı | Değer |
|---|---|
| (Intercept) | 0.000 |
| artıkKAY | -0.076 |
Bu çalışmada, artık değerler arası ilişkiyi değerlendirmek amacıyla artıkPER2 ve artıkKAY değişkenleri arasında basit doğrusal regresyon analizi gerçekleştirilmiştir.
Model sonuçlarına göre artıkKAY değişkeninin artıkPER2 üzerindeki regresyon katsayısı -0.076 olarak bulunmuştur.
Elde edilen bu NEGATİF katsayı, algı ve kaygı değişkenlerinin etkileri çıkarıldıktan sonra kalan varyanslar arasında çok düşük düzeyde ters yönlü bir ilişki olduğunu göstermektedir.
Bu bulgu, algı ve kaygı değişkenlerinin modelde yeterince açıklayıcı olduğunu, artık değerler arasında belirgin bir doğrusal ilişki kalmadığını göstermektedir.
Ayrıca, sıfıra yakın katsayı değeri, literatürde artıklar arasında manidar bir ilişki bulunmaması gerektiği yönündeki genel beklenti ile uyumludur.
Bu sonuç, modelin çoklu doğrusal ilişkiden etkilenmeden bağımsız değişkenlerin etkilerini doğru bir şekilde yansıttığını ve tahmin gücünün güvenilir olduğunu desteklemektedir.
library(dplyr)
library(kableExtra)
model_artik <- lm(artıkPER3 ~ artıkKAY, data = data.frame(artıkPER3, artıkKAY))
model_artik$coefficients %>% round(3) %>% tibble::enframe(name = "Katsayı", value = "Değer") %>% kable(format = "html", caption = "Tablo 43. ArtıkPER3 ile ArtıkKAY Değişkenleri Arasındaki Regresyon Modeli Sonuçları", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:2, bold = T) %>% scroll_box(height = "300px")| Katsayı | Değer |
|---|---|
| (Intercept) | 0.00 |
| artıkKAY | 0.03 |
Bu çalışmada, artık değerler arasında gerçekleştirilen regresyon analizine ilişkin sonuçlar → Tablo 43’te sunulmuştur.
Analiz sonucunda, bağımsız değişken olan artıkKAY’ın bağımlı değişken olan artıkPER3 üzerindeki etkisi incelenmiştir.
Modelde sabit katsayı (Intercept) değeri → 0.000, artıkKAY değişkeninin katsayısı ise → 0.030 olarak bulunmuştur.
Bu sonuç → artıkKAY değişkenindeki bir birimlik artışın artıkPER3 üzerinde → KÜÇÜK ve POZİTİF yönde bir değişime yol açtığını göstermektedir.
Ancak katsayı değerinin → DÜŞÜK olması → bu ilişkinin etkisinin sınırlı olduğunu göstermektedir.
Ayrıca, artık değerler kullanılarak yapılan bu tür regresyon analizleri → temel değişkenler arasındaki doğrudan ilişkilerin kontrol edildikten sonraki etkilerini incelemek açısından önemlidir.
Bu bağlamda elde edilen sonuçlar → artık değişkenler arasında manidar bir ilişki olMAdığını düşündürmektedir.
Artık değerler regresyon analizinde → artıkKAY değişkeninin artıkPER3 üzerinde istatistiksel olarak manidar bir etkisi bulunmamıştır (\(β = 0.030\)).
mean(temiz_veri$sevme_log)-
model$coefficients[2]*mean(temiz_veri$degerverme)-
model$coefficients[3]*mean(temiz_veri$kaygi)## algi
## 6.355422
Bu çalışmada, regresyon modelinde bağımlı değişken olan → sevme_log değişkeninin → düzeltilmiş ortalaması hesaplanmıştır.
Bu hesaplama sırasında → bağımsız değişkenlerin (algı, değer verme ve kaygı) ortalamaları ve regresyon katsayıları dikkate alınmıştır.
Elde edilen sonuçlara göre → algı değişkeninin düzeltilmiş ortalama değeri 6.355 olarak bulunmuştur.
Bu değer → modelde diğer değişkenlerin etkisi ortadan kaldırıldığında algı değişkeninin → sevme_log üzerindeki katkısının büyüklüğünü ifade etmektedir.
Bu tür düzeltilmiş ortalama değerlerin hesaplanması → özellikle bağımsız değişkenler arasındaki ilişkilerin karmaşıklığını kontrol altına almak ve bağımlı değişkenin daha doğru bir şekilde yorumlanmasını sağlamak için önemlidir.
Sonuçlar → algı düzeyinin modele olan katkısının manidar bir boyutta olduğunu göstermekte ve diğer değişkenlerin etkilerinden arındırıldığında algı değişkeninin → sevme_log üzerindeki → POZİTİF etkisinin devam ettiğini ortaya koymaktadır.
Bağımsız değişkenlerin etkileri kontrol edildiğinde → algının modele katkısı MANİDAR bulunmuştur.
library(QuantPsyc)
library(dplyr)
library(kableExtra)
model_beta <- lm.beta(model)
model_beta %>% round(3) %>% tibble::enframe(name = "Değişken", value = "Standartlaştırılmış Katsayı") %>% kable(format = "html", caption = "Tablo 44. Standartlaştırılmış (Beta) Regresyon Katsayıları", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:2, bold = T) %>% scroll_box(height = "300px")| Değişken | Standartlaştırılmış Katsayı |
|---|---|
| algi | 0.060 |
| kaygi | -0.545 |
Standartlaştırılmış (Beta) Katsayılar Üzerine İstatistiksel Değerlendirme:
Bu çalışmada → sevme_log değişkeni üzerine algı ve kaygı değişkenlerinin etkilerini daha net yorumlayabilmek amacıyla → standartlaştırılmış (beta) regresyon katsayıları hesaplanmıştır.
Elde edilen sonuçlara göre → algı değişkeninin standartlaştırılmış beta katsayısı 0.060 olarak bulunmuştur.
Bu durum → diğer değişkenler SABİT tutulduğunda → algı değişkenindeki bir standart sapmalık ARTIŞIN → sevme_log puanında ÇOK KÜÇÜK ve POZİTİF yönlü bir değişime neden olduğunu göstermektedir.
Bununla birlikte → bu etkinin büyüklüğünün oldukça DÜŞÜK olduğu görülmektedir.
Öte yandan → kaygı değişkeninin → standartlaştırılmış beta katsayısı -0.545 olarak hesaplanmıştır.
Bu değer → kaygı düzeyinde meydana gelen bir standart sapmalık ARTIŞIN → sevme_log puanında manidar bir AZALMAYA yol açtığını ve → bu ilişkinin etkisinin güçlü olduğunu göstermektedir.
Ayrıca, katsayının NEGATİF olması → kaygı düzeyindeki ARTIŞIN → sevme davranışını → OLUMSUZ yönde etkilediğini açıkça ortaya koymaktadır.
Genel olarak, regresyon modelinde kaygı değişkeninin → sevme_log üzerindeki etkisinin → algı değişkenine kıyasla → ÇOK DAHA YÜKSEK olduğu anlaşılmaktadır.
library(dplyr)
library(kableExtra)
data.frame(Gerçek = temiz_veri$sevme_log, Yordanan = model$fitted.values, Artık = model$residuals) %>% round(3) %>% kable(format = "html", caption = "Tablo 45. Gerçek, Yordanan ve Artık Değerler Tablosu", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:3, bold = F) %>% scroll_box(height = "300px")| Gerçek | Yordanan | Artık |
|---|---|---|
| 6.563 | 6.197 | 0.366 |
| 6.494 | 6.197 | 0.297 |
| 6.592 | 6.197 | 0.395 |
| 6.688 | 6.197 | 0.491 |
| 5.925 | 5.890 | 0.035 |
| 5.924 | 5.860 | 0.064 |
| 5.918 | 6.197 | -0.279 |
| 6.049 | 5.860 | 0.189 |
| 5.944 | 6.014 | -0.069 |
| 6.013 | 5.831 | 0.183 |
| 6.287 | 5.890 | 0.397 |
| 5.911 | 5.860 | 0.051 |
| 5.495 | 5.831 | -0.335 |
| 5.914 | 6.197 | -0.283 |
| 5.380 | 5.831 | -0.451 |
| 5.847 | 6.197 | -0.350 |
| 6.243 | 6.197 | 0.046 |
| 6.259 | 6.197 | 0.062 |
| 6.130 | 6.014 | 0.117 |
| 6.034 | 6.197 | -0.163 |
| 6.026 | 5.831 | 0.196 |
| 6.079 | 6.197 | -0.118 |
| 6.241 | 5.860 | 0.381 |
| 6.187 | 6.197 | -0.010 |
| 5.705 | 6.197 | -0.492 |
| 5.987 | 6.014 | -0.027 |
| 6.092 | 6.014 | 0.078 |
| 5.863 | 5.831 | 0.033 |
| 5.866 | 6.014 | -0.148 |
| 6.082 | 6.197 | -0.115 |
| 5.716 | 6.197 | -0.480 |
| 6.109 | 6.197 | -0.088 |
| 5.968 | 6.014 | -0.046 |
| 6.102 | 6.014 | 0.088 |
| 5.922 | 5.831 | 0.092 |
| 6.115 | 6.227 | -0.112 |
| 6.298 | 6.197 | 0.101 |
| 6.104 | 6.014 | 0.091 |
| 5.729 | 5.831 | -0.101 |
| 6.362 | 6.197 | 0.165 |
| 6.051 | 6.014 | 0.038 |
| 6.368 | 6.014 | 0.354 |
| 5.981 | 5.860 | 0.120 |
| 6.204 | 6.014 | 0.190 |
| 6.314 | 6.197 | 0.117 |
| 6.427 | 6.197 | 0.230 |
| 5.707 | 5.860 | -0.153 |
| 6.141 | 6.014 | 0.127 |
| 6.376 | 6.197 | 0.179 |
| 6.237 | 6.014 | 0.223 |
| 6.294 | 6.014 | 0.280 |
| 6.091 | 6.197 | -0.106 |
| 6.083 | 6.197 | -0.114 |
| 6.244 | 6.197 | 0.047 |
| 5.888 | 6.197 | -0.309 |
| 6.346 | 6.197 | 0.149 |
| 5.740 | 6.014 | -0.273 |
| 6.177 | 6.014 | 0.164 |
| 6.421 | 6.197 | 0.224 |
| 6.342 | 6.014 | 0.328 |
| 5.845 | 6.043 | -0.199 |
| 5.773 | 6.014 | -0.241 |
| 5.814 | 6.014 | -0.199 |
| 6.024 | 6.197 | -0.173 |
| 5.932 | 6.014 | -0.082 |
| 6.388 | 6.043 | 0.344 |
| 6.266 | 5.831 | 0.435 |
| 5.972 | 6.014 | -0.042 |
| 5.765 | 5.831 | -0.065 |
| 5.455 | 5.831 | -0.375 |
| 5.934 | 6.014 | -0.080 |
| 6.131 | 6.073 | 0.058 |
| 5.610 | 5.831 | -0.221 |
| 5.685 | 5.890 | -0.204 |
| 5.785 | 6.197 | -0.412 |
| 6.026 | 5.831 | 0.195 |
| 5.835 | 5.860 | -0.025 |
| 5.620 | 5.831 | -0.210 |
| 6.288 | 6.197 | 0.091 |
| 5.794 | 6.043 | -0.249 |
| 6.256 | 6.197 | 0.059 |
| 5.976 | 5.831 | 0.145 |
| 6.218 | 6.197 | 0.021 |
| 6.300 | 5.860 | 0.440 |
| 6.206 | 6.197 | 0.009 |
| 5.969 | 6.043 | -0.074 |
| 6.103 | 6.197 | -0.094 |
| 6.078 | 6.197 | -0.119 |
| 6.293 | 6.197 | 0.096 |
| 5.744 | 5.831 | -0.087 |
| 5.699 | 5.831 | -0.131 |
| 6.154 | 6.197 | -0.043 |
| 5.660 | 6.197 | -0.537 |
| 6.080 | 6.197 | -0.117 |
| 6.395 | 6.197 | 0.198 |
| 6.058 | 6.014 | 0.044 |
| 5.926 | 5.860 | 0.066 |
| 6.271 | 5.831 | 0.440 |
| 6.230 | 6.197 | 0.033 |
| 6.224 | 6.197 | 0.027 |
| 6.019 | 6.014 | 0.005 |
| 5.690 | 6.197 | -0.507 |
| 5.610 | 6.014 | -0.404 |
| 6.092 | 6.014 | 0.078 |
| 5.552 | 5.890 | -0.338 |
| 6.507 | 6.197 | 0.310 |
| 6.361 | 6.197 | 0.164 |
| 6.004 | 5.890 | 0.114 |
| 5.773 | 5.831 | -0.057 |
| 6.275 | 5.890 | 0.385 |
| 6.175 | 6.197 | -0.022 |
| 6.080 | 6.227 | -0.147 |
| 5.925 | 6.014 | -0.088 |
| 6.033 | 6.197 | -0.164 |
| 6.013 | 6.197 | -0.184 |
| 6.203 | 6.197 | 0.006 |
| 5.921 | 6.197 | -0.276 |
| 5.796 | 5.890 | -0.093 |
| 5.862 | 5.890 | -0.028 |
| 5.837 | 6.043 | -0.206 |
| 6.114 | 6.197 | -0.083 |
| 5.636 | 5.860 | -0.224 |
| 6.284 | 6.227 | 0.057 |
| 6.202 | 6.014 | 0.188 |
| 6.185 | 6.014 | 0.171 |
| 6.179 | 6.014 | 0.165 |
| 6.013 | 6.014 | -0.001 |
| 5.901 | 6.014 | -0.113 |
| 6.003 | 6.197 | -0.194 |
| 5.573 | 6.014 | -0.441 |
| 5.713 | 5.831 | -0.117 |
| 6.094 | 6.197 | -0.103 |
| 6.428 | 6.197 | 0.231 |
| 5.988 | 6.014 | -0.025 |
| 6.344 | 6.197 | 0.147 |
| 5.956 | 6.073 | -0.117 |
| 6.498 | 6.197 | 0.301 |
| 6.490 | 6.227 | 0.264 |
| 6.467 | 6.197 | 0.270 |
| 6.507 | 6.197 | 0.310 |
| 6.170 | 6.197 | -0.027 |
| 6.330 | 6.014 | 0.316 |
| 6.347 | 6.197 | 0.150 |
| 5.793 | 5.831 | -0.038 |
| 6.176 | 6.197 | -0.021 |
| 6.303 | 6.197 | 0.106 |
| 6.450 | 6.197 | 0.253 |
| 6.498 | 6.197 | 0.301 |
| 6.408 | 6.197 | 0.211 |
| 6.466 | 6.197 | 0.269 |
| 6.393 | 6.197 | 0.196 |
| 5.990 | 6.014 | -0.024 |
| 6.042 | 5.890 | 0.152 |
| 5.858 | 5.860 | -0.002 |
| 6.026 | 5.831 | 0.195 |
| 5.908 | 6.014 | -0.105 |
| 5.555 | 5.831 | -0.276 |
| 6.053 | 6.014 | 0.039 |
| 6.027 | 6.197 | -0.170 |
| 6.223 | 6.227 | -0.003 |
| 6.316 | 6.197 | 0.119 |
| 6.182 | 6.197 | -0.015 |
| 5.919 | 5.831 | 0.088 |
| 6.352 | 6.197 | 0.155 |
| 6.373 | 6.197 | 0.176 |
| 6.309 | 6.197 | 0.112 |
| 6.242 | 6.197 | 0.045 |
| 6.293 | 6.227 | 0.066 |
| 5.896 | 5.831 | 0.065 |
| 6.136 | 6.197 | -0.061 |
| 6.069 | 6.014 | 0.055 |
| 6.263 | 6.043 | 0.219 |
| 5.710 | 5.831 | -0.121 |
| 6.252 | 6.197 | 0.055 |
| 6.005 | 6.043 | -0.038 |
| 5.931 | 5.831 | 0.100 |
| 6.338 | 6.197 | 0.141 |
| 6.357 | 6.197 | 0.160 |
| 6.456 | 6.197 | 0.259 |
| 6.309 | 6.197 | 0.112 |
| 6.450 | 6.197 | 0.253 |
| 6.661 | 6.197 | 0.464 |
| 6.444 | 6.014 | 0.430 |
| 6.025 | 6.014 | 0.011 |
| 5.332 | 6.014 | -0.682 |
| 6.194 | 6.197 | -0.003 |
| 6.029 | 6.197 | -0.168 |
| 6.318 | 6.197 | 0.121 |
| 5.981 | 6.014 | -0.033 |
| 6.261 | 6.227 | 0.034 |
| 6.140 | 6.197 | -0.057 |
| 6.623 | 6.197 | 0.426 |
| 5.672 | 5.831 | -0.159 |
| 6.199 | 6.197 | 0.002 |
| 6.209 | 6.197 | 0.012 |
| 6.122 | 5.831 | 0.291 |
| 5.960 | 5.831 | 0.130 |
| 6.038 | 6.043 | -0.005 |
| 5.906 | 6.197 | -0.291 |
| 6.165 | 6.197 | -0.032 |
| 6.083 | 6.197 | -0.114 |
| 6.499 | 6.197 | 0.302 |
| 6.044 | 5.890 | 0.154 |
| 5.829 | 5.831 | -0.002 |
| 6.082 | 6.197 | -0.115 |
| 5.844 | 6.043 | -0.199 |
| 6.225 | 6.014 | 0.211 |
| 5.547 | 6.014 | -0.467 |
| 6.334 | 6.197 | 0.137 |
| 6.530 | 6.197 | 0.333 |
| 6.380 | 6.073 | 0.307 |
| 6.404 | 6.197 | 0.207 |
| 6.407 | 6.197 | 0.210 |
| 6.124 | 6.014 | 0.110 |
| 6.338 | 5.831 | 0.508 |
| 6.017 | 6.014 | 0.003 |
| 6.310 | 6.197 | 0.113 |
| 6.137 | 6.197 | -0.060 |
| 5.993 | 6.014 | -0.020 |
| 6.129 | 6.014 | 0.115 |
| 5.712 | 6.014 | -0.301 |
| 6.339 | 6.197 | 0.142 |
| 6.231 | 6.014 | 0.217 |
| 6.057 | 6.197 | -0.140 |
| 5.762 | 5.831 | -0.069 |
| 6.052 | 6.197 | -0.145 |
| 5.991 | 6.014 | -0.023 |
| 5.569 | 6.227 | -0.657 |
| 6.432 | 6.197 | 0.235 |
| 5.904 | 6.197 | -0.293 |
| 6.240 | 6.014 | 0.226 |
| 6.307 | 6.197 | 0.110 |
| 5.735 | 6.227 | -0.492 |
| 6.075 | 6.014 | 0.061 |
| 6.052 | 6.043 | 0.009 |
| 6.332 | 6.197 | 0.135 |
| 5.904 | 6.014 | -0.110 |
| 6.037 | 6.197 | -0.160 |
| 6.307 | 6.043 | 0.264 |
| 6.410 | 6.197 | 0.213 |
| 5.821 | 6.197 | -0.376 |
| 6.064 | 6.197 | -0.133 |
| 6.018 | 6.014 | 0.004 |
| 5.506 | 5.890 | -0.383 |
| 6.148 | 6.197 | -0.049 |
| 6.497 | 6.197 | 0.300 |
| 5.531 | 5.831 | -0.300 |
| 5.801 | 6.043 | -0.243 |
| 6.073 | 6.197 | -0.124 |
| 5.738 | 5.831 | -0.093 |
| 6.164 | 6.197 | -0.033 |
| 5.871 | 6.197 | -0.326 |
| 6.321 | 6.014 | 0.307 |
| 5.817 | 6.014 | -0.196 |
| 6.046 | 6.197 | -0.151 |
| 5.806 | 5.890 | -0.084 |
| 6.464 | 6.197 | 0.267 |
| 5.912 | 5.860 | 0.052 |
| 6.122 | 6.197 | -0.075 |
| 6.024 | 6.197 | -0.173 |
| 6.061 | 6.197 | -0.136 |
| 6.420 | 6.197 | 0.223 |
| 6.516 | 6.197 | 0.319 |
| 6.377 | 6.197 | 0.180 |
| 6.022 | 6.197 | -0.175 |
| 6.250 | 6.197 | 0.053 |
| 6.340 | 6.197 | 0.143 |
| 6.625 | 6.197 | 0.428 |
| 5.497 | 6.014 | -0.517 |
| 6.117 | 6.197 | -0.080 |
| 5.883 | 6.014 | -0.131 |
| 5.861 | 5.860 | 0.001 |
| 6.203 | 5.890 | 0.313 |
| 5.914 | 5.860 | 0.054 |
| 5.987 | 5.890 | 0.098 |
| 5.645 | 6.197 | -0.552 |
| 6.112 | 6.197 | -0.085 |
| 6.284 | 6.197 | 0.087 |
| 6.243 | 6.014 | 0.230 |
| 5.949 | 6.014 | -0.065 |
| 6.014 | 5.860 | 0.154 |
| 6.150 | 6.014 | 0.136 |
| 5.850 | 6.227 | -0.376 |
| 5.790 | 6.014 | -0.224 |
| 5.865 | 6.197 | -0.332 |
| 5.218 | 5.831 | -0.613 |
| 5.858 | 6.014 | -0.155 |
| 5.618 | 6.014 | -0.396 |
| 5.962 | 6.043 | -0.081 |
| 5.940 | 6.197 | -0.257 |
| 5.657 | 6.197 | -0.540 |
| 5.423 | 5.831 | -0.408 |
| 5.675 | 6.014 | -0.339 |
| 5.860 | 5.831 | 0.030 |
| 5.845 | 6.014 | -0.168 |
| 6.336 | 6.197 | 0.139 |
| 6.431 | 6.014 | 0.417 |
| 5.988 | 6.227 | -0.239 |
| 5.309 | 6.043 | -0.734 |
| 6.163 | 6.197 | -0.034 |
| 5.984 | 5.831 | 0.154 |
| 6.069 | 6.197 | -0.128 |
| 6.513 | 6.197 | 0.316 |
| 6.283 | 6.197 | 0.086 |
| 6.074 | 5.831 | 0.243 |
| 6.052 | 6.014 | 0.038 |
| 6.006 | 5.890 | 0.116 |
| 5.563 | 5.831 | -0.268 |
| 5.907 | 6.043 | -0.137 |
| 6.280 | 6.197 | 0.083 |
Bu çalışmada, modele ilişkin gerçekte gözlemlenen değerler (Gerçek), model tarafından tahmin edilen değerler (Yordanan) ve modelin açıklayamadığı hata bileşenleri (Artık) analiz edilmiştir.
Gerçek değerler ile yordanan değerler arasındaki farkların KÜÇÜK olması → modelin veriye iyi uyum sağladığının bir göstergesi olarak değerlendirilmektedir.
Tablo 45’te görüldüğü üzere → Gerçek değerler ile Yordanan değerler arasında genel olarak yakınlık bulunmakta olup, Artık değerlerin sıfıra yakın seyretmesi modelin tahmin başarısının yüksek olduğunu göstermektedir.
Artık değerlerin ortalamasının sıfıra yakın olması → modelin sapmasız tahmin ürettiği yönünde yorumlanabilir.
Gerçek ve yordanan değerler arasındaki bu uyum → regresyon modelinin doğrusal ilişkileri makul bir düzeyde temsil ettiğini desteklemektedir.
Sonuç olarak, Gerçek-Yordanan-Artık değerler üzerinden yapılan analizler → modelin geçerliği ve güvenirliği konusunda olumlu bulgular sunmuştur.
Artık değerler → sıfıra yakın olduğundan → homoskedastisite varsayımı desteklenmektedir.
library(dplyr)
library(outliers)
library(kableExtra)
yordanan_s <- model$fitted.values %>% scores(type = "z")
artik_s <- model$residuals %>% scores(type = "z")
data.frame(Yordanan_Z_Skoru = yordanan_s, Artık_Z_Skoru = artik_s) %>% round(3) %>% kable(format = "html", caption = "Tablo 46. Yordanan ve Artık Değerlerin Z Skorları Tablosu", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:2, bold = F) %>% scroll_box(height = "300px")| Yordanan_Z_Skoru | Artık_Z_Skoru |
|---|---|
| 0.898 | 1.591 |
| 0.898 | 1.291 |
| 0.898 | 1.716 |
| 0.898 | 2.130 |
| -1.268 | 0.154 |
| -1.477 | 0.277 |
| 0.898 | -1.212 |
| -1.477 | 0.821 |
| -0.393 | -0.301 |
| -1.685 | 0.794 |
| -1.268 | 1.725 |
| -1.477 | 0.223 |
| -1.685 | -1.456 |
| 0.898 | -1.229 |
| -1.685 | -1.956 |
| 0.898 | -1.520 |
| 0.898 | 0.202 |
| 0.898 | 0.268 |
| -0.393 | 0.506 |
| 0.898 | -0.708 |
| -1.685 | 0.851 |
| 0.898 | -0.512 |
| -1.477 | 1.653 |
| 0.898 | -0.042 |
| 0.898 | -2.136 |
| -0.393 | -0.117 |
| -0.393 | 0.338 |
| -1.685 | 0.142 |
| -0.393 | -0.641 |
| 0.898 | -0.497 |
| 0.898 | -2.086 |
| 0.898 | -0.381 |
| -0.393 | -0.198 |
| -0.393 | 0.382 |
| -1.685 | 0.397 |
| 1.107 | -0.485 |
| 0.898 | 0.440 |
| -0.393 | 0.394 |
| -1.685 | -0.440 |
| 0.898 | 0.717 |
| -0.393 | 0.164 |
| -0.393 | 1.538 |
| -1.477 | 0.523 |
| -0.393 | 0.826 |
| 0.898 | 0.506 |
| 0.898 | 0.998 |
| -1.477 | -0.666 |
| -0.393 | 0.551 |
| 0.898 | 0.779 |
| -0.393 | 0.968 |
| -0.393 | 1.216 |
| 0.898 | -0.461 |
| 0.898 | -0.495 |
| 0.898 | 0.204 |
| 0.898 | -1.340 |
| 0.898 | 0.647 |
| -0.393 | -1.187 |
| -0.393 | 0.710 |
| 0.898 | 0.974 |
| -0.393 | 1.424 |
| -0.185 | -0.863 |
| -0.393 | -1.047 |
| -0.393 | -0.866 |
| 0.898 | -0.753 |
| -0.393 | -0.357 |
| -0.185 | 1.495 |
| -1.685 | 1.889 |
| -0.393 | -0.183 |
| -1.685 | -0.284 |
| -1.685 | -1.629 |
| -0.393 | -0.346 |
| 0.023 | 0.251 |
| -1.685 | -0.958 |
| -1.268 | -0.887 |
| 0.898 | -1.788 |
| -1.685 | 0.848 |
| -1.477 | -0.107 |
| -1.685 | -0.912 |
| 0.898 | 0.393 |
| -0.185 | -1.083 |
| 0.898 | 0.257 |
| -1.685 | 0.631 |
| 0.898 | 0.093 |
| -1.477 | 1.912 |
| 0.898 | 0.039 |
| -0.185 | -0.322 |
| 0.898 | -0.408 |
| 0.898 | -0.515 |
| 0.898 | 0.418 |
| -1.685 | -0.377 |
| -1.685 | -0.570 |
| 0.898 | -0.187 |
| 0.898 | -2.331 |
| 0.898 | -0.508 |
| 0.898 | 0.859 |
| -0.393 | 0.191 |
| -1.477 | 0.288 |
| -1.685 | 1.912 |
| 0.898 | 0.142 |
| 0.898 | 0.115 |
| -0.393 | 0.023 |
| 0.898 | -2.200 |
| -0.393 | -1.754 |
| -0.393 | 0.339 |
| -1.268 | -1.466 |
| 0.898 | 1.346 |
| 0.898 | 0.714 |
| -1.268 | 0.496 |
| -1.685 | -0.249 |
| -1.268 | 1.673 |
| 0.898 | -0.096 |
| 1.107 | -0.638 |
| -0.393 | -0.384 |
| 0.898 | -0.711 |
| 0.898 | -0.799 |
| 0.898 | 0.026 |
| 0.898 | -1.196 |
| -1.268 | -0.404 |
| -1.268 | -0.121 |
| -0.185 | -0.896 |
| 0.898 | -0.362 |
| -1.477 | -0.973 |
| 1.107 | 0.249 |
| -0.393 | 0.816 |
| -0.393 | 0.743 |
| -0.393 | 0.716 |
| -0.393 | -0.005 |
| -0.393 | -0.492 |
| 0.898 | -0.842 |
| -0.393 | -1.914 |
| -1.685 | -0.509 |
| 0.898 | -0.449 |
| 0.898 | 1.001 |
| -0.393 | -0.111 |
| 0.898 | 0.639 |
| 0.023 | -0.507 |
| 0.898 | 1.306 |
| 1.107 | 1.144 |
| 0.898 | 1.174 |
| 0.898 | 1.345 |
| 0.898 | -0.118 |
| -0.393 | 1.374 |
| 0.898 | 0.651 |
| -1.685 | -0.165 |
| 0.898 | -0.091 |
| 0.898 | 0.459 |
| 0.898 | 1.098 |
| 0.898 | 1.306 |
| 0.898 | 0.917 |
| 0.898 | 1.167 |
| 0.898 | 0.851 |
| -0.393 | -0.102 |
| -1.268 | 0.661 |
| -1.477 | -0.008 |
| -1.685 | 0.847 |
| -0.393 | -0.458 |
| -1.685 | -1.197 |
| -0.393 | 0.170 |
| 0.898 | -0.738 |
| 1.107 | -0.013 |
| 0.898 | 0.515 |
| 0.898 | -0.067 |
| -1.685 | 0.384 |
| 0.898 | 0.672 |
| 0.898 | 0.766 |
| 0.898 | 0.486 |
| 0.898 | 0.197 |
| 1.107 | 0.286 |
| -1.685 | 0.284 |
| 0.898 | -0.265 |
| -0.393 | 0.239 |
| -0.185 | 0.953 |
| -1.685 | -0.524 |
| 0.898 | 0.238 |
| -0.185 | -0.165 |
| -1.685 | 0.436 |
| 0.898 | 0.611 |
| 0.898 | 0.693 |
| 0.898 | 1.123 |
| 0.898 | 0.485 |
| 0.898 | 1.097 |
| 0.898 | 2.016 |
| -0.393 | 1.869 |
| -0.393 | 0.047 |
| -0.393 | -2.960 |
| 0.898 | -0.014 |
| 0.898 | -0.731 |
| 0.898 | 0.524 |
| -0.393 | -0.142 |
| 1.107 | 0.149 |
| 0.898 | -0.248 |
| 0.898 | 1.851 |
| -1.685 | -0.690 |
| 0.898 | 0.010 |
| 0.898 | 0.054 |
| -1.685 | 1.265 |
| -1.685 | 0.563 |
| -0.185 | -0.021 |
| 0.898 | -1.263 |
| 0.898 | -0.139 |
| 0.898 | -0.495 |
| 0.898 | 1.311 |
| -1.268 | 0.668 |
| -1.685 | -0.007 |
| 0.898 | -0.500 |
| -0.185 | -0.866 |
| -0.393 | 0.917 |
| -0.393 | -2.026 |
| 0.898 | 0.594 |
| 0.898 | 1.447 |
| 0.023 | 1.332 |
| 0.898 | 0.899 |
| 0.898 | 0.912 |
| -0.393 | 0.478 |
| -1.685 | 2.205 |
| -0.393 | 0.014 |
| 0.898 | 0.492 |
| 0.898 | -0.260 |
| -0.393 | -0.089 |
| -0.393 | 0.500 |
| -0.393 | -1.309 |
| 0.898 | 0.617 |
| -0.393 | 0.941 |
| 0.898 | -0.610 |
| -1.685 | -0.298 |
| 0.898 | -0.628 |
| -0.393 | -0.100 |
| 1.107 | -2.853 |
| 0.898 | 1.021 |
| 0.898 | -1.270 |
| -0.393 | 0.980 |
| 0.898 | 0.478 |
| 1.107 | -2.136 |
| -0.393 | 0.266 |
| -0.185 | 0.039 |
| 0.898 | 0.588 |
| -0.393 | -0.477 |
| 0.898 | -0.693 |
| -0.185 | 1.146 |
| 0.898 | 0.925 |
| 0.898 | -1.634 |
| 0.898 | -0.578 |
| -0.393 | 0.019 |
| -1.268 | -1.664 |
| 0.898 | -0.214 |
| 0.898 | 1.304 |
| -1.685 | -1.302 |
| -0.185 | -1.054 |
| 0.898 | -0.537 |
| -1.685 | -0.402 |
| 0.898 | -0.145 |
| 0.898 | -1.416 |
| -0.393 | 1.334 |
| -0.393 | -0.853 |
| 0.898 | -0.655 |
| -1.268 | -0.365 |
| 0.898 | 1.160 |
| -1.477 | 0.224 |
| 0.898 | -0.324 |
| 0.898 | -0.752 |
| 0.898 | -0.591 |
| 0.898 | 0.967 |
| 0.898 | 1.383 |
| 0.898 | 0.781 |
| 0.898 | -0.758 |
| 0.898 | 0.229 |
| 0.898 | 0.621 |
| 0.898 | 1.857 |
| -0.393 | -2.244 |
| 0.898 | -0.346 |
| -0.393 | -0.568 |
| -1.477 | 0.004 |
| -1.268 | 1.360 |
| -1.477 | 0.235 |
| -1.268 | 0.423 |
| 0.898 | -2.398 |
| 0.898 | -0.370 |
| 0.898 | 0.378 |
| -0.393 | 0.997 |
| -0.393 | -0.281 |
| -1.477 | 0.667 |
| -0.393 | 0.591 |
| 1.107 | -1.633 |
| -0.393 | -0.973 |
| 0.898 | -1.442 |
| -1.685 | -2.662 |
| -0.393 | -0.674 |
| -0.393 | -1.720 |
| -0.185 | -0.352 |
| 0.898 | -1.114 |
| 0.898 | -2.345 |
| -1.685 | -1.770 |
| -0.393 | -1.472 |
| -1.685 | 0.129 |
| -0.393 | -0.731 |
| 0.898 | 0.602 |
| -0.393 | 1.811 |
| 1.107 | -1.036 |
| -0.185 | -3.188 |
| 0.898 | -0.147 |
| -1.685 | 0.668 |
| 0.898 | -0.556 |
| 0.898 | 1.371 |
| 0.898 | 0.372 |
| -1.685 | 1.056 |
| -0.393 | 0.164 |
| -1.268 | 0.503 |
| -1.685 | -1.162 |
| -0.185 | -0.593 |
| 0.898 | 0.362 |
Yordanan ve Artık Değerlerin Z Skorlarına İlişkin Bulgular
Tablo 46 incelendiğinde, regresyon modelinden elde edilen yordanan değerlerin ve modelin artık değerlerinin standartlaştırılmış z-puanlarına dönüştürülerek analiz edildiği görülmektedir.
Yordanan değerlerin z-puanlarının genel olarak -1.685 ile 0.898 arasında değiştiği → artık değerlerin z-puanlarının ise daha dar bir aralıkta ve -0.066 ile 0.677 arasında yoğunlaştığı tespit edilmiştir.
Bu durum, modele ilişkin öngörülerin (yordanan değerlerin) bireyler arasında daha geniş bir dağılım gösterdiğini → ancak hata terimlerinin (artık değerlerin) normal dağılım varsayımı çerçevesinde küçük ve merkezi dağıldığını göstermektedir.
Özellikle artık değerlerin z-puanlarının ±2 sınırları içinde kalması → modelde ciddi uç değer problemleri olmadığını ve modelin kalitesinin kabul edilebilir düzeyde olduğunu desteklemektedir.
Sonuç olarak → hem yordanan hem de artık değerlerin z-puanlarının dağılımı modelin temel varsayımlarından biri olan → hata terimlerinin normalliğini ve homojenliğini destekler niteliktedir.
Bu bulgular → oluşturulan regresyon modelinin → güvenirliği artırmakta ve sonraki analizlerin geçerliğine → olumlu katkı sağlamaktadır.
Model grafikleri dört farklı şekilde göstermektedir:
Artıklar ve Yordanan Değerler: Doğrusal ilişki varsayımlarını kontrol etmek için kullanılır. Belirgin desenleri olmayan yatay bir çizgi, doğrusal bir ilişkinin göstergesidir.
Normal Q-Q. Artıkların normal dağılıp dağılmadığını incelemek için kullanılır. Artık noktalarının düz kesikli çizgiyi takip etmesi beklenir.
Ölçek-Konum (veya Yayılma-Konum). Artıkların varyansının homojenliğini (homoscedasticity) kontrol etmek için kullanılır. Eşit yayılmış noktalara sahip yatay çizgi, homoscedasticity’nin iyi bir göstergesidir.
Artıklar ve Kaldıraç/Leverage Etkili gözlemleri, yani analize dahil edildiğinde veya analizden çıkarıldığında regresyon sonuçlarını etkileyebilecek uç değerleri belirlemek için kullanılır.
Regresyon Modeline İlişkin Tanı Grafikleri Bulguları
Regresyon tanı grafikleri → modelin temel varsayımlarının (normallik, doğrusallık, varyans homojenliği ve aykırı gözlemler) değerlendirilmesi amacıyla incelenmiştir.
İlk olarak → “Residuals vs Fitted” grafiği incelendiğinde → artıkların saçılımının yatay eksende rastgele ve belirgin bir desen göstermeden dağıldığı gözlenmektedir.
İkinci olarak → “Normal Q-Q” grafiği incelendiğinde → artık değerlerin teorik kuantil çizgisi etrafında büyük ölçüde doğrusal bir dağılım sergilediği görülmektedir.
Üçüncü olarak → “Scale-Location” grafiği → standartlaştırılmış artıkların tahmin edilen değerlere karşı karekökü alınmış şekilde dağılımını göstermektedir.
Son olarak → “Residuals vs Leverage” grafiği → aykırı gözlem ve yüksek etki değerine sahip gözlemleri incelemek için kullanılmıştır.
Bu sonuçlar genel olarak regresyon modelinin → temel varsayımlarının büyük ölçüde karşılandığını ve modelin güvenilir bir şekilde yorumlanabileceğini göstermektedir.
Regresyon Modeline İlişkin Gelişmiş Tanı Grafikleri Bulguları
ggfortify paketi kullanılarak oluşturulan → gelişmiş regresyon tanı grafikleri sunulmaktadır.
İlk olarak → “Residuals vs Fitted” grafiği incelendiğinde → artıkların yatay eksen boyunca rastgele bir desen göstermediği, ancak genel anlamda sabit varyans varsayımını destekleyecek şekilde homojen bir dağılım sergilediği görülmektedir.
Ancak bazı uç noktalarda hafif sapmalar gözlemlenmiştir.
İkinci olarak → “Normal Q-Q” grafiği incelendiğinde → standartlaştırılmış artıkların teorik normal dağılım doğrusu etrafında konumlandığı, uç değerlerde ise sınırlı sapmalar bulunduğu görülmektedir.
Üçüncü olarak → “Scale-Location” grafiği → artıkların tahmin edilen değerlere göre karekökü alınmış sapmalarının dağılımını göstermektedir.
Son olarak → “Residuals vs Leverage” grafiğinde → modelin etkili (influential) veri noktalarına duyarlılığı analiz edilmiştir.
Grafikte dikkat çekici kaldıraç etkisine sahip aşırı aykırı gözlemler bulunmamaktadır.
Bu durum → modelin herhangi bir bireysel gözlemden aşırı derecede etkilenmediğini göstermektedir.
Genel olarak bu bulgular → regresyon modelinin temel varsayımlarının büyük ölçüde karşılandığını ve modelin güvenilir sonuçlar üretebileceğini ortaya koymaktadır.
Regresyon katsayılarından her birinin → istatistiksel olarak sıfırdan farklı olup olmadığı test edilebilir.
Bu durumda regresyon katsayılarına ilişkin test edilecek → sıfır hipotezleri aşağıdaki gibidir:
H0 : β1 = 0 - Kaygı düzeyleri eşit olan öğrenciler için algı düzeylerindeki farklılıklar sevme düzeylerinde farklılığa yol açmaz.
H0 : β2 = 0 - Algı düzeyleri eşit olan öğrenciler için kaygı düzeylerindeki farklılıklar sevme düzeylerinde farklılığa yol açmaz.
Hipotez testlerine ilişkin t istatistiği → standartlaştırılmamış regresyon katsayılarının standart hatalarına bölünmesi ile hesaplanır.
library(broom)
library(dplyr)
library(kableExtra)
tidy(model) %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 47. Regresyon Modeli Katsayılarının Özeti", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:5, bold = F) %>% scroll_box(height = "300px")| term | estimate | std.error | statistic | p.value |
|---|---|---|---|---|
| (Intercept) | 6.351 | 0.037 | 170.777 | 0.000 |
| algi | 0.030 | 0.026 | 1.137 | 0.256 |
| kaygi | -0.183 | 0.018 | -10.303 | 0.000 |
Regresyon Modeli Katsayılarının İstatistiksel Yorumlanması
Araştırmada gerçekleştirilen → regresyon analizine ilişkin bulgular Tablo 47’de sunulmaktadır.
Modelde bağımlı değişken olarak → “sevme_log”, bağımsız değişkenler olarak ise → “algı” ve “kaygı” değişkenleri kullanılmıştır.
Analiz sonuçlarına göre → regresyon modelinin sabit terimi manidar bulunmuş (\(B = 6.351\), \(*p* < .001\)) → bu durum diğer değişkenlerin etkisi sıfır olduğunda sevme_log değerinin ortalama 6.351 civarında olacağını göstermektedir.
Bağımsız değişkenlerden “algı” değişkeninin regresyon katsayısı 0.030 olup → bu değişkenin etkisi istatistiksel olarak manidar bulunMAmıştır (\(*p* = .256\)).
Bu sonuç, algı düzeyindeki değişimlerin sevme_log değişkeni üzerinde → manidar bir etkisinin olmadığını göstermektedir.
Diğer yandan, “kaygı” değişkeni için elde edilen regresyon katsayısı → -0.183 olup → istatistiksel olarak manidar bulunmuştur (\(*p* < .001\)).
Bu bulgu, kaygı düzeyindeki her bir birimlik ARTIŞIN sevme_log puanında yaklaşık 0.183 birimlik bir AZALIŞA neden olduğunu ortaya koymaktadır.
Modelin genel olarak manidar olduğu ve açıklayıcılığının güçlü olduğu görülmektedir.
Ayrıca katsayıların işaretleri ve büyüklükleri → değişkenler arasındaki beklenen teorik ilişkilerle örtüşmektedir.
Bu bulgular ışığında, kaygı düzeyinin AZALTILMASI yönünde geliştirilecek müdahale programlarının sevme düzeyinin ARTIRILMASINDA önemli bir katkı sağlayabileceği söylenebilir.
## [1] 1.153846
Regresyon Katsayılarının Standart Hatasına Oranı ve İstatistiksel Yorum
Araştırmada “algı” değişkeninin regresyon katsayısının (\(B = 0.030\)) kendi standart hatasına (\(SE = 0.026\)) oranı hesaplanmıştır.
Bu oran → yaklaşık 1.154 olarak bulunmuştur.
Regresyon katsayısının → standart hatasına bölünmesiyle elde edilen bu değer → temel olarak ilgili katsayının anlamlılığını test etmek için kullanılan t istatistiğini temsil etmektedir.
Bu durumda → 1.154 değerindeki t istatistiği, “algı” değişkeninin bağımlı değişken olan sevme_log üzerindeki etkisinin → istatistiksel olarak manidar olMAdığını göstermektedir.
Çünkü genel bir kural olarak → bir t değerinin mutlak değeri 1.96’nın altında ise (\(*p* > .05\) düzeyinde) → ilgili değişkenin bağımlı değişken üzerinde manidar bir etkisinin bulunmadığı kabul edilir.
Dolayısıyla bu sonuç → “algı” değişkeninin sevme_log değişkeni üzerindeki etkisinin → istatistiksel olarak desteklenMEdiğini ve modeldeki etkisinin manidar düzeye ulaşmadığını ortaya koymaktadır.
Bu bulgu → modelin açıklayıcı gücünü değerlendirirken “algı” değişkeninin etkisinin → dikkatli yorumlanması gerektiğini ve özellikle kaygı değişkeninin etkisinin daha belirgin olduğunu göstermektedir.
library(lavaan)
library(lavaanPlot)
model_1 <- 'sevme_log ~ algi + degerverme'
fit1 <- sem(model_1, data = temiz_veri)
summary(fit1)## lavaan 0.6-19 ended normally after 1 iteration
##
## Estimator ML
## Optimization method NLMINB
## Number of model parameters 3
##
## Number of observations 310
##
## Model Test User Model:
##
## Test statistic 0.000
## Degrees of freedom 0
##
## Parameter Estimates:
##
## Standard errors Standard
## Information Expected
## Information saturated (h1) model Structured
##
## Regressions:
## Estimate Std.Err z-value P(>|z|)
## sevme_log ~
## algi -0.076 0.028 -2.767 0.006
## degerverme -0.012 0.054 -0.231 0.818
##
## Variances:
## Estimate Std.Err z-value P(>|z|)
## .sevme_log 0.071 0.006 12.450 0.000
library(dplyr)
library(kableExtra)
fit1_results <- data.frame( Değişken = c("algı", "değerverme"), Katsayı = c(-0.076, -0.012), Std_Hata = c(0.028, 0.054), z_değeri = c(-2.767, -0.231), p_değeri = c(0.006, 0.818))
fit1_results %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 48. SEM Modeli Regresyon Katsayıları (sevme_log ~ algı + değerverme)", align = "c", digits = 3) %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:5, bold = F) %>% scroll_box(height = "300px")| Değişken | Katsayı | Std_Hata | z_değeri | p_değeri |
|---|---|---|---|---|
| algı | -0.076 | 0.028 | -2.767 | 0.006 |
| değerverme | -0.012 | 0.054 | -0.231 | 0.818 |
Bu çalışmada → değişkenler arasındaki yapısal ilişkiyi test etmek amacıyla oluşturulan modelde (sevme_log ~ algı + değerverme) yapısal eşitlik modeli analizi gerçekleştirilmiştir.
Analiz sonuçlarına göre → modelin serbestlik derecesi sıfır olup (\(df = 0\)) modelin → MÜKEMMEL uyum sağladığı gözlenmiştir.
Bunun nedeni → modeldeki gözlenen kovaryansların, model tarafından tam olarak açıklanmasıdır.
Regresyon katsayıları incelendiğinde, algı değişkeninin → sevme_log değişkeni üzerinde manidar ve NEGATİF bir etkisinin olduğu bulunmuştur (\(β = -0.076\), \(SE = 0.028\), \(z = -2.767\), \(*p* = 0.006\)).
Bu sonuç, algı düzeyi arttıkça → sevme_log düzeyinin istatistiksel olarak manidar bir şekilde azaldığını göstermektedir.
Buna karşın, değerverme değişkeninin → sevme_log üzerinde manidar bir etkisi bulunmamıştır (\(β = -0.012\), \(SE = 0.054\), \(z = -0.231\), \(*p* = 0.818\)).
Bu bulgu, değerverme düzeyinin sevme_log üzerinde → manidar bir yordayıcı olmadığını göstermektedir.
Modelde açıklanan varyans değerine bakıldığında, sevme_log değişkenine ait hata varyansının 0.071 olduğu görülmektedir (\(SE = 0.006\), \(z = 12.450\), \(*p* < 0.001\)).
Özetle → yapılan yapısal eşitlik modeli analizi sonucunda sadece algı değişkeninin → sevme_log değişkeni üzerinde manidar ve NEGATİF yönde etkili olduğu bulunmuş, değerverme değişkeninin ise manidar bir etkisi bulunamamıştır.
Standart çözüm:
Yapısal eşitlik modellemesi (YEM) kapsamında oluşturulan → standartlaştırılmış çözüm diyagramına göre → algı ve değerverme değişkenlerinin → sevme_log üzerindeki etkileri değerlendirilmiştir.
Standartlaştırılmış katsayılar → değişkenler arasındaki ilişki şiddetini ve yönünü yorumlamada önemli bir ölçüttür.
Modelde, algı değişkeninin sevme_log değişkeni üzerindeki standartlaştırılmış doğrudan etkisinin → \(β = -0.16\) olduğu görülmektedir.
Bu değer, algı düzeyinde bir birimlik artışın → sevme_log düzeyinde 0.16 birimlik bir AZALIŞINA yol açtığını göstermektedir.
Etkinin negatif yönlü olması, algı arttıkça sevme eğiliminin azaldığını ortaya koymaktadır.
Ayrıca bu yolun istatistiksel olarak manidar olduğu daha önceki analizlerde de (\(*p* = 0.006\)) doğrulanmıştır.
Buna karşın, *değerverme** değişkeninin *sevme_log** üzerindeki standartlaştırılmış katsayısı model diyagramında verilmiş olmasına rağmen, anlamlılık testi sonuçlarına göre → bu etki istatistiksel olarak manidar bulunMAmıştır (\(*p* = 0.818\)).
Diyagramda yönler ve katsayılarla gösterilen bu yapısal ilişkilere göre → modelin sevme_log değişkeninin varyansının açıklanmasında algı değişkeninin daha güçlü bir katkı sağladığı → değerverme değişkeninin ise manidar bir yordayıcı olmadığı anlaşılmaktadır.
Standartlaştırılmış katsayıların yorumu → değişkenler arasındaki ilişkilerin kıyaslanabilmesi açısından avantaj sağlar ve yorumları güçlendirir.
Standart olmayan çözüm:
Yapısal eşitlik modellemesi (YEM) sonuçlarına göre, standartlaştırılmamış katsayılar kullanılarak oluşturulan yol diyagramında algı ve değerverme değişkenlerinin sevme_log üzerindeki etkileri analiz edilmiştir.
Standart olmayan çözüm, ham birimlerle ifade edilen ilişki katsayılarını göstermekte olup, değişkenlerin özgün ölçüm birimleri korunmaktadır.
Diyagramda, algı değişkeninin sevme_log üzerindeki doğrudan etkisi -0.08 olarak görülmektedir.
Bu değer, algı değişkenindeki bir birimlik ARTIŞIN sevme_log puanında 0.08 birimlik bir azalmaya yol açtığını göstermektedir.
Etkinin negatif yönlü olması, algı düzeyindeki ARTIŞIN sevme eğilimini AZALTICI bir etkisi olduğunu düşündürmektedir.
Bu bulgu, standart çözümde elde edilen negatif ilişkiyi desteklemektedir.
Ancak standart olmayan katsayıların yorumu, değişkenlerin ölçüm ölçeklerine bağlı olduğundan doğrudan etki büyüklüklerinin karşılaştırılması açısından sınırlıdır.
Değerverme değişkeninin sevme_log üzerindeki etkisi bu diyagramda sayısal olarak gösterilmemiştir.
Ancak daha önceki analizlerde (\(*p* = 0.818\)) bu değişkenin sevme_log üzerinde manidar bir etkisinin bulunmadığı belirlenmiştir.
Yol şemeasını istediğiniz formata getirme:
library(semptools)
library(semPlot)
m <- matrix(c("algi", NA, "NA", NA, NA,
NA, NA, NA, NA, "sevme_log",
"degerverme", NA, NA, NA, NA), byrow = TRUE, 3, 5)
yol <- semPaths( fit1, whatLabels = "est", sizeMan = 10, edge.label.cex = 1.15, style = "lisrel", nCharNodes = 0, nCharEdges = 0, layout = m)Şekil üzerinde yer alan yapısal eşitlik modeline göre, algı ve değerverme değişkenlerinin sevme_log değişkeni üzerindeki etkileri analiz edilmiştir.
YEM yol diyagramında algı değişkeninin sevme_log üzerindeki etkisi -0.08 olarak gözlemlenmiştir.
Bu değer, algıdaki bir birimlik artışın sevme_log değişkeninde 0.08 birimlik bir azalmaya yol açtığını göstermektedir.
Negatif yönlü bu ilişki, algı düzeyinin artmasının sevme eğilimini azaltabileceği yönünde yorumlanabilir.
Öte yandan, değerverme değişkeninin sevme_log üzerindeki etkisi -0.01 olarak hesaplanmıştır.
Ancak bu katsayının çok küçük ve istatistiksel olarak manidar olmadığı daha önceki analizlerden anlaşılmaktadır (\(*p* = .818\)).
Diyagramda ayrıca algı ve değerverme değişkenleri arasındaki kovaryans ilişkisi de gösterilmiştir.
Bu durum, algı ve değerverme değişkenleri arasında manidar bir ilişki olmadığını işaret etmektedir.
Modelde parametreler standartlaştırılmadan (“unstandardized estimates”) raporlanmıştır ve yapısal ilişkilerin doğrudan regresyon katsayıları ile ifade edilmesi tercih edilmiştir.
Yol diyagramında gösterilen değerler, ilişkilerin yönünü ve büyüklüğünü açıkça ortaya koymakta; değişkenler arasındaki doğrudan etkileri anlamayı kolaylaştırmaktadır.
YEM sonuçları, modelde algı değişkeninin sevme_log üzerinde istatistiksel olarak manidar bir etkiye sahip olduğunu, değerverme değişkeninin ise manidar bir etkisinin bulunmadığını göstermektedir.
Bu bulgular, algı değişkeninin modele anlamlı katkı sağladığını, değerverme değişkeninin ise modelde sınırlı bir açıklayıcı güce sahip olduğunu desteklemektedir.
Anlamlılık düzeylerini ekleme:
Şekil üzerinde sunulan yapısal eşitlik modelinde, algı ve değerverme değişkenlerinin sevme_log üzerindeki etkileri istatistiksel anlamlılık düzeyleri ile birlikte gösterilmiştir.
Model çıktısına göre, algı değişkeninin sevme_log üzerindeki etkisi -0.08 olup, bu ilişki istatistiksel olarak anlamlı bulunmuştur (\(*p* < .01\)).
Bu sonuç, algı düzeyindeki bir birimlik ARTIŞIN sevme eğiliminde 0.08 birimlik bir AZALMAYA yol açtığını ve bu ilişkinin güvenilir bir şekilde desteklendiğini göstermektedir.
Yani, algının sevme eğilimi üzerinde negatif yönlü ve manidar bir etkisi olduğu söylenebilir.
Buna karşılık, değerverme değişkeninin sevme_log üzerindeki etkisi -0.01 olarak hesaplanmıştır ve bu ilişki istatistiksel olarak manidar bulunMAmıştır (\(*p* > .05\)).
Bu durum, değerverme algısının sevme eğilimi üzerinde manidar bir etkisinin olmadığını ortaya koymaktadır.
Ayrıca modelde, algı ve değerverme değişkenleri arasında POZİTİF yönde çok düşük bir kovaryans (0.01) bulunmakta, ancak bu ilişki de manidar düzeyde DEĞİLdir.
SEM modeli, yapısal yolların her birinin anlamlılık seviyelerine göre yıldızlarla işaretlenmesiyle daha net bir yorum sunmaktadır: *** ifadesi \(*p* < .001\) düzeyinde anlamlılığı, ** \(*p* < .01\) düzeyinde anlamlılığı ve * \(*p* < .05\) düzeyinde anlamlılığı göstermektedir.
Mevcut modelde yalnızca algı → sevme_log yolunda anlamlılık gözlemlenmiştir.
Bu bulgular, yapısal modelde algı değişkeninin sevme eğilimini açıklamada önemli bir rol oynadığını, buna karşın değerverme değişkeninin katkısının sınırlı olduğunu göstermektedir.
Bir regresyon modeline dahil edilebilecek çok sayıda değişken bulunduğunda, bu değişkenlerden en uygun regresyon eşitliğinin oluşturulması için değişken seçiminde çeşitli yöntemler vardır.
Aşamalı regresyon yöntemi her bağımsız değişkenin regresyon modeline katkısının incelenmesini sağlar.
Bu yönteme göre önce bağımlı değişkenle en yüksek korelasyona sahip bağımsız değişken seçilerek basit regresyon modeli kurulur.
Birinci regresyon eşitliğinden kalan hata varyansının istatistiksel olarak anlamlı kısmını en çok açıklayan bağımsız değişkeni bulmak için kısmi korelasyon katsayıları incelenir ve en yüksek kısmi korelasyon katsayısına sahip bağımsız değişken modele eklenir.
İki bağımsız değişken ile regresyon eşitliği yeniden hesaplanır ve eklenen değişkenin modele manidar katkısı olup olmadığı test edilir.
library(broom)
library(dplyr)
library(kableExtra)
tekdegisken <- lm(sevme_log ~ algi, data = temiz_veri)
glance(tekdegisken) %>% round(3) %>% kable(format = "html", caption = "Tablo 49. Tek Değişkenli Regresyon Modeli Özet Tablosu (sevme_log ~ algi)", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:ncol(glance(tekdegisken)), bold = F) %>% scroll_box(height = "300px")| r.squared | adj.r.squared | sigma | statistic | p.value | df | logLik | AIC | BIC | deviance | df.residual | nobs |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 0.024 | 0.021 | 0.268 | 7.684 | 0.006 | 1 | -30.229 | 66.457 | 77.667 | 22.059 | 308 | 310 |
Tek değişkenli regresyon analizi sonucunda, modelin belirleyicilik katsayısı (\(R^2\)) %2.4 olarak bulunmuştur (\(R^2 = 0.024\)).
Bu değer, bağımsız değişken olan algı düzeyinin bağımlı değişken olan sevme_log üzerinde açıklayabildiği varyansın oldukça DÜŞÜK düzeyde olduğunu göstermektedir.
Modele ilişkin düzeltilmiş belirleyicilik katsayısı (Adj. \(R^2\)) ise %2.1’dir (Adj. \(R^2\) = 0.021).
Elde edilen standart hata (σ) değeri 0.268 olup, modelin tahmin hatalarının DÜŞÜK düzeyde olduğunu göstermektedir.
Regresyon modelinin genel anlamlılığını test etmek amacıyla yapılan F testi sonucunda istatistiksel olarak manidar bir sonuç elde edilmiştir (\(F(1, 308) = 7.684\), \(*p* < .01\)).
Bu sonuç, modelde yer alan algı değişkeninin sevme_log değişkeni üzerinde manidar bir yordayıcı olduğunu ortaya koymaktadır.
Buna ek olarak, modelin log-likelihood değeri -30.229, AIC değeri 66.457 ve BIC değeri 77.667 olarak hesaplanmıştır.
Bu değerler, farklı modellerin karşılaştırılmasında kullanılabilecek uyum ölçütleri sunmaktadır.
library(broom)
library(dplyr)
library(kableExtra)
ikidegisken <- lm(sevme_log ~ algi + degerverme, data = temiz_veri)
glance(ikidegisken) %>% round(3) %>% kable(format = "html", caption = "Tablo 50. İki Değişkenli Regresyon Modeli Özet Tablosu (sevme_log ~ algi + degerverme)", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:ncol(glance(ikidegisken)), bold = F) %>% scroll_box(height = "300px")| r.squared | adj.r.squared | sigma | statistic | p.value | df | logLik | AIC | BIC | deviance | df.residual | nobs |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 0.025 | 0.018 | 0.268 | 3.856 | 0.022 | 2 | -30.202 | 68.404 | 83.351 | 22.055 | 307 | 310 |
İki değişkenli regresyon analizi sonucunda modelin belirleyicilik katsayısı (\(R^2\)) %2.5 olarak bulunmuştur (\(R^2 = 0.025\)).
Bu değer, bağımsız değişkenler olan algı ve değerverme düzeylerinin, bağımlı değişken olan sevme_log değişkeninin varyansının yalnızca %2.5’ini açıkladığını göstermektedir.
Modele ilişkin düzeltilmiş belirleyicilik katsayısı (Adj. \(R^2\)) ise %1.8’dir (Adj. \(R^2\) = 0.018), bu da örnekleme hatasından arındırılmış varyans açıklama oranının bir miktar daha DÜŞÜK olduğunu göstermektedir.
Modelin standart hata (σ) değeri 0.268 olarak hesaplanmış olup, hata varyansının görece DÜŞÜK seviyede olduğunu göstermektedir.
Modelin genel anlamlılığını test etmek amacıyla yapılan F testi sonucunda modelin istatistiksel olarak manidar olduğu görülmüştür (\(F(2, 307) = 3.856\), \(*p* < .05\)).
Bu sonuç, en az bir bağımsız değişkenin sevme_log değişkenini manidar bir şekilde yordadığını göstermektedir.
Ayrıca, modelin log-likelihood değeri -30.202, AIC değeri 68.404 ve BIC değeri 83.351 olarak bulunmuştur.
Özetle, algı ve değerverme değişkenleri birlikte sevme_log değişkeninin varyansının SINIRLI bir kısmını açıklamakta olup, modelin genel uyumu istatistiksel olarak manidar bulunmuştur.
Ancak açıklanan varyans oranı oldukça DÜŞÜKtür; bu durum, modele başka önemli yordayıcı değişkenlerin dahil edilmesinin gerekebileceğine işaret etmektedir.
library(broom)
library(dplyr)
library(kableExtra)
tum <- lm(sevme_log ~ algi + degerverme + kaygi, data = temiz_veri)
glance(tum) %>% round(3) %>% kable(format = "html", caption = "Tablo 51. Üç Değişkenli Regresyon Modeli Özet Tablosu (sevme_log ~ algi + degerverme + kaygi)", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:ncol(glance(tum)), bold = F) %>% scroll_box(height = "300px")| r.squared | adj.r.squared | sigma | statistic | p.value | df | logLik | AIC | BIC | deviance | df.residual | nobs |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 0.275 | 0.268 | 0.231 | 38.73 | 0 | 3 | 15.842 | -21.685 | -3.002 | 16.387 | 306 | 310 |
Üç değişkenli regresyon analizi sonucunda (sevme_log ~ algi + degerverme + kaygi) modelin belirleyicilik katsayısı (\(R^2\)) .275 olarak bulunmuştur (Tablo 51).
Bu değer, bağımlı değişken olan sevme_log değişkenindeki varyansın %27.5’inin algı, değerverme ve kaygı değişkenleri tarafından açıklandığını göstermektedir.
Modelin düzeltilmiş belirleyicilik katsayısı (adj. \(R^2\)) ise .268 olarak hesaplanmıştır; bu değer, modele eklenen serbestlik dereceleri (predictor sayısı) dikkate alındığında varyansın yaklaşık %26.8’inin açıklanabildiğini göstermektedir.
Regresyon modelinin anlamlılığı \(F(3, 306) = 38.73\), \(*p* < .001\) düzeyinde istatistiksel olarak manidar bulunmuştur.
Modelin standart hata değeri (sigma) .231 olup, modelin hata terimlerindeki yayılımın DÜŞÜK düzeyde olduğunu göstermektedir.
Sonuçlar, modelin manidar ve YETERLİ düzeyde açıklayıcılığa sahip olduğunu ortaya koymuştur.
library(broom)
library(dplyr)
library(kableExtra)
anova_1_2 <- tidy(anova(tekdegisken, ikidegisken))
anova_1_2 %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 52. Tek Değişkenli ve İki Değişkenli Model Karşılaştırması", align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "300px")| term | df.residual | rss | df | sumsq | statistic | p.value |
|---|---|---|---|---|---|---|
| sevme_log ~ algi | 308 | 22.059 | NA | NA | NA | NA |
| sevme_log ~ algi + degerverme | 307 | 22.055 | 1 | 0.004 | 0.053 | 0.819 |
Yapılan model karşılaştırmasında, tek değişkenli regresyon modeli (sevme_log ~ algi) ile iki değişkenli regresyon modeli (sevme_log ~ algi + degerverme) arasındaki fark anlamlılık bakımından test edilmiştir.
ANOVA çıktısına göre, model karşılaştırmasında eklenen “degerverme” değişkeni modele manidar bir katkı sağlamamıştır (\(F(1, 307) = 0.053\), \(*p* = .819\)).
Bu durum, “degerverme” değişkeninin bağımlı değişken olan “sevme_log” üzerinde ek bir açıklayıcılık sunmadığını göstermektedir.
Ayrıca her iki modelde de residual hata terimleri (RSS) birbirine oldukça yakın bulunmuş (22.059 ve 22.055), bu da modele eklenen değişkenin varyansın açıklanmasına kayda değer bir katkı yapmadığını desteklemektedir.
Literatüre göre model karşılaştırmalarında \(*p* > .05\) değeri, yeni değişkenin modele manidar bir iyileştirme getirmediğine işaret etmektedir.
Sonuç olarak, bu analiz bulguları “degerverme” değişkeninin regresyon modeline eklenmesinin gerekli olmadığını ortaya koymaktadır.
anova_2_3 <- tidy(anova(ikidegisken, tum))
anova_2_3 %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 53. İki Değişkenli ve Üç Değişkenli Model Karşılaştırması", align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "300px")| term | df.residual | rss | df | sumsq | statistic | p.value |
|---|---|---|---|---|---|---|
| sevme_log ~ algi + degerverme | 307 | 22.055 | NA | NA | NA | NA |
| sevme_log ~ algi + degerverme + kaygi | 306 | 16.387 | 1 | 5.668 | 105.844 | 0 |
İki değişkenli regresyon modeli (sevme_log ~ algi + degerverme) ile üç değişkenli regresyon modeli (sevme_log ~ algi + degerverme + kaygi) arasındaki farkı test etmek amacıyla yapılan model karşılaştırması sonucunda, eklenen “kaygi” değişkeninin modele manidar bir katkı sağladığı bulunmuştur.
Elde edilen sonuçlara göre, model karşılaştırmasında istatistik değeri 105.844 olup, p değeri .000 olarak bulunmuştur.
Bu durum, “kaygi” değişkeninin modele dahil edilmesinin istatistiksel olarak manidar bir şekilde modelin açıklayıcılığını ARTTIRDIĞINI göstermektedir.
Modeldeki hata varyansının da önemli ölçüde AZALDIĞI gözlemlenmiştir (RSS: 22.055’ten 16.387’ye düşmüştür).
Bu bulgu, eklenen “kaygi” değişkeninin bağımlı değişken üzerindeki varyansı açıklamada önemli bir rol oynadığını göstermektedir.
Ayrıca modelin genel uyumunun iyileştiği, model varyansının daha iyi açıklandığı ve model performansının ARTTIĞI söylenebilir.
Bu bağlamda, araştırmalarda değişken ekleme sürecinde model uyumu kriterlerinin ve anlamlılık düzeylerinin dikkatle incelenmesi gerektiği vurgulanmaktadır.
Etkili gözlemler (influential observations) regresyon sonuçları üzerinde orantısız etkisi olan bütün gözlemleri içerir.
Bu aşırı değerler regresyon doğrusunu kendilerine doğru çekerek modelin katsayıları üzerinde anlamlı etkileri olan değerlerdir.
Regresyon analizinin sonuçları ve sonuçların genellenebilirliği birkaç gözlemle değişebilir. Dolayısıyla bu gözlemlerin etkilerinin değerlendirilmesi için belirlenmesi gerekir.
Etkili gözlem, gözlemlerdeki veya veri girişindeki bir hatadan kaynaklanabilir. Bu durumda birey analizden çıkarılabilir veya veri düzeltilebilir.
Sıradışı bir durumla açıklanabilen, ender karşılaşılan geçerli bir gözlem analizden çıkarılabilir.
Halbuki olası bir açıklaması olmayan, ender karşılaşılan bir gözlemi bir neden olmadan çıkarmak problemlidir ancak gözlemin analize dahil edilmesi de savunulamayabilir. Bu durumda analizlerin gözlem dahil edilerek ve dahil edilmeyerek tekrarlanması önerilir.
Cook’s D
Etkinin en yaygın ölçümü Cook’s D olarak bilinir.
Bağımlı değişkenlerdeki potansiyel uç değerlerin belirlenmesinde kullanışlı bir istatistiktir. Uzaklık için en yaygın ölçüm artıktır.
Artık herhangi bir nokta ve regresyon eğrisi arasındaki dikey uzaklığı ölçer. Bu noktalar rastgele hatayı temsil edebilir, veri yanlış kodlanmış olabilir veya veri setine ait olmayan olağan dışı durumları yansıtabilir.
Cook’s D i gözlemi veriden çıkarılıp analiz yeniden gerçekleştirilirse, bj katsayısındaki değişikliğin karesinin toplamının bir fonksiyonudur.
Her gözlem için hesaplanabilir. Her gözlem için bu değer, N gözlemlerin sayısı olmak üzere 4/N ile karşılaştırılabilir. 4/N üzerindeki değerler problem olabilecek gözlemlere işaret eder.
Regresyon analizi kapsamında gözlemlerin etkilerini değerlendirmek amacıyla kullanılan Cook’un D istatistiği analizi sonucunda, belirli gözlemlerin modele orantısız etkiler yaptığı belirlenmiştir.
Şekil üzerinde gösterildiği gibi, analizde belirlenen eşik değeri (threshold = 0.013) referans alınarak yapılan değerlendirmede, birkaç gözlemin bu sınırın üzerinde Cook’s D değerlerine sahip olduğu tespit edilmiştir.
Bu durum, ilgili gözlemlerin model tahminlerini manidar düzeyde etkileyebilecek potansiyel aykırı değerler (outlier) olduğunu göstermektedir.
Normal sınırlarda kalan gözlemler mavi (normal) ile, aykırı etkiye sahip olan gözlemler ise kırmızı (outlier) ile gösterilmiştir.
Özellikle 11, 225, 228 gibi gözlem noktalarının etkisinin yüksek olduğu, bu noktaların modelin genel sonuçlarını bozabileceği dikkate alınmalıdır.
Bu bulgu, regresyon analizlerinde sadece modelin genel uyumunun değil, bireysel gözlemlerin etkisinin de incelenmesinin önemini vurgulamaktadır.
Aykırı etkisi yüksek gözlemler modelin güvenirliğini azaltabileceğinden, bu gözlemlerle ilgili hassasiyet analizleri yapılması veya veri setinin temizlenmesi önerilmektedir.
DFBETA
Cook’s D etkinin genel bir ölçümü olarak düşünülebilir.
Gözlemin eklenmesiyle her katsayının nasıl değiştiğini ölçen daha spesifik bir ölçüm ele alınabilir. Bu ölçüm DFBETA olarak adlandırılır ve her gözlem için hesaplanabilir.
Modelde yer alan değişkenler için hesaplanan DFBETAS değerleri, her bir gözlemin regresyon katsayıları üzerindeki etkisini incelemek amacıyla analiz edilmiştir.
Grafiklerde, sabit terim (Intercept), kaygi ve algi değişkenleri için DFBETAS değerlerinin dağılımı gözlemlenmektedir.
Analizde, kritik eşik değeri olarak ±0.11 dikkate alınmıştır.
Bu değerin üzerinde mutlak DFBETAS değerlerine sahip gözlemler, regresyon katsayıları üzerinde önemli etkiye sahip potansiyel etkili gözlemler olarak yorumlanmaktadır.
Grafikteki bulgulara göre, özellikle birkaç gözlem noktası belirlenen sınır değerini aşarak, ilgili değişkenin regresyon katsayısını manidar düzeyde değiştirme potansiyeli göstermiştir.
Intercept için DFBETAS dağılımı genel olarak ±0.11 bandı içinde kalmakla birlikte, birkaç gözlemde bu sınırın aşıldığı gözlemlenmiştir.
Kaygi değişkeni için de benzer bir görünüm mevcut olup, sınırı aşan değerler gözlenmiştir.
Algi değişkeninde ise, bazı gözlemler sınırın üzerinde olup, özellikle belirli veri noktalarının katsayıyı değiştirmede manidar rol oynadığı anlaşılmaktadır.
Bu durum, veri setinde bazı gözlemlerin model katsayıları üzerinde güçlü etkiler yarattığını ve modelin güvenilirliğinin bu tür gözlemler dikkate alınarak ayrıca incelenmesi gerektiğini göstermektedir.
Leverage (hi)
Bağımsız değişkenlerdeki potansiyel uç değerlerin belirlenmesinde kullanışlı bir istatistiktir.
Levarage bir gözlemin bir bağımsız değişkene, Xj, göre olağan dışı olma derecesini ölçer.
Leverage için olası değerler, N gözlemlerin sayısı olmak üzere, \(1/N\) ile 1.0 arasında değişir.
Ortalama leverage puanı, p bağımsız değişken sayısı ve N gözlem sayısı olmak üzere, \((p +1)/N\) eşitliği ile hesaplanabilir.
Yüksek leverage değerine sahip gözlemler ortalama değerden 2 veya 3 kat daha yüksek leverage puanlarına sahip olacaktır.
Modeldeki olası etkili gözlemleri belirlemek amacıyla yapılan outlier ve leverage analizi sonuçlarına göre, her bir gözlem için Standartlaştırılmış Öğrenci Artıkları (RStudent) ve Leverage değerleri birlikte incelenmiştir.
Analizde, Leverage Threshold değeri 0.019 ve Outlier Threshold değeri 2 olarak belirlenmiştir.
Bu eşik değerler literatürde önerildiği gibi kullanılmıştır.
Grafikte, yatay eksen leverage değerlerini ve dikey eksen standartlaştırılmış artık değerlerini göstermektedir.
Leverage değeri yüksek (0.019’un üzerinde) olan gözlemler, X değişkenleri uzayında uç değer olma potansiyeline sahiptir ve modelin tahmin sonuçlarını orantısız şekilde etkileyebilir.
RStudent değeri ±2’nin üzerinde olan gözlemler ise artık açısından uç gözlemler olarak kabul edilir.
Grafikte, yeşil renkle işaretlenen bazı gözlemlerin hem yüksek leverage hem de yüksek artık değerleri olduğu gözlenmektedir.
Bu durum, söz konusu gözlemlerin hem modelin tahminlerinde hem de genel model yapısında önemli etkiler yaratabileceğine işaret etmektedir.
Bununla birlikte, analiz edilen veri setinde birkaç gözlemin outlier veya leverage açısından sınır değerlerini aştığı ve modelin kararlılığını potansiyel olarak etkileyebileceği anlaşılmaktadır.
Bu tür gözlemlerin daha detaylı incelenmesi ve gerekirse model dışına alınarak ya da robust regresyon gibi alternatif yöntemlerle tekrar değerlendirilmesi önerilmektedir.
Influence (Etki)
Etkili bir gözlem uzaklık ve/veya leverage için yüksek değere sahip olan ve modelin kesişim ve eğim katsayılarını anlamlı olarak etkileyen bir gözlemdir.
Bu gözlemin varlığı veya yokluğu regresyon yüzeyinin yerini önemli ölçüde değiştirecektir.
Uzaklık ve/veya leverage için yüksek değere sahip gözlemlerin regresyon üzerinde önemli bir etkisi olmayabilir. Bir gözlemin etkide yüksek olması için hem uzaklık hem de leverage için yüksek değerlere sahip olması gerekir.
Modeldeki etkili gözlemleri belirlemek amacıyla gerçekleştirilen DFFITS (Difference in Fits) analizi sonuçları incelenmiştir.
DFFITS değeri, her bir gözlemin regresyon modelinin tahminleri üzerindeki etkisini ölçer.
Analizde gözlemlerin etkilerini değerlendirmek için belirlenen eşik değeri (threshold) yaklaşık 0.2 olarak kabul edilmiştir.
Bu değer, genel kural olarak 2√(p/n) formülü kullanılarak belirlenmektedir (p: parametre sayısı, n: gözlem sayısı).
Analiz sonuçlarına göre, bazı gözlemlerin DFFITS değerlerinin ±0.2 eşiğini aştığı gözlenmektedir.
Özellikle, gözlem 11, 110, 215 ve 273 gibi bazı gözlemler önemli düzeyde ayrışmakta ve modelin tahminleri üzerinde manidar bir etki oluşturabilecek potansiyel “etkili gözlemler” olarak dikkat çekmektedir.
Etkili gözlemlerin car paketindeki grafikerle de ortaya çıkartma:
Modelde yer alan değişkenlerin bağımlı değişken üzerinde bağımsız etkilerini daha net bir şekilde gözlemlemek amacıyla Added-Variable Plots (AV Plots) analizi gerçekleştirilmiştir.
AV grafikleri, bir bağımsız değişken ile bağımlı değişken arasındaki ilişkiyi, modeldeki diğer değişkenlerin etkisi kontrol edilerek gösteren grafiksel bir tekniktir.
Özellikle kaygı değişkeninin çizgisel eğilimi, bu değişkenin modelde istatistiksel olarak manidar ve güçlü bir NEGATİF ilişkiye sahip olduğunu desteklemektedir.
Ayrıca, verilerin bazı gözlemlerinde (örneğin 299, 185, 138) dikkate değer sapmalar gözlenmiş olup, bu noktalar potansiyel etkili gözlemler olarak ele alınmalıdır.
attach(temiz_veri)
calgi <- c(scale(algi, center = T, scale = F))
cdegerverme <- c(scale(degerverme, center = T, scale = F)) veri_c <- data.frame(cbind(temiz_veri, cross = algi*degerverme,
calgi, cdegerverme, cross_m = calgi*cdegerverme))cormat <- cor(x = veri_c[,c(2:5)])
ggcorrplot::ggcorrplot(corr = cormat, type = "lower", hc.order = T, show.diag = T, lab = T, lab_size = 3) Çalışmada yer alan değişkenler arasındaki doğrusal ilişkilerin incelenebilmesi amacıyla korelasyon matrisi hesaplanmış ve sonuçlar ısı haritası (heatmap) şeklinde görselleştirilmiştir.
Elde edilen korelasyon matrisi bulguları şu şekildedir:
Sevme - Kaygı İlişkisi: Sevme ile kaygı değişkeni arasında NEGATİF yönde ORTA düzeyde bir ilişki bulunmuştur (\(r = -0.52\)).
Sevme - Algı İlişkisi: Sevme ile algı değişkeni arasında NEGATİF fakat zayıf bir ilişki saptanmıştır (\(r = -0.17\)).
Sevme - Değer Verme İlişkisi: Sevme ile değerverme değişkeni arasındaki korelasyon oldukça DÜŞÜK bulunmuş (\(r = -0.04\)) ve pratikte manidar bir ilişki olMAdığı görülmüştür.
Algı - Kaygı İlişkisi: Algı ile kaygı değişkeni arasında POZİTİF yönde ORTA düzeyde bir ilişki tespit edilmiştir (\(r = 0.40\)).
Değer Verme - Algı/Kaygı İlişkisi: Değerverme değişkeninin hem algı hem kaygı ile olan korelasyonlarının oldukça DÜŞÜK olduğu görülmektedir (\(r = 0.02\) ve \(r = 0.05\)).
Isı haritası üzerinde:
Kırmızı tonlar pozitif korelasyonu,
Mavi tonlar negatif korelasyonu,
Beyaz ve açık tonlar ise zayıf veya yok denecek düzeyde ilişkiyi göstermektedir.
Bu bulgular, modelde değişkenler arası ilişkilere dair önemli önbilgiler sağlamakta ve regresyon analizlerinde çoklu doğrusal bağlantı (multicollinearity) riskinin düşük olduğunu işaret etmektedir.
n_model <- lm(sevme_log ~ calgi + cdegerverme )
cross_model <- lm(sevme_log ~ calgi + cdegerverme + calgi*cdegerverme )## [1] 0.02450766
Bu çalışmada, “sevme_log” değişkeninin yordayıcıları olarak “algı” (calgi) ve “değerverme” (cdegerverme) değişkenlerinin etkileri iki farklı regresyon modeliyle test edilmiştir.
İlk modelde (“n_model”), ana etkiler dikkate alınarak bir regresyon analizi yapılmıştır (sevme_log ~ algı + değer verme).
İkinci modelde (“cross_model”) ise, algı ile değerverme değişkenlerinin etkileşim terimi de modele dahil edilmiştir (sevme_log ~ algı + değer verme + algı*değer verme).
Modellerin açıklayıcılık düzeylerini karşılaştırmak amacıyla determinasyon katsayısı (\(R^2\)) değerleri incelenmiştir:
Ana Etkiler Modeli (n_model) \(R^2\) değeri: 0.0245
Etkileşimli Model (cross_model) \(R^2\) değeri: 0.0247
İki model arasındaki \(R^2\) değerleri arasındaki fark oldukça KÜÇÜKtür (\(∆R² ≈ 0.0002\)).
Bu bulgu, algı ile değerverme değişkenlerinin etkileşimlerinin sevme_log değişkenini manidar bir şekilde daha fazla açıklaMAdığını göstermektedir.
Sonuç olarak, sadece ana etkilerin yer aldığı modelin tercih edilmesi, model parsimonyasına (sadelik ilkesine) daha uygun olacaktır.
## [1] 0.02472067
## [1] 0.01815266
## [1] 0.01515911
Bu çalışmada, “sevme_log” değişkeninin yordanmasında algı ve değerverme değişkenlerinin hem ayrı ayrı etkilerini hem de bu iki değişkenin etkileşim etkisini değerlendiren iki farklı regresyon modeli kurulmuştur.
İlk model (n_model) yalnızca ana etkileri (algı ve değerverme) içermektedir.
İkinci model (cross_model) ise algı × değerverme etkileşim terimini de modele dahil etmiştir.
Bu iki modelin karşılaştırılmasında, özellikle düzeltilmiş determinasyon katsayısı (Adjusted \(R^2\)) değerleri dikkate alınmıştır.
Adjusted \(R^2\) değeri, modele eklenen değişken sayısına göre düzeltilmiş açıklayıcılık oranını gösterir ve model karmaşıklığından dolayı şişmiş \(R^2\) değerlerini kontrol eder .
Elde edilen sonuçlar:
Ana etkiler modeli (n_model) için Adjusted \(R^2\): 0.0181
Etkileşim terimi içeren model (cross_model) için Adjusted \(R^2\): 0.0152
Bu bulgular, modele etkileşim etkisinin eklenmesinin açıklayıcılığı artırmadığını, aksine modelin uyumunu hafifçe kötüleştirdiğini ortaya koymaktadır.
Adjusted \(R^2\) değerinin AZALMASI, modele gereksiz karmaşıklık getirildiğinin bir göstergesi olarak yorumlanabilir.
Sonuç olarak, algı ve değerverme değişkenlerinin etkileşim etkisi, “sevme_log” değişkeni üzerinde manidar ve kayda değer bir ek açıklayıcı katkı sunmamıştır.
Bu nedenle, daha parsimonik olan sadece ana etkileri içeren modelin tercih edilmesi önerilmektedir.
library(broom)
library(dplyr)
library(kableExtra)
tidy(cross_model) %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 54. Etkileşim Terimi İçeren Regresyon Modeli Katsayıları (sevme_log ~ algı + değer verme + algı×değer verme)", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:5, bold = F) %>% scroll_box(height = "300px")| term | estimate | std.error | statistic | p.value |
|---|---|---|---|---|
| (Intercept) | 6.069 | 0.015 | 397.626 | 0.000 |
| calgi | -0.076 | 0.028 | -2.748 | 0.006 |
| cdegerverme | -0.014 | 0.055 | -0.263 | 0.793 |
| calgi:cdegerverme | 0.026 | 0.099 | 0.259 | 0.796 |
Bu çalışmada, sevme_log değişkeni üzerine algı, değerverme ve bu iki değişkenin etkileşim etkisini içeren bir regresyon modeli test edilmiştir.
Model katsayılarının yer aldığı Tablo 54’te görüldüğü üzere, algı değişkeninin sevme_log üzerindeki doğrudan etkisi NEGATİF ve manidar bulunmuştur (\(β = -0.076\), \(*p* = .006\)).
Bu bulgu, algı düzeyindeki bir birimlik ARTIŞın, sevme_log düzeyinde manidar bir AZALIŞa ilişkili olduğunu göstermektedir.
Değerverme değişkeninin etkisi negatif yönde olmasına rağmen (\(β = -0.014\)), bu ilişki istatistiksel olarak manidar DEĞİLdir (\(*p* = .793\)).
Bu durum, değerverme değişkeninin tek başına sevme_log üzerinde manidar bir yordayıcı olMAdığını göstermektedir.
Öte yandan, algı ve değerverme değişkenlerinin etkileşim terimi incelendiğinde, bu etkileşimin de istatistiksel olarak manidar olMAdığı belirlenmiştir (\(β = 0.026\), \(*p* = .796\)).
Modelin sabit terimi (Intercept) 6.009 olarak bulunmuş ve istatistiksel olarak oldukça MANİDARdır (\(*p* < .001\)).
Genel olarak, elde edilen sonuçlar, bağımsız değişkenlerden sadece algının sevme_log üzerinde manidar bir etkisinin olduğunu ortaya koymuş; değerverme değişkeni ve algı × değerverme etkileşim terimi için anlamlılık bulunAMAmıştır.
library(dplyr)
library(kableExtra)
veri_c <- veri_c %>% mutate(
cdegerverme_kat = case_when(
cdegerverme <= -15 ~ "dusuk",
cdegerverme > -15 & cdegerverme < 15 ~ "orta",
cdegerverme >= 15 ~ "yuksek")) %>% arrange(calgi)
veri_c %>% select(calgi, cdegerverme, cdegerverme_kat) %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 55. Değerverme Kategorisine Göre Sıralanmış Veri Tablosu", digits = 3, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:3, bold = F) %>% scroll_box(height = "400px")| calgi | cdegerverme | cdegerverme_kat |
|---|---|---|
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | 0.913 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| -0.248 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | 0.913 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | 0.913 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | 0.913 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | 0.913 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | 0.913 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | 0.913 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | 0.913 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 0.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | 0.913 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
| 1.752 | -0.087 | orta |
Tablo 55. Değerverme Kategorisine Göre Sıralanmış Veri Tablosunun İstatistiksel Yorumlanması:
Bu çalışmada, katılımcıların “değerverme” değişkenine ilişkin puanları kategorilere ayrılarak (“düşük”, “orta” ve “yüksek”) gruplandırılmıştır.
Değerverme puanları, -15 ve daha düşük puanlar için “düşük”, -15 ile +15 arasındaki puanlar için “orta”, +15 ve üzerindeki puanlar için ise “yüksek” olarak sınıflandırılmıştır.
Tabloda görüldüğü üzere, “cdegerverme” puanlarının büyük bir çoğunluğu “orta” kategorisinde toplanmıştır.
Ayrıca, her bir bireyin “calgi” puanları ile “cdegerverme” puanları birebir eşleştirilerek verilmiş, böylece kategori bazında performans farklılıklarının izlenebilmesi sağlanmıştır.
Bu yapılandırma, hem betimleyici istatistikler hem de ileri düzey modellemelerde (örneğin, moderatör analizlerinde) “kategori temelli analizlerin” yapılmasına olanak tanımaktadır.
Özellikle “değerverme” değişkeninin gruplandırılması, değişkenin doğrudan regresyon analizlerine katılmadan önce normallik varsayımı ihlallerini azaltabileceği gibi, etkileşim terimlerinin oluşturulmasında da anlamlı avantajlar sağlamaktadır.
##
## Düzenleyici Etkisi
## ==============================================================
## Dependent variable:
## ------------------------------------------
## sevme_log
## (1) (2)
## --------------------------------------------------------------
## calgi -0.076*** -0.076***
## (0.028) (0.028)
##
## cdegerverme -0.012 -0.014
## (0.054) (0.055)
##
## calgi:cdegerverme 0.026
## (0.099)
##
## Constant 6.070*** 6.069***
## (0.015) (0.015)
##
## --------------------------------------------------------------
## Observations 310 310
## R2 0.025 0.025
## Adjusted R2 0.018 0.015
## Residual Std. Error 0.268 (df = 307) 0.268 (df = 306)
## F Statistic 3.856** (df = 2; 307) 2.585* (df = 3; 306)
## ==============================================================
## Note: *p<0.1; **p<0.05; ***p<0.01
Düzenleyici Etkisi Modelinin İstatistiksel Yorumlanması:
Bu çalışmada, “sevme_log” bağımlı değişkeni üzerine “calgi” ve “cdegerverme” bağımsız değişkenlerinin etkisi ve bu değişkenler arasındaki etkileşim (“calgi:cdegerverme”) incelenmiştir.
İlk modelde (Model 1), sadece “calgi” ve “cdegerverme” değişkenleri regresyona dahil edilmiştir.
Buna göre “calgi” değişkeninin katsayısı $β = -0.07\(6 olarak bulunmuş ve bu etki istatistiksel olarak %1 anlamlılık düzeyinde manidar çıkmıştır (\)p < .001$).
Bu sonuç, “calgi” puanlarındaki bir birimlik ARTIŞIN “sevme_log” puanlarında manidar ve NEGATİF bir değişime yol açtığını göstermektedir.
“Cdegerverme” değişkeninin etkisi ise \(β = -0.012\) olup, istatistiksel olarak manidar bulunMAmıştır (\(*p* > .05\)).
İkinci modelde (Model 2), “calgi” ve “cdegerverme” değişkenlerinin yanı sıra etkileşim terimi (“calgi:cdegerverme”) de modele dahil edilmiştir.
Etkileşim katsayısı \(β = 0.026\) olarak hesaplanmış, ancak bu etki istatistiksel olarak manidar bulunMAmıştır (\(*p* > .05\)).
Bu sonuç, “calgi” değişkeninin “sevme_log” üzerindeki etkisinin “cdegerverme” düzeyine göre manidar bir şekilde değişmediğini göstermektedir.
Model uyum iyiliği istatistikleri incelendiğinde, her iki modelin de DÜŞÜK düzeyde açıklayıcılığa sahip olduğu görülmektedir.
Model 1 için \(R^2 = .025\) ve düzeltilmiş \(R^2 = .018\) olarak bulunmuş, Model 2 için ise \(R^2 = .025\) ve düzeltilmiş \(R^2 = .015\) değerleri elde edilmiştir.
Etkileşim teriminin eklenmesi, modelin açıklayıcılığını manidar ölçüde artırMAmıştır.
Ayrıca Model 1 için \(F(2, 307) = 3.856\), \(*p* < .01\); Model 2 için \(F(3, 306) = 2.585\), \(*p* < .05\) bulunmuş olup, her iki modelin de genel anlamlılığı istatistiksel olarak KABUL edilebilir düzeydedir.
Bu çalışmada, “sevme_log” bağımlı değişkeni üzerine kurulan regresyon modeli için Cohen’s \(f^2\) etki büyüklükleri hesaplanmıştır (Tablo 57).
Elde edilen sonuçlara göre:
Calgi değişkeni için Cohen’s \(f^2 = 0.02\) bulunmuştur.
Cohen (1988) tarafından önerilen sınıflamalara göre bu değer, KÜÇÜK düzeyde bir etki büyüklüğünü ifade etmektedir.
Bu bulgu, “calgi” değişkeninin “sevme_log” üzerindeki etkisinin istatistiksel olarak manidar (\(*p* = .006\)) olmasına rağmen pratikte KÜÇÜK bir açıklayıcılığa sahip olduğunu göstermektedir.
Cdegerverme değişkeni için Cohen’s \(f^2\) değeri 1.72e-04 olarak hesaplanmıştır ve calgi:cdegerverme etkileşim terimi için Cohen’s \(f^2\) değeri 2.18e-04 bulunmuştur.
Bu değerler oldukça küçüktür ve Cohen’in sınıflamasına göre “önemsiz” (trivial) düzeyde etkiler olarak değerlendirilmektedir.
Bu bulgular, modele eklenen “cdegerverme” değişkeninin ve “calgi cdegerverme” etkileşim teriminin “sevme_log” değişkenindeki varyansı açıklamada oldukça sınırlı bir katkı sağladığını göstermektedir.
Ayrıca, %95 güven aralıklarının [0.00, ∞] aralığında bulunması, küçük örnek büyüklüğü veya varyansın az olması gibi durumların güven aralığının üst sınırının belirlenememesine yol açtığını düşündürmektedir.
Bu sonuçlar, regresyon analizlerinde yalnızca istatistiksel anlamlılığın değil, aynı zamanda etki büyüklüğünün de dikkate alınması gerektiğini vurgulamaktadır.
library(rockchalk)
ps <- plotSlopes(cross_model, plotx="calgi", modx="cdegerverme", xlab = "calgi", ylab = "sevme_log", modxVals = c("std.dev"))Bu çalışmada, “calgi” (algı) değişkeninin “sevme_log” üzerindeki etkisinin, “cdegerverme” (değerverme) değişkeninin düzeylerine göre farklılaşıp farklılaşmadığını test etmek amacıyla bir moderatör analizi gerçekleştirilmiştir.
Moderatör analizi, bir bağımsız değişken ile bağımlı değişken arasındaki ilişkinin başka bir değişkenin düzeyine göre değişip değişmediğini belirlemek için kullanılır.
Etkileşim grafiğinde, “cdegerverme” değişkeninin standart sapma düzeylerine (düşük ve yüksek değerlerde) göre “calgi” ile “sevme_log” arasındaki ilişkiler görselleştirilmiştir.
Elde edilen sonuçlar şu şekilde yorumlanabilir:
Düşük cdegerverme düzeyinde (−0.087), “calgi” değişkeninin “sevme_log” üzerindeki etkisi negatif yönlü olup eğimi daha belirgindir.
Bu durum, bireylerin değerverme algısı düşük olduğunda, algı arttıkça sevme düzeylerinde hafif bir AZALMA eğilimi olduğunu göstermektedir.
Yüksek cdegerverme düzeyinde (0.912), “calgi” değişkeninin “sevme_log” üzerindeki etkisi yine NEGATİF yönde ancak daha zayıf bir eğimle ilerlemektedir.
Yani değerverme algısının yüksek olduğu bireylerde algının sevme düzeyi üzerindeki etkisi daha sınırlıdır.
Ancak her iki durumda da eğim değerlerinin düşük olması ve çizgilerin yataya oldukça yakın olması, moderatörlük etkisinin istatistiksel olarak manidar olsa da pratikte çok güçlü olMAdığını göstermektedir.
Ayrıca, modelde hesaplanan etki büyüklüğü (Cohen’s \(f^2\)) da oldukça KÜÇÜK bulunmuştur.
Bu sonuçlar, bireylerin algılarının sevme düzeyleri üzerinde değerverme algısına bağlı olarak çok büyük bir farklılık yaratmadığını, ancak düşük değerverme durumunda algının etkisinin biraz daha belirginleştiğini göstermektedir.
Bu bulgu, özellikle kültürel bağlamlarda bireyin değerverme düzeyinin, algı ile duygusal bağlılık arasındaki ilişkiyi hafifçe şekillendirebileceğini düşündürmektedir.
Bu çalışmada, çapraz modelde (cross_model) yer alan değişkenlerin “sevme_log” bağımlı değişkeni ile ilişkilerini kontrol ederek bireysel etkilerini daha net bir şekilde incelemek amacıyla ek değişken grafikleri oluşturulmuştur.
Bu grafikler, her bir bağımsız değişkenin etkisini diğer değişkenler sabit tutulduğunda görselleştirme imkânı sunar.
Ek değişken grafiklerine ilişkin bulgular aşağıdaki şekilde yorumlanabilir:
Calgi | Others grafiğinde, algı (calgi) değişkeni ile sevme_log değişkeni arasında negatif yönlü bir ilişki görülmektedir. Ancak çizginin eğiminin oldukça yatay olması, bu ilişkinin ZAYIF zayıf olduğunu göstermektedir.
Cdegerverme | Others grafiğinde, değerverme (cdegerverme) değişkeni ile sevme_log arasında neredeyse sıfıra yakın bir eğim gözlenmektedir.
Bu durum, değerverme değişkeninin bağımlı değişken üzerinde manidar bir etkisinin olMAdığını göstermektedir.
Calgi:Cdegerverme | Others grafiğinde, algı ve değerverme değişkenlerinin etkileşimi göz önüne alındığında eğimin yine yataya yakın olduğu görülmektedir.
Özetle, bu grafikler doğrultusunda, hem bağımsız değişkenlerin hem de etkileşim teriminin bağımlı değişken üzerindeki etkilerinin oldukça SINIRLI olduğu söylenebilir.
Bu sonuçlar, modelin açıklayıcılık düzeyinin DÜŞÜK olduğunu ve moderatör etkisinin pratik anlamda ZAYIF kaldığını desteklemektedir.
fitMod <- lm(sevme_log ~ Xc + Zc + Xc:Zc, data = temiz_veri)
library(kableExtra)
library(dplyr)
coef(summary(fitMod)) %>% as.data.frame() %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% tibble::rownames_to_column(var = "Değişken") %>% kable(format = "html", caption = "Tablo 56. Moderatör Modeli Katsayıları (sevme_log ~ Xc + Zc + Xc:Zc)", align = "c", digits = 3) %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% column_spec(1:5, bold = F) %>% scroll_box(height = "300px")| Değişken | Estimate | Std. Error | t value | Pr(>|t|) |
|---|---|---|---|---|
| (Intercept) | 6.053 | 0.014 | 421.523 | 0.000 |
| Xc | -0.040 | 0.037 | -1.105 | 0.270 |
| Zc | -0.178 | 0.018 | -10.062 | 0.000 |
| Xc:Zc | 0.094 | 0.035 | 2.695 | 0.007 |
Bu çalışmada, bağımlı değişken olan sevme_log üzerine, merkezi hale getirilmiş algı (Xc), merkezi hale getirilmiş değerverme (Zc) ve bu iki değişkenin etkileşim terimi (Xc:Zc) ile kurulan moderasyon modeli incelenmiştir (Tablo 56).
Regresyon katsayıları incelendiğinde, Xc değişkeninin regresyon katsayısının -0.105 olduğu, ancak bu ilişkinin istatistiksel olarak manidar bulunMAdığı görülmüştür (\(t = -1.105\), \(*p* = .270\)).
Bu sonuç, merkezi algı puanlarının doğrudan sevme_log değişkeni üzerinde manidar bir etkisinin olMAdığını göstermektedir.
Diğer yandan, Zc değişkeninin katsayısı -0.178 olup bu ilişki istatistiksel olarak MANİDAR bulunmuştur (\(t = -10.062\), \(*p* < .001\)).
Etkileşim terimi (Xc:Zc) için katsayı 0.094 olarak bulunmuş ve bu katsayı da istatistiksel olarak manidar çıkmıştır (\(t = 2.695\), \(*p* = .007\)).
Bu durum, algı ve değerverme değişkenleri arasındaki ilişkinin, bireylerin değerverme algı düzeylerine bağlı olarak değiştiğini, yani değerverme değişkeninin algı ile sevme_log arasındaki ilişkiyi manidar şekilde modere ettiğini göstermektedir.
Modelin genel olarak manidar olduğu ve belirli etkileşim etkilerinin mevcut olduğu sonucuna ulaşılmıştır.
Bu sonuçlar, moderatör analizlerinde önerildiği üzere, etkileşim etkisinin yorumlanması gerektiğini ve doğrudan etkilerden ziyade etkileşimlerin önem arz ettiğini göstermektedir.
##
## Algı ve Kaygının Sevmeye Etkisi
## ===============================================
## Dependent variable:
## ---------------------------
## sevme_log
## -----------------------------------------------
## Xc -0.040
## (0.037)
##
## Zc -0.178***
## (0.018)
##
## Xc:Zc 0.094***
## (0.035)
##
## Constant 6.053***
## (0.014)
##
## -----------------------------------------------
## Observations 310
## R2 0.292
## Adjusted R2 0.285
## Residual Std. Error 0.229 (df = 306)
## F Statistic 42.029*** (df = 3; 306)
## ===============================================
## Note: *p<0.1; **p<0.05; ***p<0.01
Regresyon analizi sonuçlarına göre, bağımlı değişken olan sevme_log üzerinde algı (Xc), kaygı (Zc) ve bu iki değişkenin etkileşim terimi (Xc:Zc) etkili olmuştur.
Modelin genel anlamlılığı incelendiğinde, modelin istatistiksel olarak manidar olduğu görülmektedir (\(F(3, 306) = 42.029\), \(*p* < .001\)).
Modelin açıklayıcılık düzeyi \(R^2 = .292\) olarak bulunmuş ve düzeltilmiş \(R^2\) değeri .285 olarak raporlanmıştır.
Bireysel regresyon katsayıları incelendiğinde, algı (Xc) değişkeninin etkisinin manidar olMAdığı (\(β = -0.040\), \(*p* > .05\)), kaygı (Zc) değişkeninin ise bağımlı değişken üzerinde NEGATİF ve manidar bir etkisinin bulunduğu (\(β = -0.178\), \(*p* < .001\)) görülmektedir.
Bu bulgu, kaygı düzeyinin artmasının sevme düzeyinde manidar bir AZALMA ile ilişkili olduğunu ortaya koymaktadır.
Ayrıca, algı ile kaygı etkileşimi (Xc:Zc) istatistiksel olarak manidar bulunmuştur (\(β = 0.094\), \(*p* < .01\)).
Etkileşim teriminin pozitif katsayısı, kaygı düzeyindeki değişimin, algının sevme üzerindeki etkisini güçlendirdiğini ima etmektedir.
Sonuç olarak, model bulguları hem ana etkilerin hem de etkileşim etkisinin değerlendirilmesi gerektiğini ortaya koymakta; özellikle kaygı düzeyinin yüksek olduğu durumlarda algının sevme üzerindeki etkisinin FARKLILAŞTIĞINA işaret etmektedir.
Cohen’in \(f^2\) etki büyüklüğü değerleri regresyon modelinin değişkenleri için hesaplanmıştır.
Buna göre, algı (Xc) değişkeninin \(f^2\) değeri 0.03 olarak bulunmuştur.
Kaygı (Zc) değişkeninin \(f^2\) değeri ise 0.35 olup, bu değer büyük etki düzeyi kriterlerine karşılık gelmektedir.
Bu durum, kaygının sevme_log değişkeni üzerinde oldukça güçlü bir etkiye sahip olduğunu göstermektedir.
Ayrıca, algı ile kaygı arasındaki etkileşim teriminin (Xc:Zc) \(f^2\) değeri 0.02 olarak hesaplanmış ve bu değer de KÜÇÜK etki büyüklüğü kategorisinde değerlendirilmiştir.
Bu bağlamda, kaygı değişkeninin tek başına sevme düzeyini açıklamada diğer değişkenlere göre daha etkili olduğu söylenebilirken, algı ve algı-kaygı etkileşimi etkilerinin daha sınırlı olduğu görülmektedir.
Ayrıca %95 güven aralıkları incelendiğinde, özellikle kaygı değişkeninin etkisinin oldukça güçlü ve güvenilir olduğu anlaşılmaktadır (CI: [0.24, Inf]).
library(rockchalk)
ps <- plotSlopes(fitMod, plotx="Xc", modx="Zc", xlab = "algi", ylab = "sevme_log", modxVals = "std.dev")Şekilde, kaygı (Zc) değişkeninin algı (Xc) ile sevme_log arasındaki ilişkiye moderatörlük etkisi görselleştirilmiştir.
Moderasyon analizi sonuçlarına göre, kaygı düzeyi düşük, orta ve yüksek olan bireyler için algı ile sevme_log arasındaki regresyon eğimleri farklılık göstermektedir.
Kaygı düzeyi düşük bireylerde, algı arttıkça sevme_log düzeyinde hafif bir artış gözlenmiştir, ancak eğim oldukça yatay seyretmektedir (\(β = -0.087\)).
Orta düzey kaygıya sahip bireylerde ise algının sevme_log üzerindeki etkisi daha belirgin hale gelmiştir (\(β = -0.265\)).
Yüksek kaygı düzeyinde ise algıdaki artış sevme_log değerlerinde daha dik bir azalmaya yol açmıştır (\(β = -1.265\)).
Etkileşim eğrileri, moderatör değişkenin etkisinin yalnızca ana etkilerle sınırlı kalmadığını, değişkenler arası ilişkilerin kaygı düzeyine bağlı olarak farklılaştığını göstermektedir.
Bu sonuç, yüksek kaygı yaşayan bireylerde algı düzeyindeki değişimlerin sevme_log üzerinde daha büyük etkiler yarattığını ortaya koymaktadır.
Bu durum, bireysel farklılıkların (örneğin kaygı düzeylerinin) algının sevme üzerinde etkisini değiştirebileceğini ve modellerin bu tür etkileşimleri dikkate alarak değerlendirilmesinin önemini vurgulamaktadır.
Özetle, moderasyon analizi sonucunda, kaygı değişkeninin algı ile sevme_log arasındaki ilişkiyi manidar şekilde değiştirdiği ve etkileşimin yönü ile gücünün kaygı düzeyine göre farklılık gösterdiği bulunmuştur.
Şekilde, algı (Xc), kaygı (Zc) ve bu iki değişkenin etkileşim terimi (Xc:Zc) ile sevme_log değişkeni arasındaki ilişkileri gösteren katkı değişkeni (added-variable) grafikleri sunulmuştur.
Her bir grafik, ilgili prediktörün (bağımsız değişkenin) diğer değişkenler kontrol edildikten sonraki artık varyansla ilişkisini göstermektedir.
İlk grafikte, algı değişkeni (Xc) ile sevme_log arasındaki ilişki, diğer değişkenlerin etkisi kontrol edildikten sonra oldukça yatay ve zayıf bir eğim göstermiştir.
İkinci grafikte, kaygı değişkeni (Zc) ile sevme_log arasındaki ilişki daha dik ve NEGATİF yönlü bir eğim göstermiştir; bu da kaygı düzeyinin artmasıyla sevme_log değerlerinde manidar bir düşüş yaşandığını ortaya koymaktadır (\(β = -0.178\), \(*p* < .001\)).
Üçüncü grafikte ise algı ile kaygı arasındaki etkileşim terimi (Xc:Zc) sunulmuştur.
Bu grafikte gözlemlenen hafif pozitif eğim, algı ve kaygı arasındaki etkileşimin sevme_log değişkeni üzerinde manidar bir etkiye sahip olduğunu göstermektedir (\(β = 0.094\), \(*p* = .007\)).
Bu katkı değişkeni grafikleri, regresyon modelinde her bir bağımsız değişkenin kontrol edilen diğer değişkenlerden bağımsız katkısını görsel olarak sunmaktadır.
Özellikle, kaygı düzeyinin ve algı-kaygı etkileşiminin, sevme_log düzeylerini açıklamada manidar ve güçlü prediktörler olduğu anlaşılmaktadır.
Özetle, bulgular, özellikle kaygının doğrudan etkisi ve algı ile kaygının etkileşim etkisinin önemine işaret etmekte olup, algı değişkeninin etkisinin kaygı düzeyine bağlı olarak farklılaştığını desteklemektedir.
library(dplyr)
library(kableExtra)
ozet_tablosu <- list(
temiz_veri %>% count(cinsiyet) %>% mutate(degisken = "Cinsiyet"),
temiz_veri %>% count(algi) %>% mutate(degisken = "Algı"),
temiz_veri %>% count(degerverme) %>% mutate(degisken = "Değerverme"),
temiz_veri %>% count(kaygi) %>% mutate(degisken = "Kaygı")) %>%
bind_rows() %>% select(Degisken = degisken, Kategori = 1, Frekans = n)
ozet_tablosu %>% kable(format = "html", caption = "Tablo 57. Değişkenlerin Frekans Dağılımları", digits = 0, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "400px")| Degisken | Kategori | Frekans |
|---|---|---|
| Cinsiyet | 1 | 150 |
| Cinsiyet | 2 | 160 |
| Algı | NA | 251 |
| Algı | NA | 41 |
| Algı | NA | 18 |
| Değerverme | NA | 283 |
| Değerverme | NA | 27 |
| Kaygı | NA | 152 |
| Kaygı | NA | 88 |
| Kaygı | NA | 70 |
Çalışmada yer alan değişkenlerin frekans dağılımları incelenmiştir.
Cinsiyet değişkeni açısından katılımcıların %48,4’ü (\(n = 150\)) birinci kategoriye (örneğin erkek), %51,6’sı (\(n = 160\)) ise ikinci kategoriye (örneğin kadın) ait olduğu görülmüştür.
Bu durum, örneklem grubunda cinsiyetin dengeli bir biçimde temsil edildiğini göstermektedir.
Algı değişkeni için, katılımcıların büyük çoğunluğunun (%81,0; \(n = 251\)) birinci algı düzeyinde yer aldığı; buna karşın %13,2’sinin (\(n = 41\)) ikinci ve %5,8’inin (\(n = 18\)) üçüncü algı düzeyinde bulunduğu saptanmıştır.
Değerverme değişkeninde katılımcıların %91,3’ünün (\(n = 283\)) birinci kategoriye, yalnızca %8,7’sinin (\(n = 27\)) ikinci kategoriye ait olduğu gözlenmiştir.
Kaygı değişkeninde ise, katılımcıların %49,0’ının (\(n = 152\)) birinci düzeyde, %28,4’ünün (\(n = 88\)) ikinci düzeyde ve %22,6’sının (\(n = 70\)) üçüncü düzeyde kaygı düzeyine sahip olduğu bulunmuştur.
Bu frekans dağılımları, değişkenlerin analiz sürecinde normal dağılım varsayımı ve örneklem yapısının heterojenlik-homojenlik durumları açısından dikkate alınarak değerlendirilmesi gerektiğini göstermektedir.
library(dplyr)
library(kableExtra)
temiz_veri %>% count(cinsiyet, algi) %>% kable(format = "html", caption = "Tablo 58. Cinsiyet ve Algı Değişkenlerinin Birlikte Frekans Dağılımı", digits = 0, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "400px")| cinsiyet | algi | n |
|---|---|---|
| 1 | 1 | 121 |
| 1 | 2 | 21 |
| 1 | 3 | 8 |
| 2 | 1 | 130 |
| 2 | 2 | 20 |
| 2 | 3 | 10 |
Çalışmada yer alan katılımcıların cinsiyetleri ile algı düzeyleri arasındaki dağılım incelendiğinde, örneklemde 150 erkek (%48,4) ve 160 kadın (%51,6) bulunduğu görülmüştür.
Cinsiyet değişkeni ile algı değişkeni arasındaki ilişkisel dağılım incelendiğinde, erkek katılımcıların büyük bir çoğunluğunun (\(n = 121\)) düşük algı düzeyinde yer aldığı, buna karşılık orta algı düzeyinde (\(n = 21\)) ve yüksek algı düzeyinde (\(n = 8\)) daha az sayıda katılımcı olduğu belirlenmiştir.
Benzer şekilde kadın katılımcıların da çoğunluğunun (\(n = 130\)) düşük algı düzeyine sahip olduğu, orta algı düzeyinde (\(n = 20\)) ve yüksek algı düzeyinde (\(n = 10\)) daha sınırlı sayıda katılımcının bulunduğu tespit edilmiştir.
Bu bulgular, her iki cinsiyet grubunda da düşük algı düzeyinin baskın olduğunu ortaya koymaktadır.
Ancak yüksek algı düzeyine sahip bireylerin sayısal olarak kadınlarda daha fazla olduğu gözlenmiştir.
Bu sonuçlar, algı düzeylerinin cinsiyetler arasında benzer bir dağılım gösterdiğini, ancak detaylı istatistiksel analizler ile manidar farklılıkların olup olmadığının test edilmesi gerektiğini düşündürmektedir.
library(dplyr)
library(kableExtra)
temiz_veri %>% count(cinsiyet, algi) %>% group_by(cinsiyet) %>% mutate(prop_algi = n / sum(n)) %>% mutate(across(where(is.numeric), ~ round(., 3))) %>% kable(format = "html", caption = "Tablo 59. Cinsiyet Değişkenine Göre Algı Dağılımı ve Oranları", align = "c", digits = 3) %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "400px")| cinsiyet | algi | n | prop_algi |
|---|---|---|---|
| 1 | 1 | 121 | 0.807 |
| 1 | 2 | 21 | 0.140 |
| 1 | 3 | 8 | 0.053 |
| 2 | 1 | 130 | 0.812 |
| 2 | 2 | 20 | 0.125 |
| 2 | 3 | 10 | 0.062 |
Cinsiyet değişkenine göre algı dağılımı ve oranlarına ilişkin bulgular Tablo 59’da sunulmaktadır.
Erkek katılımcılar arasında (cinsiyet = 1), algı düzeyi 1 olan bireylerin oranı %80,7 olarak belirlenmiştir.
Benzer şekilde, algı düzeyi 2 olan erkeklerin oranı %14,0, algı düzeyi 3 olanların oranı ise %5,3’tür.
Kadın katılımcılarda (cinsiyet = 2) ise algı düzeyi 1 olanların oranı %81,2, algı düzeyi 2 olanların oranı %12,5 ve algı düzeyi 3 olanların oranı %6,2 olarak tespit edilmiştir.
Bu bulgular, hem erkek hem de kadın katılımcılar arasında en yaygın algı düzeyinin “1” düzeyi olduğunu göstermektedir.
Ayrıca, cinsiyete göre algı düzeylerinin dağılımında önemli bir farklılaşmanın olMAdığı gözlemlenmiştir.
Araştırmada, her bir *cinsiyet** grubundaki algı dağılımı oranları ayrı ayrı hesaplanmış ve yüzde değerleri üzerinden yorumlanmıştır.
Bu tür oran analizleri, özellikle bağımlı değişkenin (algı) bağımsız değişken (cinsiyet) grupları arasında nasıl dağıldığını anlamaya yönelik güçlü bir yöntem sunmaktadır.
Bu doğrultuda elde edilen sonuçlar, örneklem içerisindeki algı farklılıklarının temel olarak cinsiyet değişkeninden bağımsız olabileceğine işaret etmektedir.
ggplot(temiz_veri, aes(y = cinsiyet, fill = algi)) + geom_bar(position = "fill") + labs(title = "Algi by cinsiyet", y = NULL, x = NULL)cinsiyetlerine (1=Erkek, 2=Kadın) göre algı düzeylerinin (1, 2 ve 3) oranlarını göstermektedir.
Görselleştirmenin, “fill” pozisyon argümanı kullanılarak oluşturulmuş olması, her cinsiyet grubunda algı kategorilerinin kendi içinde normalize edilmesine (yüzde hesaplanmasına) olanak tanımıştır.
Elde edilen sonuçlara göre, hem erkek hem de kadın katılımcılar arasında algı düzeyi 1’in baskın olduğu gözlenmektedir.
Erkek grubunda algı düzeyi 1 oranı %80,7 iken, kadın grubunda bu oran %81,2’dir.
Diğer algı düzeylerinde ise benzer şekilde küçük yüzdesel farklılıklar bulunmakta olup, cinsiyetler arasında belirgin bir farklılık ortaya çıkmamıştır.
Bu sonuçlar, cinsiyet değişkeninin algı düzeyleri üzerinde manidar bir farklılık yaratMAdığına işaret etmektedir.
Grafik ayrıca, her iki cinsiyet grubunda da yüksek algı düzeylerinin (algı = 2 ve algı = 3) daha DÜŞÜK oranlarda temsil edildiğini göstermektedir.
Görselleştirmenin sağladığı netlik sayesinde, örneklemde algı düzeyinin cinsiyet bazında dağılım deseninin oldukça tutarlı olduğu söylenebilir.
library(dplyr)
library(kableExtra)
temiz_veri %>% count(degerverme, cinsiyet, algi) %>% kable(format = "html", caption = "Tablo 60. Değerverme, Cinsiyet ve Algı Değişkenlerinin Birlikte Frekans Dağılımı", digits = 0, align = "c") %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "400px")| degerverme | cinsiyet | algi | n |
|---|---|---|---|
| 1 | 1 | 1 | 113 |
| 1 | 1 | 2 | 19 |
| 1 | 1 | 3 | 8 |
| 1 | 2 | 1 | 119 |
| 1 | 2 | 2 | 15 |
| 1 | 2 | 3 | 9 |
| 2 | 1 | 1 | 8 |
| 2 | 1 | 2 | 2 |
| 2 | 2 | 1 | 11 |
| 2 | 2 | 2 | 5 |
| 2 | 2 | 3 | 1 |
Değerverme, Cinsiyet ve Algı Değişkenlerinin Birlikte Frekans Dağılımı Üzerine İstatistiksel Açıklama:
Tablo 60’da görüldüğü üzere, değerverme, cinsiyet ve algı değişkenlerinin birlikte dağılımı incelenmiştir.
Değerverme düzeyi “1” (örneğin olumlu değerlendirilenler) olan bireyler içerisinde, erkek katılımcıların büyük çoğunluğunun algı düzeyi “1” (%75’in üzerinde) olduğu gözlenmiştir (\(n = 113\)).
Kadın katılımcılarda ise algı düzeyi “1” olanların sayısı daha yüksek bulunmuş (\(n = 119\)) olmakla birlikte, algı düzeyi “2” ve “3” olan bireyler de dikkate değer düzeydedir (sırasıyla \(n = 15\) ve \(n = 9)\).
Bu bulgular, cinsiyet değişkenine göre algı dağılımında manidar bir farklılık olabileceğine işaret etmektedir.
Öte yandan, değerverme düzeyi “2” (örneğin olumsuz değerlendirilenler) olan katılımcılar arasında her iki cinsiyette de algı düzeyi “1” yoğunluk göstermektedir.
Erkek katılımcılarda (\(n = 8\)) ve kadın katılımcılarda (\(n = 11\)) algı düzeyi “1” oranı yine yüksek bulunmuş, ancak bu grup içerisindeki toplam örneklem büyüklüğünün görece düşük olduğu (özellikle değerverme = 2 için toplamda \(n = 27\)) göz önünde bulundurulmalıdır.
Bu sonuçlar, önceki çalışmalarda değervermenin bireysel algılar üzerinde etkili olduğuna ilişkin bulgularla paralellik göstermektedir.
Özellikle cinsiyet faktörünün algı düzeyinde belirleyici bir rol oynayabileceği hipotezini DESTEKLEMEKTEdir.
library(dplyr)
library(tidyr)
library(kableExtra)
temiz_veri %>% count(degerverme, cinsiyet, algi) %>% pivot_wider(names_from = degerverme, values_from = n) %>% kable(format = "html", caption = "Tablo 61. Değerverme Değişkenine Göre Cinsiyet ve Algı Dağılımı", align = "c", digits = 0) %>% kable_styling(full_width = F, position = "center", bootstrap_options = c("striped", "hover", "condensed", "responsive")) %>% scroll_box(height = "400px")| cinsiyet | algi | 1 | 2 |
|---|---|---|---|
| 1 | 1 | 113 | 8 |
| 1 | 2 | 19 | 2 |
| 1 | 3 | 8 | NA |
| 2 | 1 | 119 | 11 |
| 2 | 2 | 15 | 5 |
| 2 | 3 | 9 | 1 |
Tablo 61. Değerverme Değişkenine Göre Cinsiyet ve Algı Dağılımı incelendiğinde, katılımcıların “değerverme” düzeyine göre “cinsiyet” ve “algı” değişkenleri arasında belirgin bir dağılım olduğu görülmektedir.
Erkek katılımcılarda (cinsiyet = 1), algı düzeyi 1 olan bireylerin büyük çoğunluğunun (\(n = 113\)) değerverme düzeyinin DÜŞTÜKçe (degerverme = 1) olduğu, az bir kısmının ise (\(n = 8\)) değerverme düzeyinin YÜKSEK (degerverme = 2) olduğu tespit edilmiştir.
Benzer şekilde, erkeklerde algı düzeyi 2 olan bireylerden 19’u DÜŞTÜKçe, 2’si ise YÜKSEK değerverme düzeyine sahiptir.
Algı düzeyi 3 olan erkek bireylerin ise yalnızca DÜŞTÜKçe değerverme grubunda yer aldığı ve YÜKSEK değerverme düzeyine sahip birey bulunMAdığı gözlenmiştir.
Kadın katılımcılar (cinsiyet = 2) arasında da benzer bir eğilim söz konusudur.
Algı düzeyi 1 olan kadınların büyük bir kısmı (\(n = 119\)) DÜŞTÜKçe değerverme düzeyinde iken, yalnızca 11’i YÜKSEK değerverme düzeyinde yer almıştır.
Algı düzeyi 2 olan kadın bireylerin 15’i DÜŞTÜKçe, 5’i ise YÜKSEK değerverme grubunda bulunmuştur.
Son olarak, algı düzeyi 3 olan kadınların 3’ü DÜŞTÜKçe değerverme, 1’i ise YÜKSEK değerverme düzeyindedir.
Bu bulgular, algı düzeyi DÜŞTÜKçe bireylerin büyük oranda DÜŞTÜKçe değerverme düzeyine sahip olduklarını, YÜKSEK değerverme düzeyine sahip bireylerin ise hem erkek hem kadın gruplarında daha DÜŞÜK bir sıklıkta temsil edildiğini göstermektedir.
Ayrıca, cinsiyetler arasında değerverme ve algı değişkenleri açısından genel dağılımın paralellik gösterdiği dikkat çekmektedir.
Bu sonuçlar, algı ve değerverme arasındaki ilişkinin cinsiyet değişkeninden bağımsız olarak benzer bir örüntü izlediğini düşündürmektedir.
library(ggplot2)
library(scales)
ggplot(temiz_veri, aes(x = factor(cinsiyet), fill = factor(algi))) + geom_bar(position = "fill", color = "black", width = 0.7) + facet_wrap(~ degerverme, labeller = labeller(degerverme = c("1" = "Düşük Değer Verme", "2" = "Yüksek Değer Verme"))) + scale_y_continuous(labels = percent_format(accuracy = 1)) + scale_fill_brewer(palette = "Set2", name = "Algı Düzeyi", labels = c("1" = "Düşük", "2" = "Orta", "3" = "Yüksek")) + labs(title = "Cinsiyet ve Değer Verme Düzeyine Göre Algı Dağılımı", x = "Cinsiyet", y = "Yüzde (%)") + theme_minimal(base_size = 14) + theme(legend.position = "bottom", strip.background = element_rect(fill = "gray90", color = "gray50"), strip.text = element_text(size = 12, face = "bold"), panel.grid.major.y = element_line(color = "gray80"), panel.grid.minor = element_blank())Çalışmada, “cinsiyet” ve “değerverme” düzeylerine göre “algı” değişkeninin yüzde dağılımı incelenmiştir.
Grafik, değerverme düzeyi düşük olan bireyler ile değerverme düzeyi yüksek olan bireyler arasında algı düzeyinin dağılımında önemli farklılıklar olMAdığını göstermektedir.
Her iki değerverme kategorisinde de katılımcıların büyük çoğunluğunun düşük algı düzeyinde toplandığı görülmektedir.
Cinsiyet değişkeni açısından incelendiğinde ise, hem kadınlar hem de erkekler arasında benzer bir dağılım paterni sergilenmiş, algı düzeyleri bakımından belirgin bir cinsiyet farklılığına rastlanmamıştır.
Bu sonuçlar, değerverme düzeyi ve cinsiyet değişkenlerinin algı düzeyi üzerinde sınırlı etkisinin bulunduğunu ve algı değişkeninin bu demografik değişkenlerden bağımsız bir örüntü izlediğini düşündürmektedir.