## ── Attaching core tidyverse packages ──────────────────────── tidyverse 2.0.0 ──
## ✔ dplyr 1.1.4 ✔ readr 2.1.5
## ✔ forcats 1.0.0 ✔ stringr 1.5.1
## ✔ ggplot2 3.5.1 ✔ tibble 3.2.1
## ✔ lubridate 1.9.4 ✔ tidyr 1.3.1
## ✔ purrr 1.0.4
## ── Conflicts ────────────────────────────────────────── tidyverse_conflicts() ──
## ✖ dplyr::filter() masks stats::filter()
## ✖ dplyr::lag() masks stats::lag()
## ℹ Use the conflicted package (<http://conflicted.r-lib.org/>) to force all conflicts to become errors
##
## Attaching package: 'stevemisc'
##
## The following object is masked from 'package:lubridate':
##
## dst
##
## The following object is masked from 'package:dplyr':
##
## tbl_df
##
## Attaching package: 'summarytools'
##
## The following object is masked from 'package:tibble':
##
## view
##
## Attaching package: 'plotly'
##
## The following object is masked from 'package:ggplot2':
##
## last_plot
##
## The following object is masked from 'package:stats':
##
## filter
##
## The following object is masked from 'package:graphics':
##
## layout
## Zorunlu paket yükleniyor: ggpp
## Registered S3 methods overwritten by 'ggpp':
## method from
## heightDetails.titleGrob ggplot2
## widthDetails.titleGrob ggplot2
##
## Attaching package: 'ggpp'
##
## The following object is masked from 'package:ggplot2':
##
## annotate
##
## Attaching package: 'psych'
##
## The following object is masked from 'package:outliers':
##
## outlier
##
## The following objects are masked from 'package:ggplot2':
##
## %+%, alpha
##
## Attaching package: 'sur'
##
## The following object is masked from 'package:psych':
##
## skew
## corrplot 0.95 loaded
##
## Attaching package: 'olsrr'
##
## The following object is masked from 'package:datasets':
##
## rivers
library(dplyr)
library(naniar)
library(olsrr)
library(moments)
library(corrplot)
library(sur)
library(psych)
library(ggpmisc)
library(outliers)
library(ggplot2)
library(plotly)
library(knitr)
library(summarytools)
library(stevemisc)
library(tidyverse)
library(MASS)
##
## Attaching package: 'MASS'
## The following object is masked from 'package:olsrr':
##
## cement
## The following object is masked from 'package:plotly':
##
## select
## The following object is masked from 'package:dplyr':
##
## select
## crim zn indus chas nox rm age dis rad tax ptratio black lstat
## 1 0.00632 18 2.31 0 0.538 6.575 65.2 4.0900 1 296 15.3 396.90 4.98
## 2 0.02731 0 7.07 0 0.469 6.421 78.9 4.9671 2 242 17.8 396.90 9.14
## 3 0.02729 0 7.07 0 0.469 7.185 61.1 4.9671 2 242 17.8 392.83 4.03
## 4 0.03237 0 2.18 0 0.458 6.998 45.8 6.0622 3 222 18.7 394.63 2.94
## 5 0.06905 0 2.18 0 0.458 7.147 54.2 6.0622 3 222 18.7 396.90 5.33
## 6 0.02985 0 2.18 0 0.458 6.430 58.7 6.0622 3 222 18.7 394.12 5.21
## medv
## 1 24.0
## 2 21.6
## 3 34.7
## 4 33.4
## 5 36.2
## 6 28.7
## age medv crim tax dis
## 1 65.2 24.0 0.00632 296 4.0900
## 2 78.9 21.6 0.02731 242 4.9671
## 3 61.1 34.7 0.02729 242 4.9671
## 4 45.8 33.4 0.03237 222 6.0622
## 5 54.2 36.2 0.06905 222 6.0622
## 6 58.7 28.7 0.02985 222 6.0622
#Analizlere geçmeden önce Regresyon analizlerinin varsyımlarına değinmenin faydalı olacağını düşünüyorum 1. Doğrusallık: Yordayıcı ve yordanan değişkenin arasındaki ilişkinin doğrusal olması. 2.Artıların normalliği:Çoklu regresyonda normal dağılım varsayımı yordanan ve yordayan değişkenler için değil sadece artık değerler için geçerlidir. Ancak bu varsayımın sağlanmadığı durumlarda merkezi limit teoremi artıkların dağılımını normale yaklaştıracağı için analizlere devam edilebilir (Osborne, 2017). Normallik varsayımı p değerlerinin hesaplanmasında önemlidir sadece (Eser ve Toker,2024). 3. Eş Varyanslık: Hataların her gözlem için eş varyansa sahip olması gerekir. 4. Çoklu doğrusal bağlantı: Yordayıcı değişkenler arasında bağlantı bulunmamsı gerekir. 5. Uç değerler:Veride uç değerler bulunmamalıdır. 6.: Gözlemlerin yordayıcılığı: Aynı değişken üzerinde elde edilen iki ya da daha fazla ölçümün aynı katılımcıdan gelmemesi 7:Otokorelasyon:Hataların arasında korelasyon olmaması
#değişkenlerin açıklamaları medv:ortalama ev fiyetı crim:suç oranı age:binaların ortalama yaşı dis:şehir merkezine uzaklık tax:vergi oranı # Eksik veri kontrolü
## [1] FALSE
## [1] 0
library(dplyr)
library(outliers)
z.scores <- dat %>%
scores(type = "z") %>% #z değerlerine dönüştürme
round(2)
head(z.scores)
## age medv crim tax dis
## 1 -0.12 0.16 -0.42 -0.67 0.14
## 2 0.37 -0.10 -0.42 -0.99 0.56
## 3 -0.27 1.32 -0.42 -0.99 0.56
## 4 -0.81 1.18 -0.42 -1.11 1.08
## 5 -0.51 1.49 -0.41 -1.11 1.08
## 6 -0.35 0.67 -0.42 -1.11 1.08
summarytools::descr(z.scores,
stats = c("min", "max"),
transpose = TRUE, #değişkenlerdeki max ve min z değerleri görülebilir.
headings = FALSE)
##
## Min Max
## ---------- ------- ------
## age -2.33 1.12
## crim -0.42 9.92
## dis -1.27 3.96
## medv -1.91 2.99
## tax -1.31 1.80
#crim ve dis değişkenleri +-3 aralığının dışında oldğu için uç değer kontrol edilecek
## [1] 13.52220 9.23230 11.10810 18.49820 19.60910 15.28800 9.82349 23.64820
## [9] 17.86670 88.97620 15.87440 9.18702 20.08490 16.81180 24.39380 22.59710
## [17] 14.33370 11.57790 13.35980 38.35180 9.91655 25.04610 14.23620 9.59571
## [25] 24.80170 41.52920 67.92080 20.71620 11.95110 14.43830 51.13580 14.05070
## [33] 18.81100 28.65580 45.74610 18.08460 10.83420 25.94060 73.53410 11.81230
## [41] 11.08740 12.04820 15.86030 12.24720 37.66190 9.33889 10.06230 13.91340
## [49] 11.16040 14.42080 15.17720 13.67810 9.39063 22.05110 9.72418 9.96654
## [57] 12.80230 10.67180 9.92485 9.32909 9.51363 15.57570 13.07510 15.02340
## [65] 10.23300 14.33370
## [1] 10.7103 10.7103 12.1265 10.5857 10.5857
#crim (suç oranı) değişkeninde çok fazla uç değer olduğu için log dönüşümü denedim ve uç değer sayısında oldukça düşüş yaşandı analizlerime bu şekilde devam edeceğim.
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.00630 0.07885 0.22834 0.81342 1.54267 4.49955
library(ggplot2)
library(plotly)
out_values <- boxplot.stats(dat$crim)$out
out_ind <- which(dat$crim %in% out_values)
plot_ly(y = dat$crim, type = 'box') %>%
layout(title = 'Box Plot',
annotations = list( x = -0.01, y = boxplot.stats(dat$crim)$out,
text = paste(out_ind), showarrow = FALSE, #uç değerlerin satırlarını gösterir.
xanchor = "right"))
out_crim <- boxplot.stats(dat$crim)$out
out_rows_crim <- which(dat$crim %in% out_crim)
out_rows_crim
## [1] 368 372 374 375 376 377 378 379 380 381 382 383 385 386 387 388 389 393 395
## [20] 399 400 401 402 403 404 405 406 407 408 410 411 412 413 414 415 416 417 418
## [39] 419 420 421 423 426 427 428 430 432 435 436 437 438 439 440 441 442 444 445
## [58] 446 448 449 455 469 470 478 479 480
#grafikle çıktıdaki uç değerler uyumlu bu değerleri sileceğim
# Uç değerleri bul
out_values <- boxplot.stats(dat$dis)$out
out_ind <- which(dat$dis %in% out_values)
# Boxplot oluştur
plot_ly(y = dat$dis, type = 'box') %>%
layout(title = 'Box Plot - DIS',
annotations = list(
x = -0.01,
y = out_values,
text = paste(out_ind),
showarrow = FALSE,
xanchor = "right"
))
## [1] 352 353 354 355 356
#grafikle çıktdaki uç değerler uyumlu
dat[c(352,353,354,355,356,368,372,374,375,376,377,
378,379,380,381,382,383,385,386,387,388, 389, 393, 395,
399,400, 401, 402, 403, 404, 405, 406, 407, 408, 410, 411, 412, 413, 414, 415,
416, 417, 418, 419, 420,421, 423, 426, 427, 428, 430, 432, 435, 436, 437,
438, 439, 440, 441, 442, 444, 445, 446, 448, 449,455, 469, 470, 478, 479 ,480 ),]
## age medv crim tax dis log_crim
## 352 35.9 24.1 0.07950 411 10.7103 0.07649797
## 353 18.5 18.6 0.07244 411 10.7103 0.06993643
## 354 36.1 30.1 0.01709 187 12.1265 0.01694561
## 355 21.9 18.2 0.04301 334 10.5857 0.04211076
## 356 19.5 20.6 0.10659 334 10.5857 0.10128321
## 368 100.0 23.1 13.52220 666 1.5106 2.67567851
## 372 100.0 50.0 9.23230 666 1.1691 2.32554938
## 374 100.0 13.8 11.10810 666 1.1742 2.49387465
## 375 100.0 13.8 18.49820 666 1.1370 2.97032215
## 376 97.9 15.0 19.60910 666 1.3163 3.02573273
## 377 93.3 13.9 15.28800 666 1.3449 2.79042864
## 378 98.8 13.3 9.82349 666 1.3580 2.38171877
## 379 96.2 13.1 23.64820 666 1.3861 3.20470388
## 380 100.0 10.2 17.86670 666 1.3861 2.93739846
## 381 91.9 10.4 88.97620 666 1.4165 4.49954519
## 382 99.1 10.9 15.87440 666 1.5192 2.82579768
## 383 100.0 11.3 9.18702 666 1.5804 2.32111436
## 385 91.2 8.8 20.08490 666 1.4395 3.04855714
## 386 98.1 7.2 16.81180 666 1.4261 2.87986116
## 387 100.0 10.5 24.39380 666 1.4672 3.23450505
## 388 89.5 7.4 22.59710 666 1.5184 3.16112382
## 389 100.0 10.2 14.33370 666 1.5895 2.73005302
## 393 97.0 9.7 11.57790 666 1.7700 2.53194131
## 395 94.7 12.7 13.35980 666 1.7821 2.66443264
## 399 100.0 5.0 38.35180 666 1.4896 3.67254172
## 400 77.8 6.3 9.91655 666 1.5004 2.39027999
## 401 100.0 5.6 25.04610 666 1.5888 3.25986804
## 402 100.0 7.2 14.23620 666 1.5741 2.72367418
## 403 100.0 12.1 9.59571 666 1.6390 2.36044920
## 404 96.0 8.3 24.80170 666 1.7028 3.25044038
## 405 85.4 8.5 41.52920 666 1.6074 3.75019090
## 406 100.0 5.0 67.92080 666 1.4254 4.23295802
## 407 100.0 11.9 20.71620 666 1.1781 3.07805853
## 408 100.0 27.9 11.95110 666 1.2852 2.56118073
## 410 100.0 27.5 14.43830 666 1.4655 2.73685143
## 411 100.0 15.0 51.13580 666 1.4130 3.95385185
## 412 100.0 17.2 14.05070 666 1.5275 2.71142450
## 413 100.0 17.9 18.81100 666 1.5539 2.98623734
## 414 100.0 16.3 28.65580 666 1.5894 3.38965772
## 415 100.0 7.0 45.74610 666 1.6582 3.84473083
## 416 100.0 7.2 18.08460 666 1.8347 2.94888173
## 417 90.8 7.5 10.83420 666 1.8195 2.47099364
## 418 89.1 10.4 25.94060 666 1.6475 3.29363444
## 419 100.0 8.8 73.53410 666 1.8026 4.31125674
## 420 76.5 8.4 11.81230 666 1.7940 2.55040565
## 421 100.0 16.7 11.08740 666 1.8589 2.49216359
## 423 87.6 20.8 12.04820 666 1.9512 2.56865019
## 426 95.4 8.3 15.86030 666 1.9096 2.82496175
## 427 59.7 10.2 12.24720 666 1.9976 2.58378621
## 428 78.7 10.9 37.66190 666 1.8629 3.65485462
## 430 95.6 9.5 9.33889 666 1.9682 2.33591251
## 432 94.3 14.1 10.06230 666 2.0882 2.40354293
## 435 95.0 11.7 13.91340 666 2.2222 2.70226014
## 436 94.6 13.4 11.16040 666 2.1247 2.49818477
## 437 93.3 9.6 14.42080 666 2.0026 2.73571725
## 438 100.0 8.7 15.17720 666 1.9142 2.78360284
## 439 87.9 8.4 13.67810 666 1.8206 2.68635659
## 440 93.9 12.8 9.39063 666 1.8172 2.34090444
## 441 92.4 10.5 22.05110 666 1.8662 3.13771349
## 442 97.2 17.1 9.72418 666 2.0651 2.37250101
## 444 100.0 15.4 9.96654 666 1.9784 2.39484882
## 445 96.6 10.8 12.80230 666 1.8956 2.62483524
## 446 94.8 11.8 10.67180 666 1.9879 2.45717568
## 448 96.6 12.6 9.92485 666 2.1980 2.39104001
## 449 98.7 14.1 9.32909 666 2.2616 2.33496419
## 455 94.1 14.9 9.51363 666 2.4961 2.35267251
## 469 71.0 19.1 15.57570 666 2.9084 2.80793777
## 470 56.7 20.1 13.07510 666 2.8237 2.64440728
## 478 97.3 12.0 15.02340 666 2.1007 2.77405015
## 479 96.7 14.6 10.23300 666 2.1705 2.41885587
## 480 88.0 21.4 14.33370 666 1.9512 2.73005302
dat2 <- dat[-c(352,353,354,355,356,368,372,374,375,376,377,
378,379,380,381,382,383,385,386,387,388, 389, 393, 395,
399,400, 401, 402, 403, 404, 405, 406, 407, 408, 410, 411, 412, 413, 414, 415,
416, 417, 418, 419, 420,421, 423, 426, 427, 428, 430, 432, 435, 436, 437,
438, 439, 440, 441, 442, 444, 445, 446, 448, 449,455, 469, 470, 478, 479 ,480),]
dat<-dat2
#Doğrusallık tam olarak sağlanmasa da değerlerin çizgi etrafında belirgin şekilde toplandığı için doğrusallık varsayımı kabul edilir.
model <- lm(medv ~ age + crim+ dis, data = dat)
# Hata terimlerini çıkar
residuals <- resid(model)
# Ljung-Box testi
Box.test(residuals, lag = 10, type = "Ljung-Box")
##
## Box-Ljung test
##
## data: residuals
## X-squared = 516.75, df = 10, p-value < 2.2e-16
#p değeri küçük olduğu için varsayım sağlanmıyor ancak otokorelasyon zaman serisi analizlerinde önemli olduğu için bizim veri setimizde böyle bir durum söz konusu deği
model <- lm(medv ~ age + crim+ dis, data = dat)
residuals <- model$residuals
hist(residuals, main = "Artıkların Histogramı", xlab = "Artıklar", col = "lightblue", border = "black")
##
## Shapiro-Wilk normality test
##
## data: residuals
## W = 0.8263, p-value < 2.2e-16
# p değerine bakarak artıkların normal dağılmadığı söylesede ikinci grafik incelendiğinde artıkların çizgi etrafında olduğu görülmektedir bu da normal dağılım varsayımını karşılar
## Zorunlu paket yükleniyor: zoo
##
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
##
## as.Date, as.Date.numeric
##
## studentized Breusch-Pagan test
##
## data: model
## BP = 12.349, df = 3, p-value = 0.006278
# p değerine bakıldığında varsayım sağlanmadığı görülsede 3. grafik incelendiğinde artıkların varyansının homojen olduğu söylenebilir.
Aynı değişken üzerinde elde edilen iki ya da daha fazla ölçümün aynı katılımcıdan gelmemesi
## Zorunlu paket yükleniyor: carData
##
## Attaching package: 'carData'
## The following objects are masked from 'package:sur':
##
## Anscombe, States
##
## Attaching package: 'car'
## The following object is masked from 'package:psych':
##
## logit
## The following object is masked from 'package:dplyr':
##
## recode
## The following object is masked from 'package:purrr':
##
## some
## age crim dis
## 2.094730 1.290762 2.169687
#Çoklu doğrusal bağımlılığın olmadığı söylenebilir
library(broom)
model <- lm(medv ~ age + crim+ dis, data = dat)
sqrt(glance(model)[,1]) #r.squared değerinin karekoku alınır
## # A tibble: 1 × 1
## r.squared
## <dbl>
## 1 0.361
#R=0,36 bağımlı değişkenin gözlenen ve yordanan değerleri arasındaki korelasyondur.
## [1] 0.1302839
## [1] 0.1242302
#determinasyon katsayısı çok kötü varyansın %12si açıklanmış. (Yordayıcı değişkenler tarafından yordanan değişkenin %12 lik kısmı açıklanmış(açıklanan varyans oranı))
##
## Call:
## lm(formula = medv ~ age + crim + dis, data = dat)
##
## Coefficients:
## (Intercept) age crim dis
## 36.3994 -0.1159 -0.7934 -0.9694
## [1] 8.11814
# Genelde standartlaştırılmamış artık değerler kullanılır hataların normal dağılım varsayımın ihlal edilebileceğini belirtmiştim #tahminin standart hatası da büyük sıkıntı çok kötü çıktı
r.squared | adj.r.squared | sigma | statistic | p.value |
---|---|---|---|---|
0.13 | 0.124 | 8.128 | 21.521 | 0 |
#F istatistiği 21,52, yordayıcı değişkenler yordanan değişkeni istatistiksel olarak anlamlı bir şekilde yordamaktadır.
term | estimate | std.error | statistic | p.value |
---|---|---|---|---|
(Intercept) | 36.399 | 2.324 | 15.659 | 0.000 |
age | -0.116 | 0.020 | -5.719 | 0.000 |
crim | -0.793 | 0.207 | -3.825 | 0.000 |
dis | -0.969 | 0.293 | -3.310 | 0.001 |
#yordanan değişkendeki farklılıklar tüm yordayıcı değişkenler tarafından kaynaklanmaktadır
library(datasets)
model <- lm(medv ~ age + crim+ dis, data = dat)
#ev fiyatları (medv) değişkenin ile diğer değişkenlerin regresyonunda artık değerleri alarak bu iki değişkenin (medv) değişkenine olan etkisini ortadan kaldırıyoruz.
artik_medv <- lm(medv ~ age + crim , data = dat)$residuals
#uzaklık (dis) değişkenin ile diğer değişkenlerin regresyonunda artık değerleri alarak bu iki değişkenin (dis) değişkenine olan etkisini ortadan kaldırıyoruz.
artik_dis <- lm(dis ~ age + crim, data = dat)$residuals
fm2 <- lm(artik_medv ~ artik_dis,
data=data_frame(artik_medv,artik_dis))
## Warning: `data_frame()` was deprecated in tibble 1.1.0.
## ℹ Please use `tibble()` instead.
## This warning is displayed once every 8 hours.
## Call `lifecycle::last_lifecycle_warnings()` to see where this warning was
## generated.
##
## Call:
## lm(formula = artik_medv ~ artik_dis, data = data_frame(artik_medv,
## artik_dis))
##
## Residuals:
## Min 1Q Median 3Q Max
## -16.164 -4.884 -2.506 2.017 31.635
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -1.911e-15 3.888e-01 0.000 1.000000
## artik_dis -9.694e-01 2.922e-01 -3.317 0.000985 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 8.109 on 433 degrees of freedom
## Multiple R-squared: 0.02479, Adjusted R-squared: 0.02253
## F-statistic: 11.01 on 1 and 433 DF, p-value: 0.000985
# evin yaş ve ev civarındaki suç oranı değişkenleri sabit tutulduğunda evin merkeze olan uzaklığındaki 1 puanlık artış ev fiyatları değişkenininde -0,694 lık bir azalma sağlayacaktır. Aşağıda fiyat ve uzaklık arasıdaki regresyon katsayısı ile burdaki sonuç birbirinden farklı çıkmakta yaptğımız analiz doğru.
##
## Call:
## lm(formula = medv ~ dis, data = dat)
##
## Residuals:
## Min 1Q Median 3Q Max
## -15.627 -5.259 -2.073 2.713 27.748
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 21.5758 0.9436 22.866 <2e-16 ***
## dis 0.5989 0.2108 2.842 0.0047 **
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 8.615 on 433 degrees of freedom
## Multiple R-squared: 0.01831, Adjusted R-squared: 0.01604
## F-statistic: 8.076 on 1 and 433 DF, p-value: 0.004698
model <- lm(medv ~ dis + crim + age, data = dat)
# Sabit terimi al
intercept <- coef(model)[1]
# Sabit terimi yazdır
cat("Regresyon Sabiti (Intercept):", intercept, "\n")
## Regresyon Sabiti (Intercept): 36.39943
#uzaklık, suç oranı ve yaş değişkenleri 0 olduğunda ev fiyatı puanı 36,39 olmaktadır.
## Zorunlu paket yükleniyor: boot
##
## Attaching package: 'boot'
## The following object is masked from 'package:car':
##
## logit
## The following object is masked from 'package:psych':
##
## logit
##
## Attaching package: 'QuantPsyc'
## The following object is masked from 'package:base':
##
## norm
x | |
---|---|
dis | -0.219 |
crim | -0.195 |
age | -0.372 |
# uzaklık değişkenindeki bir standart sapmalık değişim ev fiyatları değişkende -0,219 luk bir standart sapmalık değişim sağlayacaktır. age değişkeni diğer değişkenlere göre ev fiyatlarını daha çok etkilemektedir. Bu karşılaştırma sadece standartlaşıtırılmış katsayılar üzerinden gerçekleştirilmektedir.
data.frame(
gercek = dat$medv,
yordanan = model$fitted.values,
artik = model$residuals) %>% kable(digit=3)
gercek | yordanan | artik | |
---|---|---|---|
1 | 24.0 | 24.876 | -0.876 |
2 | 21.6 | 22.422 | -0.822 |
3 | 34.7 | 24.484 | 10.216 |
4 | 33.4 | 25.191 | 8.209 |
5 | 36.2 | 24.189 | 12.011 |
6 | 28.7 | 23.699 | 5.001 |
7 | 22.9 | 23.223 | -0.323 |
8 | 27.1 | 19.383 | 7.717 |
9 | 16.5 | 18.751 | -2.251 |
10 | 18.9 | 19.922 | -1.022 |
11 | 15.0 | 19.144 | -4.144 |
12 | 18.9 | 20.666 | -1.766 |
13 | 21.7 | 26.523 | -4.823 |
14 | 20.4 | 24.177 | -3.777 |
15 | 18.2 | 21.778 | -3.578 |
16 | 19.9 | 24.995 | -5.095 |
17 | 23.1 | 27.808 | -4.708 |
18 | 17.5 | 22.185 | -4.685 |
19 | 20.2 | 27.842 | -7.642 |
20 | 18.2 | 24.092 | -5.892 |
21 | 13.6 | 20.360 | -6.760 |
22 | 19.6 | 21.500 | -1.900 |
23 | 15.2 | 20.943 | -5.743 |
24 | 14.5 | 20.060 | -5.560 |
25 | 15.6 | 20.638 | -5.038 |
26 | 13.9 | 21.486 | -7.586 |
27 | 16.6 | 20.866 | -4.266 |
28 | 14.8 | 21.036 | -6.236 |
29 | 18.4 | 20.531 | -2.131 |
30 | 21.0 | 21.381 | -0.381 |
31 | 12.7 | 20.497 | -7.797 |
32 | 14.5 | 19.692 | -5.192 |
33 | 13.2 | 21.930 | -8.730 |
34 | 13.1 | 20.808 | -7.708 |
35 | 13.5 | 20.249 | -6.749 |
36 | 18.9 | 25.190 | -6.290 |
37 | 20.0 | 25.934 | -5.934 |
38 | 21.0 | 27.714 | -6.714 |
39 | 24.7 | 29.032 | -4.332 |
40 | 30.8 | 28.616 | 2.184 |
41 | 34.9 | 29.306 | 5.594 |
42 | 26.6 | 30.417 | -3.817 |
43 | 25.3 | 29.977 | -4.677 |
44 | 24.7 | 29.974 | -5.274 |
45 | 21.2 | 26.122 | -4.922 |
46 | 19.3 | 27.403 | -8.103 |
47 | 20.0 | 27.448 | -7.448 |
48 | 16.6 | 20.797 | -4.197 |
49 | 14.4 | 19.467 | -5.067 |
50 | 19.4 | 23.141 | -3.741 |
51 | 19.7 | 24.428 | -4.728 |
52 | 20.5 | 22.460 | -1.960 |
53 | 25.0 | 27.306 | -2.306 |
54 | 23.4 | 27.275 | -3.875 |
55 | 18.9 | 23.778 | -4.878 |
56 | 35.4 | 25.421 | 9.979 |
57 | 24.7 | 23.341 | 1.359 |
58 | 31.6 | 23.626 | 7.974 |
59 | 23.3 | 25.318 | -2.018 |
60 | 19.6 | 24.129 | -4.529 |
61 | 18.7 | 21.607 | -2.907 |
62 | 16.0 | 18.833 | -2.833 |
63 | 22.2 | 21.453 | 0.747 |
64 | 25.0 | 23.534 | 1.466 |
65 | 33.0 | 20.550 | 12.450 |
66 | 23.5 | 27.900 | -4.400 |
67 | 19.4 | 26.353 | -6.953 |
68 | 22.0 | 27.575 | -5.575 |
69 | 17.4 | 25.729 | -8.329 |
70 | 20.9 | 26.175 | -5.275 |
71 | 24.2 | 30.439 | -6.239 |
72 | 21.7 | 29.121 | -7.421 |
73 | 22.8 | 30.298 | -7.498 |
74 | 23.4 | 30.401 | -7.001 |
75 | 24.1 | 31.520 | -7.420 |
76 | 21.4 | 26.746 | -5.346 |
77 | 20.0 | 23.760 | -3.760 |
78 | 20.8 | 27.059 | -6.259 |
79 | 21.2 | 25.273 | -4.073 |
80 | 20.3 | 27.728 | -7.428 |
81 | 28.0 | 27.250 | 0.750 |
82 | 23.9 | 22.973 | 0.927 |
83 | 24.8 | 27.405 | -2.605 |
84 | 22.9 | 25.726 | -2.826 |
85 | 23.9 | 26.165 | -2.265 |
86 | 26.6 | 25.553 | 1.047 |
87 | 22.5 | 26.842 | -4.342 |
88 | 22.2 | 26.129 | -3.929 |
89 | 23.6 | 23.040 | 0.560 |
90 | 28.7 | 25.737 | 2.963 |
91 | 22.6 | 25.707 | -3.107 |
92 | 22.0 | 24.809 | -2.809 |
93 | 22.9 | 26.603 | -3.703 |
94 | 25.0 | 29.475 | -4.475 |
95 | 20.6 | 23.906 | -3.306 |
96 | 28.4 | 26.218 | 2.182 |
97 | 21.4 | 24.857 | -3.457 |
98 | 38.7 | 24.111 | 14.589 |
99 | 43.8 | 28.671 | 15.129 |
100 | 33.2 | 25.716 | 7.484 |
101 | 27.5 | 24.332 | 3.168 |
102 | 26.5 | 25.280 | 1.220 |
103 | 18.6 | 23.693 | -5.093 |
104 | 19.3 | 23.474 | -4.174 |
105 | 20.1 | 23.515 | -3.415 |
106 | 19.5 | 23.049 | -3.549 |
107 | 19.5 | 23.474 | -3.974 |
108 | 20.4 | 24.367 | -3.967 |
109 | 19.8 | 22.690 | -2.890 |
110 | 19.4 | 23.157 | -3.757 |
111 | 21.7 | 27.319 | -5.619 |
112 | 22.8 | 24.270 | -1.470 |
113 | 18.8 | 23.258 | -4.458 |
114 | 18.7 | 22.701 | -4.001 |
115 | 18.5 | 24.344 | -5.844 |
116 | 18.3 | 23.658 | -5.358 |
117 | 21.2 | 25.249 | -4.049 |
118 | 19.2 | 24.047 | -4.847 |
119 | 20.4 | 25.425 | -5.025 |
120 | 19.3 | 26.056 | -6.756 |
121 | 22.0 | 26.081 | -4.081 |
122 | 20.3 | 24.469 | -4.169 |
123 | 20.5 | 23.540 | -3.040 |
124 | 17.3 | 23.158 | -5.858 |
125 | 18.8 | 23.278 | -4.478 |
126 | 21.4 | 24.092 | -2.692 |
127 | 15.7 | 23.313 | -7.613 |
128 | 16.2 | 23.339 | -7.139 |
129 | 18.0 | 22.938 | -4.938 |
130 | 14.3 | 22.810 | -8.510 |
131 | 19.2 | 22.618 | -3.418 |
132 | 19.6 | 21.933 | -2.333 |
133 | 23.0 | 22.333 | 0.667 |
134 | 18.4 | 22.691 | -4.291 |
135 | 15.6 | 21.951 | -6.351 |
136 | 18.1 | 22.534 | -4.434 |
137 | 17.4 | 23.405 | -6.005 |
138 | 17.1 | 22.927 | -5.827 |
139 | 13.3 | 23.207 | -9.907 |
140 | 17.8 | 23.008 | -5.208 |
141 | 14.0 | 23.762 | -9.762 |
142 | 14.4 | 22.127 | -7.727 |
143 | 13.4 | 20.898 | -7.498 |
144 | 15.6 | 20.195 | -4.595 |
145 | 11.8 | 21.559 | -9.759 |
146 | 13.8 | 21.551 | -7.751 |
147 | 15.6 | 21.634 | -6.034 |
148 | 14.6 | 22.017 | -7.417 |
149 | 17.8 | 22.200 | -4.400 |
150 | 15.4 | 21.757 | -6.357 |
151 | 21.5 | 22.244 | -0.744 |
152 | 19.6 | 22.084 | -2.484 |
153 | 15.3 | 23.750 | -8.450 |
154 | 19.4 | 21.709 | -2.309 |
155 | 17.0 | 22.460 | -5.460 |
156 | 15.6 | 22.333 | -6.733 |
157 | 13.1 | 21.885 | -8.785 |
158 | 41.3 | 22.325 | 18.975 |
159 | 24.3 | 22.045 | 2.255 |
160 | 23.3 | 21.972 | 1.328 |
161 | 27.0 | 22.918 | 4.082 |
162 | 50.0 | 22.809 | 27.191 |
163 | 50.0 | 21.590 | 28.410 |
164 | 50.0 | 22.220 | 27.780 |
165 | 22.7 | 21.637 | 1.063 |
166 | 25.0 | 21.092 | 3.908 |
167 | 50.0 | 21.676 | 28.324 |
168 | 23.8 | 23.444 | 0.356 |
169 | 23.8 | 21.405 | 2.395 |
170 | 22.3 | 21.234 | 1.066 |
171 | 17.4 | 22.130 | -4.730 |
172 | 19.1 | 20.976 | -1.876 |
173 | 23.1 | 23.520 | -0.420 |
174 | 23.6 | 24.018 | -0.418 |
175 | 22.6 | 25.754 | -3.154 |
176 | 29.4 | 29.475 | -0.075 |
177 | 23.2 | 27.429 | -4.229 |
178 | 24.6 | 24.637 | -0.037 |
179 | 29.9 | 24.901 | 4.999 |
180 | 37.2 | 26.845 | 10.355 |
181 | 39.8 | 24.040 | 15.760 |
182 | 36.2 | 26.620 | 9.580 |
183 | 37.9 | 23.028 | 14.872 |
184 | 32.5 | 22.485 | 10.015 |
185 | 26.4 | 23.034 | 3.366 |
186 | 29.6 | 25.202 | 4.398 |
187 | 50.0 | 27.044 | 22.956 |
188 | 32.0 | 27.903 | 4.097 |
189 | 29.8 | 28.501 | 1.299 |
190 | 34.9 | 27.399 | 7.501 |
191 | 37.0 | 27.555 | 9.445 |
192 | 30.5 | 26.495 | 4.005 |
193 | 36.4 | 27.002 | 9.398 |
194 | 31.1 | 29.206 | 1.894 |
195 | 29.1 | 28.181 | 0.919 |
196 | 50.0 | 27.206 | 22.794 |
197 | 33.3 | 25.332 | 7.968 |
198 | 30.3 | 25.037 | 5.263 |
199 | 34.6 | 24.847 | 9.753 |
200 | 34.9 | 27.183 | 7.717 |
201 | 32.9 | 27.356 | 5.544 |
202 | 24.1 | 25.845 | -1.745 |
203 | 42.3 | 28.485 | 13.815 |
204 | 48.5 | 27.564 | 20.936 |
205 | 50.0 | 27.726 | 22.274 |
206 | 22.6 | 29.883 | -7.283 |
207 | 24.4 | 25.913 | -1.513 |
208 | 22.5 | 23.555 | -1.055 |
209 | 24.4 | 25.335 | -0.935 |
210 | 20.0 | 20.712 | -0.712 |
211 | 21.7 | 21.833 | -0.133 |
212 | 19.3 | 22.284 | -2.984 |
213 | 22.4 | 26.453 | -4.053 |
214 | 28.1 | 28.721 | -0.621 |
215 | 23.7 | 31.557 | -7.857 |
216 | 25.0 | 27.506 | -2.506 |
217 | 23.3 | 26.859 | -3.559 |
218 | 28.7 | 23.168 | 5.532 |
219 | 21.5 | 22.644 | -1.144 |
220 | 23.0 | 22.344 | 0.656 |
221 | 26.7 | 23.088 | 3.612 |
222 | 21.7 | 22.544 | -0.844 |
223 | 27.5 | 23.731 | 3.769 |
224 | 30.1 | 23.379 | 6.721 |
225 | 44.8 | 24.272 | 20.528 |
226 | 50.0 | 23.560 | 26.440 |
227 | 37.6 | 22.958 | 14.642 |
228 | 31.6 | 23.698 | 7.902 |
229 | 46.7 | 30.922 | 15.778 |
230 | 31.5 | 30.298 | 1.202 |
231 | 24.3 | 24.525 | -0.225 |
232 | 31.7 | 23.564 | 8.136 |
233 | 41.7 | 23.730 | 17.970 |
234 | 48.3 | 24.440 | 23.860 |
235 | 29.0 | 24.800 | 4.200 |
236 | 24.0 | 25.472 | -1.472 |
237 | 25.1 | 23.103 | 1.997 |
238 | 31.5 | 23.677 | 7.823 |
239 | 23.7 | 28.190 | -4.490 |
240 | 23.3 | 25.437 | -2.137 |
241 | 22.0 | 23.877 | -1.877 |
242 | 20.1 | 22.631 | -2.531 |
243 | 22.2 | 23.369 | -1.169 |
244 | 23.7 | 28.574 | -4.874 |
245 | 17.6 | 19.662 | -2.062 |
246 | 18.5 | 20.403 | -1.903 |
247 | 24.3 | 24.278 | 0.022 |
248 | 20.5 | 19.259 | 1.241 |
249 | 24.5 | 22.994 | 1.506 |
250 | 26.2 | 26.634 | -0.434 |
251 | 24.4 | 27.612 | -3.212 |
252 | 24.8 | 28.028 | -3.228 |
253 | 29.6 | 26.912 | 2.688 |
254 | 42.8 | 26.499 | 16.301 |
255 | 21.9 | 23.716 | -1.816 |
256 | 20.9 | 25.220 | -4.320 |
257 | 44.0 | 26.283 | 17.717 |
258 | 50.0 | 24.101 | 25.899 |
259 | 36.0 | 22.451 | 13.549 |
260 | 30.1 | 22.344 | 7.756 |
261 | 33.8 | 24.447 | 9.353 |
262 | 43.1 | 23.544 | 19.556 |
263 | 48.8 | 23.168 | 25.632 |
264 | 31.0 | 22.782 | 8.218 |
265 | 36.5 | 23.480 | 13.020 |
266 | 22.8 | 26.594 | -3.794 |
267 | 30.7 | 23.907 | 6.793 |
268 | 50.0 | 25.831 | 24.169 |
269 | 43.5 | 27.093 | 16.407 |
270 | 20.7 | 25.405 | -4.705 |
271 | 21.1 | 26.991 | -5.891 |
272 | 25.2 | 30.089 | -4.889 |
273 | 24.4 | 25.710 | -1.310 |
274 | 35.2 | 25.989 | 9.211 |
275 | 32.4 | 28.590 | 3.810 |
276 | 32.0 | 27.228 | 4.772 |
277 | 33.2 | 25.999 | 7.201 |
278 | 33.1 | 28.439 | 4.661 |
279 | 29.1 | 28.604 | 0.496 |
280 | 35.1 | 28.527 | 6.573 |
281 | 45.4 | 24.348 | 21.052 |
282 | 35.4 | 26.976 | 8.424 |
283 | 46.0 | 25.541 | 20.459 |
284 | 50.0 | 27.809 | 22.191 |
285 | 32.2 | 26.899 | 5.301 |
286 | 22.0 | 25.611 | -3.611 |
287 | 20.1 | 23.923 | -3.823 |
288 | 23.2 | 25.649 | -2.449 |
289 | 22.3 | 23.987 | -1.687 |
290 | 24.8 | 26.619 | -1.819 |
291 | 28.5 | 28.179 | 0.321 |
292 | 37.3 | 28.168 | 9.132 |
293 | 27.9 | 28.700 | -0.800 |
294 | 23.9 | 28.868 | -4.968 |
295 | 21.7 | 26.100 | -4.400 |
296 | 28.6 | 26.916 | 1.684 |
297 | 27.1 | 24.670 | 2.430 |
298 | 20.3 | 23.442 | -3.142 |
299 | 22.5 | 26.431 | -3.931 |
300 | 29.0 | 27.609 | 1.391 |
301 | 24.8 | 23.285 | 1.515 |
302 | 22.0 | 26.367 | -4.367 |
303 | 26.4 | 28.871 | -2.471 |
304 | 33.1 | 28.946 | 4.154 |
305 | 36.1 | 27.695 | 8.405 |
306 | 28.4 | 26.358 | 2.042 |
307 | 33.4 | 25.006 | 8.394 |
308 | 28.2 | 25.131 | 3.069 |
309 | 22.8 | 23.235 | -0.435 |
310 | 20.3 | 24.229 | -3.929 |
311 | 16.1 | 27.487 | -11.387 |
312 | 22.1 | 27.096 | -4.996 |
313 | 19.4 | 22.972 | -3.572 |
314 | 21.6 | 23.430 | -1.830 |
315 | 23.8 | 22.501 | 1.299 |
316 | 16.2 | 23.372 | -7.172 |
317 | 17.8 | 22.632 | -4.832 |
318 | 19.8 | 23.990 | -4.190 |
319 | 23.1 | 24.871 | -1.771 |
320 | 21.0 | 25.331 | -4.331 |
321 | 23.8 | 25.806 | -2.006 |
322 | 23.1 | 25.563 | -2.463 |
323 | 20.4 | 25.763 | -5.363 |
324 | 18.5 | 22.990 | -4.490 |
325 | 25.0 | 26.907 | -1.907 |
326 | 24.6 | 29.294 | -4.694 |
327 | 23.0 | 27.560 | -4.560 |
328 | 22.2 | 25.895 | -3.695 |
329 | 19.3 | 28.303 | -9.003 |
330 | 22.6 | 29.298 | -6.698 |
331 | 19.8 | 26.939 | -7.139 |
332 | 17.1 | 26.632 | -9.532 |
333 | 19.4 | 27.235 | -7.835 |
334 | 22.2 | 25.684 | -3.484 |
335 | 20.7 | 25.649 | -4.949 |
336 | 21.1 | 26.569 | -5.469 |
337 | 19.5 | 25.937 | -6.437 |
338 | 18.5 | 24.027 | -5.527 |
339 | 20.6 | 27.387 | -6.787 |
340 | 19.0 | 26.431 | -7.431 |
341 | 18.7 | 24.908 | -6.208 |
342 | 32.7 | 23.855 | 8.845 |
343 | 16.5 | 23.388 | -6.888 |
344 | 23.9 | 24.289 | -0.389 |
345 | 31.2 | 26.852 | 4.348 |
346 | 17.5 | 22.988 | -5.488 |
347 | 17.2 | 22.523 | -5.323 |
348 | 23.1 | 24.901 | -1.801 |
349 | 24.5 | 24.858 | -0.358 |
350 | 26.6 | 23.856 | 2.744 |
351 | 22.9 | 22.683 | 0.217 |
357 | 17.8 | 15.931 | 1.869 |
358 | 21.7 | 20.374 | 1.326 |
359 | 22.7 | 19.971 | 2.729 |
360 | 22.6 | 21.168 | 1.432 |
361 | 25.0 | 20.160 | 4.840 |
362 | 19.9 | 20.576 | -0.676 |
363 | 20.8 | 20.297 | 0.503 |
364 | 16.8 | 20.892 | -4.092 |
365 | 21.9 | 22.192 | -0.292 |
366 | 27.5 | 21.038 | 6.462 |
367 | 21.9 | 21.179 | 0.721 |
369 | 50.0 | 19.636 | 30.364 |
370 | 50.0 | 19.371 | 30.629 |
371 | 50.0 | 18.751 | 31.249 |
373 | 50.0 | 18.365 | 31.635 |
384 | 12.3 | 16.987 | -4.687 |
390 | 11.5 | 16.799 | -5.299 |
391 | 15.1 | 17.771 | -2.671 |
392 | 23.2 | 20.541 | 2.659 |
394 | 13.8 | 17.077 | -3.277 |
396 | 13.1 | 16.365 | -3.265 |
397 | 12.5 | 18.993 | -6.493 |
398 | 8.5 | 17.271 | -8.771 |
409 | 17.2 | 17.773 | -0.573 |
422 | 14.2 | 17.970 | -3.770 |
424 | 13.4 | 18.987 | -5.587 |
425 | 11.7 | 19.244 | -7.544 |
429 | 11.0 | 19.630 | -8.630 |
431 | 14.5 | 17.697 | -3.197 |
433 | 16.1 | 20.488 | -4.388 |
434 | 14.3 | 19.543 | -5.243 |
443 | 18.4 | 18.375 | 0.025 |
447 | 14.9 | 18.234 | -3.334 |
450 | 13.0 | 16.922 | -3.922 |
451 | 13.4 | 18.089 | -4.689 |
452 | 15.2 | 18.423 | -3.223 |
453 | 16.1 | 19.430 | -3.330 |
454 | 17.8 | 15.974 | 1.826 |
456 | 14.1 | 20.247 | -6.147 |
457 | 12.7 | 20.010 | -7.310 |
458 | 13.5 | 17.896 | -4.396 |
459 | 14.9 | 17.854 | -2.954 |
460 | 20.0 | 18.591 | 1.409 |
461 | 16.4 | 19.637 | -3.237 |
462 | 17.7 | 20.740 | -3.040 |
463 | 19.5 | 18.853 | 0.647 |
464 | 20.2 | 18.650 | 1.550 |
465 | 21.4 | 19.730 | 1.670 |
466 | 19.9 | 25.333 | -5.433 |
467 | 19.0 | 20.808 | -1.808 |
468 | 19.1 | 19.480 | -0.380 |
471 | 19.9 | 20.277 | -0.377 |
472 | 19.6 | 19.683 | -0.083 |
473 | 23.2 | 22.071 | 1.129 |
474 | 29.8 | 22.426 | 7.374 |
475 | 13.8 | 16.600 | -2.800 |
476 | 13.3 | 17.905 | -4.605 |
477 | 16.7 | 19.456 | -2.756 |
481 | 23.0 | 20.964 | 2.036 |
482 | 23.7 | 19.964 | 3.736 |
483 | 25.0 | 19.626 | 5.374 |
484 | 21.8 | 25.522 | -3.722 |
485 | 20.6 | 26.048 | -5.448 |
486 | 21.2 | 23.603 | -2.403 |
487 | 19.1 | 19.201 | -0.101 |
488 | 20.6 | 23.344 | -2.744 |
489 | 15.2 | 23.775 | -8.575 |
490 | 7.0 | 23.164 | -16.164 |
491 | 8.1 | 23.115 | -15.015 |
492 | 13.6 | 23.058 | -9.458 |
493 | 20.1 | 24.592 | -4.492 |
494 | 21.8 | 27.697 | -5.897 |
495 | 24.5 | 28.934 | -4.434 |
496 | 23.1 | 30.208 | -7.108 |
497 | 19.7 | 25.011 | -5.311 |
498 | 18.3 | 25.203 | -6.903 |
499 | 21.2 | 26.309 | -5.109 |
500 | 17.5 | 25.417 | -7.917 |
501 | 16.8 | 24.566 | -7.766 |
502 | 22.4 | 25.942 | -3.542 |
503 | 20.6 | 25.260 | -4.660 |
504 | 23.9 | 23.708 | 0.192 |
505 | 22.0 | 23.651 | -1.651 |
506 | 11.9 | 24.573 | -12.673 |
#bazı değerler dışında modelin yordanan değerler ile gerçek değerlerin birbirine yakın olduğu görükmektedir.
library(outliers)
yordanan_s <- model$fitted.values %>% scores(type = "z")
artik_s <- model$residuals %>% scores(type = "z")
data.frame(yordanan_s,artik_s) %>% kable(digit=3)
yordanan_s | artik_s | |
---|---|---|
1 | 0.284 | -0.108 |
2 | -0.499 | -0.101 |
3 | 0.159 | 1.261 |
4 | 0.384 | 1.014 |
5 | 0.064 | 1.483 |
6 | -0.092 | 0.618 |
7 | -0.244 | -0.040 |
8 | -1.469 | 0.953 |
9 | -1.670 | -0.278 |
10 | -1.296 | -0.126 |
11 | -1.545 | -0.512 |
12 | -1.059 | -0.218 |
13 | 0.809 | -0.595 |
14 | 0.061 | -0.466 |
15 | -0.704 | -0.442 |
16 | 0.322 | -0.629 |
17 | 1.219 | -0.581 |
18 | -0.575 | -0.578 |
19 | 1.230 | -0.944 |
20 | 0.033 | -0.727 |
21 | -1.157 | -0.835 |
22 | -0.793 | -0.235 |
23 | -0.971 | -0.709 |
24 | -1.253 | -0.686 |
25 | -1.068 | -0.622 |
26 | -0.798 | -0.937 |
27 | -0.995 | -0.527 |
28 | -0.941 | -0.770 |
29 | -1.102 | -0.263 |
30 | -0.831 | -0.047 |
31 | -1.113 | -0.963 |
32 | -1.370 | -0.641 |
33 | -0.656 | -1.078 |
34 | -1.014 | -0.952 |
35 | -1.192 | -0.833 |
36 | 0.384 | -0.777 |
37 | 0.621 | -0.733 |
38 | 1.189 | -0.829 |
39 | 1.610 | -0.535 |
40 | 1.477 | 0.270 |
41 | 1.697 | 0.691 |
42 | 2.051 | -0.471 |
43 | 1.911 | -0.577 |
44 | 1.910 | -0.651 |
45 | 0.681 | -0.608 |
46 | 1.090 | -1.000 |
47 | 1.104 | -0.920 |
48 | -1.018 | -0.518 |
49 | -1.442 | -0.626 |
50 | -0.270 | -0.462 |
51 | 0.141 | -0.584 |
52 | -0.487 | -0.242 |
53 | 1.059 | -0.285 |
54 | 1.049 | -0.478 |
55 | -0.066 | -0.602 |
56 | 0.458 | 1.232 |
57 | -0.206 | 0.168 |
58 | -0.115 | 0.985 |
59 | 0.425 | -0.249 |
60 | 0.046 | -0.559 |
61 | -0.759 | -0.359 |
62 | -1.644 | -0.350 |
63 | -0.808 | 0.092 |
64 | -0.144 | 0.181 |
65 | -1.096 | 1.537 |
66 | 1.248 | -0.543 |
67 | 0.755 | -0.858 |
68 | 1.145 | -0.688 |
69 | 0.556 | -1.028 |
70 | 0.698 | -0.651 |
71 | 2.058 | -0.770 |
72 | 1.638 | -0.916 |
73 | 2.013 | -0.926 |
74 | 2.046 | -0.864 |
75 | 2.403 | -0.916 |
76 | 0.880 | -0.660 |
77 | -0.072 | -0.464 |
78 | 0.980 | -0.773 |
79 | 0.410 | -0.503 |
80 | 1.193 | -0.917 |
81 | 1.041 | 0.093 |
82 | -0.323 | 0.114 |
83 | 1.090 | -0.322 |
84 | 0.555 | -0.349 |
85 | 0.695 | -0.280 |
86 | 0.500 | 0.129 |
87 | 0.911 | -0.536 |
88 | 0.684 | -0.485 |
89 | -0.302 | 0.069 |
90 | 0.558 | 0.366 |
91 | 0.549 | -0.384 |
92 | 0.262 | -0.347 |
93 | 0.835 | -0.457 |
94 | 1.751 | -0.552 |
95 | -0.026 | -0.408 |
96 | 0.712 | 0.269 |
97 | 0.278 | -0.427 |
98 | 0.040 | 1.801 |
99 | 1.494 | 1.868 |
100 | 0.552 | 0.924 |
101 | 0.110 | 0.391 |
102 | 0.413 | 0.151 |
103 | -0.094 | -0.629 |
104 | -0.163 | -0.515 |
105 | -0.150 | -0.422 |
106 | -0.299 | -0.438 |
107 | -0.164 | -0.491 |
108 | 0.121 | -0.490 |
109 | -0.414 | -0.357 |
110 | -0.265 | -0.464 |
111 | 1.063 | -0.694 |
112 | 0.091 | -0.182 |
113 | -0.233 | -0.550 |
114 | -0.410 | -0.494 |
115 | 0.114 | -0.722 |
116 | -0.105 | -0.661 |
117 | 0.403 | -0.500 |
118 | 0.019 | -0.598 |
119 | 0.459 | -0.620 |
120 | 0.660 | -0.834 |
121 | 0.668 | -0.504 |
122 | 0.154 | -0.515 |
123 | -0.142 | -0.375 |
124 | -0.264 | -0.723 |
125 | -0.226 | -0.553 |
126 | 0.034 | -0.332 |
127 | -0.215 | -0.940 |
128 | -0.207 | -0.881 |
129 | -0.334 | -0.610 |
130 | -0.375 | -1.051 |
131 | -0.437 | -0.422 |
132 | -0.655 | -0.288 |
133 | -0.527 | 0.082 |
134 | -0.413 | -0.530 |
135 | -0.649 | -0.784 |
136 | -0.463 | -0.547 |
137 | -0.186 | -0.741 |
138 | -0.338 | -0.719 |
139 | -0.249 | -1.223 |
140 | -0.312 | -0.643 |
141 | -0.072 | -1.205 |
142 | -0.593 | -0.954 |
143 | -0.985 | -0.926 |
144 | -1.210 | -0.567 |
145 | -0.774 | -1.205 |
146 | -0.777 | -0.957 |
147 | -0.750 | -0.745 |
148 | -0.628 | -0.916 |
149 | -0.570 | -0.543 |
150 | -0.711 | -0.785 |
151 | -0.556 | -0.092 |
152 | -0.607 | -0.307 |
153 | -0.076 | -1.043 |
154 | -0.726 | -0.285 |
155 | -0.487 | -0.674 |
156 | -0.527 | -0.831 |
157 | -0.670 | -1.085 |
158 | -0.530 | 2.343 |
159 | -0.619 | 0.278 |
160 | -0.643 | 0.164 |
161 | -0.341 | 0.504 |
162 | -0.376 | 3.357 |
163 | -0.765 | 3.508 |
164 | -0.564 | 3.430 |
165 | -0.749 | 0.131 |
166 | -0.923 | 0.483 |
167 | -0.737 | 3.497 |
168 | -0.173 | 0.044 |
169 | -0.823 | 0.296 |
170 | -0.878 | 0.132 |
171 | -0.592 | -0.584 |
172 | -0.961 | -0.232 |
173 | -0.149 | -0.052 |
174 | 0.010 | -0.052 |
175 | 0.564 | -0.389 |
176 | 1.751 | -0.009 |
177 | 1.098 | -0.522 |
178 | 0.207 | -0.005 |
179 | 0.292 | 0.617 |
180 | 0.912 | 1.278 |
181 | 0.017 | 1.946 |
182 | 0.840 | 1.183 |
183 | -0.306 | 1.836 |
184 | -0.479 | 1.237 |
185 | -0.304 | 0.416 |
186 | 0.388 | 0.543 |
187 | 0.975 | 2.834 |
188 | 1.249 | 0.506 |
189 | 1.440 | 0.160 |
190 | 1.089 | 0.926 |
191 | 1.138 | 1.166 |
192 | 0.800 | 0.494 |
193 | 0.962 | 1.160 |
194 | 1.665 | 0.234 |
195 | 1.338 | 0.113 |
196 | 1.027 | 2.814 |
197 | 0.429 | 0.984 |
198 | 0.335 | 0.650 |
199 | 0.274 | 1.204 |
200 | 1.020 | 0.953 |
201 | 1.075 | 0.685 |
202 | 0.593 | -0.215 |
203 | 1.435 | 1.706 |
204 | 1.141 | 2.585 |
205 | 1.193 | 2.750 |
206 | 1.881 | -0.899 |
207 | 0.615 | -0.187 |
208 | -0.138 | -0.130 |
209 | 0.430 | -0.115 |
210 | -1.045 | -0.088 |
211 | -0.687 | -0.016 |
212 | -0.543 | -0.368 |
213 | 0.787 | -0.500 |
214 | 1.510 | -0.077 |
215 | 2.415 | -0.970 |
216 | 1.123 | -0.309 |
217 | 0.916 | -0.439 |
218 | -0.261 | 0.683 |
219 | -0.428 | -0.141 |
220 | -0.524 | 0.081 |
221 | -0.287 | 0.446 |
222 | -0.460 | -0.104 |
223 | -0.082 | 0.465 |
224 | -0.194 | 0.830 |
225 | 0.091 | 2.534 |
226 | -0.136 | 3.264 |
227 | -0.328 | 1.808 |
228 | -0.092 | 0.976 |
229 | 2.212 | 1.948 |
230 | 2.013 | 0.148 |
231 | 0.172 | -0.028 |
232 | -0.135 | 1.005 |
233 | -0.082 | 2.219 |
234 | 0.145 | 2.946 |
235 | 0.259 | 0.519 |
236 | 0.474 | -0.182 |
237 | -0.282 | 0.247 |
238 | -0.099 | 0.966 |
239 | 1.341 | -0.554 |
240 | 0.463 | -0.264 |
241 | -0.035 | -0.232 |
242 | -0.432 | -0.313 |
243 | -0.197 | -0.144 |
244 | 1.463 | -0.602 |
245 | -1.380 | -0.255 |
246 | -1.143 | -0.235 |
247 | 0.093 | 0.003 |
248 | -1.508 | 0.153 |
249 | -0.317 | 0.186 |
250 | 0.844 | -0.054 |
251 | 1.156 | -0.397 |
252 | 1.289 | -0.399 |
253 | 0.933 | 0.332 |
254 | 0.802 | 2.013 |
255 | -0.086 | -0.224 |
256 | 0.394 | -0.533 |
257 | 0.732 | 2.187 |
258 | 0.036 | 3.198 |
259 | -0.490 | 1.673 |
260 | -0.524 | 0.958 |
261 | 0.147 | 1.155 |
262 | -0.141 | 2.414 |
263 | -0.261 | 3.165 |
264 | -0.384 | 1.015 |
265 | -0.162 | 1.608 |
266 | 0.832 | -0.468 |
267 | -0.025 | 0.839 |
268 | 0.588 | 2.984 |
269 | 0.991 | 2.026 |
270 | 0.452 | -0.581 |
271 | 0.958 | -0.727 |
272 | 1.947 | -0.604 |
273 | 0.550 | -0.162 |
274 | 0.639 | 1.137 |
275 | 1.469 | 0.470 |
276 | 1.034 | 0.589 |
277 | 0.642 | 0.889 |
278 | 1.420 | 0.575 |
279 | 1.473 | 0.061 |
280 | 1.448 | 0.812 |
281 | 0.115 | 2.599 |
282 | 0.954 | 1.040 |
283 | 0.496 | 2.526 |
284 | 1.219 | 2.740 |
285 | 0.929 | 0.655 |
286 | 0.518 | -0.446 |
287 | -0.020 | -0.472 |
288 | 0.530 | -0.302 |
289 | 0.000 | -0.208 |
290 | 0.840 | -0.225 |
291 | 1.337 | 0.040 |
292 | 1.334 | 1.128 |
293 | 1.503 | -0.099 |
294 | 1.557 | -0.613 |
295 | 0.674 | -0.543 |
296 | 0.934 | 0.208 |
297 | 0.218 | 0.300 |
298 | -0.174 | -0.388 |
299 | 0.780 | -0.485 |
300 | 1.155 | 0.172 |
301 | -0.224 | 0.187 |
302 | 0.759 | -0.539 |
303 | 1.558 | -0.305 |
304 | 1.582 | 0.513 |
305 | 1.183 | 1.038 |
306 | 0.756 | 0.252 |
307 | 0.325 | 1.036 |
308 | 0.365 | 0.379 |
309 | -0.240 | -0.054 |
310 | 0.077 | -0.485 |
311 | 1.117 | -1.406 |
312 | 0.992 | -0.617 |
313 | -0.324 | -0.441 |
314 | -0.177 | -0.226 |
315 | -0.474 | 0.160 |
316 | -0.196 | -0.886 |
317 | -0.432 | -0.597 |
318 | 0.001 | -0.517 |
319 | 0.282 | -0.219 |
320 | 0.429 | -0.535 |
321 | 0.580 | -0.248 |
322 | 0.503 | -0.304 |
323 | 0.567 | -0.662 |
324 | -0.318 | -0.554 |
325 | 0.931 | -0.235 |
326 | 1.693 | -0.580 |
327 | 1.140 | -0.563 |
328 | 0.609 | -0.456 |
329 | 1.377 | -1.112 |
330 | 1.694 | -0.827 |
331 | 0.942 | -0.881 |
332 | 0.844 | -1.177 |
333 | 1.036 | -0.967 |
334 | 0.542 | -0.430 |
335 | 0.530 | -0.611 |
336 | 0.824 | -0.675 |
337 | 0.622 | -0.795 |
338 | 0.013 | -0.682 |
339 | 1.085 | -0.838 |
340 | 0.780 | -0.917 |
341 | 0.294 | -0.767 |
342 | -0.042 | 1.092 |
343 | -0.191 | -0.850 |
344 | 0.096 | -0.048 |
345 | 0.914 | 0.537 |
346 | -0.319 | -0.678 |
347 | -0.467 | -0.657 |
348 | 0.292 | -0.222 |
349 | 0.278 | -0.044 |
350 | -0.042 | 0.339 |
351 | -0.416 | 0.027 |
357 | -2.570 | 0.231 |
358 | -1.152 | 0.164 |
359 | -1.281 | 0.337 |
360 | -0.899 | 0.177 |
361 | -1.221 | 0.598 |
362 | -1.088 | -0.083 |
363 | -1.177 | 0.062 |
364 | -0.987 | -0.505 |
365 | -0.572 | -0.036 |
366 | -0.941 | 0.798 |
367 | -0.896 | 0.089 |
369 | -1.388 | 3.749 |
370 | -1.472 | 3.782 |
371 | -1.670 | 3.858 |
373 | -1.793 | 3.906 |
384 | -2.233 | -0.579 |
390 | -2.293 | -0.654 |
391 | -1.983 | -0.330 |
392 | -1.099 | 0.328 |
394 | -2.204 | -0.405 |
396 | -2.431 | -0.403 |
397 | -1.593 | -0.802 |
398 | -2.142 | -1.083 |
409 | -1.982 | -0.071 |
422 | -1.919 | -0.465 |
424 | -1.595 | -0.690 |
425 | -1.513 | -0.931 |
429 | -1.390 | -1.066 |
431 | -2.006 | -0.395 |
433 | -1.116 | -0.542 |
434 | -1.417 | -0.647 |
443 | -1.790 | 0.003 |
447 | -1.835 | -0.412 |
450 | -2.254 | -0.484 |
451 | -1.881 | -0.579 |
452 | -1.775 | -0.398 |
453 | -1.454 | -0.411 |
454 | -2.556 | 0.225 |
456 | -1.193 | -0.759 |
457 | -1.268 | -0.903 |
458 | -1.943 | -0.543 |
459 | -1.956 | -0.365 |
460 | -1.721 | 0.174 |
461 | -1.388 | -0.400 |
462 | -1.036 | -0.375 |
463 | -1.638 | 0.080 |
464 | -1.702 | 0.191 |
465 | -1.358 | 0.206 |
466 | 0.429 | -0.671 |
467 | -1.014 | -0.223 |
468 | -1.438 | -0.047 |
471 | -1.183 | -0.047 |
472 | -1.373 | -0.010 |
473 | -0.611 | 0.139 |
474 | -0.498 | 0.910 |
475 | -2.356 | -0.346 |
476 | -1.940 | -0.569 |
477 | -1.445 | -0.340 |
481 | -0.964 | 0.251 |
482 | -1.283 | 0.461 |
483 | -1.391 | 0.664 |
484 | 0.490 | -0.459 |
485 | 0.658 | -0.673 |
486 | -0.123 | -0.297 |
487 | -1.527 | -0.013 |
488 | -0.205 | -0.339 |
489 | -0.067 | -1.059 |
490 | -0.262 | -1.996 |
491 | -0.278 | -1.854 |
492 | -0.296 | -1.168 |
493 | 0.193 | -0.555 |
494 | 1.184 | -0.728 |
495 | 1.578 | -0.547 |
496 | 1.985 | -0.878 |
497 | 0.327 | -0.656 |
498 | 0.388 | -0.852 |
499 | 0.741 | -0.631 |
500 | 0.456 | -0.977 |
501 | 0.185 | -0.959 |
502 | 0.624 | -0.437 |
503 | 0.406 | -0.575 |
504 | -0.089 | 0.024 |
505 | -0.107 | -0.204 |
506 | 0.187 | -1.565 |
#Bundan sonraki analizlerde etkili değerleride veri setinden çıkar 4. garafikte 370,371,373. gözlemler etkli gözlem.
## This is lavaan 0.6-19
## lavaan is FREE software! Please report any bugs.
##
## Attaching package: 'lavaan'
## The following object is masked from 'package:psych':
##
## cor2cov
library(lavaanPlot)
model_1 <- 'medv ~ age + dis+ crim'
fit1 <- sem(model_1, data = dat)
summary(fit1)
## lavaan 0.6-19 ended normally after 1 iteration
##
## Estimator ML
## Optimization method NLMINB
## Number of model parameters 4
##
## Number of observations 435
##
## Model Test User Model:
##
## Test statistic 0.000
## Degrees of freedom 0
##
## Parameter Estimates:
##
## Standard errors Standard
## Information Expected
## Information saturated (h1) model Structured
##
## Regressions:
## Estimate Std.Err z-value P(>|z|)
## medv ~
## age -0.116 0.020 -5.745 0.000
## dis -0.969 0.292 -3.325 0.001
## crim -0.793 0.206 -3.843 0.000
##
## Variances:
## Estimate Std.Err z-value P(>|z|)
## .medv 65.450 4.438 14.748 0.000
library(semptools)
library(semPlot)
m <- matrix(c("age", NA, "NA", NA, NA,
NA, NA, NA, NA, "medv", NA,
"crim", NA, NA,
"dis", NA, NA, NA, NA), byrow = TRUE, 3, 5)
## Warning in matrix(c("age", NA, "NA", NA, NA, NA, NA, NA, NA, "medv", NA, : data
## length [19] is not a sub-multiple or multiple of the number of rows [3]
yol <- semPaths( fit1, whatLabels = "est",
sizeMan = 10,
edge.label.cex = 1.15,
style = "lisrel",
nCharNodes = 0, nCharEdges = 0,
layout = m)