Analisis regresi adalah metode statistik yang digunakan untuk mengukur hubungan antara variabel prediktor (X) dan variabel respon (Y). Berdasarkan jumlah variabel prediktor, analisis regresi dibagi menjadi dua jenis yaitu analisis regresi sederhana dan analisis regresi berganda. Analisis regresi sederhana hanya melibatkan satu variabel prediktor dan satu variabel respon, sedangkan analisis regresi berganda melibatkan dua atau lebih variabel prediktor.
Laporan praktikum ini disusun untuk memenuhi tugas praktikum komputasi statistika kelas H, Program Studi Statistika, Universitas Brawijaya.
Statistika deskriptif adalah metode-metode yang berkaitan dengan pengumpulan dan penyajian suatu gugus data sehingga memberikan informasi yang berguna (Walpole, 1992). Statistika deskriptif memberikan informasi hanya mengenai data yang tersedia dan tidak menarik kesimpulan mengenai gugus data induknya yang lebih besar. Biasanya, statistika deskriptif disajikan dalam bentuk tabel, diagram, atau grafik yang menggambarkan ukuran pemusatan (seperti rata-rata, median, dan modus) dan ukuran penyebaran (seperti varians, simpangan baku, dan jangkauan).
Model umum dari regresi linier berganda dengan k variabel independen adalah:
\[ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \ldots + \beta_k X_k + \epsilon \]
di mana \(Y\) adalah variabel dependen, \(X_1, X_2, \ldots, X_k\) adalah variabel-variabel independen, \(\epsilon\) adalah galat acak (random error), dan \(\beta_0, \beta_1, \ldots, \beta_k\) adalah parameter-parameter populasi yang nilainya tidak diketahui.
Uji asumsi klasik dilakukan sebelum pemrosesan data regresi (baik sederhana maupun berganda) agar persamaan yang dihasilkan memenuhi kaidah Best Linear Unbiased Estimator (BLUE). Tanpa uji asumsi klasik, persamaan regresi yang dihasilkan bisa diragukan keakuratannya. Beberapa asumsi klasik yang harus dipenuhi antara lain:
Multikolinieritas adalah hubungan linier antar variabel bebas. Untuk mendeteksi multikolinieritas, digunakan VIF (Variance Inflation Factor) dan Tolerance. Tolerance adalah kebalikan dari VIF.
Distribusi normal data adalah syarat penting dalam statistik. Untuk menguji normalitas, digunakan Uji Chi-square, Uji Kolmogorov-Smirnov, Uji Liliefors, dan Uji Shapiro-Wilk.
Heteroskedastisitas adalah ketidaksamaan varian dari residual untuk semua pengamatan dalam model regresi. Cara mendeteksinya antara lain dengan Uji Korelasi Spearman, Uji Park, dan Uji White.
Autokorelasi terjadi jika komponen variabel random error berkorelasi berdasarkan urutan waktu atau ruang. Untuk mendeteksi autokorelasi, digunakan uji Durbin Watson.
Uji hipotesis regresi linier berganda mengukur kesesuaian model dengan melihat apakah terdapat hubungan linier antara respons y dan tiap prediktor \(x_1, x_2, \ldots, x_k\). Hipotesis yang diuji adalah:
Jika \(H_0\) ditolak, berarti ada paling tidak satu prediktor yang berkontribusi signifikan terhadap model. Uji ini dirangkum dalam tabel ANOVA dengan statistik F.
Uji parsial digunakan untuk melihat pengaruh masing-masing variabel independen terhadap variabel dependen. Hipotesis yang diuji adalah:
Statistik uji yang digunakan adalah statistik t, dan \(H_0\) ditolak jika |t| lebih besar dari nilai kritis.
Koefisien determinasi (\(R^2\)) menunjukkan proporsi keragaman dalam variabel dependen yang dijelaskan oleh model regresi. Rumusnya adalah:
\[ R^2 = \frac{SSR}{Syy} = 1 - \frac{SSE}{Syy} \]
Nilai \(R^2\) mendekati 1 menunjukkan sebagian besar keragaman dalam \(y\) dapat dijelaskan oleh model regresi.
Untuk mendapatkan interval konfidensi koefisien regresi \(\hat{\beta}\), diasumsikan bahwa error \(\epsilon_i\) berdistribusi normal independen dan identik. Interval konfidensi 100(1-\(\alpha\))% untuk koefisien regresi \(\beta_j\) adalah:
\[ \hat{\beta}_j - t_{\alpha/2, n-p}
\sqrt{\hat{\sigma}^2 C_{jj}} \leq \beta_j \leq \hat{\beta}_j +
t_{\alpha/2, n-p} \sqrt{\hat{\sigma}^2 C_{jj}} \]
library(readxl)
dataz<-read.csv2("D:/KULIAH/SEMESTER 4/Komputasi Statistika/UAP/Advertising.csv",TRUE)
dataz
## x1 x2 x3 Y
## 1 230.1 37.8 69.2 22.1
## 2 44.5 39.3 45.1 10.4
## 3 17.2 45.9 69.3 9.3
## 4 151.5 41.3 58.5 18.5
## 5 180.8 10.8 58.4 12.9
## 6 8.7 48.9 75.0 7.2
## 7 57.5 32.8 23.5 11.8
## 8 120.2 19.6 11.6 13.2
## 9 8.6 2.1 1.0 4.8
## 10 199.8 2.6 21.2 10.6
## 11 66.1 5.8 24.2 8.6
## 12 214.7 24.0 4.0 17.4
## 13 23.8 35.1 65.9 9.2
## 14 97.5 7.6 7.2 9.7
## 15 204.1 32.9 46.0 19.0
## 16 195.4 47.7 52.9 22.4
## 17 67.8 36.6 114.0 12.5
## 18 281.4 39.6 55.8 24.4
## 19 69.2 20.5 18.3 11.3
## 20 147.3 23.9 19.1 14.6
## 21 218.4 27.7 53.4 18.0
## 22 237.4 5.1 23.5 12.5
## 23 13.2 15.9 49.6 5.6
## 24 228.3 16.9 26.2 15.5
## 25 62.3 12.6 18.3 9.7
## 26 262.9 3.5 19.5 12.0
## 27 142.9 29.3 12.6 15.0
## 28 240.1 16.7 22.9 15.9
## 29 248.8 27.1 22.9 18.9
## 30 70.6 16.0 40.8 10.5
## 31 292.9 28.3 43.2 21.4
## 32 112.9 17.4 38.6 11.9
## 33 97.2 1.5 30.0 9.6
## 34 265.6 20.0 0.3 17.4
## 35 95.7 1.4 7.4 9.5
## 36 290.7 4.1 8.5 12.8
## 37 266.9 43.8 5.0 25.4
## 38 74.7 49.4 45.7 14.7
## 39 43.1 26.7 35.1 10.1
## 40 228.0 37.7 32.0 21.5
## 41 202.5 22.3 31.6 16.6
## 42 177.0 33.4 38.7 17.1
## 43 293.6 27.7 1.8 20.7
## 44 206.9 8.4 26.4 12.9
## 45 25.1 25.7 43.3 8.5
## 46 175.1 22.5 31.5 14.9
## 47 89.7 9.9 35.7 10.6
## 48 239.9 41.5 18.5 23.2
## 49 227.2 15.8 49.9 14.8
## 50 66.9 11.7 36.8 9.7
## 51 199.8 3.1 34.6 11.4
## 52 100.4 9.6 3.6 10.7
## 53 216.4 41.7 39.6 22.6
## 54 182.6 46.2 58.7 21.2
## 55 262.7 28.8 15.9 20.2
## 56 198.9 49.4 60.0 23.7
## 57 7.3 28.1 41.4 5.5
## 58 136.2 19.2 16.6 13.2
## 59 210.8 49.6 37.7 23.8
## 60 210.7 29.5 9.3 18.4
## 61 53.5 2.0 21.4 8.1
## 62 261.3 42.7 54.7 24.2
## 63 239.3 15.5 27.3 15.7
## 64 102.7 29.6 8.4 14.0
## 65 131.1 42.8 28.9 18.0
## 66 69.0 9.3 0.9 9.3
## 67 31.5 24.6 2.2 9.5
## 68 139.3 14.5 10.2 13.4
## 69 237.4 27.5 11.0 18.9
## 70 216.8 43.9 27.2 22.3
## 71 199.1 30.6 38.7 18.3
## 72 109.8 14.3 31.7 12.4
## 73 26.8 33.0 19.3 8.8
## 74 129.4 5.7 31.3 11.0
## 75 213.4 24.6 13.1 17.0
## 76 16.9 43.7 89.4 8.7
## 77 27.5 1.6 20.7 6.9
## 78 120.5 28.5 14.2 14.2
## 79 5.4 29.9 9.4 5.3
## 80 116.0 7.7 23.1 11.0
## 81 76.4 26.7 22.3 11.8
## 82 239.8 4.1 36.9 12.3
## 83 75.3 20.3 32.5 11.3
## 84 68.4 44.5 35.6 13.6
## 85 213.5 43.0 33.8 21.7
## 86 193.2 18.4 65.7 15.2
## 87 76.3 27.5 16.0 12.0
## 88 110.7 40.6 63.2 16.0
## 89 88.3 25.5 73.4 12.9
## 90 109.8 47.8 51.4 16.7
## 91 134.3 4.9 9.3 11.2
## 92 28.6 1.5 33.0 7.3
## 93 217.7 33.5 59.0 19.4
## 94 250.9 36.5 72.3 22.2
## 95 107.4 14.0 10.9 11.5
## 96 163.3 31.6 52.9 16.9
## 97 197.6 3.5 5.9 11.7
## 98 184.9 21.0 22.0 15.5
## 99 289.7 42.3 51.2 25.4
## 100 135.2 41.7 45.9 17.2
## 101 222.4 4.3 49.8 11.7
## 102 296.4 36.3 100.9 23.8
## 103 280.2 10.1 21.4 14.8
## 104 187.9 17.2 17.9 14.7
## 105 238.2 34.3 5.3 20.7
## 106 137.9 46.4 59.0 19.2
## 107 25.0 11.0 29.7 7.2
## 108 90.4 0.3 23.2 8.7
## 109 13.1 0.4 25.6 5.3
## 110 255.4 26.9 5.5 19.8
## 111 225.8 8.2 56.5 13.4
## 112 241.7 38.0 23.2 21.8
## 113 175.7 15.4 2.4 14.1
## 114 209.6 20.6 10.7 15.9
## 115 78.2 46.8 34.5 14.6
## 116 75.1 35.0 52.7 12.6
## 117 139.2 14.3 25.6 12.2
## 118 76.4 0.8 14.8 9.4
## 119 125.7 36.9 79.2 15.9
## 120 19.4 16.0 22.3 6.6
## 121 141.3 26.8 46.2 15.5
## 122 18.8 21.7 50.4 7.0
## 123 224.0 2.4 15.6 11.6
## 124 123.1 34.6 12.4 15.2
## 125 229.5 32.3 74.2 19.7
## 126 87.2 11.8 25.9 10.6
## 127 7.8 38.9 50.6 6.6
## 128 80.2 0.0 9.2 8.8
## 129 220.3 49.0 3.2 24.7
## 130 59.6 12.0 43.1 9.7
## 131 0.7 39.6 8.7 1.6
## 132 265.2 2.9 43.0 12.7
## 133 8.4 27.2 2.1 5.7
## 134 219.8 33.5 45.1 19.6
## 135 36.9 38.6 65.6 10.8
## 136 48.3 47.0 8.5 11.6
## 137 25.6 39.0 9.3 9.5
## 138 273.7 28.9 59.7 20.8
## 139 43.0 25.9 20.5 9.6
## 140 184.9 43.9 1.7 20.7
## 141 73.4 17.0 12.9 10.9
## 142 193.7 35.4 75.6 19.2
## 143 220.5 33.2 37.9 20.1
## 144 104.6 5.7 34.4 10.4
## 145 96.2 14.8 38.9 11.4
## 146 140.3 1.9 9.0 10.3
## 147 240.1 7.3 8.7 13.2
## 148 243.2 49.0 44.3 25.4
## 149 38.0 40.3 11.9 10.9
## 150 44.7 25.8 20.6 10.1
## 151 280.7 13.9 37.0 16.1
## 152 121.0 8.4 48.7 11.6
## 153 197.6 23.3 14.2 16.6
## 154 171.3 39.7 37.7 19.0
## 155 187.8 21.1 9.5 15.6
## 156 4.1 11.6 5.7 3.2
## 157 93.9 43.5 50.5 15.3
## 158 149.8 1.3 24.3 10.1
## 159 11.7 36.9 45.2 7.3
## 160 131.7 18.4 34.6 12.9
## 161 172.5 18.1 30.7 14.4
## 162 85.7 35.8 49.3 13.3
## 163 188.4 18.1 25.6 14.9
## 164 163.5 36.8 7.4 18.0
## 165 117.2 14.7 5.4 11.9
## 166 234.5 3.4 84.8 11.9
## 167 17.9 37.6 21.6 8.0
## 168 206.8 5.2 19.4 12.2
## 169 215.4 23.6 57.6 17.1
## 170 284.3 10.6 6.4 15.0
## 171 50.0 11.6 18.4 8.4
## 172 164.5 20.9 47.4 14.5
## 173 19.6 20.1 17.0 7.6
## 174 168.4 7.1 12.8 11.7
## 175 222.4 3.4 13.1 11.5
## 176 276.9 48.9 41.8 27.0
## 177 248.4 30.2 20.3 20.2
## 178 170.2 7.8 35.2 11.7
## 179 276.7 2.3 23.7 11.8
## 180 165.6 10.0 17.6 12.6
## 181 156.6 2.6 8.3 10.5
## 182 218.5 5.4 27.4 12.2
## 183 56.2 5.7 29.7 8.7
## 184 287.6 43.0 71.8 26.2
## 185 253.8 21.3 30.0 17.6
## 186 205.0 45.1 19.6 22.6
## 187 139.5 2.1 26.6 10.3
## 188 191.1 28.7 18.2 17.3
## 189 286.0 13.9 3.7 15.9
## 190 18.7 12.1 23.4 6.7
## 191 39.5 41.1 5.8 10.8
## 192 75.5 10.8 6.0 9.9
## 193 17.2 4.1 31.6 5.9
## 194 166.8 42.0 3.6 19.6
## 195 149.7 35.6 6.0 17.3
## 196 38.2 3.7 13.8 7.6
## 197 94.2 4.9 8.1 9.7
## 198 177.0 9.3 6.4 12.8
## 199 283.6 42.0 66.2 25.5
## 200 232.1 8.6 8.7 13.4
Pendugaan koefisien regresi secara manual dan menggunakan fungsi
lm().
# Pendugaan koefisien secara manual
n <- dim(dataz)[1]
x <- matrix(c(rep(1, n), dataz$x1, dataz$x2, dataz$x3), nrow = n)
y <- dataz$Y
k <- dim(x)[2]
b_hat <- solve(t(x) %*% x) %*% (t(x) %*% y)
y_hat <- x %*% b_hat
# Pendugaan koefisien menggunakan fungsi lm()
reg <- lm(Y ~ x1 + x2 + x3, data = dataz)
summary(reg)
##
## Call:
## lm(formula = Y ~ x1 + x2 + x3, data = dataz)
##
## Residuals:
## Min 1Q Median 3Q Max
## -8.8277 -0.8908 0.2418 1.1893 2.8292
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 2.938889 0.311908 9.422 <2e-16 ***
## x1 0.045765 0.001395 32.809 <2e-16 ***
## x2 0.188530 0.008611 21.893 <2e-16 ***
## x3 -0.001037 0.005871 -0.177 0.86
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 1.686 on 196 degrees of freedom
## Multiple R-squared: 0.8972, Adjusted R-squared: 0.8956
## F-statistic: 570.3 on 3 and 196 DF, p-value: < 2.2e-16
Model regresi menunjukkan bahwa terdapat hubungan yang signifikan antara variabel dependen \(Y\) dan dua dari tiga variabel independen \(X1\) dan \(X2\). Koefisien \(X1\) dan \(X2\) signifikan secara statistik pada tingkat signifikansi 0.001, sedangkan koefisien \(X3\) tidak signifikan. Nilai koefisien determinasi \(R^2\) sebesar 0.8972 menunjukkan bahwa model ini mampu menjelaskan sekitar 89.72% variabilitas dalam \(Y\), yang mengindikasikan model yang sangat baik. Uji F juga menunjukkan bahwa model secara keseluruhan signifikan dengan nilai p < 2.2e-16.
Intercept: Nilai intercept adalah 2.938889, yang berarti ketika semua variabel independen \(X1\), \(X2\), dan \(X3\) sama dengan nol, nilai rata-rata \(Y\) adalah 2.938889.
Koefisien \(X1\): Koefisien untuk \(X1\) adalah 0.045765 dengan nilai p < 2e-16. Ini berarti bahwa setiap peningkatan satu unit dalam \(X1\) akan meningkatkan \(Y\) sebesar 0.045765 unit, dengan tingkat signifikansi yang sangat tinggi (***).
Koefisien \(X2\): Koefisien untuk \(X2\) adalah 0.188530 dengan nilai p < 2e-16. Ini menunjukkan bahwa setiap peningkatan satu unit dalam \(X2\) akan meningkatkan \(Y\) sebesar 0.188530 unit, juga dengan tingkat signifikansi yang sangat tinggi (***).
Koefisien \(X3\): Koefisien untuk \(X3\) adalah -0.001037 dengan nilai p sebesar 0.86. Ini menunjukkan bahwa \(X3\) tidak memiliki pengaruh signifikan terhadap \(Y\), karena nilai p jauh di atas 0.05.
Residuals: Distribusi residual menunjukkan variasi yang cukup kecil dengan median mendekati nol, yang menunjukkan bahwa model ini cukup baik dalam memprediksi nilai-nilai \(Y\).
Residual Standard Error (RSE): Nilai RSE sebesar 1.686 menunjukkan besarnya kesalahan standar residual, yang mengindikasikan bahwa sebagian besar prediksi berada dalam rentang ±1.686 dari nilai observasi yang sebenarnya.
Koefisien Determinasi (R²): Nilai \(R^2\) sebesar 0.8972 menunjukkan bahwa 89.72% variabilitas dalam \(Y\) dapat dijelaskan oleh model. Adjusted \(R^2\) sebesar 0.8956 menunjukkan penyesuaian yang sangat sedikit, mengindikasikan model yang sangat baik.
Uji F: F-statistik sebesar 570.3 dengan nilai p < 2.2e-16 menunjukkan bahwa model regresi secara keseluruhan sangat signifikan, yang berarti setidaknya satu dari koefisien regresi secara statistik berbeda dari nol.
Dengan hasil ini, kita dapat menyimpulkan bahwa model regresi yang dibangun sangat signifikan dan efektif dalam menjelaskan variabilitas \(Y\) berdasarkan \(X1\) dan \(X2\), namun \(X3\) tidak memberikan kontribusi yang signifikan terhadap model.
##Uji Asumsi Klasik
Melakukan beberapa uji asumsi klasik seperti pendeteksian multikolinieritas, uji normalitas, uji homogenitas, dan uji autokorelasi
# Pendeteksian Multikolinieritas
library(car)
## Loading required package: carData
library(carData)
VIF <- vif(reg)
VIF
## x1 x2 x3
## 1.004611 1.144952 1.145187
Multikolinieritas diuji menggunakan Variance Inflation Factor (VIF). Hasilnya menunjukkan bahwa tidak ada masalah multikolinieritas yang serius dalam model ini. Nilai VIF untuk masing-masing variabel independen adalah sebagai berikut: - \(x1\): 1.004611 - \(x2\): 1.144952 - \(x3\): 1.145187
Nilai VIF yang berada di bawah 10 menunjukkan bahwa multikolinieritas bukanlah masalah yang signifikan dalam model ini.
Dengan hasil ini, kita dapat menyimpulkan bahwa model regresi yang dibangun sangat signifikan dan efektif dalam menjelaskan variabilitas \(Y\) berdasarkan \(x1\) dan \(x2\), namun \(x3\) tidak memberikan kontribusi yang signifikan terhadap model.
# Uji Normalitas
sisa <- residuals(reg)
library(tseries)
## Registered S3 method overwritten by 'quantmod':
## method from
## as.zoo.data.frame zoo
jb <- jarque.bera.test(sisa)
shapiro <- shapiro.test(sisa)
jb
##
## Jarque Bera Test
##
## data: sisa
## X-squared = 151.24, df = 2, p-value < 2.2e-16
shapiro
##
## Shapiro-Wilk normality test
##
## data: sisa
## W = 0.91767, p-value = 3.939e-09
Hasil Jarque-Bera Test menunjukkan nilai X-squared sebesar 151.24 dengan derajat kebebasan (df) 2, dan nilai p < 2.2e-16. Nilai p yang sangat kecil ini mengindikasikan bahwa kita menolak hipotesis nol yang menyatakan bahwa residual berdistribusi normal. Dengan kata lain, residual dari model ini tidak berdistribusi normal.
Hasil Shapiro-Wilk Test menunjukkan nilai statistik W sebesar 0.91767 dan nilai p sebesar 3.939e-09. Nilai p yang sangat kecil ini juga mengindikasikan bahwa kita menolak hipotesis nol yang menyatakan bahwa residual berdistribusi normal. Ini menguatkan hasil dari Jarque-Bera Test bahwa residual dari model ini tidak berdistribusi normal.
Berdasarkan hasil kedua tes ini, kita dapat menyimpulkan bahwa residual dari model regresi linear tidak mengikuti distribusi normal. Hal ini penting untuk diperhatikan karena asumsi normalitas residual adalah salah satu asumsi dasar dalam analisis regresi yang jika dilanggar, dapat mempengaruhi validitas hasil uji statistik lainnya dalam model.
# Uji Homogenitas
library(lmtest)
## Loading required package: zoo
##
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
##
## as.Date, as.Date.numeric
library(zoo)
bp <- bptest(reg)
bp
##
## studentized Breusch-Pagan test
##
## data: reg
## BP = 5.1329, df = 3, p-value = 0.1623
Hasil Breusch-Pagan Test menunjukkan nilai BP sebesar 5.1329 dengan derajat kebebasan (df) 3, dan nilai p sebesar 0.1623. Nilai p yang lebih besar dari 0.05 mengindikasikan bahwa kita gagal menolak hipotesis nol yang menyatakan bahwa varians residual konstan (homoskedastisitas). Dengan kata lain, tidak terdapat bukti kuat adanya heteroskedastisitas dalam model ini.
Berdasarkan hasil uji Breusch-Pagan, kita dapat menyimpulkan bahwa model regresi linear tidak memiliki masalah heteroskedastisitas yang signifikan. Hal ini menunjukkan bahwa asumsi homoskedastisitas terpenuhi, yang merupakan salah satu asumsi penting dalam analisis regresi linear.
# Uji Autokorelasi
dw <- dwtest(reg)
dw
##
## Durbin-Watson test
##
## data: reg
## DW = 2.0836, p-value = 0.7236
## alternative hypothesis: true autocorrelation is greater than 0
Hasil Durbin-Watson Test menunjukkan nilai DW sebesar 2.0836 dan nilai p sebesar 0.7236. Nilai p yang lebih besar dari 0.05 mengindikasikan bahwa kita gagal menolak hipotesis nol yang menyatakan tidak adanya autokorelasi pada residual. Dengan kata lain, tidak terdapat bukti kuat adanya autokorelasi dalam residual model ini.
Berdasarkan hasil uji Durbin-Watson, kita dapat menyimpulkan bahwa model regresi linear tidak memiliki masalah autokorelasi yang signifikan. Hal ini menunjukkan bahwa asumsi independensi residual terpenuhi, yang merupakan salah satu asumsi penting dalam analisis regresi linear.
##Uji F (Simultan)
Melakukan uji F (simultan) dengan membuat tabel ANOVA.
# Uji F (Simultan)
ybar <- rep(mean(y), n)
JKreg <- t(y_hat - ybar) %*% (y_hat - ybar)
JKg <- t(y - y_hat) %*% (y - y_hat)
JKt <- t(y - ybar) %*% (y - ybar)
JK <- c(JKreg, JKg, JKt)
dbreg <- k - 1
dbtotal <- n - 1
dbgalat <- dbtotal - dbreg
db <- c(dbreg, dbgalat, dbtotal)
KT <- JK / db
sk <- c("regresi", "galat", "total")
anreg <- data.frame(sk, JK, db, KT)
names(anreg) <- c("SK", "JK", "db", "KT")
F_hit <- anreg$KT[1] / anreg$KT[2]
pf <- pf(F_hit, anreg$db[1], anreg$db[2], lower.tail = FALSE)
anreg
## SK JK db KT
## 1 regresi 4860.3235 3 1620.107829
## 2 galat 556.8253 196 2.840945
## 3 total 5417.1487 199 27.221853
F_hit
## [1] 570.2707
pf
## [1] 1.575227e-96
Nilai F hitung (F_hit) adalah 570.2707 dan nilai p (pf) adalah 1.575227e-96. Nilai p yang sangat kecil ini menunjukkan bahwa kita menolak hipotesis nol yang menyatakan bahwa semua koefisien regresi adalah nol. Dengan kata lain, model regresi secara keseluruhan signifikan.
Berdasarkan hasil uji F, kita dapat menyimpulkan bahwa model regresi linear secara keseluruhan signifikan dalam menjelaskan variabilitas variabel dependen \(Y\). Ini berarti bahwa setidaknya satu dari variabel independen (\(x1\), \(x2\), dan \(x3\)) memiliki hubungan yang signifikan dengan variabel dependen \(Y\).
###Uji t (Parsial)
Melakukan uji parsial untuk masing-masing koefisien.
# Uji t (Parsial)
var_cov <- anreg$KT[2] * solve(t(x) %*% x)
sd <- rep(0, k)
for(i in 1:k) { sd[i] <- sqrt(var_cov[i, i]) }
t <- b_hat / sd
p <- 2 * pt(abs(t), anreg$db[2], lower.tail = FALSE)
t
## [,1]
## [1,] 9.4222884
## [2,] 32.8086244
## [3,] 21.8934961
## [4,] -0.1767146
p
## [,1]
## [1,] 1.267295e-17
## [2,] 1.509960e-81
## [3,] 1.505339e-54
## [4,] 8.599151e-01
Nilai p yang sangat kecil (< 0.05) untuk koefisien Intercept, \(x1\), dan \(x2\) menunjukkan bahwa ketiga koefisien ini secara signifikan berbeda dari nol. Dengan kata lain, \(x1\) dan \(x2\) memiliki pengaruh yang signifikan terhadap variabel dependen \(Y\). Sementara itu, nilai p yang besar untuk koefisien \(x3\) menunjukkan bahwa \(x3\) tidak signifikan dalam model ini.
Berdasarkan hasil uji t, kita dapat menyimpulkan bahwa variabel independen \(x1\) dan \(x2\) memiliki pengaruh yang signifikan terhadap variabel dependen \(Y\). Namun, variabel \(x3\) tidak memberikan kontribusi yang signifikan dalam model.
##Koefisien Determinasi
Menghitung koefisien determinasi yang diperoleh dari JKR/JKT.
# Koefisien Determinasi
R2 <- anreg$JK[1] / anreg$JK[3]
R2
## [1] 0.8972106
Koefisien determinasi \(R^2\) untuk model regresi ini adalah 0.8972106. Ini berarti sekitar 89.72% dari variasi dalam variabel dependen \(Y\) dapat dijelaskan oleh variabel independen \(x1\), \(x2\), dan \(x3\) yang dimasukkan ke dalam model.
Berdasarkan nilai \(R^2\), kita dapat menyimpulkan bahwa model regresi linear ini memiliki kemampuan yang sangat baik dalam menjelaskan variasi dalam data. Namun, perlu diingat bahwa \(R^2\) tidak memberikan informasi tentang kesesuaian model untuk prediksi di luar data sampel, sehingga perlu dilakukan evaluasi tambahan terhadap model untuk mengonfirmasi kesesuaian prediksi.
##Selang Kepercayaan
Menghitung selang kepercayaan untuk koefisien regresi.
# Selang Kepercayaan
alfa <- 0.05
ttab <- qt(alfa / 2, anreg$db[2], lower.tail = FALSE)
lb_sk <- b_hat - ttab * sd
ub_sk <- b_hat + ttab * sd
selang_kepercayaan <- cbind(lb_sk, ub_sk)
selang_kepercayaan
## [,1] [,2]
## [1,] 2.32376228 3.55401646
## [2,] 0.04301371 0.04851558
## [3,] 0.17154745 0.20551259
## [4,] -0.01261595 0.01054097
Ini berarti dengan tingkat kepercayaan 95%, kita yakin bahwa nilai sebenarnya dari masing-masing koefisien regresi berada di antara rentang yang disediakan.
Selang kepercayaan adalah alat penting dalam analisis regresi linear untuk mengevaluasi seberapa akurat kita dapat memperkirakan nilai koefisien regresi. Dengan menggunakan selang kepercayaan, kita dapat mengevaluasi seberapa presisi estimasi koefisien regresi tersebut.
Efendi, A., Wardani, N. W. S., Fitriani, R., Sumarminingsih, E. 2020. Analisis Regresi Teori dan Aplikasi dengan R. Malang:UB Press
Kurniawan, R. dan Yuniarto, B. 2016. Analisis Regresi Dasar dan Penerapannya dengan R. Jakarta:Kencana
Walpole, R. E. (1992). Introduction to Statistics. Prentice Hall.
This is an R Markdown document. Markdown is a simple formatting syntax for authoring HTML, PDF, and MS Word documents. For more details on using R Markdown see http://rmarkdown.rstudio.com.
When you click the Knit button a document will be generated that includes both content as well as the output of any embedded R code chunks within the document. You can embed an R code chunk like this:
summary(cars)
## speed dist
## Min. : 4.0 Min. : 2.00
## 1st Qu.:12.0 1st Qu.: 26.00
## Median :15.0 Median : 36.00
## Mean :15.4 Mean : 42.98
## 3rd Qu.:19.0 3rd Qu.: 56.00
## Max. :25.0 Max. :120.00
You can also embed plots, for example:
Note that the echo = FALSE parameter was added to the
code chunk to prevent printing of the R code that generated the
plot.