Petunjuk


Soal 1 — Perbandingan Pendekatan

Jelaskan perbedaan utama antara regresi klasik (OLS) dan regresi Bayesian. Sertakan: 1) Cara estimasi parameter pada masing-masing pendekatan, dan
2) Peran prior dalam regresi Bayesian.

Ruang jawaban:

Pada regresi linear klasik dengan pendekatan frequentist, parameter diestimasi menggunakan metode Ordinary Least Squares (OLS). Tujuannya adalah meminimalkan jumlah kuadrat residual sehingga diperoleh estimasi titik \(\hat\beta\) yang terbaik dalam arti least squares. Secara umum, formulanya ditulis sebagai berikut.

\[ \hat\beta = (X^\top X)^{-1} X^\top y \]

Hasil utama dari OLS adalah satu nilai estimasi (titik) untuk setiap koefisien regresi, disertai simpangan baku, nilai \(t\), dan interval kepercayaan. Inferensi dalam kerangka ini bergantung pada distribusi sampling dari estimator.

Sebaliknya, pada pendekatan Bayesian, parameter diperlakukan sebagai variabel acak. Kita mendefinisikan distribusi prior \(p(\beta)\) yang merepresentasikan keyakinan awal sebelum melihat data, lalu mengalikan dengan likelihood \(p(y \mid \beta)\) untuk menghasilkan posterior:

\[ p(\beta \mid y) \propto p(y \mid \beta) \, p(\beta). \]

Posterior ini berbentuk distribusi, bukan sekadar titik estimasi. Artinya, hasil analisis bukan hanya “berapa nilai \(\beta\)”, melainkan “seberapa besar kemungkinan \(\beta\) berada pada rentang tertentu setelah data diamati”. Dengan demikian, kita bisa membuat credible interval yang memiliki interpretasi probabilistik langsung.

Peran Prior

Dalam regresi Bayesian, prior berperan sebagai representasi keyakinan awal terhadap parameter regresi sebelum data diamati. Prior ini bisa bersifat informatif, misalnya berdasarkan penelitian atau pengetahuan sebelumnya, atau bersifat non-informatif/vague ketika kita tidak memiliki informasi kuat. Ketika data yang tersedia sedikit, prior akan memberikan pengaruh besar terhadap distribusi posterior, sehingga hasil estimasi cenderung mengikuti asumsi awal yang ditentukan. Sebaliknya, jika data sangat banyak, maka pengaruh prior semakin kecil dan hasil regresi Bayesian akan mendekati hasil regresi klasik seperti OLS.

Selain itu, prior juga dapat berfungsi sebagai bentuk regularisasi. Misalnya, penggunaan prior Normal dengan varians kecil dapat membatasi besarnya koefisien regresi sehingga tidak ekstrem, mirip dengan ridge regression. Dengan demikian, prior tidak hanya membantu menggabungkan informasi awal dengan data baru, tetapi juga melindungi model dari estimasi yang tidak realistis atau overfitting, sehingga menghasilkan inferensi yang lebih stabil dan masuk akal.


Soal 2 — OLS Slope dan Interpretasi Prior

Gunakan model: \[ y_i = \beta_0 + \beta_1 x_i + \epsilon_i, \quad \epsilon_i \sim N(0, \sigma^2). \]

Diberikan 5 observasi:

x y
0 1.2
1 2.3
2 2.8
3 4.1
4 5.3
  1. Hitung estimasi \(\hat{\beta}_1\) menggunakan OLS.
  2. Jika prior \(\beta_1 \sim N(0, 10^2)\), jelaskan interpretasi prior ini.

Ruang perhitungan (opsional):

a) Hitung estimasi \(\hat{\beta}_1\) menggunakan OLS

Model regresi linear ditulis sebagai: \[ y_i = \beta_0 + \beta_1 x_i + \varepsilon_i. \]

Rumus slope OLS adalah: \[ \hat{\beta}_1 = \frac{\sum_{i=1}^n (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^n (x_i - \bar{x})^2}. \]

Dengan data: \[ x = (0,1,2,3,4), \quad y = (1.2,2.3,2.8,4.1,5.3), \quad n = 5, \]

maka rata-rata: \[ \bar{x} = \frac{0+1+2+3+4}{5} = 2, \quad \bar{y} = \frac{1.2+2.3+2.8+4.1+5.3}{5} = 3.14. \]

Hitung pembilang: \[ \begin{aligned} (x_1-\bar{x})(y_1-\bar{y}) &= (0-2)(1.2-3.14) = (-2)(-1.94) = 3.88, \\ (x_2-\bar{x})(y_2-\bar{y}) &= (1-2)(2.3-3.14) = (-1)(-0.84) = 0.84, \\ (x_3-\bar{x})(y_3-\bar{y}) &= (2-2)(2.8-3.14) = (0)(-0.34) = 0.00, \\ (x_4-\bar{x})(y_4-\bar{y}) &= (3-2)(4.1-3.14) = (1)(0.96) = 0.96, \\ (x_5-\bar{x})(y_5-\bar{y}) &= (4-2)(5.3-3.14) = (2)(2.16) = 4.32. \end{aligned} \]

Sehingga: \[ \sum_{i=1}^5 (x_i-\bar{x})(y_i-\bar{y}) = 3.88 + 0.84 + 0.00 + 0.96 + 4.32 = 10.00. \]

Hitung penyebut: \[ (0-2)^2=4,\quad (1-2)^2=1,\quad (2-2)^2=0,\quad (3-2)^2=1,\quad (4-2)^2=4, \] \[ \sum_{i=1}^5 (x_i-\bar{x})^2 = 4+1+0+1+4 = 10. \]

Maka estimasi slope: \[ \hat{\beta}_1 = \frac{10.00}{10} = 1.00. \]

Intercept dihitung dengan: \[ \hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x}. \]

\[ \hat{\beta}_0 = 3.14 - (1.00)(2) = 3.14 - 2.00 = 1.14. \]

Hasil akhir: \[ \hat{y} = 1.14 + 1.00x. \]

# Data kecil untuk hitung OLS
x <- c(0,1,2,3,4)
y <- c(1.2,2.3,2.8,4.1,5.3)
coef(lm(y ~ x))  # gunakan untuk memeriksa perhitungan manual Anda
## (Intercept)           x 
##        1.14        1.00

b) Interpretasi prior \(\beta_1 \sim N(0,10^2)\)

Prior ini berbentuk distribusi Normal dengan rata-rata 0 dan varians \(100\) (simpangan baku = 10).


Soal 3 — Prior Informasi pada Slope

Dengan model pada Soal 2, misalkan prior: - \(\beta_0 \sim N(0, 100)\) - \(\beta_1 \sim N(2, 0.5^2)\)

  1. Apa arti prior \(\beta_1 \sim N(2, 0.5^2)\) terhadap hubungan \(x\)\(y\)?
  2. Jika ukuran sampel sangat kecil, menurut Anda posterior lebih dipengaruhi oleh prior atau data? Jelaskan alasannya.

Ruang jawaban:

  1. Prior \(\beta_1 \sim N(2, 0.5^2)\) berarti sebelum melihat data, kita memiliki keyakinan awal yang kuat bahwa slope (\(\beta_1\)) bernilai sekitar 2. Secara praktis, ini diartikan bahwa setiap kenaikan 1 unit pada variabel \(x\) diperkirakan meningkatkan nilai \(y\) sekitar 2 unit. Karena simpangan baku prior hanya 0.5 (varians 0.25), distribusi prior cukup sempit sehingga bersifat informatif. Dengan kata lain, kita bukan hanya sekadar menebak bahwa slope mendekati 2, tetapi juga cukup yakin bahwa nilainya tidak jauh dari angka tersebut (misalnya antara 1 dan 3). Dalam literatur Bayesian, prior seperti ini biasanya digunakan bila ada bukti kuat dari teori atau hasil penelitian sebelumnya, sehingga analisis baru dapat “mewarisi” informasi yang sudah ada.

  2. Jika ukuran sampel sangat kecil, maka posterior akan lebih dipengaruhi oleh prior daripada data. Alasannya, distribusi posterior diperoleh dari kombinasi prior dan likelihood. Pada ukuran sampel yang kecil, likelihood relatif datar atau lebar sehingga tidak membawa informasi yang kuat. Sebaliknya, prior informatif yang sempit akan memberikan bobot yang besar dalam menentukan bentuk posterior. Akibatnya, nilai posterior akan cenderung mendekati nilai mean prior (yaitu sekitar 2 dalam kasus ini). Sebaliknya, jika sampel sangat besar, informasi dari data akan mendominasi sehingga posterior hampir identik dengan hasil estimasi OLS.


Soal 4 — Kelebihan & Kelemahan

Sebutkan satu kelebihan dan satu kelemahan regresi Bayesian dibanding OLS. Berikan alasan singkat.

Ruang jawaban:

Kelebihan:
Kelebihan utama regresi Bayesian dibanding OLS adalah kemampuannya menggabungkan informasi sebelumnya melalui prior dan menghasilkan distribusi posterior alih-alih hanya estimasi titik. Dengan demikian, inferensi Bayesian lebih kaya dan dapat menyatakan credible interval yang memiliki interpretasi probabilistik langsung, misalnya “probabilitas 95% parameter berada pada rentang tertentu”. Fitur ini sangat menonjol karena membuat regresi Bayesian lebih fleksibel dalam menghadapi data terbatas atau model kompleks, di mana OLS bisa memberikan estimasi yang tidak stabil.

Kelemahan:
Di sisi lain, regresi Bayesian sangat dipengaruhi oleh pemilihan prior. Jika prior yang dipakai terlalu informatif atau tidak sesuai dengan konteks, maka hasil posterior bisa menyimpang dari informasi yang terkandung di dalam data. Selain itu, untuk model yang tidak memiliki solusi analitik, regresi Bayesian memerlukan algoritma komputasi seperti MCMC, yang relatif berat dan membutuhkan pemeriksaan konvergensi. Hal ini membuat penerapan Bayesian lebih rumit dibanding OLS yang memiliki solusi eksplisit dan komputasi cepat.