Distribusi Cauchy adalah distribusi probabilitas kontinu yang memiliki heavy tails, sehingga sering menghasilkan nilai ekstrem. Distribusi ini tidak memiliki nilai rata-rata dan variansi yang terdefinisi.
Sifat Fundamental dan Signifikansi Teoretis
\[ f(x; \theta, \gamma) = \frac{1}{\pi \gamma \left[1 + \left( \frac{x - \theta}{\gamma} \right)^2 \right]} \]
Untuk standard Cauchy (dengan \(\theta = 0\) dan \(\gamma = 1\)):
\[ f(x) = \frac{1}{\pi (1 + x^2)} \]
\[ F(x; \theta, \gamma) = \frac{1}{\pi} \arctan\left( \frac{x - \theta}{\gamma} \right) + \frac{1}{2} \]
| Karakteristik | Cauchy | Normal |
|---|---|---|
| Mean | Tidak ada (undefined) | Ada |
| Variansi | Tidak ada (undefined) | Ada |
| Bentuk PDF | Puncak tajam, tail berat | Puncak lebar, tail ringan |
| Sensitivitas Outlier | Tinggi | Rendah |
Metode yang digunakan untuk mencari estimasi parameter maksimum likelihood (MLE) melalui metode iteratif.
Metode Newton-Raphson menggunakan turunan pertama dan kedua dari log-likelihood untuk memperbarui estimasi parameter.
\[ \theta^{(t+1)} = \theta^{(t)} - \frac{\ell'(\theta^{(t)})}{\ell''(\theta^{(t)})} \]
Langkah-langkah: 1. Tentukan log-likelihood \(\ell(\theta)\) 2. Hitung \(\ell'(\theta)\) dan \(\ell''(\theta)\) 3. Lakukan iterasi: - Perbarui \(\theta\) dengan rumus di atas - Ulangi hingga konvergen
Merupakan variasi dari Newton-Raphson yang menggunakan ekspektasi dari informasi Fisher menggantikan turunan kedua log-likelihood.
\[ \theta^{(t+1)} = \theta^{(t)} + \mathcal{I}^{-1}(\theta^{(t)}) \cdot \ell'(\theta^{(t)}) \]
Pilihan awal \(\theta^{(0)}\) sangat mempengaruhi konvergensi. Iterasi pun dihentikan saat selisih nilai \(\theta\) antar iterasi cukup kecil, atau ketika turunan pertama mendekati nol.
\[ f(x; \theta) = \frac{1}{\pi} \cdot \frac{1}{1 + (x - \theta)^2} \]
### Simulasi data Cauchy
set.seed(33)
n <- 100
theta <- 2
data <- rcauchy(n, location = theta, scale = 1)
### Fungsi turunan pertama log-likelihood
score_function <- function(theta, x) {sum(2 * (x - theta) / (1 + (x - theta)^2))
}
### Fungsi turunan kedua log-likelihood
info_function <- function(theta, x) {
sum((2 * ((x - theta)^2 - 1)) / (1 + (x - theta)^2)^2)
}
### Fisher Information
fisher_info <- function(n) {
n * (1 / 2)
}
### Estimasi menggunakan Newthon-Raphson
newton_raphson <- function(x, theta0, tol = 1e-1, max_iter = 100) {
theta <- theta0
for (i in 1:max_iter) {
u <- sum(2 * (x - theta) / (1 + (x - theta)^2))
h <- sum(2 * ((x - theta)^2 - 1) / (1 + (x - theta)^2)^2)
theta_new <- theta - u / h
if (abs((theta_new - theta) / theta_new) < tol) break
theta <- theta_new
}
return(theta_new)
}
### Estimasi menggunakan Fisher's Scoring
fishers_scoring <- function(x, theta0, tol = 1e-1, max_iter = 100) {
theta <- theta0
fisher_info <- length(x) / 2
for (i in 1:max_iter) {
u <- sum(2 * (x - theta) / (1 + (x - theta)^2))
theta_new <- theta + u / fisher_info
if (abs((theta_new - theta) / theta_new) < tol) break
theta <- theta_new
}
return(theta_new)
}
### Simulasi Sampel Acak
set.seed(33)
n <- 100
theta_true <- 2
x <- rcauchy(n, location = theta_true)
### Uji Nilai untuk Beberapa Nilai Teta (1.6-2.4)
theta_init_vals <- seq(1.6, 2.4, by = 0.2)
sapply(theta_init_vals, function(t0) newton_raphson(x, t0))
## [1] 2.053326 2.053402 2.052864 2.046671 2.052908
sapply(theta_init_vals, function(t0) fishers_scoring(x, t0))
## [1] 2.052932 2.053173 2.051160 2.066370 2.056693
| Inisialisasi \(\theta^{(0)}\) | Newton-Raphson | Fisher Scoring |
|---|---|---|
| 1 | 2.053326 | 2.052932 |
| 2 | 2.053402 | 2.053173 |
| 3 | 2.052864 | 2.051160 |
| 4 | 2.046671 | 2.066370 |
| 5 | 2.052908 | 2.056693 |
Konvergensi Parameter: Dapat diamati bahwa baik metode Newton-Raphson maupun Fisher Scoring berhasil konvergen pada nilai parameter yang sangat mirip. Nilai-nilai yang dicapai oleh kedua metode umumnya berada dalam rentang 2.04 hingga 2.06. Ini menunjukkan bahwa kedua algoritma optimasi berhasil menemukan solusi yang stabil untuk masalah yang mereka coba pecahkan.
Variasi Hasil Berdasarkan Inisialisasi: Meskipun nilai konvergensinya secara umum dekat, ada sedikit perbedaan tergantung pada nilai inisiasi awal (\(\beta^{(0)}\)).
Karakteristik Metode:
Menggunakan software R studio diperoleh :
| Statistik | Newton-Raphson | Fisher’s Scoring |
|---|---|---|
| Mean | 2.007 | 2.001 |
| Varians | 0.016 | 0.02 |
| Minimum | 1.757 | 1.606 |
| Maksimum | 2.312 | 2.306 |
| Kuartil 1 (Q1) | 1.915 | 1.895 |
| Kuartil 3 (Q3) | 2.093 | 2.105 |
simulate_estimations <- function(method, init_val = 2, iter = 100) {
replicate(iter, {
x <- rcauchy(n, location = theta_true)
if (method == "nr") newton_raphson(x, init_val)
else fishers_scoring(x, init_val)
})
}
set.seed(33)
est_nr <- simulate_estimations("nr", init_val = 2)
summary (est_nr)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 1.757 1.915 1.995 2.007 2.093 2.312
est_fs <- simulate_estimations("fs", init_val = 2)
summary (est_fs)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 1.606 1.895 2.009 2.001 2.105 2.306
boxplot(est_nr, est_fs, names = c("Newton-Raphson", "Fisher's Scoring"),
main = "Boxplot dari Estimasi θ", ylab = "θ", col = c("purple", "pink"))
### Statistik Ringkasan
mean(est_nr); var(est_nr)
## [1] 2.007433
## [1] 0.01619573
mean(est_fs); var(est_fs)
## [1] 2.000953
## [1] 0.0200991
Interpretasi Data:
Interpretasi Boxplot dari Estimasi \(\theta\):
Grafik ini membandingkan distribusi estimasi parameter \(\theta\) yang diperoleh dari dua metode optimasi: Newton-Raphson (kiri, kotak ungu) dan Fisher Scoring (kanan, kotak merah muda).
Kesimpulan BoxPlot :
Boxplot ini secara visual menegaskan bahwa kedua metode optimasi menghasilkan estimasi parameter \(\theta\) yang stabil dan terpusat di sekitar nilai yang sama. Newton-Raphson menunjukkan sebaran estimasi yang sedikit lebih rapat dibandingkan Fisher Scoring, namun keduanya adalah metode yang efektif dan dapat diandalkan.