Praktikum Pemrograman Statistika

Monte Carlo Methods: Estimation, Confidence Levels, and Hypothesis Testing

Author

Muhammad Yusran

Published

December 2, 2025

Pendahuluan

Metode Monte Carlo merupakan pendekatan komputasional yang memanfaatkan pembangkitan bilangan acak untuk mengevaluasi sifat-sifat suatu estimator atau prosedur statistik. Ketika pendekatan analitik sulit diterapkan, simulasi Monte Carlo menjadi alternatif yang efisien untuk memperoleh pemahaman empiris mengenai perilaku statistik tersebut.

Secara umum, metode Monte Carlo bekerja melalui tiga langkah utama: membangkitkan data acak dari suatu distribusi tertentu, menerapkan fungsi atau estimator yang ingin dikaji, dan mengulangi proses tersebut dalam jumlah besar. Dengan cara ini, berbagai karakteristik penting seperti nilai ekspektasi, varians, standard error, mean square error (MSE), maupun tingkat kepercayaan dan tingkat kesalahan uji hipotesis dapat diperkirakan secara komputasional. Pendekatan berbasis simulasi ini juga memungkinkan visualisasi perilaku estimator di bawah berbagai kondisi, sehingga memberikan wawasan yang tidak selalu dapat diperoleh melalui penurunan matematis formal.

Dalam statistika modern, metode Monte Carlo memiliki peran yang sangat luas. Pada ranah inferensi klasik, simulasi digunakan untuk menilai kinerja selang kepercayaan dan prosedur pengujian hipotesis, termasuk estimasi tingkat kesalahan tipe I dan kekuatan uji (power). Pada ranah statistika komputasional, Monte Carlo menjadi dasar bagi metode resampling seperti bootstrap dan jackknife, serta menjadi fondasi bagi pendekatan Bayesian melalui teknik Markov Chain Monte Carlo (MCMC). Fleksibilitas metode Monte Carlo menjadikannya salah satu alat utama dalam analisis statistika berbasis komputasi.

Materi ini memperkenalkan prinsip dasar Monte Carlo melalui sejumlah ilustrasi yang fokus pada estimasi parameter, evaluasi variabilitas estimator, penilaian selang kepercayaan, serta pengujian hipotesis. Setiap bagian mengikuti pola umum metode Monte Carlo: pembangkitan data acak, pengulangan simulasi, dan peringkasan hasil. Dengan memahami pola dasar ini, pembaca dapat mengembangkan dan menerapkan berbagai prosedur Monte Carlo untuk kebutuhan analisis yang lebih luas.

Estimasi Nilai Harapan Menggunakan Simulasi Monte Carlo

Estimasi nilai harapan (expected value) merupakan salah satu aplikasi paling mendasar dari metode Monte Carlo. Secara umum, tujuan estimasi nilai harapan adalah memperoleh perkiraan terhadap besaran matematis

\[ E[g(X)], \]

di mana \(g(X)\) adalah suatu fungsi dari peubah acak \(X\). Ketika nilai ekspektasi ini sulit dihitung secara analitik, simulasi Monte Carlo dapat digunakan untuk mendekatinya melalui pengulangan pembangkitan sampel secara komputasional.

Pendekatan dasar Monte Carlo untuk menduga nilai harapan dapat dijelaskan sebagai berikut. Misalkan kita ingin menghitung \(E[g(X)]\) untuk suatu distribusi tertentu. Langkah-langkah yang dilakukan adalah:

  1. Membangkitkan sampel acak \(X_1, X_2, \dots, X_m\) dari distribusi \(X\).
  2. Menghitung nilai \(g(X_i)\) untuk setiap sampel.
  3. Mengambil rata-rata dari seluruh nilai \(g(X_i)\), yaitu

\[ \hat{\theta}_m = \frac{1}{m} \sum_{i=1}^{m} g(X_i). \]

Menurut Hukum Bilangan Besar (Law of Large Numbers), estimasi ini akan mendekati nilai ekspektasi sebenarnya ketika jumlah replikasi \(m\) menjadi besar.

Sebagai ilustrasi, pertimbangkan kasus estimasi nilai \(E(|X_1 - X_2|)\), di mana \(X_1\) dan \(X_2\) masing-masing berdistribusi Normal baku. Melalui simulasi Monte Carlo, estimasi dapat diperoleh dengan prosedur yang sederhana: membangkitkan dua angka acak dari distribusi Normal baku, menghitung selisih absolutnya, lalu mengulangi proses tersebut dalam jumlah yang besar.

Contoh implementasi dalam R dapat dilakukan sebagai berikut:

m <- 1000
g <- numeric(m)

for (j in 1:m) {
  x <- rnorm(2)
  g[j] <- abs(x[1] - x[2])
}

mean(g)
[1] 1.141143

Hasil rata-rata dari simulasi tersebut memberikan pendugaan terhadap nilai ekspektasi \(E(|X_1 - X_2|)\). Peningkatan nilai replikasi \(m\) umumnya menghasilkan estimasi yang lebih stabil dan mendekati nilai sebenarnya, sejalan dengan prinsip konsistensi estimator berbasis simulasi.

Bagian ini menunjukkan pola umum yang juga digunakan pada bagian-bagian selanjutnya: pembangkitan sampel acak, penghitungan fungsi statistik, pengulangan simulasi, dan peringkasan hasil. Dengan memahami struktur dasar tersebut, berbagai bentuk pendugaan berbasis Monte Carlo dapat dibangun dan diperluas untuk tujuan analisis yang lebih kompleks.

Estimasi Standard Error melalui Simulasi Monte Carlo

Selain menduga nilai harapan, metode Monte Carlo juga dapat digunakan untuk mempelajari besarnya variasi suatu estimator. Salah satu ukuran variasi yang penting dalam inferensi statistik adalah standard error (SE). Standard error menggambarkan seberapa besar fluktuasi suatu estimator apabila proses pengambilan sampel dilakukan berulang kali.

Secara umum, jika \(\hat{\theta}\) adalah suatu estimator, maka standard error didefinisikan sebagai

\[ SE(\hat{\theta}) = \sqrt{\mathrm{Var}(\hat{\theta})}. \]

Dalam konteks simulasi Monte Carlo, standard error dapat diperkirakan dengan melakukan pengulangan terhadap proses estimasi dan mengamati seberapa besar penyebaran nilai estimator tersebut. Jika \(\hat{\theta}_1, \hat{\theta}_2, \dots, \hat{\theta}_m\) adalah hasil estimasi dari \(m\) pengulangan simulasi, maka estimasi standard error dapat diperoleh melalui

\[ \widehat{SE} = \sqrt{\frac{1}{m-1} \sum_{i=1}^{m} \left( \hat{\theta}_i - \bar{\theta} \right)^2}, \]

di mana \(\bar{\theta}\) adalah rata-rata dari seluruh estimator.

Sebagai ilustrasi, misalkan kita kembali pada kasus estimasi nilai \(E(|X_1 - X_2|)\) menggunakan simulasi Monte Carlo. Setelah memperoleh vektor nilai \(|X_1 - X_2|\) dari hasil pengulangan, standard error dapat dihitung dengan mengukur seberapa besar penyebaran nilai tersebut dari rata-ratanya.

Contoh implementasi dalam R sebagai berikut:

se_est <- sd(g) / sqrt(m)
se_est
[1] 0.02678362

Pendekatan ini menggunakan hubungan bahwa standard error dari rata-rata sampel dapat dihitung sebagai simpangan baku data dibagi akar ukuran sampel. Alternatifnya, standard error juga dapat dihitung secara manual melalui rumus variasi:

se_est_manual <- sqrt(sum((g - mean(g))^2)) / m
se_est_manual
[1] 0.02677022

Kedua pendekatan tersebut akan memberikan hasil yang sebanding, terutama ketika jumlah replikasi \(m\) cukup besar.

Melalui simulasi, standard error tidak hanya menjadi nilai numerik semata, melainkan alat untuk memahami seberapa stabil suatu estimator ketika proses pembangkitan data dilakukan berulang kali. Semakin besar \(m\), biasanya semakin kecil variasi estimasi standard error dan semakin stabil hasil estimasinya. Pemahaman mengenai variasi estimator ini menjadi dasar penting bagi analisis berbasis Monte Carlo pada bagian-bagian berikutnya.

Evaluasi Mean Square Error (MSE) Estimator

Selain nilai harapan dan standard error, salah satu ukuran penting dalam menilai kualitas suatu estimator adalah Mean Square Error (MSE). MSE menggabungkan dua aspek utama dari suatu estimator, yaitu bias dan varians, sehingga memberikan gambaran menyeluruh tentang performa estimator tersebut. Secara matematis, MSE dari suatu estimator \(\hat{\theta}\) didefinisikan sebagai

\[ \mathrm{MSE}(\hat{\theta}) = E\left[(\hat{\theta} - \theta)^2\right], \]

di mana \(\theta\) adalah parameter sebenarnya. Berdasarkan identitas aljabar klasik, MSE dapat diuraikan sebagai

\[ \mathrm{MSE}(\hat{\theta}) = \mathrm{Var}(\hat{\theta}) + \left( \mathrm{Bias}(\hat{\theta}) \right)^2. \]

Dalam konteks simulasi, MSE dapat diperkirakan dengan melakukan pengulangan pembangkitan sampel, menghitung nilai estimator pada setiap pengulangan, kemudian mengambil rata-rata kuadrat selisih estimator terhadap nilai parameter (apabila diketahui), atau terhadap nilai tengah estimator itu sendiri.

Untuk mengilustrasikan prosedur ini, kita mempertimbangkan dua estimator lokasi yang umum digunakan: trimmed mean dan median. Keduanya memiliki ketahanan (robustness) terhadap pencilan, tetapi dapat menunjukkan performa berbeda dalam hal MSE, terutama ketika ukuran sampel kecil.

Sebagai contoh, misalkan kita ingin menghitung MSE dari trimmed mean dengan proporsi trimming kecil, pada sampel berukuran \(n = 20\) dari distribusi Normal baku. Prosedur simulasi MSE dapat dilakukan dengan langkah berikut:

  1. Bangkitkan sampel acak berukuran \(n\) dari distribusi Normal.
  2. Urutkan sampel dan buang satu nilai terkecil dan satu nilai terbesar (trimming ringan).
  3. Hitung rata-rata dari data yang tersisa sebagai trimmed mean.
  4. Ulangi langkah 1–3 sebanyak \(m\) kali.
  5. Hitung MSE sebagai rata-rata dari kuadrat estimator.

Contoh implementasi dalam R adalah sebagai berikut:

n <- 20
m <- 1000
tmean <- numeric(m)

for (j in 1:m) {
  x <- sort(rnorm(n))
  tmean[j] <- mean(x[2:(n-1)])
}

mse_tmean <- mean(tmean^2)
mse_tmean
[1] 0.04771516

Sebagai pembanding, kita dapat menghitung MSE untuk median menggunakan prosedur serupa:

n <- 20
m <- 1000
medvals <- numeric(m)

for (i in 1:m) {
  x <- rnorm(n)
  medvals[i] <- median(x)
}

mse_median <- mean(medvals^2)
mse_median
[1] 0.0758689

Karena sampel berasal dari distribusi Normal baku dengan nilai tengah nol, perhitungan MSE menjadi sederhana, yaitu rata-rata dari kuadrat estimator. Namun, metode yang sama tetap berlaku untuk distribusi lain dan untuk estimator berbeda, selama prosedur simulasi diformulasikan dengan jelas.

Melalui simulasi Monte Carlo, kita dapat mengamati bahwa nilai MSE dapat berubah bergantung pada ukuran sampel, tingkat trimming, dan karakteristik distribusi data. Evaluasi berbasis MSE memberikan wawasan mendalam mengenai kualitas estimator dan menjadi dasar penting untuk membandingkan berbagai pendekatan estimasi dalam statistika.

Simulasi Selang Kepercayaan

Selang kepercayaan (confidence interval) merupakan salah satu konsep kunci dalam inferensi statistik. Secara umum, selang kepercayaan memberikan rentang nilai yang diyakini memuat parameter populasi dengan probabilitas tertentu, misalnya 95%. Namun, dalam praktik, tingkat kepercayaan nominal (misalnya 95%) belum tentu sama dengan tingkat kepercayaan sebenarnya, terutama ketika sampel berukuran kecil atau asumsi model tidak sepenuhnya terpenuhi.

Melalui simulasi Monte Carlo, tingkat kepercayaan dapat dievaluasi secara empiris. Ide dasarnya adalah mengulangi pembangkitan sampel dari suatu distribusi yang diketahui parameternya, menghitung selang kepercayaan pada setiap sampel, kemudian memeriksa seberapa sering selang tersebut benar-benar memuat parameter yang ingin diduga.

Sebagai ilustrasi, pertimbangkan kasus pembentukan selang kepercayaan bagi ragam dari distribusi Normal. Misalkan \(X_1, X_2, \dots, X_n\) adalah sampel acak dari distribusi Normal dengan ragam \(\sigma^2 = 4\). Selang kepercayaan satu sisi untuk \(\sigma^2\) dengan tingkat signifikansi \(\alpha\) adalah

\[ \left( \frac{(n-1)s^2}{\chi^2_{1-\alpha,\, n-1}}, \ \infty \right), \]

di mana \(s^2\) adalah ragam sampel dan \(\chi^2_{1-\alpha,\, n-1}\) adalah kuantil distribusi chi-kuadrat.

Dengan mensimulasikan pembuatan sampel berulang kali, kita dapat menghitung proporsi selang yang benar-benar memuat nilai \(\sigma^2 = 4\). Prosedur simulasi ini memberikan estimasi empiris terhadap tingkat kepercayaan.

Contoh implementasi dalam R:

n <- 20
alpha <- 0.05

calc_ucl <- function() {
  x <- rnorm(n, mean = 0, sd = 2)
  (n - 1) * var(x) / qchisq(alpha, df = n - 1)
}

m <- 1000
ucl_values <- replicate(m, calc_ucl())

mean(ucl_values > 4)
[1] 0.96

Output dari kode di atas adalah proporsi selang kepercayaan yang memuat nilai ragam sebenarnya, yaitu \(\sigma^2 = 4\). Jika metode pembentukan selang kepercayaan bekerja dengan baik, nilai proporsi ini seharusnya mendekati \(1−\alpha = 0.95\).

Melalui eksperimen simulasi, kita juga dapat mempelajari pengaruh ukuran sampel \(n\) dan tingkat signifikansi \(\alpha\). Misalnya, sampel yang lebih kecil cenderung menghasilkan tingkat kepercayaan yang lebih berfluktuasi, sedangkan sampel lebih besar memberikan tingkat kepercayaan yang lebih stabil. Dengan cara ini, simulasi Monte Carlo menjadi alat yang efektif untuk memahami karakteristik selang kepercayaan dan mengevaluasi kinerja prosedur inferensial dalam berbagai skenario.

Simulasi Pengujian Hipotesis

Pengujian hipotesis merupakan salah satu pilar utama inferensi statistik. Dua konsep penting dalam pengujian hipotesis adalah kesalahan tipe I (false positive) dan kesalahan tipe II (false negative). Melalui simulasi Monte Carlo, kedua jenis kesalahan ini dapat dievaluasi secara empiris dengan mengamati perilaku uji statistik pada data yang dibangkitkan dari distribusi tertentu.

Misalkan kita ingin menguji hipotesis nol

\[ H_0 : \mu = 0 \]

berdasarkan sampel yang berasal dari distribusi Normal dengan ragam 1. Pengujian dilakukan menggunakan uji t satu sampel. Dengan memanfaatkan simulasi, kita dapat mengevaluasi dua hal penting:

  1. Tingkat kesalahan tipe I, yaitu probabilitas menolak \(H_0\) ketika \(H_0\) benar.
  2. Kekuatan uji (power), yaitu probabilitas menolak \(H_0\) ketika \(H_0\) salah.

Sebagai ilustrasi, berikut prosedur simulasi untuk mengestimasi kesalahan tipe I. Karena \(H_0\) benar, kita bangkitkan sampel dari \(N(0, 1)\) dan menghitung nilai \(p\)-value dari uji t. Jika \(p\)-value lebih kecil dari \(\alpha\), maka uji menolak \(H_0\), dan kejadian tersebut dihitung sebagai kesalahan tipe I.

Contoh implementasi dalam R:

alpha <- 0.05
n <- 20
m <- 2000

rejects <- numeric(m)

for (b in 1:m) {
  x <- rnorm(n, mean = 0, sd = 1)   # H0 benar
  pval <- t.test(x, mu = 0)$p.value
  rejects[b] <- (pval < alpha)
}

mean(rejects)   # estimasi error tipe I
[1] 0.0475

Nilai yang diperoleh dari perhitungan tersebut memberikan estimasi empiris terhadap tingkat kesalahan tipe I. Secara teori, hasilnya seharusnya mendekati \(\alpha = 0.05\), meskipun nilai aktual dapat sedikit berfluktuasi akibat variasi sampel.

Untuk mengevaluasi kekuatan uji (power), kita melakukan prosedur yang sama, tetapi kini sampel dibangkitkan dari distribusi dengan nilai tengah yang berbeda, misalnya \(\mu = 1\). Dalam hal ini, penolakan terhadap \(H_0\) merupakan keputusan yang benar.

alpha <- 0.05
n <- 20
m <- 2000

rejects <- numeric(m)

for (b in 1:m) {
  x <- rnorm(n, mean = 1, sd = 1)   # H0 salah
  pval <- t.test(x, mu = 0)$p.value
  rejects[b] <- (pval < alpha)
}

mean(rejects)   # estimasi power
[1] 0.99

Eksperimen ini dapat diperluas untuk berbagai nilai parameter, seperti variasi ukuran sampel \(n\), tingkat signifikansi \(\alpha\), dan nilai tengah alternatif yang berbeda. Dengan cara ini, simulasi Monte Carlo memberikan pemahaman praktis tentang bagaimana uji hipotesis bekerja dalam berbagai kondisi, sekaligus menunjukkan faktor-faktor yang mempengaruhi probabilitas penolakan terhadap hipotesis nol.

Pengantar Metropolis–Hastings (MCMC)

Metode Markov Chain Monte Carlo (MCMC) merupakan perluasan dari teknik simulasi Monte Carlo yang digunakan ketika pembangkitan sampel secara langsung dari suatu distribusi target tidak memungkinkan atau sulit dilakukan. Salah satu algoritma MCMC yang paling umum adalah Metropolis–Hastings, yang memungkinkan pembangkitan sampel dari distribusi target melalui konstruksi suatu rantai Markov dengan sebaran stasioner yang sesuai dengan distribusi target tersebut.

Ide dasar dari Metropolis–Hastings adalah sebagai berikut. Misalkan kita ingin membangkitkan sampel dari distribusi target dengan fungsi kepekatan \(f(x)\). Jika pembangkitan langsung tidak tersedia, kita dapat membuat suatu rantai Markov \(X_1, X_2, X_3, \dots\) dengan langkah-langkah:

  1. Mulai dari nilai awal \(X_1\).
  2. Untuk setiap iterasi \(t\), usulkan nilai baru \(Y\) dari distribusi proposal \(q(Y \mid X_t)\).
  3. Hitung rasio penerimaan:

\[ r = \frac{f(Y) \, q(X_t \mid Y)}{f(X_t) \, q(Y \mid X_t)}. \]

  1. Terima nilai usulan \(Y\) dengan probabilitas \(\min(1, r)\). Jika diterima, tetapkan \(X_{t+1} = Y\); jika ditolak, tetapkan \(X_{t+1} = X_t\).

Dengan proses ini, rantai Markov secara bertahap akan menghasilkan sampel yang mengikuti distribusi target \(f(x)\), meskipun nilai-nilai yang dihasilkan pada iterasi awal mungkin belum representatif (fase yang dikenal sebagai burn-in).

Sebagai ilustrasi, misalkan distribusi target adalah distribusi Rayleigh dengan parameter \(\sigma\). Fungsi kepekatannya adalah

\[ f(x \mid \sigma) = \frac{x}{\sigma^2} \exp\left( - \frac{x^2}{2\sigma^2} \right), \quad x \ge 0. \]

Karena distribusi ini tidak termasuk keluarga distribusi yang mudah dibangkitkan melalui fungsi bawaan pada R, kita dapat menggunakan algoritma Metropolis–Hastings dengan proposal yang lebih sederhana, seperti distribusi Normal.

Contoh implementasi sederhana dalam R:

f <- function(x, sigma = 4) {
  ifelse(x < 0, 
         0,
         (x / sigma^2) * exp(-x^2 / (2 * sigma^2)))
}

m <- 50000
x <- numeric(m)
x[1] <- rnorm(1, mean = 1, sd = 1)

for (i in 2:m) {
  current <- x[i - 1]
  proposal <- rnorm(1, mean = current, sd = 1)

  num <- f(proposal) * dnorm(current, mean = proposal, sd = 1)
  den <- f(current)  * dnorm(proposal, mean = current, sd = 1)

  ratio <- num / den

  if (runif(1) < ratio) {
    x[i] <- proposal
  } else {
    x[i] <- current
  }
}

Setelah rantai dihasilkan, beberapa bentuk analisis dapat dilakukan untuk memeriksa apakah rantai telah mengikuti distribusi target:

  • Trace plot, untuk melihat dinamika nilai rantai dari waktu ke waktu.
  • Histogram, untuk melihat bentuk distribusi sampel.
  • QQ-plot, untuk membandingkan kuantil sampel dengan kuantil distribusi target.

Sebagai contoh:

plot(x, type = "l", main = "Trace Plot")

hist(x, freq = FALSE, breaks = "scott", main = "Histogram Sampel")
curve(f(x), add = TRUE)

Jika algoritma berjalan baik, histogram dari sampel yang dihasilkan akan mengikuti bentuk distribusi Rayleigh. Namun, kinerja algoritma Metropolis–Hastings dipengaruhi oleh pemilihan distribusi proposal, variansi proposal, serta panjang rantai. Variansi proposal terlalu kecil akan membuat rantai bergerak lambat, sedangkan variansi terlalu besar dapat menyebabkan banyak usulan ditolak.

MCMC merupakan fondasi bagi statistika Bayesian dan simulasi komputasional modern. Meskipun contoh yang diberikan di sini bersifat sederhana, prinsip dasar yang sama menjadi dasar bagi berbagai algoritma yang lebih kompleks dalam pemodelan probabilistik.

Latihan

Seorang peneliti ingin mempelajari bagaimana kesalahan tipe I (\(\alpha\)) dari dua uji statistik berikut:

  1. Uji t satu sampel
  2. Uji Wilcoxon signed-rank satu sampel

berubah pada berbagai ukuran sampel.

Uji dilakukan untuk hipotesis:

\[ H_0 : \mu = 1500, \qquad H_1 : \mu \neq 1500. \]

Data dibangkitkan dari distribusi Normal:

\[ X \sim N(\mu = 1500, \sigma = 200), \]

sehingga hipotesis nol benar, dan proporsi penolakan H₀ sama dengan kesalahan tipe I empiris.

Gunakan ketentuan berikut:

  • tingkat signifikansi: α = 0.05
  • jumlah ulangan simulasi: 10.000
  • ukuran sampel yang diuji: 5, 10, 15, …, 50

Lakukan simulasi Monte Carlo untuk mengestimasi kesalahan tipe I untuk kedua uji tersebut.
Visualisasikan hasilnya dalam grafik dan berikan kesimpulan.

library(ggplot2)
Warning: package 'ggplot2' was built under R version 4.4.3
# Parameter simulasi

sample_sizes <- seq(5, 50, by = 5)
mu_true      <- 1500
sigma_true   <- 200
n_sim        <- 10000
alpha        <- 0.05

# Fungsi pengambil p-value untuk kedua uji

p_ttest <- function(x) {
  t.test(x, mu = mu_true)$p.value
}

p_wilcox <- function(x) {
  wilcox.test(x, mu = mu_true)$p.value
}

# Simulasi kesalahan tipe I

set.seed(123)

results <- lapply(sample_sizes, function(n) {
  
  # seluruh data simulasi sekaligus (lebih efisien)
  sims <- replicate(n_sim, rnorm(n, mean = mu_true, sd = sigma_true))
  
  # p-value
  p_t  <- apply(sims, 2, p_ttest)
  p_w  <- apply(sims, 2, p_wilcox)
  
  # proporsi penolakan H0 (error tipe I)
  alpha_t  <- mean(p_t < alpha)
  alpha_w  <- mean(p_w < alpha)
  
  data.frame(
    n      = n,
    alpha  = c(alpha_t, alpha_w),
    test   = c("t_test", "wilcoxon")
  )
})

results_df <- do.call(rbind, results)

# Grafik hasil simulasi

ggplot(results_df, aes(x = n, y = alpha, color = test)) +
  geom_point(size = 2) +
  geom_line() +
  geom_hline(yintercept = alpha, linetype = "dashed") +
  labs(
    title = "Estimasi Kesalahan Tipe I untuk Berbagai Ukuran Sampel",
    x = "Ukuran Sampel",
    y = "Alpha Empiris"
  ) +
  theme_minimal(base_size = 13)

  • Uji t menunjukkan nilai kesalahan tipe I yang sangat dekat dengan tingkat signifikansi nominal (0.05) bahkan untuk ukuran sampel kecil.
  • Uji Wilcoxon cenderung memberikan kesalahan tipe I yang lebih kecil (lebih konservatif), terutama ketika ukuran sampel kecil.
  • Untuk ukuran sampel besar (n ≥ 30), kedua uji semakin stabil dan mendekati nilai α sebenarnya.

Kesimpulan ini sesuai dengan teori bahwa uji t lebih efisien pada data berdistribusi Normal, sedangkan uji Wilcoxon lebih konservatif dan kurang efisien pada kondisi distribusi normal murni.

Muhammad Yusran
Program Studi Magister Statistika dan Sains Data
Sekolah Sains Data, Matematika, dan Informatika
IPB University

Email: muhammadyusran@apps.ipb.ac.id
LinkedIn: Muhammad Yusran
Instagram: mhammad.yusran_