Probabilitas adalah pilar fundamental penalaran statistik, menyediakan kerangka kerja yang sistematis dan koheren untuk mengkuantifikasi ketidakpastian. Menguasai konsep-konsep ini sangat penting untuk analisis data yang efektif, penelitian ilmiah, dan praktik berbasis bukti.
Probabilitas (\(P(A)\)) adalah fungsi himpunan bernilai nyata yang mengukur seberapa mungkin suatu peristiwa terjadi, dengan rentang nilai \(0 \le P(A) \le 1\). Teori probabilitas modern dibangun di atas Aksioma Kolmogorov yang menjamin konsistensi matematis:
Ruang Sampel (\(S\)) adalah himpunan dari semua kemungkinan hasil (outcomes) suatu eksperimen acak. Peristiwa (\(A\)) adalah himpunan bagian dari ruang sampel.
Konsep-konsep ini mendefinisikan hubungan antar himpunan peristiwa:
Saling Lepas (Mutually Exclusive): Dua peristiwa \(A\) dan \(B\) tidak memiliki hasil yang sama; irisannya adalah himpunan kosong (\(\emptyset\)). Contoh: Melempar dadu dan mendapatkan angka genap (\(A\)) dan angka ganjil (\(B\)). \[A \cap B = \emptyset \implies P(A \cap B) = 0\]
Kolektif Komprehensif (Collectively Exhaustive): Kumpulan peristiwa yang gabungannya mencakup seluruh ruang sampel. Contoh: Peristiwa Ganjil dan Genap dalam pelemparan dadu adalah komprehensif.
Metode ini bersifat deduktif dan hanya berlaku ketika semua hasil dalam ruang sampel memiliki peluang yang sama (equally likely).
\[P(A) = \frac{\text{Jumlah Hasil yang Menguntungkan A}}{\text{Total Jumlah Hasil dalam S}}\]
Probabilitas diperkirakan secara induktif, berdasarkan observasi dari sejumlah besar percobaan berulang.
\[P(A) = \lim_{n \to \infty} \frac{\text{Frekuensi A}}{\text{Jumlah Percobaan n}}\]
Digunakan saat data empiris tidak tersedia. Probabilitas ditetapkan berdasarkan derajat keyakinan (degree of belief) yang diinformasikan oleh keahlian.
Aturan ini menyatakan bahwa probabilitas suatu peristiwa tidak terjadi (\(A^c\)) adalah 1 dikurangi probabilitas terjadinya peristiwa tersebut (\(A\)).
\[P(A^c) = 1 - P(A)\]
Menghitung probabilitas bahwa peristiwa \(A\) atau peristiwa \(B\) terjadi (\(P(A \cup B)\)).
Kasus Umum (Tidak Saling Lepas): \[P(A \cup B) = P(A) + P(B) - P(A \cap B)\]
Kasus Saling Lepas: \[P(A \cup B) = P(A) + P(B)\]
Menghitung probabilitas bahwa peristiwa \(A\) dan peristiwa \(B\) terjadi bersamaan (\(P(A \cap B)\)). Bentuknya bergantung pada independensi (lihat Bagian 4).
Probabilitas Bersyarat (\(P(A|B)\)) adalah peluang peristiwa \(A\) terjadi dengan syarat peristiwa \(B\) sudah terjadi.
\[P(A|B) = \frac{P(A \cap B)}{P(B)}, \text{ dimana } P(B) > 0\]
Teorema Bayes adalah algoritma fundamental untuk memperbarui probabilitas hipotesis (\(A\)) ketika bukti baru (\(B\)) diamati.
[Image of Bayes theorem components]
\[\text{Peluang Posterior} = \frac{\text{Likelihood} \times \text{Peluang Prior}}{\text{Peluang Marginal}}\]
\[P(A|B) = \frac{P(B|A) P(A)}{P(B)}\]
Variabel Acak (\(X\)) adalah fungsi bernilai nyata yang memetakan hasil dari ruang sampel ke nilai numerik.
Distribusi diskrit ini memodelkan jumlah keberhasilan (\(X\)) dalam jumlah percobaan tetap (\(n\)) dengan hasil biner (sukses/gagal).
Distribusi kontinu paling penting, dikenal sebagai Kurva Lonceng. Ditentukan oleh Mean (\(\mu\)) dan Deviasi Standar (\(\sigma\)).
Probabilitas adalah dasar bagi Inferensi Statistik. Ini tercermin dalam perhitungan Interval Kepercayaan dan penetapan p-value dalam Pengujian Hipotesis.
Banyak model machine learning menggunakan probabilitas secara eksplisit:
Naive Bayes: Menggunakan Teorema Bayes untuk tugas klasifikasi.
Regresi Logistik: Memodelkan probabilitas hasil biner (e.g., \(P(\text{Klasifikasi} = 1)\)).
Pengetahuan distribusi membantu dalam deteksi
anomali dan dalam validasi asumsi model (e.g.,
asumsi normalitas residual).