Mata Kuliah: Kecerdasan Artifisial (AI401) | 3 SKS
Setelah pertemuan ini, mahasiswa mampu:
โ ๏ธ Masalah: Dunia nyata penuh ketidakpastian! Logika biner (TRUE/FALSE) tidak cukup.
Contoh: Radar mendeteksi sinyal โ
Tidak bisa dijawab dengan TRUE/FALSE!
| Sumber | Deskripsi | Contoh |
|---|---|---|
| Laziness | Terlalu sulit mendaftar semua aturan | "Jika demam โ flu" (mengabaikan puluhan penyakit lain) |
| Ignorance | Informasi tidak tersedia | Hasil tes belum keluar, data radar tidak lengkap |
| Sensor Noise | Data tidak akurat | Radar false positive/negative |
| Adversarial | Musuh menyembunyikan info | Stealth aircraft, cyber deception |
Gunakan derajat kepercayaan (0 sampai 1)
"Sinyal ini 75% kemungkinan pesawat musuh"
Lebih informatif daripada TRUE/FALSE
| Notasi | Makna | Contoh |
|---|---|---|
| P(A) | Probabilitas event A | P(Hujan) = 0.3 |
| P(ยฌA) | Probabilitas bukan A | P(ยฌHujan) = 0.7 |
| P(A, B) | Joint probability | P(Hujan, Macet) |
| P(A | B) | Conditional probability | P(Macet | Hujan) |
Tiga aksioma Kolmogorov:
1. Non-negativity: P(A) โฅ 0 untuk semua event A
2. Normalization: P(ฮฉ) = 1 โ total probabilitas seluruh sample space = 1
3. Additivity: Jika A dan B mutually exclusive: P(A โช B) = P(A) + P(B)
Turunan penting: P(ยฌA) = 1 โ P(A) dan 0 โค P(A) โค 1
Contoh:
Prior bisa diperbarui saat ada bukti baru โ inilah inti Teorema Bayes!
Contoh: 1000 misi drone TNI AU
| Misi Sukses | Misi Gagal | Total | |
|---|---|---|---|
| Cuaca Baik | 600 | 50 | 650 |
| Cuaca Buruk | 200 | 150 | 350 |
| Total | 800 | 200 | 1000 |
Joint: P(Cuaca Baik, Sukses) = 600/1000 = 0.60
Marginal: P(Sukses) = 800/1000 = 0.80
$$P(A \mid B) = \frac{P(A, B)}{P(B)}$$
"Probabilitas A terjadi, diketahui B telah terjadi"
Dari data misi drone:
P(Sukses | Cuaca Baik)
= 0.60 / 0.65
= 0.923 (92.3%)
P(Sukses | Cuaca Buruk)
= 0.20 / 0.35
= 0.571 (57.1%)
๐ก Cuaca secara signifikan mempengaruhi keberhasilan misi (92% vs 57%)!
$$P(A, B) = P(A \mid B) \cdot P(B) = P(B \mid A) \cdot P(A)$$
Menulis ulang rumus conditional probability:
Contoh: P(Sukses, Cuaca Baik) = P(Sukses | Cuaca Baik) ร P(Cuaca Baik)
= 0.923 ร 0.65 = 0.60 โ
$$P(H \mid E) = \frac{P(E \mid H) \cdot P(H)}{P(E)}$$
Ini mungkin rumus paling penting dalam AI probabilistik!
| Komponen | Nama | Makna |
|---|---|---|
| P(H | E) | Posterior | Kepercayaan setelah bukti |
| P(E | H) | Likelihood | Seberapa cocok bukti dengan hipotesis |
| P(H) | Prior | Kepercayaan awal |
| P(E) | Evidence | Konstanta normalisasi |
Step 1: Dari aturan produk: P(H, E) = P(H | E) ยท P(E)
Step 2: Juga: P(H, E) = P(E | H) ยท P(H)
Step 3: Karena ruas kiri sama: P(H | E) ยท P(E) = P(E | H) ยท P(H)
Step 4: Bagi kedua ruas dengan P(E):
$$P(H \mid E) = \frac{P(E \mid H) \cdot P(H)}{P(E)}$$
Untuk menghitung P(E) โ penyebut Teorema Bayes:
$$P(E) = \sum_{i} P(E \mid H_i) \cdot P(H_i)$$
Kasus biner:
P(E) = P(E | H) ยท P(H) + P(E | ยฌH) ยท P(ยฌH)
Diketahui:
Pertanyaan: Jika alarm berbunyi, berapa P(Musuh)?
Step 1: P(Alarm) = 0.95 ร 0.01 + 0.03 ร 0.99 = 0.0095 + 0.0297 = 0.0392
Step 2: P(Musuh | Alarm) = (0.95 ร 0.01) / 0.0392 = 0.0095 / 0.0392
P(Musuh | Alarm) = 0.242 (24.2%)
โ ๏ธ Meskipun true positive rate = 95%, hanya 24.2% alarm benar karena prior sangat rendah (1%). Ini disebut Base Rate Fallacy!
Intuisi yang salah:
"Radar akurasi 95% berbunyi โ pasti 95% benar ada musuh"
Kenyataan (Bayes):
"Dengan prior rendah (1%), alarm hanya 24.2% benar"
๐ก Implikasi militer: Jangan langsung tembak saat alarm berbunyi โ verifikasi dengan sensor tambahan!
Dua alarm radar berturut-turut (independen):
| Tahap | Prior | Evidence | Posterior |
|---|---|---|---|
| Awal | 1% | โ | 1% |
| Setelah alarm 1 | 1% | Alarm + | 24.2% |
| Setelah alarm 2 | 24.2% | Alarm + | 91.0% |
โ Setiap bukti baru memperbarui kepercayaan โ Bayesian updating kumulatif!
Prosedur:
$$P(H \mid E) = \alpha \cdot P(E \mid H) \cdot P(H)$$
di mana ฮฑ = 1/P(E) adalah konstanta normalisasi
P(Spam) = 0.4, P(Ham) = 0.6, P("gratis" | Spam) = 0.8, P("gratis" | Ham) = 0.1
Step 1 โ Numerator:
Spam: 0.8 ร 0.4 = 0.32
Ham: 0.1 ร 0.6 = 0.06
Step 2 โ Total: 0.32 + 0.06 = 0.38
Step 3 โ Normalisasi:
P(Spam | "gratis") = 0.32 / 0.38 = 0.842 (84.2%)
P(Ham | "gratis") = 0.06 / 0.38 = 0.158 (15.8%)
Sistem SIGINT mendeteksi sinyal terenkripsi:
| Hipotesis | Prior | P(Enkripsi | H) | Numerator | Posterior |
|---|---|---|---|---|
| Militer musuh | 0.10 | 0.90 | 0.090 | 0.556 |
| Sipil | 0.70 | 0.10 | 0.070 | 0.432 |
| Noise | 0.20 | 0.01 | 0.002 | 0.012 |
| Total | 0.162 | 1.000 | ||
Bukti enkripsi menaikkan probabilitas militer dari 10% โ 55.6%!
Equivalen dengan: P(A | B) = P(A)
Mengetahui B tidak mengubah probabilitas A
โ Independen:
Lemparan dadu ke-1 dan ke-2
โ Tidak Independen:
Cuaca dan keberhasilan misi
Full Joint Distribution tanpa independensi:
| Variabel Boolean | Parameter |
|---|---|
| 5 variabel | 2โต โ 1 = 31 |
| 10 variabel | 2ยนโฐ โ 1 = 1.023 |
| 20 variabel | 2ยฒโฐ โ 1 โ 1 juta |
| 30 variabel | 2ยณโฐ โ 1 โ 1 miliar! |
โ ๏ธ Pertumbuhan eksponensial! Asumsi independensi mengurangi parameter secara drastis.
Jika sudah tahu C, mengetahui B tidak menambah info tentang A.
| Variabel | Keterangan |
|---|---|
| C (Penyebab) | Cuaca Buruk |
| A (Efek 1) | Traffic Macet |
| B (Efek 2) | Penerbangan Delay |
โ A dan B tidak independen secara umum (keduanya sering terjadi bersamaan)
โ A dan B conditionally independent given C: Jika tahu cuaca buruk, traffic macet tidak menambah info tentang penerbangan delay
Dua radar (conditionally independent):
Kedua radar positif:
P(Rโโบ, Rโโบ | H) = 0.90 ร 0.85 = 0.765
P(Rโโบ, Rโโบ | ยฌH) = 0.05 ร 0.08 = 0.004
P(H | Rโโบ, Rโโบ) = 79.6%
๐ก Dari prior 2% โ 79.6%! Sensor fusion meningkatkan kepercayaan secara dramatis.
$$\hat{C} = \arg\max_C \; P(C) \cdot \prod_{i=1}^{n} P(x_i \mid C)$$
Pilih kelas yang memaksimalkan prior ร product of likelihoods
Kelas sebagai parent, fitur sebagai children yang conditionally independent.
๐ Inilah bentuk paling sederhana dari Jaringan Bayesian (Pertemuan 12)
Meski asumsi dilanggar, Naive Bayes sering tetap memberikan klasifikasi yang benar!
Data training:
| "diskon" | "gratis" | "rapat" | "laporan" | Kelas | |
|---|---|---|---|---|---|
| 1 | 1 | 1 | 0 | 0 | Spam |
| 2 | 1 | 0 | 0 | 0 | Spam |
| 3 | 0 | 1 | 0 | 1 | Spam |
| 4 | 0 | 0 | 1 | 1 | Ham |
| 5 | 0 | 0 | 1 | 0 | Ham |
| 6 | 1 | 0 | 1 | 1 | Ham |
Klasifikasikan: "diskon"=1, "gratis"=0, "rapat"=1, "laporan"=0
Prior: P(Spam) = 0.5, P(Ham) = 0.5
Spam: 0.5 ร (3/5) ร (2/5) ร (1/5) ร (3/5) = 0.0144
Ham: 0.5 ร (2/5) ร (4/5) ร (4/5) ร (2/5) = 0.0512
Normalisasi:
P(Spam) = 0.0144 / 0.0656 = 22.0%
P(Ham) = 0.0512 / 0.0656 = 78.0%
โ Hasil: Ham (bukan spam) โ kata "rapat" sangat berkorelasi dengan Ham.
$$P_{smooth}(x_i = v \mid C) = \frac{count(x_i = v, C) + k}{count(C) + k \cdot |V|}$$
k = pseudocount (biasanya 1), |V| = jumlah nilai yang mungkin
Contoh:
Tanpa smoothing: P("rapat"=1 | Spam) = 0/3 = 0 โ produk = 0!
Dengan smoothing: P("rapat"=1 | Spam) = (0+1)/(3+2) = 0.2 โ
Objek terdeteksi: kecepatan tinggi, altitude rendah, RCS kecil
| Kelas | Prior | Likelihood | Unnorm. | Posterior |
|---|---|---|---|---|
| Pesawat Tempur | 0.15 | 0.90 ร 0.30 ร 0.40 | 0.0162 | 45.0% |
| Pesawat Sipil | 0.70 | 0.80 ร 0.15 ร 0.10 | 0.0084 | 23.3% |
| Drone | 0.15 | 0.10 ร 0.80 ร 0.95 | 0.0114 | 31.7% |
โ ๏ธ Prior pesawat sipil 70%, tapi posterior hanya 23.3%! Bukti mengubah kesimpulan.
Expected Utility:
$$EU(aksi) = \sum_i P(outcome_i) \times U(outcome_i)$$
| Cuaca Baik (0.7) | Cuaca Buruk (0.3) | EU | |
|---|---|---|---|
| Patroli | 80 | -20 | 50 |
| Kembali | 30 | 50 | 36 |
Aksi rasional: Patroli (EU = 50 > 36)
Data Sensor โ Model Probabilistik โ Inferensi Bayes โ Posterior โ Keputusan
Pertanyaan 1:
Sebuah tes keamanan siber memiliki true positive rate 90% dan false positive rate 5%. Jika P(serangan) = 0.01, berapa P(serangan | alarm)?
๐ก P = (0.90 ร 0.01) / (0.90 ร 0.01 + 0.05 ร 0.99) = 0.009 / 0.0585 = 15.4%. Base rate fallacy!
Pertanyaan 2:
Asumsi apa yang membuat Naive Bayes "naive"?
Pertanyaan 3:
Dalam Teorema Bayes, P(E) berfungsi sebagai:
๐ก P(E) memastikan semua posterior berjumlah 1. Bisa dihitung via total probability.
| Konsep | Poin Kunci |
|---|---|
| Ketidakpastian | Laziness, ignorance, noise, adversarial |
| Teorema Bayes | P(H|E) = P(E|H) ยท P(H) / P(E) |
| Normalisasi | ฮฑ ยท P(E|H) ยท P(H), jumlahkan lalu bagi |
| Base Rate Fallacy | Prior rendah โ TP rate tinggi pun hasilkan banyak false alarm |
| Cond. Independence | P(A,B|C) = P(A|C) ยท P(B|C) โ kunci efisiensi |
| Naive Bayes | argmax P(C) ยท โP(xแตข|C) + Laplace smoothing |
Representasi probabilistik yang compact dan powerful
Pertemuan 11: Penalaran dengan Ketidakpastian โ Probabilitas
Ada pertanyaan?