Kecerdasan Artifisial

Pertemuan 11

Penalaran dengan Ketidakpastian โ€” Probabilitas

Mata Kuliah: Kecerdasan Artifisial (AI401) | 3 SKS

๐ŸŽฏ Capaian Pembelajaran

Setelah pertemuan ini, mahasiswa mampu:

  1. Menjelaskan sumber ketidakpastian dalam AI
  2. Mengidentifikasi keterbatasan logika untuk ketidakpastian
  3. Menerapkan probabilitas bersyarat dan aturan produk
  4. Menghitung posterior menggunakan Teorema Bayes
  5. Menerapkan normalisasi dalam perhitungan Bayes
  6. Membedakan independensi dan independensi bersyarat
  7. Menerapkan Naive Bayes untuk klasifikasi

๐Ÿ“‹ Agenda Hari Ini

Bagian 1

  • Sumber Ketidakpastian
  • Keterbatasan Logika
  • Dasar Probabilitas
  • Probabilitas Bersyarat

Bagian 2

  • Teorema Bayes
  • Normalisasi
  • Independensi Bersyarat
  • Naive Bayes Classifier

๐Ÿ”„ Recap: Pertemuan 9-10

Logika Proposisional

  • Konnektif: โˆง, โˆจ, ยฌ, โ†’
  • Inferensi: Modus Ponens, Resolution
  • Pengetahuan bersifat PASTI

Logika Predikat (FOL)

  • Kuantor: โˆ€, โˆƒ
  • Unifikasi, Forward/Backward Chaining
  • Pengetahuan bersifat PASTI

โš ๏ธ Masalah: Dunia nyata penuh ketidakpastian! Logika biner (TRUE/FALSE) tidak cukup.

โ“ Mengapa Ketidakpastian Penting?

Ketidakpastian โ€” Agen tidak memiliki informasi lengkap atau pasti tentang state lingkungan, efek tindakan, atau hubungan sebab-akibat.

Contoh: Radar mendeteksi sinyal โ†’

  • Pesawat musuh? ๐ŸŽฏ
  • Pesawat sipil? โœˆ๏ธ
  • Burung? ๐Ÿฆ
  • Noise? ๐Ÿ“ก

Tidak bisa dijawab dengan TRUE/FALSE!

๐Ÿ” Sumber Ketidakpastian

Sumber Deskripsi Contoh
Laziness Terlalu sulit mendaftar semua aturan "Jika demam โ†’ flu" (mengabaikan puluhan penyakit lain)
Ignorance Informasi tidak tersedia Hasil tes belum keluar, data radar tidak lengkap
Sensor Noise Data tidak akurat Radar false positive/negative
Adversarial Musuh menyembunyikan info Stealth aircraft, cyber deception

โ›” Keterbatasan Logika

Masalah Logika Biner

  • Biner: Hanya TRUE/FALSE
  • Monotonic: Info baru tidak bisa batalkan kesimpulan
  • Qualification Problem: Tak mungkin daftar semua prasyarat

Solusi: Probabilitas!

Gunakan derajat kepercayaan (0 sampai 1)

"Sinyal ini 75% kemungkinan pesawat musuh"

Lebih informatif daripada TRUE/FALSE

๐Ÿ“Š Dasar-Dasar Probabilitas

Probabilitas โ€” Ukuran numerik derajat kepercayaan terhadap suatu proposisi, bernilai antara 0 (pasti salah) dan 1 (pasti benar).
Notasi Makna Contoh
P(A) Probabilitas event A P(Hujan) = 0.3
P(ยฌA) Probabilitas bukan A P(ยฌHujan) = 0.7
P(A, B) Joint probability P(Hujan, Macet)
P(A | B) Conditional probability P(Macet | Hujan)

๐Ÿ“ Aksioma Probabilitas

Tiga aksioma Kolmogorov:

1. Non-negativity: P(A) โ‰ฅ 0 untuk semua event A

2. Normalization: P(ฮฉ) = 1 โ€” total probabilitas seluruh sample space = 1

3. Additivity: Jika A dan B mutually exclusive: P(A โˆช B) = P(A) + P(B)

Turunan penting: P(ยฌA) = 1 โˆ’ P(A) dan 0 โ‰ค P(A) โ‰ค 1

๐Ÿ“Œ Prior Probability

Prior Probability (probabilitas prior) โ€” Probabilitas yang ditetapkan sebelum ada bukti baru. Disebut juga unconditional probability.

Contoh:

  • P(Pesawat asing melintas) = 0.02 (data historis)
  • P(Serangan siber hari ini) = 0.05
  • P(Sensor radar false alarm) = 0.03

Prior bisa diperbarui saat ada bukti baru โ†’ inilah inti Teorema Bayes!

๐Ÿ“‹ Joint Probability

Contoh: 1000 misi drone TNI AU

Misi Sukses Misi Gagal Total
Cuaca Baik 600 50 650
Cuaca Buruk 200 150 350
Total 800 200 1000

Joint: P(Cuaca Baik, Sukses) = 600/1000 = 0.60

Marginal: P(Sukses) = 800/1000 = 0.80

๐Ÿ”— Probabilitas Bersyarat

$$P(A \mid B) = \frac{P(A, B)}{P(B)}$$

"Probabilitas A terjadi, diketahui B telah terjadi"

Probabilitas Bersyarat

๐Ÿงฎ Contoh Probabilitas Bersyarat

Dari data misi drone:

Cuaca Baik

P(Sukses | Cuaca Baik)

= 0.60 / 0.65

= 0.923 (92.3%)

Cuaca Buruk

P(Sukses | Cuaca Buruk)

= 0.20 / 0.35

= 0.571 (57.1%)

๐Ÿ’ก Cuaca secara signifikan mempengaruhi keberhasilan misi (92% vs 57%)!

โœ–๏ธ Aturan Produk (Product Rule)

$$P(A, B) = P(A \mid B) \cdot P(B) = P(B \mid A) \cdot P(A)$$

Menulis ulang rumus conditional probability:

  • Joint probability = conditional ร— marginal
  • Ini adalah fondasi untuk Teorema Bayes

Contoh: P(Sukses, Cuaca Baik) = P(Sukses | Cuaca Baik) ร— P(Cuaca Baik)

= 0.923 ร— 0.65 = 0.60 โœ“

โญ Teorema Bayes

Teorema Bayes memungkinkan kita memperbarui kepercayaan terhadap hipotesis berdasarkan bukti baru.

$$P(H \mid E) = \frac{P(E \mid H) \cdot P(H)}{P(E)}$$

Ini mungkin rumus paling penting dalam AI probabilistik!

๐Ÿงฉ Komponen Teorema Bayes

Komponen Teorema Bayes
Komponen Nama Makna
P(H | E) Posterior Kepercayaan setelah bukti
P(E | H) Likelihood Seberapa cocok bukti dengan hipotesis
P(H) Prior Kepercayaan awal
P(E) Evidence Konstanta normalisasi

๐Ÿ“ Derivasi Teorema Bayes

Step 1: Dari aturan produk: P(H, E) = P(H | E) ยท P(E)

Step 2: Juga: P(H, E) = P(E | H) ยท P(H)

Step 3: Karena ruas kiri sama: P(H | E) ยท P(E) = P(E | H) ยท P(H)

Step 4: Bagi kedua ruas dengan P(E):

$$P(H \mid E) = \frac{P(E \mid H) \cdot P(H)}{P(E)}$$

๐Ÿ“Š Hukum Probabilitas Total

Untuk menghitung P(E) โ€” penyebut Teorema Bayes:

$$P(E) = \sum_{i} P(E \mid H_i) \cdot P(H_i)$$

Kasus biner:

P(E) = P(E | H) ยท P(H) + P(E | ยฌH) ยท P(ยฌH)

๐Ÿ“ก Contoh: Deteksi Radar

Diketahui:

  • P(Musuh) = 0.01 (prior)
  • P(Alarm | Musuh) = 0.95 (true positive)
  • P(Alarm | ยฌMusuh) = 0.03 (false positive)

Pertanyaan: Jika alarm berbunyi, berapa P(Musuh)?

๐Ÿ“ก Solusi: Deteksi Radar

Step 1: P(Alarm) = 0.95 ร— 0.01 + 0.03 ร— 0.99 = 0.0095 + 0.0297 = 0.0392

Step 2: P(Musuh | Alarm) = (0.95 ร— 0.01) / 0.0392 = 0.0095 / 0.0392

P(Musuh | Alarm) = 0.242 (24.2%)

โš ๏ธ Meskipun true positive rate = 95%, hanya 24.2% alarm benar karena prior sangat rendah (1%). Ini disebut Base Rate Fallacy!

๐Ÿšจ Base Rate Fallacy

Base Rate Fallacy โ€” Kesalahan mengabaikan prior probability (base rate) saat menilai bukti.

Intuisi yang salah:

"Radar akurasi 95% berbunyi โ†’ pasti 95% benar ada musuh"

Kenyataan (Bayes):

"Dengan prior rendah (1%), alarm hanya 24.2% benar"

๐Ÿ’ก Implikasi militer: Jangan langsung tembak saat alarm berbunyi โ€” verifikasi dengan sensor tambahan!

๐Ÿ”„ Bayesian Updating

Dua alarm radar berturut-turut (independen):

Tahap Prior Evidence Posterior
Awal 1% โ€” 1%
Setelah alarm 1 1% Alarm + 24.2%
Setelah alarm 2 24.2% Alarm + 91.0%

โœ… Setiap bukti baru memperbarui kepercayaan โ†’ Bayesian updating kumulatif!

โš–๏ธ Normalisasi

Normalisasi โ€” Teknik menghitung posterior tanpa P(E) eksplisit.

Prosedur:

  1. Hitung numerator untuk setiap hipotesis: P(E | Hแตข) ร— P(Hแตข)
  2. Jumlahkan semua numerator โ†’ ini sama dengan P(E)
  3. Bagi setiap numerator dengan total

$$P(H \mid E) = \alpha \cdot P(E \mid H) \cdot P(H)$$

di mana ฮฑ = 1/P(E) adalah konstanta normalisasi

๐Ÿ“ง Contoh Normalisasi: Spam Filter

P(Spam) = 0.4, P(Ham) = 0.6, P("gratis" | Spam) = 0.8, P("gratis" | Ham) = 0.1

Step 1 โ€” Numerator:

Spam: 0.8 ร— 0.4 = 0.32

Ham: 0.1 ร— 0.6 = 0.06

Step 2 โ€” Total: 0.32 + 0.06 = 0.38

Step 3 โ€” Normalisasi:

P(Spam | "gratis") = 0.32 / 0.38 = 0.842 (84.2%)

P(Ham | "gratis") = 0.06 / 0.38 = 0.158 (15.8%)

๐Ÿ“ก Bayes dengan Multiple Hipotesis

Sistem SIGINT mendeteksi sinyal terenkripsi:

Hipotesis Prior P(Enkripsi | H) Numerator Posterior
Militer musuh 0.10 0.90 0.090 0.556
Sipil 0.70 0.10 0.070 0.432
Noise 0.20 0.01 0.002 0.012
Total 0.162 1.000

Bukti enkripsi menaikkan probabilitas militer dari 10% โ†’ 55.6%!

๐Ÿ”“ Independensi

Dua event A dan B independen jika dan hanya jika:
P(A, B) = P(A) ยท P(B)

Equivalen dengan: P(A | B) = P(A)

Mengetahui B tidak mengubah probabilitas A

โœ… Independen:

Lemparan dadu ke-1 dan ke-2

โŒ Tidak Independen:

Cuaca dan keberhasilan misi

๐Ÿ’ก Mengapa Independensi Penting?

Full Joint Distribution tanpa independensi:

Variabel Boolean Parameter
5 variabel 2โต โˆ’ 1 = 31
10 variabel 2ยนโฐ โˆ’ 1 = 1.023
20 variabel 2ยฒโฐ โˆ’ 1 โ‰ˆ 1 juta
30 variabel 2ยณโฐ โˆ’ 1 โ‰ˆ 1 miliar!

โš ๏ธ Pertumbuhan eksponensial! Asumsi independensi mengurangi parameter secara drastis.

๐Ÿ”— Independensi Bersyarat

A dan B conditionally independent given C jika:
P(A, B | C) = P(A | C) ยท P(B | C)
Independensi Bersyarat

Jika sudah tahu C, mengetahui B tidak menambah info tentang A.

๐Ÿ“Œ Contoh Independensi Bersyarat

Variabel Keterangan
C (Penyebab) Cuaca Buruk
A (Efek 1) Traffic Macet
B (Efek 2) Penerbangan Delay

โŒ A dan B tidak independen secara umum (keduanya sering terjadi bersamaan)

โœ… A dan B conditionally independent given C: Jika tahu cuaca buruk, traffic macet tidak menambah info tentang penerbangan delay

๐Ÿ“ก Sensor Fusion dengan Bayes

Dua radar (conditionally independent):

  • P(H) = 0.02, P(Rโ‚โบ | H) = 0.90, P(Rโ‚‚โบ | H) = 0.85
  • P(Rโ‚โบ | ยฌH) = 0.05, P(Rโ‚‚โบ | ยฌH) = 0.08

Kedua radar positif:

P(Rโ‚โบ, Rโ‚‚โบ | H) = 0.90 ร— 0.85 = 0.765

P(Rโ‚โบ, Rโ‚‚โบ | ยฌH) = 0.05 ร— 0.08 = 0.004

P(H | Rโ‚โบ, Rโ‚‚โบ) = 79.6%

๐Ÿ’ก Dari prior 2% โ†’ 79.6%! Sensor fusion meningkatkan kepercayaan secara dramatis.

๐Ÿค– Naive Bayes Classifier

Naive Bayes โ€” Model probabilistik yang menggunakan Teorema Bayes dengan asumsi conditional independence antar fitur given kelas.

$$\hat{C} = \arg\max_C \; P(C) \cdot \prod_{i=1}^{n} P(x_i \mid C)$$

Pilih kelas yang memaksimalkan prior ร— product of likelihoods

๐Ÿ—๏ธ Struktur Naive Bayes

Struktur Naive Bayes

Kelas sebagai parent, fitur sebagai children yang conditionally independent.

๐Ÿ“Œ Inilah bentuk paling sederhana dari Jaringan Bayesian (Pertemuan 12)

โ“ Mengapa Disebut "Naive"?

โœ… Kelebihan

  • Sederhana dan cepat
  • Bekerja baik dengan data sedikit
  • Mudah diinterpretasi
  • Robust terhadap fitur irrelevant

โš ๏ธ Kekurangan

  • Asumsi independensi jarang benar
  • Tidak model korelasi fitur
  • Estimasi probabilitas bisa buruk

Meski asumsi dilanggar, Naive Bayes sering tetap memberikan klasifikasi yang benar!

๐Ÿ“ง Contoh: Spam Filter

Data training:

Email "diskon" "gratis" "rapat" "laporan" Kelas
11100Spam
21000Spam
30101Spam
40011Ham
50010Ham
61011Ham

Klasifikasikan: "diskon"=1, "gratis"=0, "rapat"=1, "laporan"=0

๐Ÿ“ง Solusi Spam Filter (Laplace Smoothing)

Prior: P(Spam) = 0.5, P(Ham) = 0.5

Spam: 0.5 ร— (3/5) ร— (2/5) ร— (1/5) ร— (3/5) = 0.0144

Ham: 0.5 ร— (2/5) ร— (4/5) ร— (4/5) ร— (2/5) = 0.0512

Normalisasi:

P(Spam) = 0.0144 / 0.0656 = 22.0%

P(Ham) = 0.0512 / 0.0656 = 78.0%

โœ… Hasil: Ham (bukan spam) โ€” kata "rapat" sangat berkorelasi dengan Ham.

๐ŸงŠ Laplace Smoothing

Masalah: Jika P(fitur | kelas) = 0, seluruh produk = 0!

$$P_{smooth}(x_i = v \mid C) = \frac{count(x_i = v, C) + k}{count(C) + k \cdot |V|}$$

k = pseudocount (biasanya 1), |V| = jumlah nilai yang mungkin

Contoh:

Tanpa smoothing: P("rapat"=1 | Spam) = 0/3 = 0 โ†’ produk = 0!

Dengan smoothing: P("rapat"=1 | Spam) = (0+1)/(3+2) = 0.2 โœ“

๐ŸŽ–๏ธ Aplikasi: Klasifikasi Target Radar

Objek terdeteksi: kecepatan tinggi, altitude rendah, RCS kecil

Kelas Prior Likelihood Unnorm. Posterior
Pesawat Tempur 0.15 0.90 ร— 0.30 ร— 0.40 0.0162 45.0%
Pesawat Sipil 0.70 0.80 ร— 0.15 ร— 0.10 0.0084 23.3%
Drone 0.15 0.10 ร— 0.80 ร— 0.95 0.0114 31.7%

โš ๏ธ Prior pesawat sipil 70%, tapi posterior hanya 23.3%! Bukti mengubah kesimpulan.

๐ŸŽฏ Probabilitas + Utility = Keputusan

Expected Utility:

$$EU(aksi) = \sum_i P(outcome_i) \times U(outcome_i)$$

Cuaca Baik (0.7) Cuaca Buruk (0.3) EU
Patroli 80 -20 50
Kembali 30 50 36

Aksi rasional: Patroli (EU = 50 > 36)

๐Ÿ”„ Alur Inferensi Probabilistik

Alur Inferensi Probabilistik

Data Sensor โ†’ Model Probabilistik โ†’ Inferensi Bayes โ†’ Posterior โ†’ Keputusan

๐Ÿง  Quiz Time!

Pertanyaan 1:

Sebuah tes keamanan siber memiliki true positive rate 90% dan false positive rate 5%. Jika P(serangan) = 0.01, berapa P(serangan | alarm)?

A. 90%
B. 50%
C. 15.4% โœ…
D. 5%

๐Ÿ’ก P = (0.90 ร— 0.01) / (0.90 ร— 0.01 + 0.05 ร— 0.99) = 0.009 / 0.0585 = 15.4%. Base rate fallacy!

๐Ÿง  Quiz Time!

Pertanyaan 2:

Asumsi apa yang membuat Naive Bayes "naive"?

A. Semua fitur memiliki probabilitas sama
B. Semua fitur conditionally independent given kelas โœ…
C. Prior selalu uniform
D. Tidak ada noise dalam data

๐Ÿง  Quiz Time!

Pertanyaan 3:

Dalam Teorema Bayes, P(E) berfungsi sebagai:

A. Probabilitas hipotesis benar
B. Probabilitas error
C. Konstanta normalisasi โœ…
D. Likelihood

๐Ÿ’ก P(E) memastikan semua posterior berjumlah 1. Bisa dihitung via total probability.

๐Ÿ“ Ringkasan

Konsep Poin Kunci
Ketidakpastian Laziness, ignorance, noise, adversarial
Teorema Bayes P(H|E) = P(E|H) ยท P(H) / P(E)
Normalisasi ฮฑ ยท P(E|H) ยท P(H), jumlahkan lalu bagi
Base Rate Fallacy Prior rendah โ†’ TP rate tinggi pun hasilkan banyak false alarm
Cond. Independence P(A,B|C) = P(A|C) ยท P(B|C) โ€” kunci efisiensi
Naive Bayes argmax P(C) ยท โˆP(xแตข|C) + Laplace smoothing

๐Ÿ“… Pertemuan Berikutnya

Pertemuan 12: Jaringan Bayesian

Representasi probabilistik yang compact dan powerful

  • Struktur Jaringan Bayesian (DAG + CPT)
  • Membangun Bayesian Network
  • Inferensi: Enumeration, Variable Elimination
  • D-Separation dan Conditional Independence

๐Ÿ“š Referensi

  1. Russell, S. & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th Ed.). Pearson. Chapter 12-13
  2. Bishop, C.M. (2006). Pattern Recognition and Machine Learning. Springer. Chapter 1-2
  3. CS188 Berkeley AI Materials: https://inst.eecs.berkeley.edu/~cs188/

Terima Kasih

๐Ÿค– Kecerdasan Artifisial

Pertemuan 11: Penalaran dengan Ketidakpastian โ€” Probabilitas


Ada pertanyaan?