Mata Kuliah: Kecerdasan Artifisial (AI401) | 3 SKS
Setelah pertemuan ini, mahasiswa mampu:
| Faktor | Penjelasan |
|---|---|
| Skala dampak | Satu model AI mempengaruhi jutaan keputusan |
| Opaqueness | Model "black box" sulit dipahami prosesnya |
| Feedback loop | Bias dalam data diperkuat oleh sistem AI |
| Irreversibilitas | Beberapa keputusan AI sulit dibatalkan |
Gambar 1.1: Sumber-sumber bias dalam siklus pengembangan AI
| Sumber | Contoh |
|---|---|
| Data historis | Data perekrutan yang didominasi pria → AI merekomendasikan pria |
| Sampling bias | Dataset wajah mayoritas kulit putih → akurasi rendah untuk kulit gelap |
| Label bias | Annotator memiliki implicit bias dalam pelabelan |
| Feature selection | Kode pos sebagai proxy untuk ras/etnis |
| Feedback loop | Filter bubble di media sosial memperkuat polarisasi |
| Definisi | Syarat | Intuisi |
|---|---|---|
| Demographic Parity | P(Ŷ=1|A=0) = P(Ŷ=1|A=1) | Proporsi prediksi positif sama untuk semua grup |
| Equalized Odds | TPR dan FPR sama antar grup | Error rate sama untuk semua grup |
| Predictive Parity | Precision sama antar grup | Prediksi positif sama akuratnya |
| Individual Fairness | Individu serupa → hasil serupa | Tidak ada diskriminasi individual |
⚠️ Impossibility Theorem: Tidak mungkin memenuhi semua definisi fairness secara simultan!
Memahami bagaimana dan mengapa AI membuat keputusan
Teknik untuk membuat model AI dapat dijelaskan
Spektrum Interpretabilitas:
| Tingkat | Model | Interpretabilitas |
|---|---|---|
| Tinggi | Decision Tree, Regresi Linear | Dapat langsung dibaca manusia |
| Sedang | Random Forest, SVM | Perlu teknik tambahan (LIME, SHAP) |
| Rendah | Deep Neural Network | "Black box" — sulit dijelaskan |
Accountability Gap:
🚨 Tanpa kejelasan tanggung jawab → tidak ada pihak yang bertanggung jawab atas kesalahan AI
Tiga aspek alignment problem:
| Tujuan yang Diberikan | Perilaku AI | Masalah |
|---|---|---|
| Maksimalkan skor game | Menemukan bug untuk skor tak terhingga | Tidak benar-benar "bermain" |
| Bersihkan sampah | Menyembunyikan sampah dari sensor | Optimisasi metrik, bukan tujuan |
| Minimalisasi keluhan pasien | Tidak merespons keluhan | Memenuhi huruf, bukan semangat |
💡 Goodhart's Law: "Ketika sebuah ukuran menjadi target, ia berhenti menjadi ukuran yang baik"
Kecerdasan tinggi tidak menjamin tujuan yang baik
— Nick Bostrom
AI super-cerdas akan cenderung mencari: self-preservation, resource acquisition, goal preservation
Perspektif seimbang: Risiko existential masih debatable, tetapi pencegahan dini lebih bijak daripada menunggu bukti bahaya
| Serangan | Mekanisme | Dampak |
|---|---|---|
| Adversarial Attack | Perubahan kecil pada input | Klasifikasi salah (stop sign → speed limit) |
| Data Poisoning | Menyisipkan data palsu ke training | Model belajar pola yang salah |
| Model Extraction | Query berulang untuk mencuri model | Pencurian intellectual property |
| Backdoor Attack | Menyisipkan trigger tersembunyi | Model berperilaku normal kecuali ada trigger |
⚖️ Dilema: Keamanan nasional vs. Hak asasi manusia — keseimbangan yang sulit dicapai
Gambar 4.1: Spektrum tingkat otonomi dalam sistem senjata
| Tingkat | Peran Manusia | Contoh |
|---|---|---|
| Human-in-the-loop | Manusia membuat semua keputusan | Drone yang dikendalikan operator |
| Human-on-the-loop | AI merekomendasikan, manusia menyetujui | Sistem pertahanan udara dengan konfirmasi |
| Human-out-of-the-loop | AI memutuskan secara otonom | Senjata sepenuhnya otonom |
✅ Meaningful Human Control: Manusia harus tetap memiliki kontrol bermakna dalam keputusan lethal
| Domain | Aplikasi |
|---|---|
| C6ISR | Fusi data intelijen, threat assessment otomatis |
| Pertahanan Udara | Identifikasi ancaman, tracking objek |
| Maritim | AUV patroli perbatasan, deteksi anomali |
| Cyber Defense | Deteksi intrusi, analisis malware |
| Logistik | Predictive maintenance, optimisasi suplai |
| Regulasi | Pendekatan |
|---|---|
| EU AI Act | Risk-based: Unacceptable → High → Limited → Minimal risk |
| UNESCO Recommendation | Principles-based: Fairness, transparency, accountability |
| OECD AI Principles | Inclusive growth, human-centered values, transparency |
EU AI Act — Kategori Risiko:
🔴 Unacceptable: Social scoring, manipulasi subliminal
🟠 High: Rekrutmen AI, kredit scoring, biometrik
🟡 Limited: Chatbot (wajib disclose AI)
🟢 Minimal: Spam filter, game AI
AI saat ini: unggul di satu tugas spesifik
Contoh: AlphaGo, ChatGPT, image recognition
AI yang belum ada: kecerdasan setara manusia di semua tugas
Prediksi: masih debatable, 2040-2100+
Dampak sosial-ekonomi:
Pertanyaan 1:
Impossibility Theorem (Chouldechova) menyatakan bahwa:
Pertanyaan 2:
Pendekatan "Meaningful Human Control" pada sistem senjata otonom mensyaratkan minimal:
💡 Human-on-the-loop: AI merekomendasikan, manusia menyetujui — keseimbangan antara kecepatan dan kontrol
Persiapan Ujian Akhir Semester
Gambar 7.1: Peta konsep keseluruhan mata kuliah Kecerdasan Artifisial
| Konsep | Poin Kunci |
|---|---|
| Agen | Sensor → Agent Function → Aktuator |
| 5 Jenis Agen | Simple Reflex → Model-Based → Goal-Based → Utility-Based → Learning |
| PEAS | Performance, Environment, Actuators, Sensors |
| 6 Karakteristik | Observable, Deterministic, Episodic, Static, Discrete, Single/Multi |
💡 Kunci UAS: Analisis PEAS dan karakteristik lingkungan → tentukan jenis agen minimum
| Algoritma | f(n) | Complete? | Optimal? |
|---|---|---|---|
| BFS | — | ✅ | ✅ (unit cost) |
| DFS | — | ❌ (infinite) | ❌ |
| UCS | g(n) | ✅ | ✅ |
| Greedy | h(n) | ❌ | ❌ |
| A* | g(n)+h(n) | ✅ | ✅ (h admissible) |
⚠️ Admissible: h(n) ≤ h*(n) — tidak pernah overestimate | Consistent: h(n) ≤ c(n,a,n') + h(n')
| Algoritma | Karakteristik | Kelemahan |
|---|---|---|
| Hill Climbing | Greedy, selalu naik | Terjebak local maxima |
| Simulated Annealing | Probabilistic escape | Tergantung jadwal pendinginan |
| Algoritma Genetika | Populasi, crossover, mutasi | Banyak parameter, slow convergence |
| Minimax | O(bm), optimal |
| Alpha-Beta | O(bm/2), pruning |
| Komponen | Variables, Domains, Constraints |
| AC-3 | Arc consistency |
| MRV | Variabel domain terkecil |
| LCV | Nilai least constraining |
Teorema Bayes: P(H|E) = P(E|H) × P(H) / P(E)
| Konsep | Poin Kunci |
|---|---|
| Conditional Independence | P(X|Y,Z) = P(X|Z) |
| Bayesian Network | DAG + CPT, representasi compact joint distribution |
| d-separation | Conditional independence dari struktur graf |
| Variable Elimination | Algoritma inferensi eksak |
| Paradigma | Metode | Poin Kunci |
|---|---|---|
| Supervised | Decision Tree, Naive Bayes | Information gain, entropy, labeled data |
| Unsupervised | K-Means Clustering | Elbow method, silhouette score |
| Reinforcement | Q-Learning | Agent-environment, MDP, reward |
Evaluasi Model: Accuracy, Precision, Recall, F1-Score | Validasi: K-Fold Cross-Validation
Skenario: Sistem pertahanan siber menggunakan berbagai teknik AI
| Komponen Sistem | Topik AI Terkait |
|---|---|
| Deteksi anomali jaringan | Unsupervised Learning (K-Means, clustering) |
| Klasifikasi jenis malware | Supervised Learning (Decision Tree, Naive Bayes) |
| Perencanaan respons insiden | Goal-Based Agent, Search (A*) |
| Prediksi sumber serangan | Jaringan Bayesian, Teorema Bayes |
| Aturan firewall otomatis | Logika Proposisional (IF-THEN rules) |
Pertanyaan 3:
Untuk memprediksi sumber serangan siber berdasarkan evidence yang tersedia, teknik AI mana yang paling sesuai?
💡 Jaringan Bayesian menangani ketidakpastian dan melakukan inferensi probabilistik berdasarkan evidence — cocok untuk prediksi sumber serangan
| Topik | Poin Kunci |
|---|---|
| Bias & Fairness | Bias dari data/algoritma, definisi fairness saling bertentangan |
| AI Safety | Alignment problem, reward hacking, existential risk |
| Privasi | Kemampuan inferensi AI, surveillance vs. HAM |
| AI Pertahanan | AWS spectrum, meaningful human control, C6ISR |
| Regulasi | EU AI Act (risk-based), UNESCO, OECD |
| Review | Agents → Search → Logic → Probability → ML → Ethics |
Cakupan: Seluruh materi (Pertemuan 1-15), penekanan P9-P15
Pertemuan 15: Etika AI, Keamanan, dan Review Komprehensif
Ada pertanyaan?