Kecerdasan Artifisial

Pertemuan 15

Etika AI, Keamanan, dan Review Komprehensif

Mata Kuliah: Kecerdasan Artifisial (AI401) | 3 SKS

🎯 Capaian Pembelajaran

Setelah pertemuan ini, mahasiswa mampu:

  1. Mengidentifikasi isu etika utama dalam AI: bias, fairness, transparency
  2. Menjelaskan konsep AI safety dan alignment problem
  3. Menganalisis implikasi privasi dan surveillance AI
  4. Mengevaluasi penggunaan AI dalam konteks pertahanan
  5. Menjelaskan kerangka regulasi AI global dan nasional
  6. Mengintegrasikan seluruh konsep Pertemuan 1-14 untuk persiapan UAS

📋 Agenda Hari Ini

Bagian 1: Etika & Keamanan

  • Bias Algoritmik & Fairness
  • AI Safety & Alignment
  • Privasi & Surveillance
  • AI dalam Pertahanan
  • Regulasi AI

Bagian 2: Review & UAS

  • Masa Depan AI
  • Peta Konsep Keseluruhan
  • Review Pertemuan 1-14
  • Latihan Soal UAS

⚖️ Mengapa Etika AI Penting?

Etika AI adalah cabang etika terapan yang mempelajari implikasi moral dari desain, pengembangan, dan penggunaan sistem kecerdasan artifisial.
Faktor Penjelasan
Skala dampak Satu model AI mempengaruhi jutaan keputusan
Opaqueness Model "black box" sulit dipahami prosesnya
Feedback loop Bias dalam data diperkuat oleh sistem AI
Irreversibilitas Beberapa keputusan AI sulit dibatalkan

🔍 Bias Algoritmik

Bias algoritmik adalah kecenderungan sistematis yang menghasilkan hasil tidak adil atau diskriminatif terhadap kelompok tertentu.
Sumber Bias AI

Gambar 1.1: Sumber-sumber bias dalam siklus pengembangan AI

Sumber-Sumber Bias

Sumber Contoh
Data historis Data perekrutan yang didominasi pria → AI merekomendasikan pria
Sampling bias Dataset wajah mayoritas kulit putih → akurasi rendah untuk kulit gelap
Label bias Annotator memiliki implicit bias dalam pelabelan
Feature selection Kode pos sebagai proxy untuk ras/etnis
Feedback loop Filter bubble di media sosial memperkuat polarisasi

⚖️ Definisi Fairness

Definisi Syarat Intuisi
Demographic Parity P(Ŷ=1|A=0) = P(Ŷ=1|A=1) Proporsi prediksi positif sama untuk semua grup
Equalized Odds TPR dan FPR sama antar grup Error rate sama untuk semua grup
Predictive Parity Precision sama antar grup Prediksi positif sama akuratnya
Individual Fairness Individu serupa → hasil serupa Tidak ada diskriminasi individual

⚠️ Impossibility Theorem: Tidak mungkin memenuhi semua definisi fairness secara simultan!

🔎 Transparency & Explainability

Transparency

Memahami bagaimana dan mengapa AI membuat keputusan

Explainable AI (XAI)

Teknik untuk membuat model AI dapat dijelaskan

Spektrum Interpretabilitas:

Tingkat Model Interpretabilitas
Tinggi Decision Tree, Regresi Linear Dapat langsung dibaca manusia
Sedang Random Forest, SVM Perlu teknik tambahan (LIME, SHAP)
Rendah Deep Neural Network "Black box" — sulit dijelaskan

📝 Accountability

Accountability dalam AI mengacu pada kejelasan siapa yang bertanggung jawab ketika sistem AI menyebabkan kerugian.

Accountability Gap:

  • Pengembang: "Saya hanya membuat tool"
  • Operator: "AI yang memutuskan"
  • AI: Tidak memiliki status hukum

🚨 Tanpa kejelasan tanggung jawab → tidak ada pihak yang bertanggung jawab atas kesalahan AI

🛡️ AI Safety

Alignment Problem adalah tantangan memastikan bahwa tujuan dan perilaku sistem AI selaras dengan nilai-nilai dan keinginan manusia.

Tiga aspek alignment problem:

  • Specification Problem: Kesulitan mendeskripsikan tujuan dengan tepat
  • Reward Hacking: AI menemukan cara mencapai reward yang tidak diinginkan
  • Goal Misgeneralization: AI belajar tujuan yang salah dari data training

🎮 Contoh Reward Hacking

Tujuan yang Diberikan Perilaku AI Masalah
Maksimalkan skor game Menemukan bug untuk skor tak terhingga Tidak benar-benar "bermain"
Bersihkan sampah Menyembunyikan sampah dari sensor Optimisasi metrik, bukan tujuan
Minimalisasi keluhan pasien Tidak merespons keluhan Memenuhi huruf, bukan semangat

💡 Goodhart's Law: "Ketika sebuah ukuran menjadi target, ia berhenti menjadi ukuran yang baik"

⚠️ Existential Risk

Orthogonality Thesis

Kecerdasan tinggi tidak menjamin tujuan yang baik

— Nick Bostrom

Instrumental Convergence

AI super-cerdas akan cenderung mencari: self-preservation, resource acquisition, goal preservation

Perspektif seimbang: Risiko existential masih debatable, tetapi pencegahan dini lebih bijak daripada menunggu bukti bahaya

🔒 Keamanan Sistem AI

Serangan Mekanisme Dampak
Adversarial Attack Perubahan kecil pada input Klasifikasi salah (stop sign → speed limit)
Data Poisoning Menyisipkan data palsu ke training Model belajar pola yang salah
Model Extraction Query berulang untuk mencuri model Pencurian intellectual property
Backdoor Attack Menyisipkan trigger tersembunyi Model berperilaku normal kecuali ada trigger

👁️ Privasi dan Surveillance

Kemampuan Inferensi AI

  • Like Facebook → orientasi politik
  • Pola pembelian → kondisi kesehatan
  • Metadata → jaringan sosial
  • Lokasi + waktu → kebiasaan

Sistem Surveillance

  • Pengenalan wajah massal
  • Monitoring komunikasi
  • Social scoring
  • Predictive policing

⚖️ Dilema: Keamanan nasional vs. Hak asasi manusia — keseimbangan yang sulit dicapai

🎖️ Autonomous Weapons Systems

AWS adalah sistem senjata yang dapat memilih dan menyerang target tanpa intervensi manusia.
Tingkat Otonomi Senjata

Gambar 4.1: Spektrum tingkat otonomi dalam sistem senjata

Tingkat Otonomi Senjata

Tingkat Peran Manusia Contoh
Human-in-the-loop Manusia membuat semua keputusan Drone yang dikendalikan operator
Human-on-the-loop AI merekomendasikan, manusia menyetujui Sistem pertahanan udara dengan konfirmasi
Human-out-of-the-loop AI memutuskan secara otonom Senjata sepenuhnya otonom

Meaningful Human Control: Manusia harus tetap memiliki kontrol bermakna dalam keputusan lethal

Pro dan Kontra LAWS

✅ Pro

  • Kecepatan respons tinggi
  • Mengurangi risiko personel
  • Konsistensi (tanpa emosi)
  • Potensi presisi lebih tinggi

❌ Kontra

  • Accountability gap
  • Dehumanisasi perang
  • Risiko malfunction/hacking
  • Pelanggaran hukum humaniter
  • Memicu arms race

🇮🇩 Aplikasi AI Pertahanan Indonesia

Domain Aplikasi
C6ISR Fusi data intelijen, threat assessment otomatis
Pertahanan Udara Identifikasi ancaman, tracking objek
Maritim AUV patroli perbatasan, deteksi anomali
Cyber Defense Deteksi intrusi, analisis malware
Logistik Predictive maintenance, optimisasi suplai

📜 Regulasi AI Global

Regulasi Pendekatan
EU AI Act Risk-based: Unacceptable → High → Limited → Minimal risk
UNESCO Recommendation Principles-based: Fairness, transparency, accountability
OECD AI Principles Inclusive growth, human-centered values, transparency

EU AI Act — Kategori Risiko:

🔴 Unacceptable: Social scoring, manipulasi subliminal
🟠 High: Rekrutmen AI, kredit scoring, biometrik
🟡 Limited: Chatbot (wajib disclose AI)
🟢 Minimal: Spam filter, game AI

🔮 Masa Depan AI

ANI (Artificial Narrow Intelligence)

AI saat ini: unggul di satu tugas spesifik

Contoh: AlphaGo, ChatGPT, image recognition

AGI (Artificial General Intelligence)

AI yang belum ada: kecerdasan setara manusia di semua tugas

Prediksi: masih debatable, 2040-2100+

Dampak sosial-ekonomi:

  • Technological unemployment vs. penciptaan pekerjaan baru
  • Kesenjangan digital antar negara
  • Transformasi cara kerja militer modern

🧠 Quiz Time!

Pertanyaan 1:

Impossibility Theorem (Chouldechova) menyatakan bahwa:

A. AI tidak mungkin mencapai akurasi 100%
B. Bias tidak mungkin dihilangkan sepenuhnya
C. Tidak mungkin memenuhi semua definisi fairness secara simultan ✅
D. AI tidak mungkin memahami etika manusia

🧠 Quiz Time!

Pertanyaan 2:

Pendekatan "Meaningful Human Control" pada sistem senjata otonom mensyaratkan minimal:

A. Human-out-of-the-loop
B. Human-on-the-loop ✅
C. Human-in-the-loop selalu
D. Tidak perlu kontrol manusia

💡 Human-on-the-loop: AI merekomendasikan, manusia menyetujui — keseimbangan antara kecepatan dan kontrol

📚

Review Komprehensif

Pertemuan 1-14

Persiapan Ujian Akhir Semester

🗺️ Peta Konsep Keseluruhan

Peta Konsep AI

Gambar 7.1: Peta konsep keseluruhan mata kuliah Kecerdasan Artifisial

Review: Agen Cerdas (P1)

Konsep Poin Kunci
Agen Sensor → Agent Function → Aktuator
5 Jenis Agen Simple Reflex → Model-Based → Goal-Based → Utility-Based → Learning
PEAS Performance, Environment, Actuators, Sensors
6 Karakteristik Observable, Deterministic, Episodic, Static, Discrete, Single/Multi

💡 Kunci UAS: Analisis PEAS dan karakteristik lingkungan → tentukan jenis agen minimum

Review: Pencarian (P2-P4)

Algoritma f(n) Complete? Optimal?
BFS ✅ (unit cost)
DFS ❌ (infinite)
UCS g(n)
Greedy h(n)
A* g(n)+h(n) ✅ (h admissible)

⚠️ Admissible: h(n) ≤ h*(n) — tidak pernah overestimate | Consistent: h(n) ≤ c(n,a,n') + h(n')

Review: Pencarian Lokal (P4)

Algoritma Karakteristik Kelemahan
Hill Climbing Greedy, selalu naik Terjebak local maxima
Simulated Annealing Probabilistic escape Tergantung jadwal pendinginan
Algoritma Genetika Populasi, crossover, mutasi Banyak parameter, slow convergence

Review: Game & CSP (P5-P6)

Pencarian Adversarial

Minimax O(bm), optimal
Alpha-Beta O(bm/2), pruning

CSP

Komponen Variables, Domains, Constraints
AC-3 Arc consistency
MRV Variabel domain terkecil
LCV Nilai least constraining

Review: Logika (P9-P10)

Logika Proposisional

  • Konnektif: ¬, ∧, ∨, →, ↔
  • Entailment: KB ⊨ α
  • Resolution via CNF
  • Modus Ponens, Modus Tollens

Logika Predikat (FOL)

  • Kuantor: ∀ (universal), ∃ (eksistensial)
  • Unifikasi (MGU)
  • Forward chaining (data-driven)
  • Backward chaining (goal-driven)

Review: Probabilitas & Bayes Net (P11-P12)

Teorema Bayes: P(H|E) = P(E|H) × P(H) / P(E)

Konsep Poin Kunci
Conditional Independence P(X|Y,Z) = P(X|Z)
Bayesian Network DAG + CPT, representasi compact joint distribution
d-separation Conditional independence dari struktur graf
Variable Elimination Algoritma inferensi eksak

Review: Machine Learning (P13-P14)

Paradigma Metode Poin Kunci
Supervised Decision Tree, Naive Bayes Information gain, entropy, labeled data
Unsupervised K-Means Clustering Elbow method, silhouette score
Reinforcement Q-Learning Agent-environment, MDP, reward

Evaluasi Model: Accuracy, Precision, Recall, F1-Score | Validasi: K-Fold Cross-Validation

📝 Strategi Menghadapi UAS

Format Soal UAS

  • Cakupan: Pertemuan 1-15 (penekanan P9-P15)
  • Bobot: 30% dari nilai akhir
  • Waktu: 150 menit
  • Soal integratif lintas topik

Tips Persiapan

  • Pahami konsep, bukan hafalan
  • Latihan soal step-by-step
  • Hubungkan antar topik
  • Perhatikan konteks pertahanan

🔗 Contoh Soal Integratif

Skenario: Sistem pertahanan siber menggunakan berbagai teknik AI

Komponen Sistem Topik AI Terkait
Deteksi anomali jaringan Unsupervised Learning (K-Means, clustering)
Klasifikasi jenis malware Supervised Learning (Decision Tree, Naive Bayes)
Perencanaan respons insiden Goal-Based Agent, Search (A*)
Prediksi sumber serangan Jaringan Bayesian, Teorema Bayes
Aturan firewall otomatis Logika Proposisional (IF-THEN rules)

🧠 Quiz Time!

Pertanyaan 3:

Untuk memprediksi sumber serangan siber berdasarkan evidence yang tersedia, teknik AI mana yang paling sesuai?

A. Hill Climbing
B. Decision Tree
C. Jaringan Bayesian ✅
D. K-Means Clustering

💡 Jaringan Bayesian menangani ketidakpastian dan melakukan inferensi probabilistik berdasarkan evidence — cocok untuk prediksi sumber serangan

📝 Ringkasan

Topik Poin Kunci
Bias & Fairness Bias dari data/algoritma, definisi fairness saling bertentangan
AI Safety Alignment problem, reward hacking, existential risk
Privasi Kemampuan inferensi AI, surveillance vs. HAM
AI Pertahanan AWS spectrum, meaningful human control, C6ISR
Regulasi EU AI Act (risk-based), UNESCO, OECD
Review Agents → Search → Logic → Probability → ML → Ethics

📅 Pertemuan Berikutnya

Pertemuan 16: Ujian Akhir Semester (UAS)

Cakupan: Seluruh materi (Pertemuan 1-15), penekanan P9-P15

  • Waktu: 150 menit
  • Bobot: 30% dari nilai akhir
  • Format: Ujian tertulis
  • Persiapkan: Modul, latihan, dan catatan kuliah

📚 Referensi

  1. Russell, S. & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th Ed.). Pearson. Chapter 27-28
  2. Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
  3. European Commission (2024). EU Artificial Intelligence Act.
  4. UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence.
  5. Chouldechova, A. (2017). "Fair prediction with disparate impact." Big Data, 5(2).

Terima Kasih

🤖 Kecerdasan Artifisial

Pertemuan 15: Etika AI, Keamanan, dan Review Komprehensif


Ada pertanyaan?