Back to Latihan UAS IF3170
Problem Set: Probabilistic & Tree-Based Models (Final)
Mata Pelajaran: Inteligensi Artifisial (IF3170)
Topik: Supervised Learning (Bayes, DTL) & Probabilistic Reasoning (BN)
Estimasi Waktu: 75 Menit
Total Nilai: 40 Poin
Tujuan Pembelajaran
Setelah menyelesaikan set soal ini, mahasiswa diharapkan dapat:
-
Menerapkan teknik Laplace Smoothing pada dataset yang lebih besar untuk mengatasi masalah probabilitas nol.
-
Membangun Pohon Keputusan Bertingkat (kedalaman > 1) dengan menganalisis atribut yang menyebabkan impurity.
-
Menganalisis aliran probabilitas dan independensi pada struktur Deep Bayesian Network.
Petunjuk Umum
-
Gunakan dataset “E-Shop Loyalty” di bawah ini untuk mengerjakan Soal 1 dan Soal 2.
-
Tuliskan langkah perhitungan secara eksplisit (rumus substitusi angka hasil).
-
Bulatkan hasil akhir hingga 3 angka di belakang koma.
Dataset “E-Shop Loyalty” (Untuk Soal 1 & 2)
Dataset ini berisi data pelanggan toko online untuk memprediksi apakah pelanggan tersebut Loyal atau tidak.
-
Fitur Numerik:
Total_Belanja(Juta Rupiah). -
Fitur Kategorikal:
Membership(Gold/Silver/Bronze),Frekuensi(Sering/Jarang),Metode_Bayar(Kartu/E-Wallet/Transfer). -
Target:
Loyal(Ya/Tidak).
| No | Total_Belanja | Membership | Frekuensi | Metode_Bayar | Loyal (Target) |
|---|---|---|---|---|---|
| 1 | 5.5 | Gold | Sering | Kartu | Ya |
| 2 | 1.2 | Bronze | Jarang | Transfer | Tidak |
| 3 | 8.0 | Gold | Sering | E-Wallet | Ya |
| 4 | 2.5 | Bronze | Jarang | E-Wallet | Tidak |
| 5 | 4.0 | Silver | Sering | Kartu | Ya |
| 6 | 9.5 | Gold | Jarang | Kartu | Ya |
| 7 | 1.5 | Bronze | Jarang | Transfer | Tidak |
| 8 | 3.0 | Silver | Jarang | E-Wallet | Tidak |
| 9 | 7.5 | Gold | Sering | Transfer | Ya |
| 10 | 6.0 | Silver | Sering | E-Wallet | Tidak |
Soal 1. Naive Bayes dengan Laplace Smoothing (10 Poin)
Fokus: Menangani Zero Frequency Problem pada dataset yang lebih variatif.
Diketahui pelanggan baru dengan data: X = <Membership=Silver, Frekuensi=Jarang, Metode_Bayar=Kartu>. (Abaikan atribut Total_Belanja untuk soal ini).
Pertanyaan:
a. (Naive Bayes Murni) Hitung probabilitas likelihood dan tanpa smoothing. Identifikasi atribut mana yang menyebabkan probabilitas menjadi 0 (jika ada).
b. (Laplace Smoothing) Hitung ulang prediksi untuk data X dengan menerapkan Laplace Smoothing ().
-
Gunakan rumus: .
-
adalah jumlah variasi nilai unik pada masing-masing atribut (misal: Membership punya 3 nilai unik).
-
Tentukan kelas akhirnya (Ya/Tidak) berdasarkan hasil smoothing.
c. (Analisis) Bandingkan hasil poin (a) dan (b). Mengapa metode Naive Bayes Murni sangat rentan “menyerah” (memberikan nilai 0) pada atribut Metode_Bayar untuk kelas tertentu, padahal atribut Membership memberikan sinyal yang cukup kuat?
Soal 2. Konstruksi Pohon Keputusan Lengkap (12 Poin)
Fokus: Membangun pohon keputusan bertingkat yang menangani mixed nodes.
Instruksi: Gunakan dataset “E-Shop Loyalty” di atas. Abaikan kolom No.
Pertanyaan:
a. (ID3 - Root Analysis) Hitung Entropy(Total) dari dataset. Kemudian hitung Information Gain hanya untuk atribut kategorikal: Membership, Frekuensi, dan Metode_Bayar. Tentukan atribut mana yang menjadi Root Node.
b. (ID3 - Level 2 Split) Berdasarkan Root Node yang terpilih di poin (a):
-
Tentukan cabang mana yang sudah Murni (Pure) dan langsung menjadi Leaf Node.
-
Tentukan cabang mana yang masih Tidak Murni (Impure).
-
Lakukan perhitungan Information Gain ulang pada cabang yang tidak murni tersebut untuk menentukan node level selanjutnya.
-
Gambarkan Pohon Keputusan Lengkap hasil akhirnya.
c. (C4.5 - Numeric Handling) Gunakan atribut numerik Total_Belanja.
-
Urutkan data berdasarkan
Total_Belanja. -
Identifikasi semua kandidat threshold (titik potong) di mana target kelas berubah dari “Tidak” ke “Ya” (atau sebaliknya).
-
Pilih satu threshold terbaik yang memisahkan data dengan error paling sedikit.
Soal 3. Deep Bayesian Network Analysis (8 Poin)
Fokus: Analisis independensi pada jalur panjang (Deep Structure) dan kausalitas sistem.
Perhatikan struktur Bayesian Network berikut yang memodelkan kegagalan sistem server:
graph TD; A[Serangan DDoS] --> B[High CPU Load]; C[Lonjakan User] --> B; B --> D[Server Lambat]; D --> E[Timeout Error]; F[Hardware Rusak] --> G[Disk Corrupt]; G --> H[Database Error]; E --> I[System Crash]; H --> I;
Pertanyaan:
Analisis hubungan independensi variabel berikut (Blocked/Active):
-
Serangan DDoS dan Lonjakan User, jika High CPU Load TIDAK DIKETAHUI.
-
Serangan DDoS dan Lonjakan User, jika System Crash DIKETAHUI (True). (Jelaskan alasannya!).
-
High CPU Load dan Database Error, jika System Crash TIDAK DIKETAHUI.
-
Hardware Rusak dan System Crash, jika Database Error DIKETAHUI.
Soal 4. Isu Kritis DTL: Gain Ratio vs Info Gain (6 Poin)
Fokus: Bias seleksi atribut.
Misalkan kita menambahkan atribut baru bernama Kode_Transaksi (unik untuk setiap baris, misal: TRX001, TRX002, dst) ke dalam dataset.
-
Analisis ID3: Jika kita menghitung Information Gain untuk
Kode_Transaksi, berapakah nilai Entropi pada setiap cabangnya? Apa dampaknya terhadap pemilihan Root Node? -
Analisis C4.5: Bagaimana rumus Gain Ratio mencegah
Kode_Transaksiterpilih sebagai root node? Jelaskan peran variabel Split Information dalam rumus tersebut.
Soal 5. Konsep & Eksplorasi (4 Poin)
Fokus: Pemahaman algoritma.
Jawablah Benar/Salah beserta alasannya.
-
Pernyataan: Dalam algoritma CART (Classification and Regression Trees), sebuah node atribut yang memiliki 3 nilai unik (misal: Gold, Silver, Bronze) akan dipecah menjadi 3 cabang sekaligus.
-
Jawaban: ________
-
Alasan: ________
-
-
Pernyataan: Menambah kedalaman pohon (depth) pada Decision Tree akan selalu menurunkan Training Error, tetapi bisa meningkatkan Testing Error.
-
Jawaban: ________
-
Alasan: ________
-
# Kunci Jawaban & Rubrik Penilaian
Soal 1. Naive Bayes dengan Smoothing (10 Poin)
Statistik Data:
Total Data: 10
Target Ya: 5 (Data: 1, 3, 5, 6, 9)
Target Tidak: 5 (Data: 2, 4, 7, 8, 10)
,
a. Naive Bayes Murni (3 Poin)
Query: <Silver, Jarang, Kartu>
Kelas Ya:
(Data 5)
(Data 6)
(Data 1, 5, 6)
Likelihood =
Kelas Tidak:
(Data 8, 10)
(Data 2, 4, 7, 8)
(Nol! Tidak ada yang Tidak Loyal pakai Kartu)
Likelihood =
Masalah: Atribut
Metode_Bayar=Kartumenyebabkan probabilitas kelas “Tidak” menjadi 0 mutlak.b. Laplace Smoothing (4 Poin)
. : Membership=3, Frekuensi=2, Metode=3.
Kelas Ya (Denominator = 5 + 1|V|):*
Posterior Ya
Kelas Tidak:
(Diselamatkan dari 0)
Posterior Tidak
Prediksi Akhir: Ya (0.0178 > 0.0167).
(Tanpa smoothing, kita mungkin bias, tapi smoothing menunjukkan probabilitasnya tipis).
c. Analisis (3 Poin)
Tanpa smoothing, algoritma terlalu “keras” menghukum kejadian yang belum pernah dilihat (Kartu pada kelas Tidak), sehingga mengabaikan bukti kuat lain (seperti Silver dan Jarang yang sebenarnya condong ke Tidak). Smoothing memberikan peluang kecil pada kejadian langka tersebut, memungkinkan atribut lain untuk “bersuara”.
Soal 2. Konstruksi Pohon Keputusan (12 Poin)
a. Root Analysis (4 Poin)
Entropy(S): 5 Ya, 5 Tidak 1.00.
Gain(Membership):
Gold (4 data: 1,3,6,9 Y,Y,Y,Y) E=0 (Murni).
Bronze (3 data: 2,4,7 T,T,T) E=0 (Murni).
Silver (3 data: 5,8,10 Y,T,T) 1 Ya, 2 Tidak.
- .
Gain = .
Gain(Frekuensi):
Sering (5 data: Y,Y,Y,Y,T) 4Y, 1T. E=0.72.
Jarang (5 data: T,T,Y,T,T) 1Y, 4T. E=0.72.
Gain rendah.
Gain(Metode):
Kartu (3 data: Y,Y,Y) E=0.
E-Wallet (4 data: Y,T,T,T) E=0.81.
Transfer (3 data: T,T,Y) E=0.91.
Gain lebih rendah dari Membership.
Root Terpilih: Membership.
b. Level 2 Split & Gambar Pohon (4 Poin)
Root: Membership.
Cabang Gold: {Ya, Ya, Ya, Ya} Leaf: Ya.
Cabang Bronze: {Tidak, Tidak, Tidak} Leaf: Tidak.
Cabang Silver: {Data 5(Y), 8(T), 10(T)}. Impure.
Perlu split lagi. Atribut tersisa: Frekuensi & Metode.
Data subset Silver:
5: Sering, Kartu Ya
8: Jarang, E-Wallet Tidak
10: Sering, E-Wallet Tidak
Cek Frekuensi:
Sering (5, 10): 1Y, 1T. (Masih kotor).
Jarang (8): 1T.
Cek Metode_Bayar:
Kartu (5): 1Y (Murni).
E-Wallet (8, 10): 2T (Murni).
Pilih Metode_Bayar sebagai node level 2.
Gambar Pohon:
Root: [Membership?] ├── Gold --> [Leaf: Ya] ├── Bronze --> [Leaf: Tidak] └── Silver --> [Node: Metode_Bayar?] ├── Kartu --> [Leaf: Ya] └── E-Wallet --> [Leaf: Tidak] (Catatan: Cabang Transfer tidak ada di data Silver)c. C4.5 Numeric (4 Poin)
Data
Total_Belanja: 1.2(T), 1.5(T), 2.5(T), 3.0(T), 4.0(Y), 5.5(Y), 6.0(T), 7.5(Y), 8.0(Y), 9.5(Y).Perubahan Kelas:
3.0(T) 4.0(Y). Threshold .
5.5(Y) 6.0(T). Threshold .
6.0(T) 7.5(Y). Threshold .
Evaluasi Threshold:
: Kiri(4 data T), Kanan(6 data: 5Y, 1T). Split sangat bersih di kiri. Ini kandidat terkuat.
Soal 3. Deep Bayesian Network (8 Poin)
Independen. (Converging / V-Structure). Selama node bersama High CPU Load tidak diketahui, penyebabnya (DDoS dan User) saling independen.
Dependen. (Explaining Away). Kita tahu System Crash terjadi. System Crash memberikan informasi tentang penyebabnya (Timeout Error Server Lambat High CPU). Karena kita mendapat informasi turunan dari High CPU, maka V-structure menjadi aktif (coupled). Jika kita tahu ada Lonjakan User, probabilitas DDoS sebagai penyebab Crash menurun.
Independen. (Serial Blocked? No). Jalur: High CPU … System Crash … DB Error.
Ini adalah struktur Converging di System Crash.
Karena System Crash TIDAK DIKETAHUI, maka jalur antara cabang kiri (CPU) dan kanan (DB Error) TERBLOKIR. Informasi tidak mengalir menyeberangi V-structure yang tidak diamati.
Independen. (Serial Blocked). Jalur: Hardware Disk DB Error System Crash. Node DB Error diketahui. Karena ini adalah rantai serial (causal chain), mengetahui node tengah (DB Error) memutus aliran informasi dari penyebab (Hardware) ke akibat (Crash). Crash sekarang hanya bergantung pada status DB Error yang sudah fix, tidak peduli apa hardware-nya.
Soal 4. Isu Kritis DTL (6 Poin)
ID3: Entropi setiap cabang
Kode_Transaksiadalah 0 (karena unik, 1 data per cabang pasti murni). Information Gain akan maksimal. ID3 akan memilih Kode_Transaksi sebagai root, menghasilkan pohon yang sangat lebar dan dangkal (overfitting ekstrem).C4.5: Gain Ratio membagi Information Gain dengan Split Information.
Split Info . Untuk atribut unik, ada banyak sekali pecahan kecil (1/N), sehingga nilai Split Info menjadi sangat besar.
Gain Ratio = Gain / (Sangat Besar) = Sangat Kecil.
Ini mencegah atribut unik terpilih.
Soal 5. Konsep & Eksplorasi (4 Poin)
Salah. CART selalu melakukan Binary Split. Untuk atribut dengan 3 nilai (Gold, Silver, Bronze), CART akan mencoba kombinasi seperti {Gold} vs {Silver, Bronze} atau {Gold, Silver} vs {Bronze}, tidak memecah jadi 3 sekaligus.
Benar. Semakin dalam pohon, semakin ia “menghafal” detail dan noise pada data latih (Training Error turun mendekati 0). Namun, pohon menjadi terlalu spesifik dan gagal menggeneralisasi data baru (Testing Error naik/buruk) Overfitting.