Back to IF3170 Inteligensi Artifisial
Problem Set Lanjutan: kNN & Prediction Measurement
Level: Lanjutan (Advanced)
Estimasi Waktu: 75 - 90 menit
Tujuan Pembelajaran:
-
Menganalisis implikasi komputasi dan statistik dari sifat Lazy Learner kNN.
-
Memahami dan menjelaskan Curse of Dimensionality dan solusinya dalam konteks kNN.
-
Menghitung dan menafsirkan metrik Precision, Recall, dan F1-Score pada kasus Imbalanced Data.
-
Mampu menjustifikasi pemilihan metrik yang tepat berdasarkan konteks dan biaya kesalahan (FP/FN) bisnis.
Bagian A: Soal Dasar & True/False (4 soal)
Tipe Soal: True/False dengan Analisis Kritis
| No. | Pernyataan (Benar/Salah) | Jawaban (True/False) |
|---|---|---|
| A.1 | Feature Scaling (Normalisasi/Standardisasi) adalah langkah pre-processing yang hanya penting untuk atribut numerik tetapi tidak diperlukan untuk atribut simbolik (kategorikal) saat menggunakan kNN. | |
| A.2 | Accuracy Paradox terjadi ketika model memiliki akurasi yang tinggi (misal 98%), namun model tersebut masih dianggap gagal dalam mencapai tujuan bisnis, ini biasanya terjadi pada kasus Imbalanced Dataset. | |
| A.3 | Dalam konteks deteksi fraud, di mana kelas ‘Fraud’ (Positif) hanya 0.1% dari total data, meningkatkan Recall model seringkali berarti harus menoleransi sedikit penurunan Precision. | |
| A.4 | Jarak Manhattan () secara umum memberikan bobot yang lebih besar pada perbedaan fitur yang besar dibandingkan dengan Jarak Euclidean (). |
Bagian B: Soal Menengah & Multiple Choice Multiple Answer (4 soal)
Tipe Soal: Multiple Choice Multiple Answer (Pilih > 1)
Soal 5 (MCMA: Karakteristik kNN Lanjutan)
Pilih tiga (3) karakteristik yang secara tepat mendefinisikan k-Nearest Neighbor (kNN) sebagai sebuah algoritma.
A. Membangun batas keputusan (Decision Boundary) secara eksplisit selama pelatihan (training). B. Komputasi training yang rendah, namun komputasi testing yang tinggi. C. Rentan terhadap noise data ketika nilai sangat kecil ( atau ). D. Menggunakan Maximum Likelihood Estimator (MLE) sebagai fungsi biaya (Cost Function). E. Sering memerlukan teknik Dimensionality Reduction (misal: PCA) untuk mengatasi Curse of Dimensionality.
Soal 6 (MCMA: Metrik dan Biaya Kesalahan)
Dalam skenario apa saja Recall menjadi metrik evaluasi yang paling krusial (harus diutamakan)? (Pilih 2 Jawaban)
A. Filter Spam Email, di mana kita tidak ingin email non-spam (Negatif) salah diklasifikasikan sebagai spam (Positif/FP). B. Diagnosis medis kanker, di mana kita tidak ingin pasien yang benar-benar sakit (Positif) didiagnosis sehat (Negatif/FN). C. Sistem Pengenalan Wajah untuk otentikasi, di mana kita tidak ingin orang asing (Negatif) diberi akses (Positif/FP). D. Prediksi kegagalan mesin (Positive = Failure), di mana kegagalan yang tidak terdeteksi (FN) menyebabkan kerugian operasional yang fatal.
Soal 7 (Aplikasi Hitungan & Analisis)
Anda memiliki data uji 500 email. Model pendeteksi email Phishing (‘Positif’) menghasilkan Confusion Matrix berikut:
| Realitas | Prediksi: Phishing (Positif) | Prediksi: Aman (Negatif) |
| Phishing (Positif) | 100 (TP) | 20 (FN) |
| Aman (Negatif) | 30 (FP) | 350 (TN) |
a. Hitung F1-Score model tersebut (dalam bentuk desimal, 2 angka di belakang koma).
b. Tentukan metrik mana (Precision atau Recall) yang lebih perlu ditingkatkan untuk model ini jika biaya utama dari Phishing adalah kerusakan sistem (diakibatkan oleh email Phishing yang lolos). Jelaskan mengapa.
Soal 8 (Teknik Jarak kNN)
Anda sedang bekerja dengan data numerik yang mengandung banyak outlier ekstrem (nilai-nilai yang sangat jauh dari rata-rata). Teknik pengukuran jarak manakah yang secara umum lebih robust (tahan banting) terhadap outlier tersebut?
A. Minkowski Distance dengan parameter .
B. Euclidean Distance (Minkowski dengan ).
C. Manhattan Distance (Minkowski dengan ).
D. Hamming Distance (Khusus untuk data kategorikal).
Bagian C: Soal Lanjutan (2 soal)
Tipe Soal: Esai Analisis Mendalam
Soal 9 (Esai: Lazy Learner dan Komputasi)
Jelaskan mengapa sifat kNN sebagai Lazy Learner (Pembelajar Malas) menjadi kelemahan komputasi terbesar ketika model sudah dilatih dan beralih ke lingkungan produksi (deployment) dengan volume data yang sangat besar. Bandingkan dengan algoritma Eager Learner (seperti Decision Tree), jelaskan perbedaan fundamental dalam Cost of Prediction (Biaya Prediksi).
Soal 10 (Esai: Curse of Dimensionality)
Uraikan secara rinci fenomena Curse of Dimensionality dan bagaimana ia secara spesifik merusak kinerja algoritma kNN. Selain Feature Selection, jelaskan satu metode Dimensionality Reduction (Reduksi Dimensi) yang umum digunakan untuk mengatasi masalah ini, dan mengapa metode tersebut efektif.
Bagian A: Soal Dasar & True/False
No. Pernyataan (Benar/Salah) Jawaban A.1 Feature Scaling (Normalisasi/Standardisasi) adalah langkah pre-processing yang hanya penting untuk atribut numerik tetapi tidak diperlukan untuk atribut simbolik (kategorikal) saat menggunakan kNN. True A.2 Accuracy Paradox terjadi ketika model memiliki akurasi yang tinggi (misal 98%), namun model tersebut masih dianggap gagal dalam mencapai tujuan bisnis, ini biasanya terjadi pada kasus Imbalanced Dataset. True A.3 Dalam konteks deteksi fraud, di mana kelas ‘Fraud’ (Positif) hanya 0.1% dari total data, meningkatkan Recall model seringkali berarti harus menoleransi sedikit penurunan Precision. True A.4 Jarak Manhattan () secara umum memberikan bobot yang lebih besar pada perbedaan fitur yang besar dibandingkan dengan Jarak Euclidean (). False Penjelasan A.4: Euclidean Distance () mengambil kuadrat selisih, yang secara eksponensial melebih-lebihkan (membobot lebih besar) jarak yang besar. Manhattan Distance () hanya menjumlahkan selisih absolut, sehingga lebih linear dalam pembobotan. Bagian B: Soal Menengah & Multiple Choice Multiple Answer
Soal 5 (MCMA: Karakteristik kNN Lanjutan)
Jawaban: B, C, dan E.
Rasional:
A salah: kNN adalah Lazy Learner, tidak membangun model eksplisit.
B benar: Biaya training rendah (hanya menyimpan), biaya testing tinggi (harus menghitung jarak ke semua data).
C benar: kecil berarti rentan terhadap noise dari satu atau dua tetangga yang anomali.
D salah: MLE digunakan di Regresi Logistik, bukan kNN.
E benar: Curse of Dimensionality (banyak fitur) merusak kNN, sehingga PCA (Feature Extraction) atau Feature Selection diperlukan.
Soal 6 (MCMA: Metrik dan Biaya Kesalahan)
Jawaban: B dan D.
Rasional: Kedua skenario ini berfokus pada meminimalkan False Negative (FN).
B (Diagnosis Kanker): FN (sakit dibilang sehat) berakibat fatal.
D (Kegagalan Mesin): FN (gagal dibilang aman) berakibat bencana operasional.
A & C berfokus pada meminimalkan False Positive (FP) (Precision).
Soal 7 (Aplikasi Hitungan & Analisis)
Jawaban:
a. F1-Score:
Hitung Precision:
Hitung Recall:
Hitung F1-Score:
b. Metrik yang Diutamakan: Recall.
Alasan: Kerugian utama adalah kerusakan sistem akibat email yang lolos (Phishing yang tidak terdeteksi).
Email Phishing adalah Realitas Positif.
Email yang lolos adalah diprediksi Negatif.
Ini adalah kasus False Negative (FN).
Metrik Recall secara langsung mengukur kemampuan model untuk meminimalkan FN (menemukan semua Positif yang ada). Oleh karena itu, Recall harus diutamakan, bahkan jika harus menoleransi beberapa False Positive (email aman terdeteksi Phishing).
Soal 8 (MCMA: Teknik Jarak kNN)
Jawaban: C
Rasional: C benar (Manhattan ): Karena hanya menjumlahkan selisih absolut, ia tidak mengambil kuadrat perbedaan. Ini membuatnya lebih tahan banting terhadap outlier daripada Euclidean.
Bagian C: Soal Lanjutan
Soal 9 (Esai: Lazy Learner dan Komputasi)
Jawaban:
Sifat kNN sebagai Lazy Learner adalah kelemahan komputasi terbesarnya di lingkungan produksi karena biaya prediksi (testing) yang sangat tinggi.
Model kNN (Lazy Learner):
Cost of Training: Nol (Model hanya menyimpan data latih ).
Cost of Prediction: Tinggi. Ketika ada data baru datang, model harus menghitung jarak ke setiap data latih yang disimpan. Kompleksitasnya adalah , di mana adalah jumlah data latih dan adalah dimensi. Jika mencapai jutaan, waktu prediksi per sampel akan sangat lambat.
Model DTL (Eager Learner):
Cost of Training: Tinggi. Model menghabiskan waktu untuk membangun struktur pohon yang optimal (melalui Greedy Search Information Gain).
Cost of Prediction: Rendah. Setelah model (pohon) terbentuk, prediksi data baru hanya memerlukan traversal (penelusuran) dari root ke leaf. Kompleksitasnya adalah , yang jauh lebih cepat daripada kNN.
Kesimpulan: DTL membayar biaya komputasi di awal, menghasilkan Explicit Model yang cepat saat prediksi. kNN menunda komputasi, membuat model mudah di training tetapi sangat lambat dan mahal (memori + CPU) di fase deployment.
Soal 10 (Esai: Curse of Dimensionality)
Jawaban:
Fenomena Curse of Dimensionality menjelaskan bahwa ketika jumlah fitur (dimensi) dalam dataset sangat tinggi, volume ruang fitur tumbuh secara eksponensial, menyebabkan data menjadi sangat jarang (sparse).
Dampaknya pada kNN:
Konsep Jarak Rusak: Di ruang berdimensi tinggi, jarak antara dua titik data (misal menggunakan Euclidean Distance) cenderung konvergen (menjadi sangat mirip) satu sama lain. Secara efektif, semua titik menjadi “jauh” dari semua titik lainnya.
Noise Dominasi: Ketika dimensi tinggi, setiap fitur, termasuk fitur yang tidak relevan (noise), menyumbang pada perhitungan jarak. Fitur yang tidak relevan ini merusak perhitungan jarak dan menyebabkan tetangga terdekat yang ditemukan oleh kNN mungkin bukan lagi tetangga yang relevan secara konseptual. Akibatnya, kinerja kNN menurun drastis.
Metode Dimensionality Reduction (Reduksi Dimensi):
Metode yang umum dan efektif adalah Principal Component Analysis (PCA).
Cara Kerja PCA: PCA adalah teknik Feature Extraction yang menemukan set fitur baru (Principal Components - PC) yang merupakan kombinasi linear dari fitur asli. PCA memproyeksikan data ke sub-ruang berdimensi lebih rendah sambil mempertahankan varians (informasi) sebanyak mungkin.
Efektivitas Terhadap kNN:
PC yang dihasilkan tidak berkorelasi satu sama lain.
Kita dapat membuang PC yang memiliki varians kecil (informasi rendah).
Ini menghilangkan noise dan redundansi, menghasilkan set fitur baru yang lebih kompak dan informatif, sehingga perhitungan jarak kNN menjadi lebih bermakna di ruang dimensi yang dikurangi.