Back to Latihan UAS IF3170
Problem Set: Geometry & Optimization Models
Mata Kuliah: Inteligensi Artifisial
Topik: Geometry & Optimization Models (Linear/Logistic Regression, SVM)
Sifat: Latihan Mandiri
BAGIAN I: Logistic Regression (Stochastic Gradient Ascent)
Soal 1: Update Bobot Iteratif
Diberikan dataset latih sederhana untuk klasifikasi biner () dengan dua fitur () sebagai berikut:
| No | x1 | x2 | Kelas (Y) |
| 1 | 2 | 1 | 0 |
| 2 | 1 | 3 | 1 |
| 3 | 3 | 2 | 0 |
| 4 | 0 | 2 | 1 |
Lakukan pelatihan model Logistic Regression menggunakan algoritma Stochastic Gradient Ascent (SGA) dengan ketentuan:
-
Inisialisasi Bobot: . (Ingat untuk bias).
-
Learning Rate (): 0.1
-
Fungsi Aktivasi: Sigmoid
-
Jumlah Epoch: 1 Epoch (Urutan data sesuai nomor: 1 2 3 4, diulang 2 kali).
Instruksi:
a. Lengkapi tabel perhitungan manual di bawah ini (tuliskan hingga 3 angka di belakang koma).
b. Lakukan Self-Evaluation pada akhir Epoch 2: Prediksi kembali label kelas data latih menggunakan bobot akhir (Threshold ).
c. Hitung Akurasi dan F1-Score (anggap Kelas 1 sebagai Positif).
Tabel Kerja (Epoch 1 & 2):
| Epoch | Data Ke- | Input Augmented [1,x1,x2] | Target y | Logit z=wTx | Prediksi p=σ(z) | Error (y−p) | Update Δw=η(y−p)x | Bobot Baru wnew |
| 1 | 1 | 0 | 0 | 0.5 | -0.5 | |||
| 1 | 2 | … | … | … | … | … | … | … |
| … | … | … | … | … | … | … | … | … |
(Lanjutkan hingga data ke-4 pada Epoch 2)
BAGIAN II: Support Vector Machine (Analitik)
Soal 2: Penurunan SVM & Lagrange Multiplier
Diketahui 3 titik data berikut yang linearly separable:
-
Kelas Positif (+1): ,
-
Kelas Negatif (-1):
Anda diminta mencari Optimal Separating Hyperplane dengan metode Lagrange Multiplier secara terpandu.
Instruksi:
Isilah langkah-langkah di bawah ini.
| Langkah | Pertanyaan | Isian / Jawaban |
|---|---|---|
| 1 | Tuliskan fungsi Primal SVM (yang ingin diminimalkan) beserta constraint-nya. | Minimize: Subject to: |
| 2 | Tuliskan fungsi Dual SVM (yang ingin dimaksimalkan dalam ) beserta constraint . | Maximize: Subject to: dan |
| 3 | Hitung nilai Dot Product untuk semua pasangan data (Gram Matrix). | , , , , |
| 4 | Susun persamaan dari turunan parsial Lagrange atau substitusi nilai ke fungsi Dual. (Asumsikan titik B bukan Support Vector, sehingga ). | Persamaan kendala: . Masukkan ke dan sederhanakan dalam variabel . |
| 5 | Cari nilai optimal dengan menurunkan persamaan langkah 4 terhadap dan samakan dengan 0. | |
| 6 | Hitung vektor bobot dari nilai yang didapat. | |
| 7 | Hitung bias menggunakan salah satu Support Vector. |
BAGIAN III: Konsep & Visualisasi
Soal 3: Non-Linear SVM & Kernel Trick
Bayangkan dataset 2D berbentuk “Cincin”: Kelas A berada di pusat (lingkaran kecil), dan Kelas B mengelilingi Kelas A (cincin luar). Dataset ini tidak bisa dipisahkan secara linear di 2D.
Tugas:
a. Gambarkan skema/arsitektur proses Kernel Trick. Skema harus menunjukkan alur dari:
Input Space (2D) Feature Map Function Feature Space (3D/High Dim) Linear Hyperplane.
b. Jelaskan secara singkat mengapa kita menggunakan Kernel Function alih-alih menghitung transformasi secara eksplisit.
c. Sebutkan jenis Kernel yang paling cocok untuk kasus “Cincin” ini.
BAGIAN IV: Teori & Metrik Evaluasi
Soal 4: Analisis Metrik & Parameter
Isilah tabel berikut mengenai dampak parameter atau kondisi data terhadap model.
| Kondisi / Parameter | Pada Model… | Dampak / Peran Utama | Alasan / Mekanisme |
| Adanya Outlier Ekstrem pada Data Training | Regresi Linear (Evaluasi MSE) | Nilai MSE akan (Meningkat Drastis / Sedikit Berubah) | Karena MSE menggunakan fungsi kuadrat , sehingga error besar pada outlier akan… |
| Adanya Outlier Ekstrem pada Data Training | Regresi Linear (Evaluasi MAE) | Nilai MAE akan (Meningkat Drastis / Sedikit Berubah) dibanding MSE | Karena MAE menggunakan nilai absolut $ |
| Parameter C bernilai Sangat Besar | SVM (Soft Margin) | Margin menjadi (Sempit / Lebar) dan risiko Overfitting (Naik / Turun) | Nilai C besar memberikan penalti/hukuman yang besar pada variabel… (), sehingga model memaksakan kebenaran klasifikasi. |
| Parameter Learning Rate () terlalu kecil | Logistic Regression | Proses konvergensi menjadi (Cepat / Lambat) | Karena langkah update bobot menjadi sangat kecil, sehingga butuh… |
BAGIAN V: Matriks Karakteristik Model
Soal 5: Komparasi Model
Berikan tanda centang () jika model memiliki karakteristik tersebut, dan tuliskan Argumentasi Singkat di bawahnya mengapa model tersebut memilikinya/tidaknya.
| Karakteristik | Linear Regression | Logistic Regression | Support Vector Machine (SVM) |
| Output berupa Probabilitas | … | … | … |
| Argumentasi: | (Contoh: Tidak, outputnya kontinu tanpa batas) | ||
| Memaksimalkan Margin | … | … | … |
| Argumentasi: | |||
| Menggunakan Least Square Error | … | … | … |
| Argumentasi: | |||
| Dapat menangani Non-Linearity dengan Kernel | … | … | … |
| Argumentasi: |
# KUNCI JAWABAN
Jawaban Soal 1 (Logistic Regression)
a. Tabel Perhitungan (Ringkasan)
Inisialisasi:
Epoch 1:
Data 1 (2,1 | 0): , , . . .
Data 2 (1,3 | 1): . . . . .
Data 3 (3,2 | 0): . . . . .
Data 4 (0,2 | 1): . . . . .
b. Self Evaluation (Pada Data Latih)
Model:
Data 1 (2,1): . Prediksi 0. (Benar)
Data 2 (1,3): . Prediksi 1. (Benar)
Data 3 (3,2): . Prediksi 0. (Benar)
Data 4 (0,2): . Prediksi 1. (Benar)
c. Metrik
TP (Kelas 1 Benar): 2
TN (Kelas 0 Benar): 2
FP: 0, FN: 0
Akurasi:
F1-Score:
Jawaban Soal 2 (SVM)
Langkah Isian / Jawaban 3 , , 4 Persamaan Dual:
Substitusi :
5 Turunan: 6 7 Pakai titik C(1,1) :
Persamaan Hyperplane:
Jawaban Soal 3 (Non-Linear SVM)
a. Skema:
Mahasiswa harus menggambar data 2D (input) masuk ke proses (mapping) menjadi data 3D yang terpisah bidang datar, lalu dicari linear separator-nya.
b. Alasan Kernel Trick:
Menghitung transformasi ke dimensi tinggi sangat mahal secara komputasi (bahkan tak hingga). Kernel Trick memungkinkan kita menghitung dot product di dimensi tinggi langsung dari input aslinya tanpa perlu tahu koordinat transformasinya.
c. Jenis Kernel:
RBF (Radial Basis Function) atau Polynomial Kernel (derajat 2).
Jawaban Soal 4 (Teori)
Meningkat Drastis; mengkuadratkan error (hukuman berat untuk outlier).
Sedikit Berubah (Lebih Robust); error linear tidak membesar secara eksponensial.
Sempit; Naik (Overfitting); variabel Slack ().
Lambat; butuh banyak iterasi untuk mencapai minimum.
Jawaban Soal 5 (Matriks Model)
Karakteristik LogReg SVM Argumentasi Output Probabilitas - LogReg menggunakan Sigmoid menghasilkan nilai 0-1 (probabilitas). SVM outputnya adalah jarak/skor (kecuali dikalibrasi). Max Margin - Ini adalah objective function utama SVM. LogReg memaksimalkan Likelihood. Least Square Error - - LinReg pakai LSE. LogReg pakai Log-Loss/MLE. SVM pakai Hinge Loss. Kernel Trick - SVM mempermudah penggunaan Kernel lewat Dual Form. LogReg bisa tapi sangat jarang/mahal.