Back to IF3170 Inteligensi Artifisial

Topic: Support Vector Machines (Part 1: Introduction & Fundamentals)

Questions/Cues

  • Apa itu SVM?

  • SVM vs Neural Network

  • Konsep Linearly Separable

  • Definisi Hyperplane

  • Mengapa Perceptron lemah?

  • Apa itu Margin?

  • Definisi Support Vector

Reference Points

  • Slides: 1-16

  • Modul: Supervised Learning

1. Pengenalan & Sejarah SVM

Support Vector Machine (SVM) adalah algoritma supervised learning untuk klasifikasi (dan regresi) yang diperkenalkan pada tahun 1992 oleh Vapnik, Boser, & Guyon.

Konteks Sejarah & Perbandingan:

  • Era 1980-an (Neural Networks): NN populer karena bisa menangani data non-linear. Namun, NN memiliki kelemahan teoretis: bersifat heuristic/greedy dan rentan terjebak di local minima (solusi yang “cukup baik” tapi bukan yang terbaik).

  • Era 1990-an (SVM): SVM muncul dengan landasan Teori Pembelajaran Komputasi (Computational Learning Theory) yang kuat. Keunggulan utamanya adalah penggunaan optimasi kuadratik (Quadratic Programming), yang menjamin ditemukannya global optimum (solusi matematika terbaik yang mutlak).

2. Klasifikasi Biner & Linear Separability

SVM fokus pada pemisahan data menjadi dua kelas ( dan ).

  • Linearly Separable: Kondisi di mana data dari dua kelas yang berbeda dapat dipisahkan secara sempurna oleh sebuah garis lurus (pada 2D) atau bidang datar (pada dimensi tinggi).

  • Fungsi Keputusan: Kita mencari fungsi di mana:

    • untuk kelas

    • untuk kelas

3. Konsep Hyperplane (Bidang Pemisah)

Batas keputusan dalam SVM disebut Hyperplane.

  • Dimensi: Garis (di 2D), Bidang (di 3D), atau Hyperplane (di dimensi ).

  • Persamaan Matematis:

    • (Weight Vector): Vektor normal yang menentukan orientasi/arah permukaan hyperplane.

    • (Bias): Menentukan posisi hyperplane relatif terhadap titik asal (origin).

    • : Vektor fitur data input.

Sifat Linear Classifier: Setelah proses training selesai dan nilai optimal dan ditemukan, data latih tidak lagi dibutuhkan untuk klasifikasi (berbeda dengan k-NN yang harus menyimpan semua data).

4. Perceptron vs SVM (Isu Generalisasi)

Mengapa kita butuh SVM jika Perceptron juga bisa membuat garis pemisah?

  • Kelemahan Perceptron: Algoritma ini berhenti segera setelah menemukan sembarang garis yang memisahkan data tanpa error. Garis ini bisa saja sangat mepet dengan salah satu kelas.

  • Masalah: Jika ada data baru yang sedikit berbeda (noise/variasi), garis yang mepet tadi kemungkinan besar akan salah memprediksi. Ini disebut generalisasi yang buruk.

5. Tujuan Utama SVM: Maximum Margin

SVM bertujuan mencari Optimal Separating Hyperplane, yaitu pemisah yang memiliki Margin Terbesar.

  • Margin: Jarak tegak lurus antara hyperplane dengan titik data terdekat dari masing-masing kelas.

  • Filosofi: “Zona aman” yang lebar (margin besar) memberikan toleransi kesalahan yang lebih baik saat menghadapi data baru yang belum pernah dilihat sebelumnya.

6. Support Vectors

Titik-titik data yang berada paling dekat dengan hyperplane (tepat di pinggir margin) disebut Support Vectors.

  • Titik-titik inilah yang “menyangga” atau menentukan posisi hyperplane.

  • Data lain yang jauh dari margin tidak berpengaruh pada model.

Summary

Support Vector Machine (SVM) adalah algoritma klasifikasi robust yang mengatasi kelemahan local minima pada Neural Network dan generalisasi buruk pada Perceptron. SVM bekerja dengan mencari Hyperplane Optimal () yang memisahkan dua kelas data dengan Margin Terbesar. Kunci dari performa SVM terletak pada Support Vectors, yaitu subset data latih yang berada paling dekat dengan batas keputusan dan secara efektif menentukan posisi optimal hyperplane tersebut.