Supervised Learning (Klasifikasi) & Algoritma

 SUPERVISED LEARNING

Supervised learning adalah salah satu metode dalam machine learning di mana model dilatih menggunakan data yang sudah diberi label. Data latih terdiri dari input (fitur) dan output (label atau target) yang benar. Tujuan dari supervised learning adalah untuk membuat model yang dapat memprediksi label yang benar untuk data baru yang belum pernah dilihat sebelumnya. Salah satu tugas utama dalam supervised learning adalah klasifikasi, di mana tujuan model adalah untuk mengklasifikasikan data input ke dalam kategori yang telah ditentukan.

Berikut adalah penjelasan singkat mengenai beberapa algoritma yang termasuk dalam supervised learning untuk tugas klasifikasi, serta beberapa algoritma terkenal:

  1. Linear Regression: Meskipun lebih sering digunakan untuk regresi, linear regression juga bisa digunakan untuk klasifikasi dengan threshold tertentu.
  2. Logistic Regression: Digunakan untuk klasifikasi biner, logistic regression memodelkan probabilitas dari kelas yang mungkin.

  3. K-Nearest Neighbors (K-NN): Algoritma yang mengklasifikasikan data baru berdasarkan kelas mayoritas dari k-tetangga terdekat.

  4. Support Vector Machine (SVM): Mencari hyperplane optimal yang memisahkan kelas dengan margin terbesar.

  5. Decision Tree: Memodelkan keputusan dalam bentuk pohon di mana setiap node merepresentasikan tes pada suatu fitur, dan setiap cabang merepresentasikan hasil dari tes tersebut.

  6. Random Forest: Kombinasi dari beberapa decision tree untuk meningkatkan akurasi dan mengurangi overfitting.

  7. Naive Bayes: Menggunakan teorema Bayes dan mengasumsikan bahwa fitur bersifat independen satu sama lain.

  8. Gradient Boosting: Meningkatkan akurasi prediksi dengan mengkombinasikan beberapa model sederhana (biasanya decision tree).

  9. AdaBoost: Metode boosting yang menambahkan bobot lebih pada kesalahan klasifikasi dan memperbaiki model secara iteratif.

  10. Neural Networks: Model yang terinspirasi oleh jaringan saraf manusia, terdiri dari lapisan neuron yang saling terhubung.

  11. Convolutional Neural Networks (CNNs): Digunakan khususnya untuk data gambar, CNNs menekankan pada pemrosesan spasial.

  12. Recurrent Neural Networks (RNNs): Digunakan untuk data urutan seperti teks atau waktu, RNNs memiliki mekanisme memori untuk mengingat informasi dari urutan sebelumnya.

  13. XGBoost: Implementasi dari gradient boosting yang dioptimalkan untuk kecepatan dan kinerja.

  14. LightGBM: Versi ringan dari gradient boosting, dioptimalkan untuk kecepatan dengan tetap mempertahankan akurasi.

  15. CatBoost: Gradient boosting yang secara khusus dioptimalkan untuk menangani data kategori.

  16. Perceptron: Algoritma paling dasar dari neural networks yang dapat digunakan untuk klasifikasi linear.

  17. Linear Discriminant Analysis (LDA): Mengurangi dimensionalitas data sambil memaksimalkan separasi antar kelas.

  18. Quadratic Discriminant Analysis (QDA): Mirip dengan LDA tetapi mengasumsikan bahwa setiap kelas memiliki kovarians yang berbeda.

  19. Gaussian Naive Bayes: Varian dari Naive Bayes yang mengasumsikan distribusi Gaussian pada fitur.

  20. Bernoulli Naive Bayes: Digunakan untuk data biner, asumsi bahwa fitur adalah variabel biner.

  21. Multinomial Naive Bayes: Digunakan untuk data kategori, biasanya pada masalah teks seperti klasifikasi dokumen.

  22. Ridge Regression: Varian dari linear regression dengan regularisasi L2 untuk mengurangi overfitting.

  23. Lasso Regression: Linear regression dengan regularisasi L1 yang dapat menyebabkan beberapa koefisien fitur menjadi nol.

  24. Elastic Net: Kombinasi dari Lasso dan Ridge regression.

  25. Stochastic Gradient Descent (SGD): Metode optimisasi yang digunakan dalam banyak model machine learning untuk menemukan parameter optimal.

  26. Bagging: Teknik ensemble yang menggabungkan beberapa model untuk meningkatkan stabilitas dan akurasi.

  27. Voting Classifier: Menggabungkan prediksi dari beberapa model yang berbeda untuk menentukan kelas akhir berdasarkan mayoritas suara.

  28. Stacking: Teknik ensemble di mana model prediktor (level-0) digunakan untuk membuat prediksi yang kemudian digunakan oleh model meta (level-1) untuk menghasilkan prediksi akhir.

  29. Extra Trees (Extremely Randomized Trees): Modifikasi dari random forest yang memperkenalkan lebih banyak randomisasi saat membangun pohon.

  30. Linear SVC: Variasi dari SVM yang dioptimalkan untuk skenario dengan data dalam jumlah besar dengan kernel linear.


Komentar

Postingan populer dari blog ini

QUIZ DATA MINING 1107

Supervised Learning (Prediksi) & Algoritma