Kuantisasi vektor belajar

Kuantisasi vektor belajar (KVB), (bahasa Inggris: learning vector quantization (LVQ)) adalah ilmu komputer yang merupakan algoritme klasifikasi untuk melihat pola prototipe. LVQ merupakan sistem kuantisasi vektor pasangan pengawas.

Ikhtisar

LVQ dapat dimengerti dengan kasus khusus dari jaringan saraf buatan, lebih tepat, KVB menerapkan pencapaian pembelajaran Hebbian pemenang-mendapatkan-segala. KVC merupakan pendahulu dari peta-yang-mengatur-dirinya-sendiri dan berhubungan dengan salah satu materi JST Gas Alam (Neutral Gas), dan algoritme tentangga k-terdekat (k-NN). LVQ ditemukan oleh Teuvo Kohonen.[1]

Sistem LVQ diwakili oleh prototipe W=(w(i),...,w(n)) yang didefinisikan pada ruang fitur pada data yang diobservasi. Pada algoritme latihan pemenang-mendapatkan-segala menentukan, pada setiap titik data, prototipe yang paling dekat dengan input menurut pengukuran jarak yang diberikan. Posisi ini kemudian diadaptasi, seperti contoh pemenang (prototipe) bergerak mendekat jika secara benar mengklasifikasikan titik data atau berpindah jika prototipe mengklasifikasikan titik data secara tidak benar.

Keuntungan dari LVQ ialah ia membuat prototipe yang dapat secara mudah diterapkan pada domain aplikasi masing-masing yang sulit.[2] Sistem LVQ diterapkan pada klasifikasi masalah multi-kelas secara alami. LVQ digunakan secara ragam pada penerapan praktis, lihat http://liinwww.ira.uka.de/bibliography/Neural/SOM.LVQ.html untuk bibliografi lebih lanjut.

Masalah utama dari LVQ merupakan pilihan pada pengukuran yang sesuai dari jarak atau kesamaan pada setiap latihan dan klasifikasi. Akhir-akhir ini, teknik LVW telah dikembangkan untuk beradaptasi dengan pengukuran jarak yang telah memiliki parameter pada arah dari sistem training, lihat lebih lanjut pada buku (Schneider, Biehl, and Hammer, 2008) [3] dan referensi therein.

LVQ dapat menjadi sumber dalam membantuk mengklasifikasi dokumen teks.[4]

Referensi

  1. ^ T. Kohonen. Self-Organizing Maps. Springer, Berlin, 1997.
  2. ^ T. Kohonen. Learning vector quantization. In: M.A. Arbib, editor, The Handbook of Brain Theory and Neural Networks., pages 537–540. MIT Press, Cambridge, MA, 1995.
  3. ^ P. Schneider, B. Hammer, and M. Biehl. Adaptive Relevance Matrices in Learning Vector Quantization.Neural Computation 21: 3532–3561, 2009. http://www.mitpressjournals.org/doi/abs/10.1162/neco.2009.10-08-892
  4. ^ Fahad and Sikander. Classification of textual documents using learning vector quantization. Information Technology Journal 6.1 (2007): 154-159. http://198.170.104.138/itj/2007/154-159.pdf Diarsipkan 2014-08-09 di Wayback Machine.

Pranala luar

  • LVQ for WEKA: Implementation of LVQ variants (LVQ1, OLVQ1, LVQ2.1, LVQ3, OLVQ3) for the WEKA Machine Learning Workbench.
  • lvq_pak official release (1996) by Kohonen and his team
  • LVQ for WEKA: Another implementation of LVQ in Java for the WEKA Machine Learning Workbench.

A PHP Error was encountered

Severity: Notice

Message: Trying to get property of non-object

Filename: wikipedia/wikipediareadmore.php

Line Number: 5

A PHP Error was encountered

Severity: Notice

Message: Trying to get property of non-object

Filename: wikipedia/wikipediareadmore.php

Line Number: 70

 

A PHP Error was encountered

Severity: Notice

Message: Undefined index: HTTP_REFERER

Filename: controllers/ensiklopedia.php

Line Number: 41