Hasil (
Bahasa Indonesia) 1:
[Salinan]Disalin!
I. PENDAHULUANDiri pengorganisasian peta (SOM) diusulkan oleh Kohonen [1], telah banyak digunakan dalam aplikasi industri seperti pengenalan pola, pemodelan biologis, kompresi data, pemrosesan sinyal dan data pertambangan [2]. Itu adalah pendekatan tanpa pengawasan dan nonparametric jaringan saraf. Keberhasilan dari algoritma SOM terletak pada kesederhanaannya yang membuatnya mudah untuk memahami, mensimulasikan dan digunakan dalam banyak aplikasi.SOM dasar terdiri dari neuron biasanya diatur dalam dua dimensi struktur sedemikian rupa sehingga ada lingkungan hubungan antara neuron. Setelah menyelesaikan pelatihan, neuron setiap melekat vektor fitur dimensi yang sama sebagai memasukkan spasi. Dengan menetapkan vektor setiap masukan ke neuron dengan terdekat fitur vektor, SOM ini mampu membagi ruang masukan ke dalam daerah (cluster) dengan umum terdekat fitur vektor. Proses ini dapat dianggap sebagai melakukan vector kuantisasi (VQ) [3].Juga, karena lingkungan hubungan disumbangkan oleh hubungan antara neuron, SOM pameran properti penting lain topologi pelestarian.Clustering algoritma berusaha untuk mengatur unlabeled vektor masukan ke dalam kelompok sehingga poin dalam gugus lebih mirip dengan satu sama lain daripada vektor milik kelompok berbeda [4]. Metode clustering yang terdiri dari lima jenis: hirarkis pengelompokan, pengelompokan partisi, berbasis kepadatan pengelompokan, grid berbasis pengelompokan dan model-berdasarkan pengelompokan [5].Dalam tulisan ini, dua tingkat clustering algoritma baru yang diusulkan. Idenya adalah bahwa tingkat pertama adalah untuk melatih data dengan jaringan saraf SOM dan kekelompokan di keduatingkat adalah satu set kasar berbasis pendekatan clustering inkremental [6], yang akan diterapkan pada output dari SOM dan membutuhkan hanya tunggal neuron scan. Jumlah optimal cluster dapat ditemukan dengan kasar teori himpunan kelompok-kelompok neuron diberikan ke dalam satu set tumpang tindih cluster yang (cluster data dipetakan masing-masing).Tulisan ini disusun sebagai berikut; dalam Bagian II dasar-dasar SOM algoritma diuraikan. Dasar inkremental pengelompokan dan kasar set pendekatan berbasis dijelaskan dalam Bagian III. Dalam bagian IV yang diusulkan algoritma disajikan. Bagian V yang didedikasikan untuk hasil percobaan dan Bagian VI memberikan kesimpulan yang singkat dan depan.II. DIRI PETA PENGORGANISASIAN DAN KEKELOMPOKANKompetitif belajar adalah proses yang adaptif yang neuron dalam jaringan saraf secara bertahap menjadi peka terhadap berbagai masukan kategori, set sampel di domain tertentu ruang masukan. Divisi dari saraf node muncul dalam jaringan untuk mewakili pola yang berbeda dari input setelah pelatihan.Divisi dipaksakan oleh persaingan antara neuron: ketika masukan x tiba, neuron yang terbaik untuk mewakili dapat memenangkan kompetisi dan diperbolehkan untuk belajar lebih baik. Jika ada memesan antara neuron-neuron, yaitu neuron terletak di kisi-kisi diskrit, kompetitif belajar algoritma dapat umum. Tidak hanya neuron menang, tetapi juga neuron yang tetangga pada kisi-kisi diperbolehkan untuk mempelajari, efek keseluruhan adalah bahwa peta akhir menjadi peta memerintahkan dalam memasukkan spasi. Ini adalah inti dari algoritma SOM.SOM terdiri dari m neuron yang terletak pada grid biasa dimensi rendah, biasanya satu atau dua dimensi. Kisi-kisi grid heksagonal atau persegi panjang.Algoritma SOM dasar berulang-ulang. Masing-masing neuron yang saya telah d-dimensi fitur vektor wi = [wi 1,..., wid]. Pada setiap langkah pelatihan t, sampel data vektor x(t) dipilih secara acak untuk pelatihan. Jarak antara x(t) dan semua fitur vektor dihitung. Neuron menang, dilambangkan oleh c, adalah neuron dengan fitur vektor terdekat) (tx:i {m}~ 1,...,. (1)Satu set tetangga node node pemenang dilambangkan sebagai Nc. Kita mendefinisikan hik (t) sebagai fungsi kernel lingkungan di sekitar c neuron menang pada waktu t. The lingkungan kernel fungsi adalah bebas-meningkatkan fungsi dari waktu dan jarak neuron i dari c neuron menang. Kernel dapat diambil sebagai fungsi Gaussian:
Sedang diterjemahkan, harap tunggu..
