komponen fitur input menjadi {0,7, 0,95, 0,7}, prop properti linguistik dapat berupa rendah atau menengah atau tinggi dan tidak dibatasi menjadi media saja. Oleh karena itu, sifat fitur disorot untuk pola masukan belum tentu tercermin dalam cara yang sama saat memilih nilai prop di fitur kami, untuk klausul aturan. Bahkan, seperti komponen fitur masukan mungkin juga tidak dipilih sama sekali sebagai klausul yg.
Sebuah lindung nilai linguistik yang sangat, lebih atau kurang atau tidak dapat melekat pada linguistik properti di panci yg, jika perlu. Kami menggunakan mean jarak persegi d (kami ,, prm) antara nilai input 3 dimensi pada neuron yang sesuai untuk fitur kami, dan linguistik properti prop oleh (21), dengan atau tanpa pengubah, direpresentasikan sebagai prm. Yang sesuai nilai-nilai 3-dimensi dari pr ,,,, (tanpa pengubah) untuk prop diberikan oleh (5). Penggabungan pengubah sangat, lebih atau kurang dan tidak mengakibatkan penerapan operator yang berbeda (seperti yang dilaporkan dalam [15]) untuk menghasilkan nilai-nilai dimodifikasi sesuai untuk prn ,. Nilai yang pr ,,, (dengan / tanpa pengubah) yang d (kami,, pr ,,,,) adalah minimum yang dipilih sebagai klausul yg sesuai dengan fitur kami, (atau neuron i9,) untuk aturan membenarkan kesimpulan mengenai keluaran neuron j.
Prosedur ini diulang untuk semua 1i "~ neuron dipilih oleh (20) untuk menghasilkan satu set klausa yg penghubung untuk aturan mengenai inferensi pada output simpul j. Semua fitur input (pola pengujian) tidak perlu harus dipilih untuk generasi klausul yg.
Pengurangan Konsekuen: The konsekuen bagian dari peran dapat dinyatakan dalam bentuk kuantitatif sebagai nilai keanggotaan yt ke kelas j. Namun bentuk yang lebih alami keputusan juga dapat disediakan untuk j kelas, memiliki nilai keanggotaan signifikan Y7, mengingat nilai pewaris (15). Untuk bentuk keluaran linguistik, kita menggunakan
1. sangat mungkin untuk 0,8 <belt <1
2. kemungkinan untuk 0,6 <belt <0,8
3. lebih atau kurang mungkin untuk 0,4 <belt <0,6
4. tidak mungkin untuk 0,1 <belt <0,4
5. tidak dapat mengenali untuk sabuk <0,1
Pada prinsipnya itu harus mungkin untuk memeriksa jaringan koneksionis dan menghasilkan setiap seperti Jika-Maka aturan. Aturan-aturan ini juga dapat digunakan untuk membentuk basis pengetahuan dari sistem pakar tradisional.
Contoh: Pertimbangkan jaringan 3-lapis sederhana yang diberikan pada Gambar. 3 menunjukkan contoh generasi aturan sederhana mengenai kelas 1. Biarkan jalur dihasilkan oleh (19). Sampel set bobot hubungan w, y ° aktivasi input dan sesuai label linguistik yang digambarkan pada gambar. Jalur padat dan putus-putus-putus-putus (yang telah dipilih) berakhir pada neuron input dan di masing-masing, sebagaimana ditentukan oleh (20). Garis putus-putus menunjukkan jalan tidak dipilih oleh (19), menggunakan dan yh nilai dalam proses. Biarkan ukuran kepastian untuk output neuron dalam pertimbangan menjadi 0,7. Maka aturan yang dihasilkan oleh model dalam hal ini untuk membenarkan kesimpulan mengenai kelas 1 akan
Sedang diterjemahkan, harap tunggu..
