the input feature components being {0.7, 0.95, 0.7}, the linguistic pr terjemahan - the input feature components being {0.7, 0.95, 0.7}, the linguistic pr Bahasa Indonesia Bagaimana mengatakan

the input feature components being

the input feature components being {0.7, 0.95, 0.7}, the linguistic property prop can be either low or medium or high and is not constrained to be medium only. Therefore, feature properties highlighted for the input pattern may not necessarily be reflected in a similar manner while selecting the value of prop in feature us, for a clause of the rule. In fact, such an input feature component may also not be selected at all as an antecedent clause.
A linguistic hedge very, more or less or not may be attached to the linguistic property in the antecedent pan, if necessary. We use the mean square distance d(us,, prm) between the 3-dimensional input values at the neurons corresponding to feature us, and the linguistic property prop by (21), with or without modifiers, represented as prm. The corresponding 3-dimensional values of pr,,,, (without modifiers) for prop are given by (5). The incorporation of the modifiers very, more or less and not result in the application of different operators (as reported in [15]) to generate the corresponding modified values for prn,. That value of pr,,, (with/without modifiers) for which d(us, , pr,,,,) is the minimum is selected as the antecedent clause corresponding to feature us, (or neuron i9,) for the rule justifying the conclusion regarding output neuron j.
This procedure is repeated for all the 1i„ ~ neurons selected by (20) to generate a set of conjunctive antecedent clauses for the rule regarding inference at output node j. All input features (of the test pattern) need not necessarily be selected for antecedent clause generation.
Consequent Deduction: The consequent part of the role can be stated in quantitative form as membership value yt to class j. However a more natural form of decision can also be provided for the class j, having significant membership value y7, considering the value of heir of (15). For the linguistic output form, we use
1. very likely for 0.8 < belt < 1
2. likely for 0.6 < belt < 0.8
3. more or less likely for 0.4 < belt < 0.6
4. not unlikely for 0.1 < belt < 0.4
5. unable to recognize for belt < 0.1
In principle it should be possible to examine a connectionist network and produce every such If-Then rule. These rules can also be used to form the knowledge base of a traditional expert system.
An Example: Consider the simple 3-layered network given in Fig. 3 demonstrating a simple rule generation instance regarding class 1. Let the paths be generated by (19). A sample set of connection weights w , input activation y° and the corresponding linguistic labels are depicted in the figure. The solid and dotted-dashed paths (that have been selected) terminate at input neurons is and in respectively, as determined by (20). The dashed lines indicate the paths not selected by (19), using the and yh values in the process. Let the certainty measure for the output neuron under consideration be 0.7. Then the rule generated by the model in this case to justify its conclusion regarding class 1 would be
0/5000
Dari: -
Ke: -
Hasil (Bahasa Indonesia) 1: [Salinan]
Disalin!
fitur masukan komponen yang {0.7, 0,95, 0.7}, prop linguistik properti dapat berupa rendah atau menengah atau tinggi dan tidak dibatasi media hanya. Oleh karena itu, sifat-sifat fitur yang disorot untuk pola masukan mungkin tidak selalu dicerminkan dalam cara yang sama saat memilih nilai prop dalam fitur kami, untuk sebuah klausul aturan. Pada kenyataannya, seperti komponen fitur masukan juga tidak dapat dipilih sekali sebagai sebuah klausa pendahuluan.Sebuah pagar linguistik sangat, lebih atau kurang atau tidak dapat dilampirkan ke properti linguistik di panci pendahuluan, jika diperlukan. Kami menggunakan d jauh berarti square (kami,, prm) antara 3-dimensi masukan nilai-nilai di neuron yang sesuai dengan fitur kami, dan properti linguistik prop oleh (21), dengan atau tanpa pengubah, diwakili sebagai prm. Nilai 3-dimensi yang sesuai PR,,, (tanpa pengubah) untuk prop diberikan oleh (5). Penggabungan pengubah sangat, lebih atau kurang dan tidak mengakibatkan penerapan operator yang berbeda (seperti yang dilaporkan dalam [15]) untuk menghasilkan nilai dimodifikasi yang sesuai untuk prn,. Nilai PR,,, (dengan/tanpa pengubah) untuk yang d (kita, pr,,,) adalah minimum dipilih sebagai klausa yg sesuai dengan memiliki kita (atau neuron i9,) untuk aturan yang membenarkan kesimpulan mengenai Keluaran neuron j.Prosedur ini diulang untuk semua 1i"~ neuron yang dipilih oleh (20) untuk menghasilkan serangkaian conjunctive yg klausul untuk aturan mengenai kesimpulan di output node j. Semua masukan fitur (pola pengujian) perlu tidak selalu dipilih untuk generasi ayat pendahuluan.Konsekuen pemotongan: Konsekuen bagian dari peran dapat dinyatakan dalam bentuk kuantitatif sebagai keanggotaan nilai yt untuk j kelas. Namun bentuk yang lebih alami keputusan dapat juga disediakan untuk j kelas, memiliki keanggotaan signifikan nilai y7, mempertimbangkan nilai pewaris (15). Untuk bentuk output linguistik, kami menggunakan1. sangat mungkin untuk 0.8 < sabuk < 12. untuk 0.6 < sabuk < 0,83. lebih atau kurang kemungkinan untuk 0.4 < sabuk < 0.64. tidak mungkin untuk 0.1 < sabuk < 0.45. mampu mengenali untuk sabuk < 0.1Pada prinsipnya itu harus mungkin untuk memeriksa jaringan oleh o. g. Selfridge dan menghasilkan setiap aturan jika-maka seperti itu. Aturan ini dapat juga digunakan untuk membentuk basis pengetahuan tradisional ahli sistem.Contoh: Pertimbangkan jaringan 3-lapis sederhana diberikan dalam Fig. 3 menunjukkan contoh generasi aturan sederhana mengenai kelas 1. Biarkan jalur yang dihasilkan oleh (19). Sampel mengatur koneksi bobot w, masukan aktivasi y ° dan label linguistik yang sesuai digambarkan dalam gambar. Jalur padat dan berlari dihiasi (yang telah dipilih) menghentikan neuron masukan adalah dan di masing-masing, seperti yang ditentukan oleh (20). Garis putus-putus menunjukkan jalan tidak dipilih oleh (19), menggunakan dan nilai-nilai yh dalam proses. Biarkan ukuran kepastian untuk output neuron di bawah pertimbangan akan 0.7. Maka aturan yang dihasilkan oleh model dalam hal ini untuk membenarkan kesimpulan mengenai kelas 1 akan
Sedang diterjemahkan, harap tunggu..
Hasil (Bahasa Indonesia) 2:[Salinan]
Disalin!
komponen fitur input menjadi {0,7, 0,95, 0,7}, prop properti linguistik dapat berupa rendah atau menengah atau tinggi dan tidak dibatasi menjadi media saja. Oleh karena itu, sifat fitur disorot untuk pola masukan belum tentu tercermin dalam cara yang sama saat memilih nilai prop di fitur kami, untuk klausul aturan. Bahkan, seperti komponen fitur masukan mungkin juga tidak dipilih sama sekali sebagai klausul yg.
Sebuah lindung nilai linguistik yang sangat, lebih atau kurang atau tidak dapat melekat pada linguistik properti di panci yg, jika perlu. Kami menggunakan mean jarak persegi d (kami ,, prm) antara nilai input 3 dimensi pada neuron yang sesuai untuk fitur kami, dan linguistik properti prop oleh (21), dengan atau tanpa pengubah, direpresentasikan sebagai prm. Yang sesuai nilai-nilai 3-dimensi dari pr ,,,, (tanpa pengubah) untuk prop diberikan oleh (5). Penggabungan pengubah sangat, lebih atau kurang dan tidak mengakibatkan penerapan operator yang berbeda (seperti yang dilaporkan dalam [15]) untuk menghasilkan nilai-nilai dimodifikasi sesuai untuk prn ,. Nilai yang pr ,,, (dengan / tanpa pengubah) yang d (kami,, pr ,,,,) adalah minimum yang dipilih sebagai klausul yg sesuai dengan fitur kami, (atau neuron i9,) untuk aturan membenarkan kesimpulan mengenai keluaran neuron j.
Prosedur ini diulang untuk semua 1i "~ neuron dipilih oleh (20) untuk menghasilkan satu set klausa yg penghubung untuk aturan mengenai inferensi pada output simpul j. Semua fitur input (pola pengujian) tidak perlu harus dipilih untuk generasi klausul yg.
Pengurangan Konsekuen: The konsekuen bagian dari peran dapat dinyatakan dalam bentuk kuantitatif sebagai nilai keanggotaan yt ke kelas j. Namun bentuk yang lebih alami keputusan juga dapat disediakan untuk j kelas, memiliki nilai keanggotaan signifikan Y7, mengingat nilai pewaris (15). Untuk bentuk keluaran linguistik, kita menggunakan
1. sangat mungkin untuk 0,8 <belt <1
2. kemungkinan untuk 0,6 <belt <0,8
3. lebih atau kurang mungkin untuk 0,4 <belt <0,6
4. tidak mungkin untuk 0,1 <belt <0,4
5. tidak dapat mengenali untuk sabuk <0,1
Pada prinsipnya itu harus mungkin untuk memeriksa jaringan koneksionis dan menghasilkan setiap seperti Jika-Maka aturan. Aturan-aturan ini juga dapat digunakan untuk membentuk basis pengetahuan dari sistem pakar tradisional.
Contoh: Pertimbangkan jaringan 3-lapis sederhana yang diberikan pada Gambar. 3 menunjukkan contoh generasi aturan sederhana mengenai kelas 1. Biarkan jalur dihasilkan oleh (19). Sampel set bobot hubungan w, y ° aktivasi input dan sesuai label linguistik yang digambarkan pada gambar. Jalur padat dan putus-putus-putus-putus (yang telah dipilih) berakhir pada neuron input dan di masing-masing, sebagaimana ditentukan oleh (20). Garis putus-putus menunjukkan jalan tidak dipilih oleh (19), menggunakan dan yh nilai dalam proses. Biarkan ukuran kepastian untuk output neuron dalam pertimbangan menjadi 0,7. Maka aturan yang dihasilkan oleh model dalam hal ini untuk membenarkan kesimpulan mengenai kelas 1 akan
Sedang diterjemahkan, harap tunggu..
 
Bahasa lainnya
Dukungan alat penerjemahan: Afrikans, Albania, Amhara, Arab, Armenia, Azerbaijan, Bahasa Indonesia, Basque, Belanda, Belarussia, Bengali, Bosnia, Bulgaria, Burma, Cebuano, Ceko, Chichewa, China, Cina Tradisional, Denmark, Deteksi bahasa, Esperanto, Estonia, Farsi, Finlandia, Frisia, Gaelig, Gaelik Skotlandia, Galisia, Georgia, Gujarati, Hausa, Hawaii, Hindi, Hmong, Ibrani, Igbo, Inggris, Islan, Italia, Jawa, Jepang, Jerman, Kannada, Katala, Kazak, Khmer, Kinyarwanda, Kirghiz, Klingon, Korea, Korsika, Kreol Haiti, Kroat, Kurdi, Laos, Latin, Latvia, Lituania, Luksemburg, Magyar, Makedonia, Malagasi, Malayalam, Malta, Maori, Marathi, Melayu, Mongol, Nepal, Norsk, Odia (Oriya), Pashto, Polandia, Portugis, Prancis, Punjabi, Rumania, Rusia, Samoa, Serb, Sesotho, Shona, Sindhi, Sinhala, Slovakia, Slovenia, Somali, Spanyol, Sunda, Swahili, Swensk, Tagalog, Tajik, Tamil, Tatar, Telugu, Thai, Turki, Turkmen, Ukraina, Urdu, Uyghur, Uzbek, Vietnam, Wales, Xhosa, Yiddi, Yoruba, Yunani, Zulu, Bahasa terjemahan.

Copyright ©2025 I Love Translation. All reserved.

E-mail: