|
Toshkent tibbiyot akademiyasi biotibbiyot muhandisligi, informatika va biofizika kafedrasi
|
bet | 8/9 | Sana | 27.05.2024 | Hajmi | 41,95 Kb. | | #254571 |
Bog'liq “ Sun\'iy neyron tarmoqlari modeliYashirin Markov modellari
Nutqni aniqlashning zamonaviy umumiy maqsadli zamonaviy tizimlari Yashirin Markov modellariga asoslangan. Bu belgilar yoki miqdorlar ketma-ketligini chiqaradigan statistik modellar. GMMlar nutqni aniqlashda ishlatiladi, chunki nutq signalini qismli statsionar yoki qisqa muddatli statsionar signal sifatida ko'rish mumkin. Qisqa vaqt oralig'ida (masalan, 10 millisekundada) nutqni a ga yaqinlashtirish mumkin statsionar jarayon. Nutqni a Markov modeli ko'p stoxastik maqsadlar uchun.
HMM-larning mashhur bo'lishining yana bir sababi shundaki, ular avtomatik ravishda o'qitilishi mumkin va ulardan foydalanish oddiy va hisoblash uchun qulaydir. Nutqni tanib olishda yashirin Markov modeli ketma-ketlikni keltirib chiqaradi n- o'lchovli haqiqiy qiymatli vektorlar (bilan n 10) kabi kichik bir butun son bo'lib, ulardan har 10 millisekundada bittasini chiqaradi. Vektorlar quyidagilardan iborat bo'ladi bosh suyagi olish yo'li bilan olingan koeffitsientlar Furye konvertatsiyasi qisqa vaqt ichida nutq oynasi va spektrni a yordamida bezatish kosinus o'zgarishi, keyin birinchi (eng muhim) koeffitsientlarni olish. Yashirin Markov modeli har bir holatda diagonali kovaryans Gausslar aralashmasi bo'lgan statistik taqsimotga ega bo'ladi va bu har bir kuzatilgan vektor uchun ehtimollik beradi. Har bir so'z, yoki (umumiy nutqni aniqlash tizimlari uchun), har biri fonema, boshqa chiqish taqsimotiga ega bo'ladi; so'zlar yoki fonemalar ketma-ketligi uchun yashirin Markov modeli alohida so'zlar va fonemalar uchun o'qitilgan yashirin Markov modellarini birlashtirish orqali amalga oshiriladi.
Yuqorida tavsiflangan nutqni tanib olishda HMM asosidagi eng keng tarqalgan yondashuvning asosiy elementlari. Nutqni aniqlashning zamonaviy tizimlari yuqorida tavsiflangan asosiy yondashuv natijalarini yaxshilash uchun bir qator standart metodlarning turli xil kombinatsiyalaridan foydalanadi. Odatda katta lug'at tizimiga ehtiyoj seziladi kontekstga bog'liqlik fonemalar uchun (shuning uchun har xil chap va o'ng kontekstli fonemalar HMM holatlari bo'yicha har xil tushunchalarga ega); u foydalanadi cepstral normalizatsiya turli xil karnay va yozuv sharoitlari uchun normallashtirish; karnayni normalizatsiya qilish uchun u erkak-ayol normalizatsiyasi uchun vokal trakti uzunligini normallashtirish (VTLN) dan foydalanishi mumkin maksimal ehtimollik chiziqli regressiya (MLLR) umumiy ma'ruzachini moslashtirish uchun. Xususiyatlari deb nomlangan bo'lar edi delta va delta-delta koeffitsientlari nutq dinamikasini olish uchun va bundan tashqari foydalanish mumkin heterosedastik chiziqli diskriminantli tahlil (HLDA); yoki delta-delta koeffitsientlarini o'tkazib yuborishi va ishlatishi mumkin biriktirish va an LDA - asoslangan proektsiyadan so'ng, ehtimol heterosedastik chiziqli diskriminant tahlil yoki a global yarim bog'langan kooperans aylantirish (shuningdek, chiziqli konvertatsiya qilishning maksimal ehtimoli yoki MLLT). Ko'pgina tizimlar HMM parametrlarini baholash uchun mutlaqo statistik yondashuvdan voz kechadigan va buning o'rniga o'quv ma'lumotlarining ayrim tasniflash bilan bog'liq o'lchovlarini optimallashtiradigan diskriminativ o'qitish usullaridan foydalanadilar. Misollar maksimal darajada o'zaro ma'lumot (MMI), minimal tasniflash xatosi (MCE) va minimal telefon xatosi (MPE).
Nutqni dekodlash (tizim yangi so'z bilan taqdim etilganda nima sodir bo'lishi va eng ehtimol manbali jumlani hisoblashi kerak bo'lgan atama), ehtimol Viterbi algoritmi eng yaxshi yo'lni topish uchun va bu erda dinamik ravishda akustik va til modellari ma'lumotlarini o'z ichiga olgan maxfiy Markov modelini yaratish va uni oldindan statik birlashtirish o'rtasida tanlov mavjud ( cheklangan holat o'tkazgich, yoki FST, yondashuv).
Dekodlashning mumkin bo'lgan yaxshilanishi - eng yaxshi nomzodni saqlab qolish o'rniga yaxshi nomzodlar to'plamini saqlab qolish va undan yuqori ball olish funktsiyasidan foydalanish (yana gol urish ) ushbu aniq nomzodga ko'ra eng yaxshisini tanlashimiz uchun ushbu yaxshi nomzodlarni baholash. Nomzodlar to'plami ro'yxat sifatida saqlanishi mumkin (The Eng yaxshi ro'yxat yondashuv) yoki modellarning bir qismi sifatida (a panjara ). Qayta skoring odatda minimallashtirishga urinish orqali amalga oshiriladi Bayes xavfi (yoki unga yaqinlashish): Dastlabki gapni maksimal ehtimollik bilan qabul qilish o'rniga, biz barcha mumkin bo'lgan transkripsiyalar bo'yicha berilgan yo'qotish funktsiyasining kutilishini minimallashtiradigan jumlani olishga harakat qilamiz (ya'ni o'rtacha masofani minimallashtiradigan gapni olamiz) taxminiy ehtimoli bilan tortilgan boshqa mumkin bo'lgan hukmlarga). Yo'qotish funktsiyasi odatda Levenshteyn masofasi, aniq vazifalar uchun har xil masofalar bo'lishi mumkin bo'lsa-da; mumkin bo'lgan transkripsiyalar to'plami, albatta, traktivlikni saqlab qolish uchun kesilgan. Qayta to'plash uchun samarali algoritmlar ishlab chiqilgan panjaralar vaznli sifatida namoyish etilgan cheklangan holat transduserlari bilan masofalarni tahrirlash o'zlarini sifatida namoyish etishdi cheklangan holat o'tkazgich ba'zi taxminlarni tekshirish.
XULOSA
Xulosa qilib aytganda neyron tarmoqlar o'tgan asrda tadqiqotlar bizning neyronlar haqidagi tushunchamizni rivojlantirgan bo'lsada, biz hali ham tushunmagan narsalarimiz ko'p.Masalan, yaqin vaqtgacha tadqiqotchilar neyron yaratilishi miyaning hipokampus deb ataladigan mintaqasida kattalarda sodir bo'lgan deb hisoblashgan. Gipokampus xotira va o'rganish bilan shug'ullanadi.Ammo yaqinda o'tkazilgan bir tadqiqot hipokampal neyrogenez haqidagi e'tiqodlarni shubha ostiga qo'ymoqda. 37 donorning hipokampus namunalarini tahlil qilib, tadqiqotchilar kattalar nisbatan kam miqdordagi yangi hipokampal neyronlarni ishlab chiqaradi degan xulosaga kelishdi.
Neyron tarmoqlar misollarni qayta ishlash orqali oʻrganadi (yoki oʻqitiladi), ularning har biri maʼlum “kirish” va “natija” ni oʻz ichiga oladi va ular oʻrtasida ehtimollik bilan oʻlchangan assotsiatsiyalarni hosil qiladi, ular tarmoqning oʻzida saqlanadigan maʼlumotlar tuzilmasida saqlanadi. Berilgan misol boʻyicha neyron tarmoqni oʻrgatish odatda tarmoqning qayta ishlangan chiqishi (koʻpincha bashorat) va maqsadli chiqishi oʻrtasidagi farqni aniqlash orqali amalga oshiriladi. Keyin tarmoq oʻz vaznli assotsiatsiyalarini oʻrganish qoidasiga koʻra va ushbu xato qiymatidan foydalanib sozlaydi. Ushbu tuzatishlarning etarli sonidan soʻng, mashgʻulot muayyan mezonlar asosida toʻxtatilishi mumkin. Bunday tizimlar misollarni koʻrib chiqish orqali topshiriqlarni bajarishni „oʻrganadi“, odatda vazifaga xos qoidalar bilan dasturlashtirilmaydi. Masalan, tasvirni aniqlashda ular „mushuk“ yoki „mushuk yoʻq“ deb qoʻlda yorliqlangan misol tasvirlarni tahlil qilish va boshqa tasvirlardagi mushuklarni aniqlash uchun natijalardan foydalanish orqali mushuklar bor tasvirlarni aniqlashni oʻrganishi mumkin.
TEST
1. Uorren Makkallok va Uolter Pits nechinchi yilda neyron tarmoqlar uchun hisoblash modelini yaratish orqali sun’iy neyronlar mavzusini ochdilar?
1983-y
*1943-y
1987-y
1867-y
2. ... standart birliklarga qo'shimcha ravishda maxsus birliklardan foydalanadigan RNN turidir?
*LSTM tarmoqlari
Konvolyutsiya
Perceptron
Sequence to Sequence Models
3. Nechinxhi yilda Ng va Din faqat yorliqsiz tasvirlarni tomosha qilish orqali mushuklar kabi yuqori darajadagi tushunchalarni tan olishni oʻrgangan tarmoq yaratdilar?
1999-y
2002-y
2015-y
*2012-y
4. Quyidagilardan neyronning eng oddiy va eng qadimgi modelini belgilang.
*Perceptron modeli
LSTM - Uzoq qisqa muddatli xotira
Sequence to Sequence Models
Radial asosli funktsional neyron tarmoq
5. ... neyron tarmog'i mustaqil ishlaydigan va kichik vazifalarni bajaradigan bir qancha turli tarmoqlarga ega?
LSTM
*Modulli
Konvolyutsiya
Perceptron
|
| |