|
Mavzu: noaniqliklarni taqdim etish uchun shartli ehtimollik afzallik va kamchiliklari
|
bet | 2/14 | Sana | 09.01.2024 | Hajmi | 145,14 Kb. | | #133357 |
Bog'liq 2mustq1.
Neyronlarning turlari Asosiy morfologiyaga ko'ra impulsning uzatilishiga, funktsiyasiga, yo'nalishiga, boshqa neyronlardagi ta'siriga qarab, ularning bo'shatish shakliga, neyrotransmitterlar ishlab chiqarilishiga, kutupluluğuna, akson va soma orasidagi masofaga qarab tasniflanishi mumkin. dendritlarning joylashishi va shakliga qarab. Bizning miyamizda taxminan 100 milliard neyron mavjud. Boshqa tomondan, agar glial hujayralar (neyronlarni qo'llab-quvvatlovchi moddalar) haqida gapiradigan bo'lsak, ularning soni 360 milliardga etadi.
Sun'iy neyron tarmoqlari bor hisoblash modellari tomonidan ilhomlangan biologik neyron tarmoqlari va ishlatiladi taxminiy funktsiyalari umuman noma'lum. Xususan, ular xatti-harakatlaridan ilhomlangan neyronlar va ular kirish (masalan, ko'zdan yoki qo'ldagi nerv sonlaridan), ishlov berish va miyadan chiqish (masalan, yorug'lik, teginish yoki issiqlikka ta'sir qilish) o'rtasida uzatiladigan elektr signallari. Neyronlarning semantik jihatdan aloqa qilish usuli doimiy tadqiqotlar sohasidir. Ko'pgina sun'iy neyron tarmoqlari o'zlarining murakkab biologik o'xshashlariga o'xshashliklarga ega, ammo ular belgilangan vazifalarda juda samarali (masalan, tasniflash yoki segmentatsiya). Ba'zi sun'iy neyron tarmoqlar moslashuvchan tizimlar va masalan uchun ishlatiladi model populyatsiyalar va doimiy ravishda o'zgarib turadigan muhitlar.
Neyron tarmoqlari apparat- (neyronlar jismoniy komponentlar bilan ifodalanadi) yoki bo'lishi mumkin dasturiy ta'minotga asoslangan (kompyuter modellari), va turli xil topologiyalar va o'quv algoritmlaridan foydalanishi mumkin
2. Noravshan mantiqda ishonchlilik koeffitsentlari
Neyron tarmoqlarini o'rgatishning universal usuli mavjud - tarmoq parametrlarining aniq ko'rsatilmagan funktsiyasi sifatida taxminiy ko'rsatkichni minimallashtirish. Ushbu yondashuvni amalga oshirishda quyidagilar nazarda tutilgan:
• kirish signallari vektorlaridan tashkil topgan o'quv namunasi berilgan;
• baholash funktsiyasida belgilangan tegishli chiqish signallariga talablar ma'lum;
• butun namuna yoki uning biron bir qismi uchun taxmin qiymatlardan ma'lum tarzda tuzilgan. Tayyorgarlikdan so'ng (o'quv namunasini yaratish, taxminiy funktsiyani tanlash, kiritilgan ma'lumotlarni oldindan qayta ishlash va hk), mashg'ulotdan oldin bizda ma'lum funktsiyani hisoblash usuli mavjud bo'lib, uni minimallashtirish parametrlar funktsiyasi sifatida tarmoqni to'g'ri ishlashi uchun sozlaydi. Neyron tarmoqlarini o'qitishda paydo bo'ladigan optimallashtirish muammosining xususiyatlari Neyron tarmoqlari uchun optimallashtirish muammolari bir qator o'ziga xos cheklovlarga ega. Ular o'quv muammosining ulkan hajmi bilan bog'liq. Parametrlar soni va boshqalarga erishish mumkin. Shaxsiy kompyuterlardagi eng sodda dasturiy simulyatorlarda parametrlar tanlangan. Yuqori o'lchovliligi tufayli algoritm uchun ikkita talab paydo bo'ladi:
1.Xotirani cheklash. Parametrlar soni bo'lsin. Agar algoritm kattalikdagi xotira xarajatlarini talab qiladigan bo'lsa, unda mashg'ulot uchun qo'llanilishi ehtimoldan yiroq emas. Xotirani iste'mol qiladigan algoritmlarga ega bo'lish maqsadga muvofiqdir.
2. Algoritmning eng mashaqqatli bosqichlarini va tarjixon asab tarmog'i bilan parallel hisoblash imkoniyati.
3. O'qitilgan neyrokompyuter barcha sinov muammolarini maqbul aniqlik bilan hal qilishi kerak. Shuning uchun o'quv muammosi ko'p mezonli optimallashtirish muammosiga aylanadi: ko'p sonli funktsiyalarning umumiy minimal nuqtasini topish kerak. Neyrokompyuterni o'qitish ushbu nuqtaning mavjudligi gipotezasiga asoslanadi.
4. O'qitilgan neyrokompyuter eskisini yo'qotmasdan yangi ko'nikmalarni egallashi kerak. Ehtimol zaifroq talab: yangi ko'nikmalar eskilarida aniqlikni yo'qotish bilan birga bo'lishi mumkin, ammo yo'qotish muhim bo'lmasligi kerak. Bu shuni anglatadiki, taxminlarning umumiy minimal darajasining topilgan nuqtasining etarlicha katta mahallasida ularning qiymatlari minimaldan ahamiyatsiz farq qiladi.
Shunday qilib, bizda neyrokompyuterni umumiy optimallashtirish muammolaridan ajratib turadigan to'rtta cheklovlar mavjud:
• parametrlarning astronomik soni;
• mashg'ulotlarda yuqori parallellikka ehtiyoj;
• hal qilinayotgan vazifalarning ko'p mezonlari;
• barcha minimallashtirilgan funktsiyalarning qiymatlari minimal darajaga yaqin bo'lgan etarlicha keng maydonni topish zarurati.
O'qishdagi cheklovlarni hisobga olish Tarmoq parametrlari uchun eng oddiy shakldagi cheklovlar mumkin: Ular turli sabablarga ko'ra kiritiladi: neyronlarning o'ta keskin yoki aksincha sayoz xususiyatlaridan qochish, sinapslarda signal kuchaytiruvchi juda katta omillarning paydo bo'lishining oldini olish va boshqalar. Cheklovlarni, masalan, penalti funktsiyalari usuli yoki proektsiyalar usuli bilan hisobga olish mumkin:
• Jazo funktsiyalari uslubidan foydalanish, cheklov doirasidan chiqib ketadigan parametrlar uchun penalti qo'shilganligini anglatadi. Penalti funktsiyalarining hosilalari gradientga kiritiladi.
• Proektiv usul shuni anglatadiki, agar tarmoq parametrlarni o'zgartirishni taklif qilsa va ba'zi birlari cheklovlardan oshib ketsa, Amaliyot shuni ko'rsatadiki, proektsion usul qiyinchiliklarga olib kelmaydi.
Jarima funktsiyalari bilan ishlash unchalik muvaffaqiyatli emas. Keyinchalik, biz cheklovlar usullardan biri bilan hisobga olinadi deb o'ylaymiz va biz o'rganishni cheklanmagan minimallashtirish sifatida gaplashamiz. Parametrlar vektorining boshlang'ich qiymati berilsin va baholash funktsiyasi hisoblansin. Bir o'lchovli optimallashtirish protsedurasi minimalning taxminiy pozitsiyasini beradi (umuman aytganda, mahalliy). Bir o'lchovli optimallashtirish uchun eng aniq yo'nalish antigradient yo'nalishi hisoblanadi:
Biz har bir qadamda ushbu yo'nalishni tanlaymiz, so'ngra bir o'lchovli optimallashtirishni amalga oshiramiz, keyin yana gradientni hisoblaymiz va hokazo. Bu ba'zan yaxshi ishlaydigan tik tushish usuli. Ammo baholash funktsiyasining egriligi (ob'ektiv funktsiyasi) haqida ma'lumotlardan foydalanmaslik va gradient juda kichik qiymatlarni qabul qilganda, optimal echim nuqtasi yaqinida minimallashuvning keskin pasayishi, ko'pincha eng baland tushish algoritmini samarasiz qiladi.
Yana bir usul - tasodifiy bir o'lchovli optimallashtirish yo'nalishini tanlash. Bu juda ko'p bosqichlarni talab qiladi, ammo bu juda oddiy - bu faqat taxminiy hisob-kitob bilan tarmoqning to'g'ridan-to'g'ri ishlashiga muhtoj. Eng keskin tushishdagi kamchiliklarni tuzatish uchun takrorlanadigan va o'zgartirilgan partan usullari ishlab chiqilgan. Parteranning takroriy usuli (-partan) quyidagicha tuzilgan. Dastlabki nuqtada smeta gradyenti hisoblab chiqiladi va pastga tushish uchun eng keskin qadam qo'yiladi - buning uchun bir o'lchovli optimallashtirish qo'llaniladi. Keyinchalik, gradient yana hisoblab chiqiladi va tushish amalga oshiriladi (ya'ni antigradient yo'nalishi bo'yicha harakat) va tavsiflangan jarayon bir marta takrorlanadi. Eng keskin tushish bosqichlaridan so'ng, biz nuqta olamiz va boshlang'ich qadam bilan yo'nalish bo'yicha bir o'lchovli optimallashtirishni amalga oshiramiz. Shundan so'ng, tsikl takrorlanadi. O'zgartirilgan partan usuli qo'shimcha parametrlarni yodlashni talab qiladi. U quyidagicha qurilgan. Eng tik tushishdan ikki qadam tashlanadi. Biz olamiz va. Keyinchalik, biz yo'nalishda bir o'lchovli optimallashtirishni amalga oshiramiz. Biz olamiz. Keyin eng tik tushish. Biz olamiz. Biz yo'nalishdan bir o'lchovli optimallashtirishni amalga oshiramiz. Biz olamiz va hokazo. Shunday qilib, biz juftlarni eng pastga tushish yo'li bilan, g'alati tomonlarni esa yo'nalish bo'yicha (boshlang'ich qadam) bir o'lchovli optimallashtirish orqali olamiz. Amaliyot shuni ko'rsatdiki, modifikatsiyalangan partan usuli partan usuliga qaraganda o'quv muammolarida yaxshiroq ishlaydi. Bir bosqichli kvazi-Nyuton usuli va konjuge gradyanlari Bashoratning ikkinchi hosilalari matritsasi ijobiy aniq bo'lgan hollarda, Nyuton yo'nalishi eng yaxshi deb hisoblanadi Ushbu formuladan foydalanib, kvadratik shakllar bir qadamda minimallashtiriladi, ammo ushbu formulani quyidagi sabablarga ko'ra qo'llash qiyin:
1. Vaqt. Funksiyaning barcha ikkinchi hosilalarini topish va matritsani teskari aylantirish hisoblash uchun juda qimmatga tushadi.
2. Xotira. Katta o'lchamdagi muammolarni hal qilish uchun matritsa elementlarini saqlash talab qilinadi - bu juda ko'p.
3. Matritsa har doim ham ijobiy aniqlanmaydi.
Ushbu qiyinchiliklarni engish uchun ko'plab usullar ishlab chiqilgan. Xotirasi cheklangan kvazi-Nyuton usullari g'oyasi shundan iboratki, eng pastga tushish yo'nalishi bo'yicha tuzatish past darajali matritsa harakati natijasida topiladi. Matritsaning o'zi saqlanmaydi va uning vektorlarga ta'siri bir nechta maxsus tanlangan vektorlar uchun skaler mahsulotlardan foydalangan holda quriladi. Eng sodda va samarali usul formulaga asoslanadi (Bryden-Fletcher-Goldfard-Shanno) va oldingi bosqich natijalaridan foydalaniladi. Biz quyidagilarni belgilaymiz:
- pastga tushish yo'nalishi;
- qadam kattaligi (th qadam - siljish bo'yicha);
- th bosqichning boshlang'ich nuqtasida baholash funktsiyasi gradyenti;
- th qadam natijasida gradientning o'zgarishi.
- uchinchi bosqichga tushish yo'nalishi formulasi quyidagi shaklga ega: vektorlarning skaler ko'paytmasi qayerda va. Agar qadamni qidirishda bir o'lchovli optimallashtirish etarlicha aniq bajarilgan bo'lsa, unda yangi gradyan amalda avvalgi tushish yo'nalishi bo'yicha ortogonal bo'ladi, ya'ni, bu quyidagi formulani soddalashtiradi:
Bu qadam tanlashda juda aniq bir o'lchovli optimallashtirishni talab qiladigan konjuge gradyan usuli (CGM) formulasi. Ta'riflangan usullarda tushishning dastlabki yo'nalishi deb taxmin qilinadi. Bosqichlarning bir necha ketma-ketligidan so'ng, eng keskin pasayishga qaytish tavsiya etiladi - qayta boshlash. U keyingisi yomon tushish yo'nalishi bo'lganida ishlatiladi, ya'ni. u bo'ylab harakatlanish juda kichik qadamga olib keladi yoki umuman yaxshilanmaydi
|
| |