• Noravshan mantiqda ishonchlilik koeffitsentlari
  • Toshkent tibbiyot akademiyasi biotibbiyot muhandisligi, informatika va biofizika kafedrasi




    Download 41,95 Kb.
    bet2/9
    Sana27.05.2024
    Hajmi41,95 Kb.
    #254571
    1   2   3   4   5   6   7   8   9
    Bog'liq
    “ Sun\'iy neyron tarmoqlari modeli

    Neyronlarning turlari
    Asosiy morfologiyaga ko'ra impulsning uzatilishiga, funktsiyasiga, yo'nalishiga, boshqa neyronlardagi ta'siriga qarab, ularning bo'shatish shakliga, neyrotransmitterlar ishlab chiqarilishiga, kutupluluğuna, akson va soma orasidagi masofaga qarab tasniflanishi mumkin. dendritlarning joylashishi va shakliga qarab. Bizning miyamizda taxminan 100 milliard neyron mavjud. Boshqa tomondan, agar glial hujayralar (neyronlarni qo'llab-quvvatlovchi moddalar) haqida gapiradigan bo'lsak, ularning soni 360 milliardga etadi.
    Sun'iy neyron tarmoqlari bor hisoblash modellari tomonidan ilhomlangan biologik neyron tarmoqlari va ishlatiladi taxminiy funktsiyalari umuman noma'lum. Xususan, ular xatti-harakatlaridan ilhomlangan neyronlar va ular kirish (masalan, ko'zdan yoki qo'ldagi nerv sonlaridan), ishlov berish va miyadan chiqish (masalan, yorug'lik, teginish yoki issiqlikka ta'sir qilish) o'rtasida uzatiladigan elektr signallari. Neyronlarning semantik jihatdan aloqa qilish usuli doimiy tadqiqotlar sohasidir. Ko'pgina sun'iy neyron tarmoqlari o'zlarining murakkab biologik o'xshashlariga o'xshashliklarga ega, ammo ular belgilangan vazifalarda juda samarali (masalan, tasniflash yoki segmentatsiya). Ba'zi sun'iy neyron tarmoqlar moslashuvchan tizimlar va masalan uchun ishlatiladi model populyatsiyalar va doimiy ravishda o'zgarib turadigan muhitlar.
    Neyron tarmoqlari apparat- (neyronlar jismoniy komponentlar bilan ifodalanadi) yoki bo'lishi mumkin dasturiy ta'minotga asoslangan (kompyuter modellari), va turli xil topologiyalar va o'quv algoritmlaridan foydalanishi mumkin.
    Noravshan mantiqda ishonchlilik koeffitsentlari
    Neyron tarmoqlarini o'rgatishning universal usuli mavjud - tarmoq parametrlarining aniq ko'rsatilmagan funktsiyasi sifatida taxminiy ko'rsatkichni minimallashtirish. Ushbu yondashuvni amalga oshirishda quyidagilar nazarda tutilgan:
    • kirish signallari vektorlaridan tashkil topgan o'quv namunasi berilgan;
    • baholash funktsiyasida belgilangan tegishli chiqish signallariga talablar ma'lum;
    • butun namuna yoki uning biron bir qismi uchun taxmin qiymatlardan ma'lum tarzda tuzilgan.
    Tayyorgarlikdan so'ng (o'quv namunasini yaratish, taxminiy funktsiyani tanlash, kiritilgan ma'lumotlarni oldindan qayta ishlash va hk), mashg'ulotdan oldin bizda ma'lum funktsiyani hisoblash usuli mavjud bo'lib, uni minimallashtirish parametrlar funktsiyasi sifatida tarmoqni to'g'ri ishlashi uchun sozlaydi. Neyron tarmoqlarini o'qitishda paydo bo'ladigan optimallashtirish muammosining xususiyatlari Neyron tarmoqlari uchun optimallashtirish muammolari bir qator o'ziga xos cheklovlarga ega. Ular o'quv muammosining ulkan hajmi bilan bog'liq. Parametrlar soni va boshqalarga erishish mumkin. Shaxsiy kompyuterlardagi eng sodda dasturiy simulyatorlarda parametrlar tanlangan. Yuqori o'lchovliligi tufayli algoritm uchun ikkita talab paydo bo'ladi:
    1.Xotirani cheklash. Parametrlar soni bo'lsin. Agar algoritm kattalikdagi xotira xarajatlarini talab qiladigan bo'lsa, unda mashg'ulot uchun qo'llanilishi ehtimoldan yiroq emas. Xotirani iste'mol qiladigan algoritmlarga ega bo'lish maqsadga muvofiqdir.
    2. Algoritmning eng mashaqqatli bosqichlarini va tarjixon asab tarmog'i bilan parallel hisoblash imkoniyati.
    3. O'qitilgan neyrokompyuter barcha sinov muammolarini maqbul aniqlik bilan hal qilishi kerak. Shuning uchun o'quv muammosi ko'p mezonli optimallashtirish muammosiga aylanadi: ko'p sonli funktsiyalarning umumiy minimal nuqtasini topish kerak. Neyrokompyuterni o'qitish ushbu nuqtaning mavjudligi gipotezasiga asoslanadi.
    4. O'qitilgan neyrokompyuter eskisini yo'qotmasdan yangi ko'nikmalarni egallashi kerak. Ehtimol zaifroq talab: yangi ko'nikmalar eskilarida aniqlikni yo'qotish bilan birga bo'lishi mumkin, ammo yo'qotish muhim bo'lmasligi kerak. Bu shuni anglatadiki, taxminlarning umumiy minimal darajasining topilgan nuqtasining etarlicha katta mahallasida ularning qiymatlari minimaldan ahamiyatsiz farq qiladi.
    Shunday qilib, bizda neyrokompyuterni umumiy optimallashtirish muammolaridan ajratib turadigan to'rtta cheklovlar mavjud:
    • parametrlarning astronomik soni;
    • mashg'ulotlarda yuqori parallellikka ehtiyoj;
    • hal qilinayotgan vazifalarning ko'p mezonlari;
    • barcha minimallashtirilgan funktsiyalarning qiymatlari minimal darajaga yaqin bo'lgan etarlicha keng maydonni topish zarurati.
    O'qishdagi cheklovlarni hisobga olish Tarmoq parametrlari uchun eng oddiy shakldagi cheklovlar mumkin: Ular turli sabablarga ko'ra kiritiladi: neyronlarning o'ta keskin yoki aksincha sayoz xususiyatlaridan qochish, sinapslarda signal kuchaytiruvchi juda katta omillarning paydo bo'lishining oldini olish va boshqalar. Cheklovlarni, masalan, penalti funktsiyalari usuli yoki proektsiyalar usuli bilan hisobga olish mumkin:
    • Jazo funktsiyalari uslubidan foydalanish, cheklov doirasidan chiqib ketadigan parametrlar uchun penalti qo'shilganligini anglatadi. Penalti funktsiyalarining hosilalari gradientga kiritiladi.
    • Proektiv usul shuni anglatadiki, agar tarmoq parametrlarni o'zgartirishni taklif qilsa va ba'zi birlari cheklovlardan oshib ketsa, Amaliyot shuni ko'rsatadiki, proektsion usul qiyinchiliklarga olib kelmaydi.
    Jarima funktsiyalari bilan ishlash unchalik muvaffaqiyatli emas. Keyinchalik, biz cheklovlar usullardan biri bilan hisobga olinadi deb o'ylaymiz va biz o'rganishni cheklanmagan minimallashtirish sifatida gaplashamiz. Parametrlar vektorining boshlang'ich qiymati berilsin va baholash funktsiyasi hisoblansin. Bir o'lchovli optimallashtirish protsedurasi minimalning taxminiy pozitsiyasini beradi (umuman aytganda, mahalliy). Bir o'lchovli optimallashtirish uchun eng aniq yo'nalish antigradient yo'nalishi hisoblanadi:
    Biz har bir qadamda ushbu yo'nalishni tanlaymiz, so'ngra bir o'lchovli optimallashtirishni amalga oshiramiz, keyin yana gradientni hisoblaymiz va hokazo. Bu ba'zan yaxshi ishlaydigan tik tushish usuli. Ammo baholash funktsiyasining egriligi (ob'ektiv funktsiyasi) haqida ma'lumotlardan foydalanmaslik va gradient juda kichik qiymatlarni qabul qilganda, optimal echim nuqtasi yaqinida minimallashuvning keskin pasayishi, ko'pincha eng baland tushish algoritmini samarasiz qiladi.
    Bashoratning ikkinchi hosilalari matritsasi ijobiy aniq bo'lgan hollarda, Nyuton yo'nalishi eng yaxshi deb hisoblanadi. Ushbu formuladan foydalanib, kvadratik shakllar bir qadamda minimallashtiriladi, ammo ushbu formulani quyidagi sabablarga ko'ra qo'llash qiyin:
    1. Vaqt. Funksiyaning barcha ikkinchi hosilalarini topish va matritsani teskari aylantirish hisoblash uchun juda qimmatga tushadi.
    2. Xotira. Katta o'lchamdagi muammolarni hal qilish uchun matritsa elementlarini saqlash talab qilinadi - bu juda ko'p.
    3. Matritsa har doim ham ijobiy aniqlanmaydi.
    Ushbu qiyinchiliklarni engish uchun ko'plab usullar ishlab chiqilgan. Xotirasi cheklangan kvazi-Nyuton usullari g'oyasi shundan iboratki, eng pastga tushish yo'nalishi bo'yicha tuzatish past darajali matritsa harakati natijasida topiladi. Matritsaning o'zi saqlanmaydi va uning vektorlarga ta'siri bir nechta maxsus tanlangan vektorlar uchun skaler mahsulotlardan foydalangan holda quriladi. Eng sodda va samarali usul formulaga asoslanadi (Bryden-Fletcher-Goldfard-Shanno) va oldingi bosqich natijalaridan foydalaniladi. Biz quyidagilarni belgilaymiz:
    - pastga tushish yo'nalishi;
    - qadam kattaligi (th qadam - siljish bo'yicha);
    - bosqichning boshlang'ich nuqtasida baholash funktsiyasi gradyenti;
    - qadam natijasida gradientning o'zgarishi.
    - uchinchi bosqichga tushish yo'nalishi formulasi quyidagi shaklga ega.
    Agar qadamni qidirishda bir o'lchovli optimallashtirish etarlicha aniq bajarilgan bo'lsa, unda yangi gradyan amalda avvalgi tushish yo'nalishi bo'yicha ortogonal bo'ladi, ya'ni, bu quyidagi formulani soddalashtiradi.
    Bu qadam tanlashda juda aniq bir o'lchovli optimallashtirishni talab qiladigan konjuge gradyan usuli (CGM) formulasi. Ta'riflangan usullarda tushishning dastlabki yo'nalishi deb taxmin qilinadi. Bosqichlarning bir necha ketma-ketligidan so'ng, eng keskin pasayishga qaytish tavsiya etiladi - qayta boshlash. U keyingisi yomon tushish yo'nalishi bo'lganida ishlatiladi, ya'ni. u bo'ylab harakatlanish juda kichik qadamga olib keladi yoki umuman yaxshilanmaydi.

    Download 41,95 Kb.
    1   2   3   4   5   6   7   8   9




    Download 41,95 Kb.

    Bosh sahifa
    Aloqalar

        Bosh sahifa



    Toshkent tibbiyot akademiyasi biotibbiyot muhandisligi, informatika va biofizika kafedrasi

    Download 41,95 Kb.