• Narx funksiyasi
  • Orqaga tarqalish
  • Paradigmalarni oʻrganish
  • Snt, odatda oddiygina neyron tarmoqlari




    Download 68.57 Kb.
    bet3/9
    Sana05.04.2023
    Hajmi68.57 Kb.
    #48814
    1   2   3   4   5   6   7   8   9
    Bog'liq
    Sunʼiy neyron tarmoqlari
    F2RHiywULrwp938yYOLdq6tmEAaxlClEPr4riDad, determinantlar-nazariyasi, ODOB AXLOQqoidalari o`quvchi REYSTRI, 7-мавзу, Ешмуратов Бахрам Шапшышылық, Oddiy-yarim-otkazgichlar., kurs ishi, Mavzu . BURG‘ILASH - PORTLATISH ISHLARI, 1-chorak ochiq dars Ona tili, Дустлик Дом, Mavzu Ilmiy tadqiqot asoslari fanining maqsadi va vazifalari, u-fayllar.org, 1--PUSTOY- -, Iqtisodiyotning siklliligi va makroiqtisodiy beqarorlik, Monopolya mohiyati va turlari
    Oʻrganish darajasi[tahrir | manbasini tahrirlash]
    Oʻrganish tezligi modelning har bir kuzatishdagi xatolarni tuzatish uchun koʻrsatadigan tuzatish qadamlari hajmini belgilaydi.[50] Yuqori oʻrganish tezligi mashgʻulot vaqtini qisqartiradi, ammo past aniqlik bilan, pastroq oʻrganish koʻproq vaqt talab etadi, lekin aniqroq boʻlishi mumkin. Quickprop kabi optimallashtirishlar, birinchi navbatda, xatolarni minimallashtirishni tezlashtirishga qaratilgan boʻlsa, boshqa yaxshilanishlar asosan ishonchlilikni oshirishga harakat qiladi. Tarmoq ichidagi tebranishlarni, masalan, ulanish ogʻirliklarining oʻzgarishini oldini olish va konvergentsiya tezligini yaxshilash uchun takomillashtirish moslashtirilgan oʻrganish tezligidan foydalanadi, bu mos ravishda oshiradi yoki kamayadi.[51] 0 ga yaqin momentum gradientni taʼkidlaydi, 1 ga yaqin qiymat esa oxirgi oʻzgarishlarni taʼkidlaydi.
    Narx funksiyasi[tahrir | manbasini tahrirlash]
    Xarajat funksiyasini ad hoc aniqlash mumkin boʻlsa-da, koʻpincha tanlov funksiyaning kerakli xususiyatlari (masalan, qavariqlik) yoki modeldan kelib chiqqanligi sababli aniqlanadi (ehtimollik modelida modelning orqa ehtimoli teskari sifatida ishlatilishi mumkin).
    Orqaga tarqalish[tahrir | manbasini tahrirlash]
    Orqa tarqalish — bu oʻrganish jarayonida aniqlangan har bir xatoni qoplash uchun ulanish ogʻirliklarini sozlash uchun ishlatiladigan usul. Ogʻirlikni yangilash stokastik gradient tushishi yoki boshqa usullar orqali amalga oshirilishi mumkin, masalan, Extreme Learning Machines,[52] „No-prop“ tarmoqlari,[53] orqaga yoʻl qoʻymasdan mashq qilish,[54] „vaznsiz“ tarmoqlar,[55][56] ][56] va koNTektsionist boʻlmagan neyron tarmoqlar.
    Paradigmalarni oʻrganish[tahrir | manbasini tahrirlash]
    Uchta asosiy taʼlim paradigmalari nazorat ostida oʻrganish, nazoratsiz oʻrganish va mustahkamlovchi oʻrganishdir. Ularning har biri maʼlum bir oʻquv vazifasiga mos keladi

    Download 68.57 Kb.
    1   2   3   4   5   6   7   8   9




    Download 68.57 Kb.

    Bosh sahifa
    Aloqalar

        Bosh sahifa



    Snt, odatda oddiygina neyron tarmoqlari

    Download 68.57 Kb.