• Faollashtirish funktsiyasi
  • "Harakatni" optimal tomonga ornatadigan optimallashtirish algoritmi
  • Organish tezligi.
  • Guruh: 961-19 Bajardi




    Download 198.5 Kb.
    bet4/5
    Sana17.12.2023
    Hajmi198.5 Kb.
    #121268
    1   2   3   4   5
    Bog'liq
    SARVAR 1
    1111111111, Вариант 2, Ehtiyoji yuqori bo\'lgan 10 kasb, Atatek shejiresiniń násilshilikte qollanılıwı, Porodalardıń násilshilik jumıslarında qollanılıwı, Porodalardıń násilshilik jumıslarında qollanılıwı, bekzod3 baxt, 88 Iqtisod va biznes Mavzu Ishlab chiqarish jarayonini tashkil etishda, Doc1, 7.Raqobatning mohiyati, shakllari va usullari., 01- масалалар ТАХЛАШ, 6-Seminar jumısı, 5-Seminar jumisis, CАРИМСАКОВ АЛИЖОН
    Giperparametrlar - model parametrlaridan farqli o'laroq, ular ish paytida o'zgarmaydi mashinani o'rganish algoritmi va shuning uchun oqilona tanlangan bo'lishi kerak muhandis Asosiy giperparametrlarga quyidagilar kiradi:

  • Yashirin qatlamlar soni. U qanchalik kichik bo'lsa, NN tezroq ishlaydi, lekin U qanchalik katta bo'lsa, NN murakkab muammolarni yaxshiroq hal qila oladi. Uni tanlashda muhandis nazariy mulohazalar bilan boshqarilishi mumkin (masalan, inson miyasining tanib olish uchun mas'ul bo'lgan tuzilmalari haqida vizual ma'lumot) yoki oz sonli qatlamlardan boshlang, asta-sekin model sifati o'sishni to'xtatmaguncha ularni oshirish.

  • Faollashtirish funktsiyasi. Bu neyronning chiqish qiymatini hisoblaydigan funksiya kirish parametrlarining chiziqli birikmasiga asoslangan. Ko'pincha ishlatiladi funktsiyalari Sigmoid, Tanh va RELU (2-rasmga qarang). Masalan, ulardan RELU mavjud eng kam hisoblash murakkabligi. Shuning uchun u ko'pincha hammada qo'llaniladi ichki qatlamlar, chiqish qatlami esa murakkabroq foydalanadi Sigmasimon funktsiya.


    2-rasm. Neyron tarmoqlarda qo'llaniladigan ba'zi faollashtirish funktsiyalari.

    • "Harakatni" optimal tomonga o'rnatadigan optimallashtirish algoritmi. Klassik variant - Stokastik Gradient Descent (SGD), bu minimallashtiradi gradientga asoslangan yo'qotish, har bir iteratsiyada o'quv ma'lumotlarini namuna olish tasodifiy. Hozirgi vaqtda yanada progressiv deb hisoblanadi RMSProp algoritmlari (SGD dan har bir parametr bilan farq qiladi moslashuvchan o'rganish tezligi) va Adam Optimizer (sizga sozlash imkonini beradi NN giperparametrlari).

    • O'rganish tezligi. Algoritmning har bir iteratsiyasida "qadam" ning o'lchami moyil bo'ladi yo'qotish funktsiyasini minimallashtirish uchun. Juda katta qadam tashlash xavfni oshiradi algoritm optimalni "o'tkazib yuboradi" va bu juda kichik bo'lishiga olib keladi neyron tarmoqni o'qitish vaqtini oshirish. Hozirgi vaqtda algoritmlar mavjud qodir, ba'zi muvaffaqiyat bilan, qarab, bu bosqichni o'zgartirish Joriy nuqtada yo'qotish funktsiyasining "egriligi".


    • Download 198.5 Kb.
  • 1   2   3   4   5




    Download 198.5 Kb.