• Adam optimallashtirish
  • Nesterov Tezlashtirilgan Gradient Descent
  • Konjugat gradient
  • Nyuton usuli
  • Kompyuter injiniring” fakulteti iv-bosqich 11-19 guruh talabasining “Mashinali o‘qitishga kirish” fanidan




    Download 128.44 Kb.
    bet4/9
    Sana26.04.2023
    Hajmi128.44 Kb.
    #54113
    1   2   3   4   5   6   7   8   9
    Bog'liq
    Mashinali o‘qitishga kirish 1-mustaqil ish
    2-чорак масаласи, Loyiha ishi, CSS, maktabgacha ta\'lim muassasida musiqa, Kurs ishiga uslubiy ko\'rsatma, 4V. yak. naz., 3000 ta test uzbek, 4mntS8hlCg3y2eGYuNwTYA, Navro, Документ Microsoft Word (2), Biologiya o`qitishda zamonaviy didaktik vositalardan samarali fo, 6-Лекция (2) ГЛИН, 1-M Xudoyberdiyev N Kiberhuquq Va Kiberetika, moliyaviy tahlil prezentatsiya
    Gradient descent - xato funktsiyasini, odatda o'rtacha kvadrat xatoni kamaytirish uchun model og'irliklarini yangilash uchun asosiy iterativ yondashuv. Og'irliklar xato funksiyasining gradientiga qarama-qarshi yo'nalishda yangilanadi. Gradient tushishning bir nechta variantlari taklif qilingan, shu jumladan partiya gradienti, stokastik gradient tushishi, mini-partiyali gradient tushishi va boshqalar. Sozlash uchun asosiy giperparametrlar o‘rganish tezligi, davrlar soni, partiya hajmi va boshqalar hisoblanadi.


    Adam optimallashtirish - asosiy gradient tushishiga nisbatan tezroq va barqaror konvergentsiyani qo'llab-quvvatlaydigan moslashuvchan o'rganish tezligi usuli. Bu gradientlarning birinchi va ikkinchi momentlarini baholash asosida turli parametrlar uchun individual moslashuvchan o'rganish stavkalarini qo'llaydi. Bu neyron tarmoqlarni o'qitish uchun eng mashhur optimallashtirish algoritmlaridan biridir. Sozlash uchun asosiy giperparametrlar o'rganish tezligi va epsilon qiymati hisoblanadi.


    Nesterov Tezlashtirilgan Gradient Descent - Gradientni joriy nuqtada emas, balki traektoriya bo'ylab bir oz oldinda joylashgan nuqtada hisoblash orqali yaqinlashish tezligini tezlashtiradigan gradient tushishining yaxshilangan versiyasi. Bu algoritmlarni funksiyaning chegaralangan nuqtasiga tezroq yaqinlashishga yordam beradi. Giperparametrlar asosiy gradient tushishi bilan bir xil.


    LBFGS - Model og'irliklarini yangilash uchun Broyden-Fletcher-Goldfarb-Shanno (BFGS) algoritmining yaqinlashuvi. U konvergentsiyani tezlashtirish uchun Hessian matritsasiga yaqinlashadi. Bu aniq BFGS usuliga qaraganda kamroq xotira va hisoblashni talab qiladi. Sozlash uchun giperparametrlar - tuzatishlar soni va bardoshlik.


    Konjugat gradient - nosimmetrik chiziqli tenglamalarni yechish uchun iterativ algoritm. U asosiy gradient tushishiga qaraganda tezroq birlashadi va iteratsiya narxi pastroq. Murakkab muammolar uchun konvergentsiyani ta'minlash uchun oldindan shartlashni talab qiladi. Sozlash uchun giperparametrlar bardoshlik mezonlari va oldindan shartlash turidir.


    Nyuton usuli - og'irliklarni eng keskin pasayish yo'nalishi bo'yicha yangilash uchun Hessian matritsasi yordamida xato funksiyasining egri chizig'ini yaqinlashtiradigan iterativ yondashuv. U bitta iteratsiyada birlashadi, lekin hisoblash qimmat bo'lgan Hessian matritsasini hisoblashni talab qiladi. Sozlash uchun giperparametrlar qadam o'lchami va bardoshlik mezonlari hisoblanadi.



    Download 128.44 Kb.
    1   2   3   4   5   6   7   8   9




    Download 128.44 Kb.

    Bosh sahifa
    Aloqalar

        Bosh sahifa



    Kompyuter injiniring” fakulteti iv-bosqich 11-19 guruh talabasining “Mashinali o‘qitishga kirish” fanidan

    Download 128.44 Kb.