• Chiqish qatlami vaznlarni sozlash.
  • Differsiallashning zanjir qoidasi




    Download 58,88 Kb.
    bet10/19
    Sana20.05.2024
    Hajmi58,88 Kb.
    #245889
    1   ...   6   7   8   9   10   11   12   13   ...   19
    Bog'liq
    Документ Microsoft Office Word

    Differsiallashning zanjir qoidasi.
    Differensiallashning zanjir qoidasi (chain rule) funksiyalarni differensiallashda foydalaniladigan asosiy qoidalardan biridir. Bu qoidaning asosiy maqsadi bir nechta o‘zgaruvchili funksiyalarni differensiallashni osonlashtirishdir. Zanjir qoidasi quyidagi tarzda ta'riflanadi:
    Agar y=f(g(x)) bo’lsa ya’ni y funksiya g(x) funksiya orqali ifodalangan bo’lsa,u holda y funksiyaning x bo’yicha xosilasi quyidagicha bo’ladi



    Chiqish qatlami vaznlarni sozlash.
    Chiqish qatlami (output layer) vaznlarni sozlash sun'iy neyron tarmoqlarni o'qitishda asosiy jarayonlardan biridir. Neyron tarmoqni o'qitish jarayonida, vaznlar tarmoqning kirishidan chiqishigacha bo'lgan bog'lanishlarning kuchini ifodalaydi. Chiqish qatlamining vaznlarini sozlash tarmoqning prognoz xatolarini minimallashtirish uchun amalga oshiriladi. Bu jarayon asosan orqaga tarqatish (backpropagation) algoritmi yordamida amalga oshiriladi.
    Quyida chiqish qatlamining vaznlarini sozlash jarayoni haqida batafsil tushuntirish keltiriladi:
    1. Oldinga tarqatish (Forward Propagation)
    Birinchi bosqichda tarmoqdagi kirish ma'lumotlari orqali oldinga tarqatish amalga oshiriladi va neyronlarning har bir qatlamida faollashtirish funksiyalari yordamida chiqishlar hisoblanadi. Yakuniy natijada tarmoq chiqish qatlami hosil qilgan prognoz olinadi.
    2. Yo'qotish funksiyasini hisoblash (Compute Loss)
    Tarmoqning chiqish qatlami hosil qilgan prognozi haqiqiy qiymatlar bilan solishtiriladi va yo'qotish (loss) funksiyasi yordamida xato hisoblanadi. Yo'qotish funksiyasi sifatida odatda quyidagilar ishlatiladi:
    Kvadratik xatolar yig'indisi (MSE - Mean Squared Error) regression vazifalar uchun.
    Kross-entropiya (Cross-Entropy) klassifikatsiya vazifalar uchun.
    3. Orqaga tarqatish (Backpropagation)
    Orqaga tarqatish algoritmi yordamida xatolar tarmoqning so'nggi qatlamidan boshlanib oldingi qatlamlarga tarqatiladi va har bir qatlamdagi vaznlarning gradientlari hisoblanadi.
    Chiqish qatlamidagi xatoni hisoblash: Chiqish qatlamidagi neyronlarning xatolari yo'qotish funksiyasining hosilasi yordamida aniqlanadi. Agar chiqish vaqti uchun
    L yo'qotish funksiyasi va y haqiqiy qiymat, 𝑦^ esa prognoz qiymat bo'lsa, chiqish qatlamidagi xato:

    Chiqish qatlamidagi gradientni hisoblash: Chiqish qatlamidagi vaznlarning gradientlari yo'qotish funksiyasining hosilasiga tarmoqning oldingi qatlamidagi faollashtirishlar bilan ko'paytirish orqali aniqlanadi.

    4. Vaznlarni yangilash (Update Weights)
    Chiqish qatlamidagi vaznlarni yangilash gradient pasayish (gradient descent) algoritmi yordamida amalga oshiriladi. Har bir vazn yangilanadi:

    Download 58,88 Kb.
    1   ...   6   7   8   9   10   11   12   13   ...   19




    Download 58,88 Kb.

    Bosh sahifa
    Aloqalar

        Bosh sahifa



    Differsiallashning zanjir qoidasi

    Download 58,88 Kb.