|
Xatolarni teskari tarqalishi algoritmi
|
bet | 11/19 | Sana | 20.05.2024 | Hajmi | 58,88 Kb. | | #245889 |
Bog'liq Документ Microsoft Office WordXatolarni teskari tarqalishi algoritmi
Xatolarni teskari tarqalishi algoritmi (error backpropagation algorithm) sun'iy neyron tarmoqlarini o'qitishda keng qo'llaniladigan bir qoidalash usuli. Bu algoritm tarmoqning har bir qatlamidagi xatolarni orqaga tarqatish prinsiplariga asoslangan. Asosan, algoritm tarmoqni o'qitish davomida chiqish qatlamidan boshlab orqaga yo'nalishda barcha qatlamalar bo'yicha gradientni hisoblaydi.
Quyidagi jarayonni hisobga olamiz:
1Oldinga tarqatish (Forward Propagation): Tarmoqdagi kirishlar orqali chiqish qatlamidan boshlab natijalar hisoblanadi.
2Xatolarni hisoblash (Compute Errors): Chiqish qatlami hosil qilgan natijalar va haqiqiy qiymatlar orasidagi xatolarni hisoblash.
3Gradientni hisoblash (Compute Gradients): Tarmoq bo'yicha gradientni hisoblash. Buning uchun, gradient descent algoritmi yordamida gradientlar chiqish qatlamidan boshlab orqaga yo'nalishda hisoblanadi.
4Vaznlarni yangilash (Update Weights): Har bir qatlaming vaznlari gradientni qabul qiladi va yangilaydi.
5Orqaga tarqatish (Backward Propagation): Har bir qatlaming xatolarini, gradientlar orqali orqaga tarqatish.
Persepton. Bo’sag`a faollashtirish funksiyasi.
Perseptron - bu qo'llaniladigan oddiy neyron modeli, unda kirishlar, vaznlar, biaslar va chiqish natijalar mavjud. Perseptron asosan ikki sinfi (masalan, 0 va 1) uchun klassifikatsiya uchun ishlatiladi.
Perseptronning boshqa qismi bo'shlig'i faollashtirish funksiyasi (activation function) bo'lib, bu funksiya kirishlarni o'zgaruvchilarga moslab yoki yo'q qiladi. Biror kirishning umuman xabarlashgan hodisani ifodalovchi qiymati hosil qilish uchun bu funksiyadan o'tkazish lozim.
Ko'p o'rganiladigan bo'shlig'i funksiyalardan biri sigmoid funksiyasi bo'lib, unda barcha qiymatlar 0 va 1 oralig'ida bo'lgan bo'lib, kirishlarni bunday o'zgaruvchilarga moslab qilish yordamida neyronning chiqishini tartibga solish mumkin.
Sigmoid funksiyasining formulasi:
Agar 𝑥 katta bo'lsa, sigmoid funksiyasi 1 ga yaqinlashadi; agar x kichik bo'lsa, sigmoid funksiyasi 0 ga yaqinlashadi. Bu, umuman xabarlashgan hodisani 0 va 1 oralig'ida tartibga solishda yordam beradi.
Perseptronning boshqa qismi boshqa muhim funksiyalar bilan ham ishlay oladi, masalan, ReLU (Rectified Linear Unit) va tanh funksiyalari kabi. Bu funksiyalar ham neyronning chiqishini tartibga solishda yordam beradi va sun'iy neyron tarmoqlarining o'qitilishida keng qo'llaniladi.
|
| |