Bu erda Jp(W) - pth ta'lim namunasidagi bashorat narxi va og'irliklar sifatida
yangilanadi
ÿJp(W).
J(W) =
(1.8)
umumiy neyron tarmoqlarda BP tomonidan erishilgan. Gradient tushish bo'yicha
mahalliy minimal kirish tarmoq og'irliklarining ishga tushirilishiga bog'liq.
Jp(W),
Biroq, o'quv majmuasi katta bo'lsa, yig'indi gradientini baholash hisoblash
qimmatga tushadi. Stokastik gradient tushish namunalari har bir iteratsiyada yig'indisi
funksiyalarining kichik to'plamini oladi. Bu keng ko'lamli mashinani o'rganish
muammolari uchun juda samarali. Stokastik o'qitishda o'quv to'plami mini-
to'plamlarga bo'linadi va
J(W) ning haqiqiy gradienti namunalarning mini-to'plamida
yaqinlashadi. Gradientni baholash shovqinli va og'irliklar har bir iteratsiyada gradient
bo'ylab aniq pastga siljimasligi mumkin, lekin to'plamni o'rganishdan ancha tezroq.
Ustida