• Gradient túsiwin optimallastırıw
  • Gradient maǵlıwmatlarınan paydalanıw




    Download 1,4 Mb.
    bet4/4
    Sana05.12.2023
    Hajmi1,4 Mb.
    #111426
    1   2   3   4
    Bog'liq
    Baxitjan Bayniyazov Neural Network training
    Elеktron tulovlar tizimi asoslari(1), PX, Intеrnetda ruxsatsiz kirish, Аралова Шахло Дустмуродовна, Sagidanova Aykerim proekt tayin, 1. Shaxsiy kompyuterlarning dasturli ta‘minoti, kurs ishi 13-variant, kurs ishi 1-variant, 3-amaliy mashg’ulot Mavzu SbookBuilder dasturi imkoniyatlari, i (1), 8 - Иловалар (тестлар), 556544, Ahmedga DSERTATSYA 09.06.2023 (3), 19 asr oxiri 20 asr boshlarida Oʻzbekiston meʼmorchilik sanʼati, 2-mavzu. Sharq va G‘arb falsafasining vujudga kelishi, rivojlani-fayllar.org
    Gradient maǵlıwmatlarınan paydalanıw
    5. 3-bólimde kórip turǵanimizdek, qáte funksiyasınıń gradientini keyin basıp tarqalıw procedurası járdeminde nátiyjeli bahalaw múmkin. Bul gradient maǵlıwmatlarınan paydalanıw qáte funkciyasınıń minimal ma`nisin jaylastırıw tezligin sezilerli dárejede jaqsılawǵa alıp keliwi múmkin. Ne ushın bunday bolǵanın tómendegishe kóriwimiz múmkin. (5. 28) de berilgen qáte funksiyaǵa kvadratik jaqınlasıwda qáte maydanı b hám H muǵdarlar menen belgilenedi, olar jámi W (W + 3) /2 ǵárezsiz elementlerdi óz ishine aladı (sebebi H matritsasi simmetrik bolıp tabıladı)., bul erda W - w dıń ólshewliligi (yaǵnıy, tarmaqtaǵı adaptiv parametrlerdiń ulıwma sanı ). Bul kvadratik jaqınlasıwdıń minimal jaylasıwı sol sebepli O (W 2) parametrlerine baylanıslı hám biz O (W 2) ǵárezsiz maǵlıwmattı jıynaqagunimizcha, minimaldı anıqlay alıwımızdı kutmasligimiz kerek. Eger biz etpesak
    gradient maǵlıwmatlarınan paydalanǵan halda, biz O (W 2) funkciyasın bahalawdı ámelge asırıwımız kerek, olardıń hár biri O (W) qádemlerin talap etedi. Sonday etip, bunday jantasıw járdeminde minimaldı tabıw ushın zárúr bolǵan esaplaw háreketleri O (W 3) boladı. Endi bunı gradient maǵlıwmatlarınan paydalanatuǵın algoritm menen salıstırıń. ∇E dıń hár bir bahası vt maǵlıwmattı alıp kelgenligi sebepli, biz O (W) gradient bahalawlarında funkciyanıń minimalın tabıwǵa úmitleniwimiz múmkin. Kórip turǵanimizdek, qáteniń keyin basıp tarqalıwın qóllaw arqalı hár bir bunday bahalaw tek O (W ) basqıshların aladı hám sol sebepli minimaldı endi O (W 2) basqıshlarında tabıw múmkin. Usınıń sebepinen, gradient maǵlıwmatlarınan paydalanıw neyron tarmaqlardı oqıtıw ushın ámeliy algoritmlardıń tiykarın quraydı.

    Gradient túsiwin optimallastırıw
    Gradient maǵlıwmatlarınan paydalanıwdıń eń ápiwayı usılı - bul unamsız gradient baǵdarı boyınsha kishi bir qádemdi óz ishine alatuǵın salmaq jańalanıwın tańlaw bolıp tabıladı.

    Bul erda ē > 0 parametri úyreniw tezligi dep ataladı. Hár bir jańalanishdan keyin, gradient jańa salmaq vektorı ushın qayta bahalanadı hám process tákirarlanadı. Itibar beriń, qáte funksiyası oqıw kompleksine salıstırǵanda anıqlanadı hám sol sebepli hár bir qádem ∇E ni bahalaw ushın pútkil oqıw kompleksin qayta islewdi talap etedi. Bir waqtıniń ózinde pútkil maǵlıwmatlar kompleksinen paydalanatuǵın texnikaler ǵalabalıq usıllar dep ataladı. Hár bir qádemde salmaqlıq vektorı qáte funkciyasınıń eń úlken tómenlew tezligine qaray háreketlenedi hám sol sebepli bul jantasıw gradient túsiw yamasa eń tik túsiw dep ataladı. Eger bunday jantasıw intuitiv túrde aqılǵa say kórinisi múmkin bolsa -de, Bishop hám Nabney (2008) de talqılaw etilgen sebeplerge kóre, tiykarınan ol jaman algoritm bolıp shıǵadı.


    Jıynaqtı optimallastırıw ushın konjugat gradientlar hám kvazi-Nyuton usılları sıyaqlı natiyjelilew usıllar ámeldegi bolıp, olar ápiwayı gradient túsiwine qaraǵanda talay bekkemlew hám tezirek bolıp tabıladı (Gill hám boshq., 1981; Fletcher, 1987; Nocedal hám Rayt, 1999 ).. Gradient túsiwden ayrıqsha bolıp esaplanıw, bul algoritmlar, eger salmaqlıq vektorı jergilikli yamasa global minimumǵa jetpegen bolsa, qáte funksiyası hár bir iteratsiyada mudamı azayıp barıwı ózgeshelikine iye. Etarlicha jaqsı minimumni tabıw ushın gradientga tiykarlanǵan algoritmdı hár sapar basqa tosınarlı saylanǵan baslanǵısh noqattan paydalanǵan halda bir neshe ret jumısqa túsiriw hám nátiyjede alınǵan islewdi ǵárezsiz tekseriw kompleksinde salıstırıw kerek bolıwı múmkin.
    Biraq, úlken maǵlıwmatlar jıynaqlarında neyron tarmaqlardı oqıtıw ushın ámeliyatda paydalı bolǵan gradient túsiwdiń onlayn versiyası ámeldegi (Le Cun hám boshq., 1989 ). Ǵárezsiz baqlawlar kompleksiniń maksimal múmkinshiligına tiykarlanǵan qáte funkciyaları hár bir maǵlıwmat noqatı ushın birden shártler jıyındısın óz ishine aladı.

    Onlayn gradient túsiwi, sonıń menen birge, izbe-iz gradient túsiwi yamasa stokastik gradient túsiwi retinde de belgili, bir waqtıniń ózinde bir maǵlıwmat noqatı tiykarında salmaq vektorın jańalaydı, sol sebepli

    Juwmaq


    Men bul ózbetinshe arqalı Jasalma neyron torların úyretiw procesin haqqındaǵı bilimlerdi bekkemledim ham kóplegen maǵluwmatlarǵa iye boldım. Jasalma neyron torların úyretiw procesinde qosımsha retinde Neyron tarmaqlar, Parametrlerdi optimallastırıw, Gradient maǵlıwmatlarınan paydalanıw,Gradient túsiwin optimallastırıw ham taǵı basqada Jasalma neyron torların úyretiw procesi haqqindaǵı bilimlerdida ózlestirdim
    Paydalanılǵan adebiyatlar ham saytlar:
    Book:PATTERN RECOGNITION AND MACHINE LEARNING(CHRISTOPHER M. BISHOP)
    https://www.slideshare.net/ErgashevSirojiddin/suniy-neyron-modeli-256011348
    https://www.sciencedirect.com/science/article/abs/pii/B9780128205433000158
    https://en.wikipedia.org/wiki/Neural_network



    Download 1,4 Mb.
    1   2   3   4




    Download 1,4 Mb.

    Bosh sahifa
    Aloqalar

        Bosh sahifa



    Gradient maǵlıwmatlarınan paydalanıw

    Download 1,4 Mb.