Raqamlar ro'yxati VI Jadvallar ro'yxati VIII




Download 8,47 Mb.
bet1/2
Sana28.01.2024
Hajmi8,47 Mb.
#147460
  1   2
Bog'liq
dars jadvali narxo\'z 2 semestr.xlsx


1
Tarkib
Raqamlar ro'yxati vi
Jadvallar ro'yxati viii
Qisqartmalar ix
1 Kirish
1.1 Motivatsiya
1.2 Muammo bayoni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Tadqiqot savollari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Hissalar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12345. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Nazariy ma'lumot
2.1 Tibbiyot sohasida insult
2.2 Qon tomirlarini tahlil qilish uchun tibbiy rasmlar
2.3 Kompyuter ko'rish. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Tasniflash. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Belgilash. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3 Ob'ektni aniqlash. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Segmentatsiya. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Sun'iy intellekt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Mashinani o'rganish. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Chuqur o'rganish. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Sun'iy neyron tarmoqlari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Faollashtirish funktsiyalari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.2 To'g'ridan-to'g'ri uzatish tarmoqlari. . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Neyron tarmoqlarni o'rgatish. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Orqaga tarqalish. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.2 Optimizatorlar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.3 Yo'qotish funktsiyalari
2.6.4 Tartibga solish
2.7 Konvolyutsion neyron tarmoqlari. . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8 Namunaviy baholash usullari. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Tibbiy semantik segmentatsiya bo'yicha tegishli ishlar
3.1 Filtr o'lchami va chuqurligiga asoslangan modellar. . . . . . . . . . . . . . . . . . . . . . . . 3.2 Qoldiqlarga asoslangan modellar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 KoCHO’ovchi-dekoderga asoslangan usullar. . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Diqqatga asoslangan modellar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Transformatorga asoslangan modellar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6 Ob'ektni aniqlashga asoslangan modellar. . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7 Hududga asoslangan modellar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8 Boshqa modellar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Kirish
Turli sohalarda, ayniqsa tibbiyotda kompyuter ko‘rish (KK) ilovalarining tezlashib borayotgan xilmaxilligi bilan KK mutaxassislarga katta kuch talab qiladigan ayrim kasalliklarni tashxislashda yordam berish imkoniyatini yaratdi. Dissertatsiyaning asosiy afzalliklaridan biri tibbiy tasvirlarni tahlil qilish va tushunish uchun tasvirni segmentatsiyalash kabi vizual aniqlash vazifalaridan foydalanish hisoblanadi. Magnit-rezonans tomografiya (MRT) insultni aniqlashda afzal ko'rilgan yondashuv bo'lib, butun dunyo bo'ylab bemorlarning hayot tarziga uzoq davom etadigan salbiy ta'sir ko'rsatadigan etakchi tibbiy holat hisoblanadi.
Umuman olganda, zarbalarni ikkita asosiy guruhga bo'lish mumkin:
(i) gemorragik, bu miyadagi qon tomirlari yorilib, qon shikastlangan hudud atrofida oqib, miyaning yaqin hududiga ta'sir qilganda sodir bo'ladi va (ii)ishemik, qon tomirlari tiqilib qolganda paydo bo'ladi, natijada o'rab olingan miya hududiga kislorod yetishmaydi, miya shikastlanishi va tananing ayrim qismlarida harakatning yo'qolishiga olib keladi. Har ikki turdagi insult jiddiy sog'liq muammolari bo'lsada, ishemik insult dunyodagi ikkinchi eng halokatli kasallik bo'lib, inson hayotiga juda katta zarar yetkazadi. 1.1-rasmda bu ikki turdagi insult o'rtasidagi farq ko'rsatilgan.

1.1-rasm:Qo'l urish turlari [91]
Mutaxassislar uchun kasallikni tashxislash oson ish emas, ayniqsa, u ichkarida sodir bo'lsa, chunki uning holatini aniqlash uchun aniq tasavvur yo'q. Texnologiyadan foydalanish bemorning tanasining ichki organlarining holatini tekshirish va tushunish uchun zarurdir. Ushbu texnologiyaning misoli MRT bo'lib, u tananing istalgan qismining vizual tasvirini yaratish uchun ishlatiladi. Bunday tasvir skanerlar, bemorlar yotadigan kuchli magnit maydon ichida zararsiz yuqori chastotali radioto'lqinlarni o'tkazuvchi qurilmalar yordamida olinadi. Maqsad ularning tanasining to'qimalarida reaktsiyani aniqlash va turli vaqtlarda ichki organlarning kulrang miqyosdagi rasmlarini yaratishdir. MRTni tahlil qilish jarayonida nevrologlar va rentgenologlar miyadagi bloklangan qon tomirlarining joylarini aniqlaydilar, bu ularning bemorlarida ishemik insult mavjuCHO’igini ko'rsatadi. Ushbu vazifa bemorlarga imkon qadar tezroq yordam berish uchun zarur bo'lgan tegishli davolanishni aniqlash uchun zararlangan hududning nisbatini aniqlash uchun juda dolzarbdir. Shunga qaramay, shifoxonalarda skanerlarning xilma-xilligi tufayli tasvirning yomon o'lchamlari va mutaxassislarning inson aralashuviga bo'lgan ehtiyoj kabi omillar natijalarni o'z vaqtida, to'g'ri talqin qilish va tasdiqlashga ta'sir qiladi, bemorlarning hayotiga ta'sir qiladigan qimmatli vaqtni sarflaydi. Boshqa tomondan, texnologiya tez sur'atlar bilan rivojlanib, odamlarga ko'p vaqt talab qiladigan qo'lda ishlarni bajarishda yordam beradigan asosiy vositalardan biriga aylandi. Chuqur o’rganish(CHO’) ob'ektni aniqlash bo'yicha muhim sa'y-harakatlarni, shuningdek, tibbiyot sohasida tasniflash vazifalarini bajarishda odamlardan ham samaraliroq ekanligini isbotladi. Masalan, uning ushbu sohadagi hissasi nafaqat insultni, balki miya shishi, Altsgeymer va Parkinson kasalliklarini ham aniqlashda ajoyib natijalarga olib keldi, bu esa shifokorlarga aniqroq tashxis qo'yishda yordam beradi. Muvaffaqiyatining asosiy sababi, asosan, CHO’ insonning o'rganish jarayoniga o'xshash yondashuvni qo'llab, KK va signallarni qayta ishlash vazifalarida ajoyib aniqlikka erishadi. Ushbu vazifalar orasida miya shishi va insultni aniqlash uchun chuqur neyron tarmoqlari (CHNT) yordamida MRT tahlili so'nggi yillarda qiziqarli natijalar berdi va natijani yaxshilash uchun yangi Neyron Tarmoq (NT) arxitekturalari taklif qilindi. Ko'pgina tadqiqotlarning hissasi istiqbolli natijalarga olib kelgan bo'lsada, ularning o'lchamlari, joylashishi va maydoni kabi insultning tabiiy elementlari mavjud modellar uchun butun dunyo bo'ylab bemorlar uchun aniq lezyon joylarini yaratishni qiyinlashtiradi.

    1. Motivatsiya

Bir necha sohalardagi bilimlarni texnologiya bilan birlashtirish ko'p yillar davomida hukmron bo'lgan umumiy muammolarni hal qilishda innovatsiyalarni olib kelishning kalitidir. Tibbiyotda bunday kombinatsiya natijasida bemorlarning hayotini saqlab qolish uchun kasalliklarning klinik diagnostikasi, oldini olish va davolashga nisbatan samaraliroq harakat qilish uchun mutaxassislarning javoblarini tezlashtirish uchun tibbiy tasvirni tahlil qilish paydo bo'ldi, chunki bu tibbiyotning asosiy maqsadlaridan biridir. Biroq, so'nggi o'n yillikdan beri tasvirni tahlil qilish uchun CHO’ning o'sishi qo'lda vazifalarni avtomatlashtirishga imkon berdi.
Tibbiyot sohasi va tadqiqotchilar doimiy ravishda takomillashtirilgan modellar, yangi mavjud ma'lumotlar bilan o'z hissalarini qo'shmoqdalar va kasalliklarni aniqlashni muntazam ravishda oshirish uchun NTlarni o'qitish jarayonida asosiy strategiyalarni taklif qilmoqdalar. Shunga qaramay, tibbiy tasvirni tahlil qilish tabiatan murakkab.
KNT arxitekturalari bilan amalga oshirilgan ommaviy nashrlarga qaramay, ko'pgina yechimlar piksel darajasidagi tasniflashda aniqlikni oshirish uchun yanada murakkab xususiyatlarni ajratib olishni amalga oshiradigan qo'shimcha bloklarga ega yangi arxitekturalarni o'z ichiga oladi. Keyinchalik, amalga oshirish jarayonida modelni optimallashtirish zaruriy qadamdir, chunki u samarali va qulay NT o'qitish uchun muhim xususiyatdir. ATLAS ma'lumotlar to'plamining asl nusxasi chiqarilgandan beri 2016-yilda tasvirni segmentatsiyalashning zamonaviy modellari maksimal 53% aniqlik haqida xabar berdi (D-Unet). Bunday cheklangan aniqlikka hissa qo'shadigan asosiy omillar orasida ma'lumotlar sifatining pastligi, ma'lumotlarning yetarli emasligi va muammoni hal qilish uchun mos modelning yo'qligi bor.
Xususan, yakuniy ishlashda nafaqat arxitektura dizayni hal qiluvchi rol o'ynaydi, balki modelni birlashtirishga muvaffaqiyatli yordam beradigan to'g'ri yo'qotish funktsiyalarini o'z ichiga olgan giperparametrlar ham muhimdir.
Haqiqatan ham, tibbiy tasvirlardagi sinfdagi nomutanosib umumiy muammoni hal qilish uchun bir nechta yo'qotish funktsiyalari ham qo'llanilgan, va so'nggi nashrlarning faqat bir nechtasi o'z tajribalarida vazn yo'qotish formulalarini o'z ichiga oladi. Yakuniy hisoblangan qiymatga individual elementlarning turli hissasi ta'sirini hisobga olgan holda, matematik formulalardagi og'irliklar muhim ahamiyatga ega. Shuning uchun, natijalarning yakuniy ishlashini baholash uchun vaznli taniqli yo'qotish funktsiyasining ta'sirini o'rganish ushbu dissertatsiyaning asosiy sababidir, chunki bu umumiy tavsiya etilgan arxitekturada birinchi bosqich uchun etarli ishlashga olib kelishi mumkin.

    1. Muammo bayoni

Insult turli xil sharoitlar tufayli yuzaga keladi, ammo ular sodir bo'lganda tez tibbiy yordam jarohatlangan odam uchun asosiy turmush tarzi oqibatlarini kamaytirish uchun muhimdir.. Biror kishi to'satdan nutq, ko'rish va harakat muammolari, bosh aylanishi, ba'zi ekstremitalarda uyqusizlik yoki aldanma kabi atipik alomatlarni boshdan kechirganda, kasalxonaga tashrif tibbiy holatni tashxislash uchun juda dolzarbdir, chunki ular ko'pincha insult belgilari bilan bog'liq.
Bunday hollarda mutaxassislar uchun bemorning yakuniy tashxisini aniqlash va chora ko'rishni boshlash uchun vaqt juda muhimdir. Bemorlarda qon tomirlarining tez va aniq lokalizatsiyasi mutaxassislar uchun to'g'ri tashxisni aniqlash, ta'sirlangan miya to'qimalarining ko'p qismini qutqarish strategiyasini aniqlash va bemorning motor funktsiyalarini tiklash uchun tegishli terapiyani o'rnatish uchun juda muhimdir. Ushbu tahlil qiyin vaziyatlarni o'z ichiga oladi, chunki bu jarayon to'liq mutaxassislar guruhiga bog'liq bo'lib, asosiy muammo nima ekanligini har bir bemorning MRTni vizualizatsiya qilish va lezyon paydo bo'lgan miya mintaqasini lokalizatsiya qilish orqali muhokama qilinadi. Butun tahlil jarayoni quyidagi muammolarni ko'rsatadi:
1. Subyektiv tahlil. Bir guruh mutaxassislar odatda ma'lumotni kuzatish va bemorning tasvirlarini tahlil qilish uchun to'planishsa-da, ular oxirida kelishuvga kelishadi va mumkin bo'lgan tashxis haqida qaror qabul qilishadi. Biroq, bu jarayonga bunday guruhning fikri katta ta'sir ko'rsatadi va buning uchun yakuniy qaror qabul qilishdan oldin u ko'proq odamlarning roziligini talab qiladi. Bundan tashqari, bu holat to'liq nazorat qilinadi va o'nlab bemorlarni ko'rib chiqish juda mashaqqatli va ko'p vaqt talab qiladigan ish bo'lib qoladi, ayniqsa insultning o'lchami, joylashuvi va shakli har bir bemorda mutlaqo boshqacha bo'lishi mumkinligini hisobga olsak. o'z holatini baholash uchun individual tahlilni talab qiladi.
2. MRT o'lchamlaridagi farq. Kasalxonalarning o'z tibbiy jihozlari borligi va rentgenologlar va nevrologlar bemorlardagi anomaliyalarni ko'rish uchun joylarda dasturiy ta'minotdan foydalanishlari aniq. Darhaqiqat, shifoxonalarda bunday muammolarni yaxshiroq baholash uchun tibbiy tasvirni vizualizatsiya qilish vositalari mavjud, chunki bu samarali tashxis qo'yish uchun zarurdir. Shunga qaramay, asosan 2D kulrang tasvirlardagi sifatsiz, o'lcham va piksellar sonini kichik jarohatlari bo'lgan bemorlar bilan og'rigan bemorlar o'rtasidagi farqni qiyinlashtiradi va albatta odamlarning o'ziga xos a'zolari bo'yicha xilma-xilligi muammoning murakkabligiga yana bir o'zgaruvchi bilan yordam beradi.
3. Avtomatik kompyuter yordamida tashxis qo'yish uchun ishonchli ma'lumotlarning etishmasligi.Ma'lumotlarni himoya qilish, so'nggi paytlarda olingan dolzarbligi bilan, ehtimol, nozik va shaxsiy ma'lumotlarni o'z ichiga olgan ma'lumotlar to'plamini chiqarishda hal qilinishi kerak bo'lgan eng jiddiy mavzulardan biridir. Shaxsning shaxsini aniqlash uchun ma'lumotlarning kuzatilishi mumkin emasligini ta'minlash, asosan, tibbiy sohada qiyinchilik tug'diradi, bu erda ma'lumotlarning aksariyati DICOMda tasvir sifatida saqlanadi yoki NIfTI formatlari, bemor ma'lumotlari uchun tibbiy standartdir. Shu sababli, shaxslarni identifikatsiyalashga olib keladigan har qanday nozik ma'lumotlarni o'chirish uchun qo'shimcha jarayon, ma'lumotlarni ishlab chiqarish jarayonida qo'shimcha takomillashtirish talab etiladi.
ATLASda lezyon segmentatsiyasi kabi ommaviy ma'lumotlar to'plamini o'z ichiga olgan ma'lumotlar bilan bog'liq taniqli musobaqalarga qaramay ushbu loyihada foydalanilgan ma'lumotlar to'plami, ma'lumotlarning sifati va miqdori ishonchli natijalarni olish uchun yetarli emas edi; va CHO’ usullarini tadqiq qilish va takomillashtirish uchun katta hajmdagi ma'lumotlarni ishlab chiqarish uchun mutaxassislardan katta kuch talab etiladi. Shuning uchun, ta'sirlangan miya to'qimalarining hajmini, joylashishini va atrofini samarali ko'rsatish uchun har bir bemor uchun yuzlab ketma-ketlikni ko'rib chiqish, CHO’ ishtirok etishi mumkin bo'lgan asosiy vazifani anglatadi, bu kasalxonada qo'l kuchini kamaytirish, kamaytirish va kamaytirish uchun ish yuki va hatto mutaxassislar natijalarini yaxshilash.
1.3 Tadqiqot savollari
Oldingi sabablar MRT tahlili nima uchun tibbiyot va texnologiyada dolzarb muammo ekanligini ko'rsatadi. Bemorlarning MRT tasvirlari ketma-ketligini ko'rib chiqish orqali insultlarni lokalizatsiya qilishning dolzarbligi shifoxonalardagi rentgenologlar va nevrologlarga yanada samaraliroq baholash uchun yordam berishdir.
Shunday qilib, ushbu vazifaning natijasini yaxshilash uchun tadqiqot va so'nggi zamonaviy tasvirni segmentatsiyalash usullari ishlab chiqildi. Xususan, ushbu dissertatsiyaning segmentatsiya modellari bilan bog'liq asosiy tadqiqot savoli ushbu o'quv vazifasini bajarishda yuqori aniqlikni ta'minlaydigan eng samarali NT arxitekturasini tushunishga, shuningdek, joriy natijalar bo'yicha ishlashni baholash uchun qo'shimcha strategiyani o'rganishga intiladi. Savollar quyidagicha:
1. Mutaxassislarning aralashuvisiz insultli bemorlarda miya lezyonlarini lokalizatsiya qiluvchi mavjud kodlovchi dekoderga asoslangan CHO’ arxitekturalarining ishlashi qanchalik yaxshi?
2. ATLAS [[object Window]]ni hisobga olgan holda insultni aniqlashda kodlovchi-dekoderga asoslangan CHO’ moslashtirilgan arxitekturasining ishlashi qanchalik ma'lumotlar to'plami to'g'ri?
3. Og'irlangan BCEDiceLoss joriy kodlovchi-dekoder arxitekturalari bilan insultni lokalizatsiya qilish aniqligiga qanday ta'sir ko'rsatadi (ya'ni, har bir alohida funktsiyaga har xil hissa qo'shadi).
1.4 Hissalar Quyidagi ro'yxat ushbu dissertatsiyaning hissalarini ko'rsatadi:
• Ikki bosqichli tasvirni segmentatsiyalash tizimini dastlabki ishlab chiqish (i) maqsadi bemorlarda miya shikastlanishini aniqlash bo'lgan tasvirni segmentatsiyalash modeli va (ii) oldingi bosqich natijalarini baholash uchun tasniflash modelidan iborat. natijalar.
• Segmentatsiya vazifasida CNNni o'rgatish uchun vaznli BCEDiceLoss yo'qotish funksiyasidan foydalanish. insult tasvirini segmentatsiyalash bilan bog'liq ba'zi nashrlar o'z tajribalarida BCEDiceLoss dan foydalangan, ularning hech biri samaradorlikni baholash uchun vaznli formuladan foydalanishni o'rgatmagan. Aslida, Caranet vaznli deb nomlangan shunga o'xshash ko'rsatkich hisoblanadi. Shu sababli, g'oya yo'qotish funktsiyasining bir qismi sifatida ushbu ikkita giperparametrni qo'shish, uning asosiy funktsiyalarida turli hissa qo'shgan yakuniy yo'qotish qiymatini hisoblash ta'sirini o'rganish va o'rgatish mumkin bo'lgan model parametrlarini oshirmasdan yakuniy aniqlikka ta'sirini baholashdir.
2-bob. Nazariy ma'lumotlar
2.1 Tibbiyot sohasida insult Insult dunyodagi ikkinchi eng xavfli kasallik bo'lib, u har doim inson hayoti va sog'lig'iga zarar yetkazadigan asosiy sabablardan biri bo'lib kelgan. Umuman olganda, insultning ikkita asosiy turi mavjud: (i) gemorragik, miya qon tomirlari yorilib, qon zararlangan hududga ta'sir qilganda paydo bo'ladi va (ii) ishemik, bu miya qon tomirlari to'sib qo'yilganda sodir bo'ladi va qon oqishini va miyaning boshqa qismlariga yetib borishini oldini oladi. Qon tomirlarining eng keng tarqalgan holatlariishemikva asosiy tashvish shundaki, ular uzoq vaqt davomida ustunlik qilsalar, ular joylashgan to'qimalarning mahalliy o'limiga olib kelishi mumkin, chunki ular bemorlarning motor funktsiyalariga qaytarilmas zarar yetkazishi mumkin. Qon tomirlarini tavsiflovchi ikkita asosiy mintaqa mavjud: infarkt yadrosi va yarim soya. Birinchisi, qaytarilmas ta'sirlangan va endi tirik bo'lmagan to'qimalarga tegishli bo'lsa, ikkinchisi, agar unga qon tezda yetkazib berilsa, tiklanishi mumkin bo'lgan to'qimalarga ishora qiladi. Nevrolog va rentgenologlarning tezkor reaktsiyasi samaradorligini aniqlashda muhim ahamiyatga ega yarim soya, zararni baholash va iloji boricha buzilgan miya to'qimasini saqlab qolish uchun bemorlar tomonidan talab qilinadigan eng adekvat terapiyani aniqlash.
2.2 Qon tomirlarini tahlil qilish uchun tibbiy rasmlar tekshirish va tushunish bilan boshlash uchun yarim soya, mutaxassislar biomedikal tasvirlarga tayanadilar: rentgen, MRT va KT. Bu ichki to'qimalarni yaxshiroq vizualizatsiya qilishni ta'minlaydigan mashhur tibbiy tasvirlarning namunalari.
Umuman olganda, rentgen nurlari yoriqlar va suyaklarning siljishi uchun, o'smalar uchun KT, saraton va insultni aniqlash uchun va insultni tahlil qilish uchun MRT ishlatiladi. Tasvirning turi butunlay shifoxonalardagi tibbiy jihozlarga bog'liq bo'lsa-da, KT miya oqimini tahlil qilish uchun eng sevimli tanlov bo'lib qolmoqda, chunki u tanadagi suyaklar, yumshoq to'qimalar va qon tomirlari tasvirlarini yaratadi.
Biroq, u hali ham MRT tomonidan qo'llaniladigan cheklovlarni taqdim etadi ishemik insultni aniqlash, chunki u miyani yaxshiroq vizualizatsiya qilish uchun yetarli ruxsatga ega tasvirni yaratadi. Printsipial jihatdan MRTning funksionalligi radiochastota va kuchli magnit maydonlarga asoslangan. MRT skaneri kuchli magnit maydon hosil qilish uchun mas'uldir, so'ngra tananing har qanday qismining kulrang shkalasi tasvirlarini yaratish uchun turli intensivlikdagi radio signalini o'tkazadi. MRTdan foydalanishning afzalliklaridan biri shundaki, uning to'lqin chastotasi rentgen va KT qanday ishlashidan farqli o'laroq, odamlar uchun zararsizdir.
MRTning yana bir afzalligi shundaki, u suvga sezgir, ya'ni u kasalliklarni aniqlay oladi, chunki ko'p hollarda ular bemorlarda turli darajadagi suv miqdori tufayli aniqlanadi va miyadagi ta'siri shundaki, u o'rtasidagi farqni ko'rinadigan qiladi.
MRT tasvirlarini uchta asosiy tekislikka bo'lish mumkin: eksenel, sagittal va koronal. 2.1-rasmda MRTning har bir tekisligiga misol keltirilgan.

2.1-rasm:MRTning eksenel, sagittal va koronal tekisliklari
Radiochastotali impulslar (Vaqtni takrorlash) to'qimalarga qo'llaniladigan vaqt oralig'iga va signal qabul qilinadigan vaqt oralig'iga (Time Echo) qarab MRT ketma-ketliklarining turli turlarini olish mumkin. Eng keng tarqalganlari T1 vaznli va T2 vaznli tasvirlar. Birinchisi ikkalasi uchun ham vaqt kelganda olinadi TR va TE qisqa (500 ms va 14 ms), ikkinchisi esa ikkala ko'rsatkichda (4000 ms va 90 ms) uzoqroq vaqt bo'lganda natijani ko'rsatadi. Qo'shimcha ketma-ketlik chaqirildi Flair ikkalasi ham hosil bo'ladi. TR va TE ancha uzunroq (9000 ms va 114 ms) [62]. 2.2-rasmda bunday ketma-ketliklarga misol keltirilgan.

2.2-rasm:MRT ketma-ketligi
Ushbu turdagi neyrotasvirlar (rentgen, KT va MRT) ishemik insultni aniqlashni osonlashtirish uchun qo'llanilsa-da, ular aniqlanishi mumkin bo'lgan tashxisni ta'minlay olmaydi va yarim soyamiya to'qimalaridagi hudud. Natijalarning yakuniy talqini, tashxisni aniqlash va bemorlar uchun kerakli davolanish to'liq inson mehnati bo'lib qolmoqda. Saarbryukendagi kasalxonada nevrologning ko'rsatmalariga ko'ra, natijalarning odatiy tahlili quyidagicha: birinchi navbatda, rentgenologlar joyidagi dasturiy ta'minotdan foydalangan holda tibbiy tasvirlarni ko'rib chiqadilar, so'ngra o'z kuzatuvlarini nazoratchilar bilan baham ko'radilar, keyin esa ularni mas'ul nevrologlarga topshiradilar. Natijalarni yakuniy tushuntirish uchun. Tasvirlarni tahlil qilish uchun maxsus dasturiy ta'minot mavjud bo'lishiga qaramay, hali ham ba'zi qiyinchiliklar mavjud
(i) kasalxonalardagi skanerlarning xilma-xilligi tufayli tasvirning yomon o'lchamlari, (ii) tibbiy asbob uskunalar sabab bo'lgan noto'g'ri ta'kidlangan miya zonalari, (iii) bemorlarda insultni qo'lda lokalizatsiya qilish uchun mutaxassislar mehnatini talab qilish kabi.
Shunday qilib, natijalar hisobotining ishonchliligi, bu ishni bajarish uchun mas'ul bo'lgan tajribali mutaxassislarga qaramasdan, sub'ektiv in'ikos hisoblanadi. Aksincha, texnologiya tez rivojlanib, odamlarga ko'p vaqt talab qiladigan vazifalarni bajarishda yordam beradigan asosiy vositalardan biriga aylandi. Masalan, tibbiy sharoitda uning hissasi nafaqat insultni, balki miya va o'pka shishlarini ham aniqlashda ajoyib natijalarga olib keldi va shifokorlarga aniqroq tashxis qo'yishga yordam berdi.
Ushbu foydaning sababi Dissertatsiya va signallarni qayta ishlashga tayanadi, chunki ular inson darajasidagi turli vazifalarni bajarish uchun keng qo'llaniladi va so'nggi yillarda CHO’ klinik sharoitlarni aniqlash va tasniflash orqali bir nechta modellar bilan yanada samaraliroq ekanligini isbotladi.
2.3 Kompyuter bilan ko'rish
Kompyuterni ko'rish (KK) - bu sun'iy intellektning kichik sohasi bo'lib, uning asosiy maqsadi kompyuterlarga rasm va videolar kabi tuzilmagan ma'lumotlardan muhim ma'lumotlarni olishga imkon berish, vizual elementni yaxshiroq tushunishni ta'minlash va odamlarga ob'ektdan muayyan vazifalarni bajarishda yordam berishdir. tasvirlardagi tasniflash videolardagi ob'ektlarni kuzatish. KK o'z maqsadiga erishish uchun CHO’ modellariga tayanadi va bu formatlardagi mavjud ma'lumotlar miqdori tufayli ko'plab sohalarda bir nechta ilovalarga ega. Hissalar hali ham zamonaviy texnologiyalarda sezilishi mumkin; masalan, o'zi boshqaradigan mashinalar. Quyida Dissertatsiyani qo'llashning to'rtta asosiy yo'nalishi keltirilgan:
2.3.1 Tasniflash
Tasniflash - bu CNN faoliyati sezilarli natijalarga erishgan sohalardan biridir. Oddiy qilib aytganda, bu vazifa tasvirlardagi ob'ektlarni aniqlash va ularga "mashina", "it" yoki "mushuk" kabi yorliq (sinf) berishdan iborat. Darhaqiqat, 2012 yildan beri o'tkazilgan ko'plab musobaqalar tadqiqotga ImageNet, MNIST, CIFAR, COCO kabi ommaviy ma'lumotlar to'plamidan foydalanishga imkon berdi, bu kabi sa'y-harakatlarni yaxshilash maqsadida yanada murakkab arxitekturalarni ishlab chiqish. Ushbu dastur tibbiy kasalliklar diagnostikasida, ayniqsa saraton va insultda keng qo'llaniladi.
2.3.2 Belgilash.
Belgining ma'lum bir tasvirni o'z ichiga olgan ob'ektlar asosida tavsiflash uchun inson darajasidagi tushunchalar to'plamini qo'shishga harakat qiladi. Ushbu ilovaning namunasi qidiruv tizimlarida qo'llaniladi, chunki foydalanuvchilar odatda qidirmoqchi bo'lgan narsalarni yozadilar.
2.3.3 Ob'ektni aniqlash
Aniqlash tasvir ichidagi ob'ektning joylashuvi bilan bog'liq bo'lib, nishon atrofidagi chegara qutisini o'rab oladi va bu kompyuterni ko'rishning turli vazifalari, masalan, misollarni segmentlash, tasvirga sarlavha qo'yish va ob'ektni kuzatish, bir nechtasini eslatib o'tish uchun asosdir.
2.3.4 Segmentatsiya
Segmentatsiya tasvirdagi guruhlar yoki hududlarni (semantik segmentatsiya) hosil qilish uchun tasvirlarni piksel darajasida tasniflash, ajratilgan alohida ob'ektlarni (masalan, segmentatsiya) yoki ikkala strategiyani birlashtirish (panoptik segmentatsiya) ichidagi ob'ektlarning shaklini ajratib ko'rsatish muammosini hal qiladi. Ushbu usulning natijasi qiziqish ob'ekti joylashgan piksellarni o'z ichiga olgan tasvirdir. Semantik segmentatsiya tasvirning har bir pikselini ob'ekt toifalari guruhiga tegishli teg bilan tasniflaydi. Ushbu natijaning natijasi ushbu aniq yorliqga tegishli tegishli piksellarni ajratib ko'rsatish orqali ob'ektning joylashishini ko'rsatadigan tasvir va tibbiy sohada tasvirdagi turli sinflarning lokalizatsiyasini bilish juda muhim, chunki u o'rtasidagi farqni ta'minlaydi.
Qo'shimcha tashxis qo'yish uchun tahlil qilinishi kerak bo'lgan to'qimalar. Patologiyada semantik segmentatsiya bemorning tasvirlarini tahlil qilish va o'smalarning lokalizatsiyasini aniqlash uchun ishlatiladi. Xuddi shunday,misol segmentatsiyasi shuningdek, tasvir ichidagi alohida piksellarni guruhlarga ajratadi; ammo, bu usul qo'shimcha ravishda bitta sinfga tegishli piksellarning noyob nusxalarini aniqlay oladi.
Semantik segmentatsiya barcha piksellarni, masalan, tasvirdagi besh kishini aniqlashi mumkin bo'lsada, misol segmentatsiyasi har bir shaxsning piksellarini aniqlay oladi. Panoptik segmentatsiya semantik segmentatsiya va misol segmentatsiyasini vizual aniqlash vazifalari uchun yagona jarayonga birlashtiradi. Ushbu usul ikkita keng sinfni ajratib turadi: narsalar sinflar va narsa sinflar. Shu bilan birga narsa sinf odamlar, mashinalar, hayvonlar va boshqalar kabi sanaladigan ob'ektlarni o'z ichiga oladi), narsalar sinfi deganda sanab bo'lmaydigan ob'ektlar, masalan, osmon, o'simliklar, yo'l va ba'zi hollarda binolar tushuniladi, ular hali ham sanab o'tiladi, lekin muayyan vazifalarda farqlash uchun ahamiyatsiz.
2.4 Sun'iy intellekt
Sun'iy intellekt (SI) muammoni hal qilishda oqilona insoniy jarayonga o'xshash jarayonni amalga oshiradigan qurilish mashinalari haqidagi fan va muhandislik sifatida ta'riflanadi. Ushbu sohaning g'oyasi tasvirlar, videolar, nutq, matnni tahlil qilish va boshqa sohalarga hissa qo'shish kabi kundalik murakkab faoliyatni avtomatlashtirishni topishdir. SI - bu mashinani o'rganish (MO’) va chuqur o'rganish (CHO’) ni qamrab oluvchi kengroq spektr.
2.4.1 Mashinani o'rganish
MO’ - bu sun'iy intellektning kichik to'plami bo'lib, unda mashinalar o'zlarining bilimlarini yaratish uchun ma'lumotlarga yashirin naqshlarni oladilar, bu ularga inson aralashuvisiz muayyan vazifani bajarish va yaxshilash imkonini beradi. MO’ o'rganish uchun mavjud ma'lumotlarga qo'llaniladigan statistik usullar va algoritmlarga asoslanadi. Mashina muayyan vazifani hal qilish uchun ma'lumotlarning ko'p qismini ifodalovchi asosiy xususiyatlarni chiqaradi; ammo, MO’ni jozibador va qiziqarli qiladigan narsa uning o'rganish vazifasini yaxshilash uchun bashorat qilishdagi xatolarni minimallashtirish orqali yanada mazmunli ma'lumotlar xususiyatlarini olish uchun o'z-o'zidan moslash qobiliyatidir. MO’ ilovalari orasida spamni aniqlash, video tavsiyalar, tasvirlarni tasniflash, matnni qazib olish.
2.4.2 Chuqur o'rganish
Xuddi shunday, CHO’ murakkab muammolarni hal qilish strategiyasining bir qismi sifatida dizaynida bir necha qatlamlarga ega bo'lgan sun'iy neyron tarmoqlari (SNT) deb ataladigan hisoblash modellarini o'z ichiga olgan MO’ning kichik to'plamidir. CHO’ ortidagi g'oya shundan iboratki, arxitekturaning birinchi qatlamlari past darajadagi xususiyatlarni chiqaradi, oxirgi qatlamlar esa yuqori darajadagi xususiyatlarni chiqaradi. Tibbiyot sohasi CHO’ni qo'llashdan foyda ko'rdi, ayniqsa tibbiy tasvirlashda, radiatsiya onkologiyasi, patologiya, kardiologiya va dermatologiya.
Chuqur o'rganishning jadal rivojlanishiga hissa qo'shgan yana bir omil - ommaviy izohli ma'lumotlar to'plamining paydo bo'lishi, shuningdek, CHO’ modellarini tezroq o'qitish jarayoni uchun GPU-ning parallel hisoblashlari. CHO’ yondashuvlarining toifalari odatda quyidagicha:
1) Nazorat ostidagi ta'lim. Ushbu usul eng ko'p qo'llaniladi, chunki u qaysi qonuniy chiqish kirish ma'lumotlariga mos kelishini ko'rsatish uchun etiketli ma'lumotlarni talab qiladi. G'oya shundan iboratki, bu asosli haqiqat model uchun iterativ ravishda uning bashorati va to'g'ri qiymat o'rtasidagi xatolikni (yo'qotish funktsiyasi) kamaytiradigan optimal yechimni topish uchun asosdir. Ushbu yondashuvning soddaligi etarli ma'lumotlar mavjud bo'lganda mos modelni topishga imkon beradi, ammo uning etishmasligi model natijasiga salbiy ta'sir ko'rsatishi va istalmagan natijalarga olib kelishi mumkin.
Ushbu amalga oshirishga misollar takroriy neyron tarmoqlari (TNT), konvolyutsion neyron tarmoqlari (KNT), chuqur neyron tarmoqlari (CHNT), uzoq qisqa muddatli xotira (UQMX) va eshikli takroriy birliklar (ETB). Shunga qaramay, ushbu dissertatsiyada asosiy e'tibor KNTlarga qaratilgan, chunki bu insultni aniqlash uchun ishlatiladigan CHO’ usuli.
2) Nazoratsiz o'rganish. Ushbu yondashuvda belgilangan ma'lumotlar yo'q va model o'zi tomonidan model tomonidan aniqlangan tegishli xususiyatlardan munosabatlarga ko'ra chiqishni aniqlaydi. Klasterlash va o'lchamlarni qisqartirish bu yondashuvga misoldir. Avto-kodlovchilar ushbu toifadagi NT arxitekturalarining yana bir misolidir.
3) O'rganishni mustahkamlash. Ushbu yondashuv nazorat ostidagi va nazoratsiz o’rganishdan farq qiladi, chunki bu yerda model natija olish uchun atrof-muhit bilan o'zaro ta'sir qiladi.
Maqsad natijalarni maksimal darajada oshiradigan fikr-mulohazalar asosida muammolarni hal qilish va jarayon davomida yondashuvni yaxshilashdir. Ba'zi xatti-harakatlar uzoq muddatli natija olib kelganda yoki hatto eng yaxshi yondashuvni aniqlashga harakat qilganda, masalan, video o'yinlarda o'rganishni kuchaytirish foydali bo'ladi. 2.3-rasmda SI, MO’ va CHO’ o'rtasidagi munosabatlar tasvirlangan.

2.3-rasm:SI, MO’ va CHO’ o'rtasidagi munosabatni ifodalash [41].
2.5 Sun'iy neyron tarmoqlari
Avvalroq ta'kidlanganidek, CHO’ yondashuvi insonning o'rganish jarayoni bilan o'xshashligiga asoslanadi. Uning qanday ishlashini tushunish uchun miyaning ichki jarayonini va u qanday o'rganishini tushuntirish kerak. Miya inson tanasidagi eng sezgir va murakkab organ bo'lib, u yerda insonning o'rganish jarayoni sodir bo'ladi. Unda neyronlar deb ataladigan juda ko'p sonli mayda hujayralar tashqi ma'lumotni dendritlar deb ataladigan ba'zi shoxchalar orqali oladi, ular yadrolarida qayta ishlanadi va elektr impulslari orqali hujayra aksoni orqali signalning tarqalishi va boshqa neyronlarga yetib borishiga imkon beradi. Bir-biriga bog'langan neyronlarning bu ulkan kengayishi inson miyasida yashovchi hujayralarning keng tarmog'ini ifodalaydi. Bitta neyronning asosiy vazifasi shunchaki javob hosil qilish uchun tashqi stimulni qayta ishlash va keyin uni keyingi qayta ishlash uchun boshqa neyronlarga o'tkazishdir.
Biroq, neyronlar qabul qilingan ma'lumotlarga qarab o'z javoblarini o'zgartirishga qodir bo'lganda, biz buni haqiqiy o'rganish sodir bo'lganda deb aytishimiz mumkin. Bitta neyronning hissasi minimal bo'lib tuyulishi mumkin bo'lsada, aql bovar qilmaydigan tezlikda ma'lumot almashish jarayonida parallel ravishda qo'zg'atiladigan bir nechta neyronlarni hisobga olsak, bu jarayonning ta'siri ajoyibdir.
Xuddi shunday, sun'iy neyron tarmoqlari (SNT) biologik neyron tarmoqda sodir bo'ladigan ajoyib inson darajasidagi o'rganish jarayonini taqlid qilishga harakat qiladi va ularning dizayni ushbu kompozitsiyaga asoslanadi. Birinchidan, ba'zi kirishlarni qabul qiladigan neyron ekvivalenti bo'lgan yagona birlik jarayoni mavjud, keyin bu kirishlar javob hosil qilish va qo'shni birliklarga uzatish uchun ushbu birlik ichida sodir bo'lgan operatsiya orqali qayta ishlanadi va nihoyat, barcha birliklar tartibga solinadi, tarmoq yaratish uchun guruhlarga bo'linadi. Biologik tarmoq va SNT o'rtasidagi o'xshashlikni 2.4-rasmda ko'rish mumkin.

2.4-rasm:Biologik (a) va sun'iy (b) neyron tarmog'ining namoyishi
Binobarin, SNT turli xil murakkab muammolarni hal qilishda boshqacha yondashuvni ta'minlaydi. Ular mustahkam nazariy va statistik asosga ega, bunda usul tarmoqqa berilgan bir nechta misollar asosida yechim topishdan iborat. Ushbu oddiy, ammo juda kuchli protsedura turli sohalarda, jumladan ma'lumotlar jarayoni, kompyuterni ko'rish va hatto matnni tahlil qilishda yechimlarni qo'llash imkonini beradi. Garchi inson miyasi qanday ishlashi haqida ko'proq tushunish uchun sezilarli yaxshilanishlar bo'lgan bo'lsada, SNTda qo'llaniladigan matematik tasvir bunday metodologiyaga tayanish uchun yetarli bilim beradi.
SNT yordamida muammoni hal qilish mumkinligini aniqlash uchun bir qator omillarni baholash kerak, masalan:
(i) tarmoqni o'qitish uchun ma'lumotlarning mavjudligi va yetarliligi;
(ii) muammoning yechimi oddiy emasmi va murakkab modellashtirishni talab qiladimi;
(iii) yangi va ko'rilmagan kiruvchi ma'lumotlarni oqilona tezlikda qayta ishlash uchun ishlatilishi mumkin bo'lgan umumiy yechim kerakmi yoki yechimning vaqt talablari doirasida yoki kata hajmdagi ma'lumotlar optimal ishlov berish javobini talab qiladimi;
(iv) modeldagi mustahkamlik ma'lumotlardagi anomaliyalarni qabul qilish uchun yetarlimi (xatoga chidamli dizayn).
Sun'iy neyronlar SNTning asosidir. Ushbu neyronlar individual hisoblash uchun javobgardir va boshqa neyronlar guruhi bilan o'zaro bog'lanish orqali natijalarni kengaytiradi. Ushbu yagona birlik ikki turdagi parametrlarni o'z ichiga oladi: kirishlar, ma'lumotlar yoki boshqa qatlamlarga ulanishlar bilan bevosita bog'liq bo'lgan tashqi qiymatlar va og'irliklar.
Kirishlar soni butunlay model dizayniga bog'liq, lekin asosan neyron mavjud n+1 kirishlar soni, bu yerda naniq kirishlar sonini va chaqirilgan qo'shimcha elementni ifodalaydi tarafkashlik qo'shiladi. SNTni loyihalash tamoyillariga rioya qilgan holda, neyronning har bir kirishi o'rganish jarayonida hisoblangan mos keladigan og'irlik qiymatiga ega. Neyronning javobi ijobiy yoki salbiy bo'lishi mumkinligi sababli, og'irliklar ham har qanday ijobiy yoki salbiy qiymatni olishi mumkin. Yakuniy kirish qiymatini olish uchun hisob-kitob har bir kirish va ularning mos keladigan og'irligi orasiga mahsulotni qo'shishdan iborat bo'ladi, shu jumladan noto'g'ri atama. Yakuniy qiymat neyronning chiqish signalini ishlab chiqarish va uning traektoriyasini chiqish qatlamiga davom ettirish uchun faollashtirish funktsiyasiga o'tkaziladi.
Misol uchun, agar neyronda 5 ta kirish bo'lsa, yakuniy natija yig'indisi bo'ladi Chiqish=kiritish1∗vazn1+kiritish2∗vazn2+...+kiritish5∗vazn5+1(tarafkashlik)
Ushbu kirishni hisoblashning umumiy formulasi formulada ko'rsatilgan:
∑d kirish signali= wixi+tarafkashlik
i=1
2.5.1 Faollashtirish funksiyalari
Neyronning yadrosidagi operatsiya murakkab muammoni hal qilishni modellashtirish uchun muhim ahamiyatga ega. Ushbu funktsiya faollashtirish funktsiyasi deb ataladi va kirish qiymatlarini arxitekturaning ketma-ket qatlamlariga o'tkaziladigan chiqish javobiga aylantirish uchun javobgardir. SNTda, ma'lum bir neyrondagi faollashtirish funktsiyasining kiritilishi, yuqorida aytib o'tilganidek, har bir kirishning tegishli og'irligi bilan og'irlikdagi yig'indisidir. Funktsiya ushbu qiymatni oladi va yakuniy natijani beradi. Hozirgi vaqtda turli xil ma'lumotlar formatlarining mavjudligi juda katta va SNT nafaqat raqamlarni, balki matn, tasvir, video, audio va hokazolarni ham tahlil qilishi kutilmoqda. Shu sababli chiziqli bo'lmagan funksiyani tanlash modelni yaratishga yordam beradi.
Muammoni yaxshiroq tasvirlaydigan yanada murakkab munosabatlar. Turli xil faollashtirish funktsiyalari butun tarmoq dizayni orqali bir nechta qatlamlarda ishlatilishi mumkinligiga qaramasdan, yashirin qatlamlar uchun bitta turni va chiqish qatlami uchun boshqasini o'rnatish odatiy holdir. Faollashtirish funktsiyalariga misollar quyidagilar:
1-Sigmasimon: Odatda chiqish qatlamida tasniflash uchun ishlatiladi. Bu funksiyaning natijasi ehtimolliklarni koʻrsatish uchun 0 dan 1 gacha oʻzgarib turadi, bunda 0 A sinfiga kirmaslik ehtimolining 0% va 1 A sinf boʻlish ehtimolining 100% ni bildiradi. 2.5-rasmdagi formula va uning koʻrinishi quyida keltirilgan:
1 f(x) = 1 + e-x

2.5-rasm:Sigmasimon funktsiya
2-Tangens: Bu giperbolik tangens funktsiyasi bo'lib, u odatda tarmoqning yashirin qatlamlarida qo'llaniladi. Tangensga o'xshash xatti-harakatlarga ega Sigmasimon funktsiyaning yagona farqi kelib chiqishi atrofida simmetrik bo'lib, bu chiqish keyingi qatlamlarga o'tkazilishi mumkin bo'lgan ijobiy yoki salbiy qiymatlarni olishi mumkinligini ko'rsatadi. Boshqacha qilib aytganda, uning qiymatlari -1 dan 1 gacha. Formula quyidagicha aniqlanadi:
ex-e-x
ex+e-xf(x) =
Tangens ma'lum bir yo'nalishda o'zgarishi bilan cheklanmagan gradientlarga ega, shuningdek, u nol markazlashtirilgan.Tangens 2.6-rasmda ko'rsatilgan.

2.6-rasm:Tanhens funktsiyasi
3-ReLu: ReLU uchun turadi Rektifikatsiya qilingan chiziqli birlik va u SNTning yashirin qatlamlarida keng qo'llaniladi, chunki uning o'qitish tezligi boshqa faollashtirish funktsiyalariga qaraganda tezroq. Uning qiymatlari [0 dan iborat,∞) va shuning uchun olingan qiymatga qarab neyron faollashtirilgan yoki yo'qligini ko'rsatish haqiqatan ham foydalidir. Misol uchun, har qanday salbiy qiymatlar uchun neyronlar o'chiriladi, ijobiy raqamlar uchun esa neyronlar natijalariga qarab bir nechta mos qiymatlarga ega bo'lishi mumkin. Quyida formula aniqlangan va chizma 2.7-rasmda ko'rsatilgan. f(x) = maksimal (0, x)

4-Softmax: Softmax funksiyasi tasniflash uchun chiqish qatlamida keng qo'llaniladi, shuningdek Sigmasimon funktsiyasi. Faqatgina farq shundaki Softmax ko'p sinf tasnifi uchun ishlatilishi mumkin va umumiy qiymat 0 dan 1 gacha bo'lib, belgilangan har bir alohida sinf uchun ehtimollikni ko'rsatadi. Ya'ni, agar model bashorat qilishga harakat qilsa sinflar, tarmoqning chiqish qatlami bo'ladi. Har bir sinf uchun ehtimollikni o'z ichiga olgan neyronlar va ehtimolliklarning umumiy yig'indisi 1 ga teng. Softmax2.8-rasmda ko'rsatilgan

2.8-rasm:Softmax funktsiyasi
5-Leaky ReLu: Bu funksiya shunga o'xshash ReLu musbat raqamlar uchun, lekin manfiy qiymatlar uchun biroz farq bor, bunda funktsiya ularni kichik konstantaga (ya'ni 0,01) ko'paytirish orqali nolga yaqin kichik qiymatlarni qaytaradi. Muvaffaqiyatli stsenariylarda oqayotgan ReLu ishlatilgan bo'lsada, izchil natijalarga kafolat yo'q . 2.9-rasmdagi formula va chizma quyidagicha ko'rsatilgan:
--ax, agar x <0, a=0.01
Agar x=2
Leaky ReLU=-x,

2.9-rasm:Leaky ReLu funktsiyasi
SNT dizaynida faollashtirish funksiyasini tanlashda quyidagi fikrlardan ba'zilari foydalidir:
• Sigmasimon funktsiya odatda ikkilik tasniflash muammolari uchun ishlatiladi.
• Softmax funktsiya odatda ko'p sinfli tasniflash muammolari uchun ishlatiladi.
• ReLu funktsiya asosan gradientlarning yo'qolishini oldini olish uchun yashirin qatlamlarda qo'llaniladi.
2.5.2 Taqdim etuvchi tarmoqlar
SNTning asosiy sxemasi kirish o'zgaruvchilari to'plamini chiqish o'zgaruvchilari to'plamiga aylantiradigan chiziqli bo'lmagan matematik funktsiya sifatida o'rnatilishi mumkin. Oldinga uzatish tarmog'i - har bir oldingi qatlamdagi kirishlar yo'nalishi to'g'ridan-to'g'ri keyingi qatlamga, u hech qanday oraliq halqa yoki tsiklsiz chiqish qatlamiga yetguncha yo'naltiriladi. Bir qatlamli perseptron modeli va ko'p qatlamli perseptron modeli oldinga uzatish tarmoqlari uchun ikki turdagi arxitektura. Rosenblatt (1957) tomonidan taklif qilingan birinchi va eng oddiy neyron modeli bir qatlamli tarmoq sifatida ham tanilgan bir qatlamli perseptron modeli (SLP) edi. U MakKullok va Pittsning [53,54] neyron tasviri va bu ANN strukturasini tashkil qilish uchun birgalikda joylashtirilgan ushbu neyronlarning to'plamidir [55]. Ushbu model 2.11-rasmda ko'rsatilgan. SLP faqat kirish va chiqish qatlamini o'z ichiga oladi. Tarmoq qabul qiladi kirishlar, chiqish qatlami esa o'z ichiga oladin neyronlar va har bir kirish chiqish qatlamidagi neyronlarga ulanadi. Ushbu xaritalash to'liq bog'langan qatlam dizayni sifatida tanilgan. Og'irliklarning yakuniy ifodasi m×n matritsa, qayerdan kirish o'zgaruvchilari sonini ifodalaydi va har bir kirishning chiqish qatlamiga ulanishlar soni.
Matritsa chiqish natijasini yaratish uchun faollashtirish funktsiyasi orqali o'tkaziladigan yakuniy qiymatni hisoblash uchun ko'paytirishni qo'llash uchun ishlatiladi. Shunisi e'tiborga loyiqki, noaniqlik, ya'ni doimiy qiymatga ega bo'lgan qo'shimcha og'irlikning alohida holati, tarmoq kirishlarining bir qismidir. Garchi bir qatlamli tarmoq faqat chiziqli bo'linadigan muammolarning yechimini ta'minlasa ham, bu chiziqli bo'lmaganlar uchun mos dizayn emas, ko'p qatlamli perseptron tomonidan ko'rib chiqiladigan cheklov.

2.10-rasm:Bir qatlamli perseptron modeli [55]
Murakkabroq muammolar uchun chiziqli bo'lmagan echimlarni ta'minlash uchun taklif qilingan model (MLP). Ushbu tarmoqlar chuqur neyron tarmoqlari (CHNT) sifatida ko'proq tanilgan va ularning dizayni bir kirish qatlamiga, tarmoqlarning chuqurligini belgilaydigan bir-biriga yopishtirilgan bir nechta qatlamlarga (yashirin qatlamlar) va yakuniy chiqish qatlamiga asoslangan.

2.11-rasm:Ko'p qatlamli perseptron modeli [55]
2.6 Neyron tarmoqlarni o'rgatish
CHO’ning eng dolzarb jihati ma'lumotlardir. Ideal holda, CHO’ modellari ko'rinmas ma'lumotlardan ma'lumotni to'g'ri bashorat qilish imkonini beruvchi yashirin naqshlarni topish uchun sifatli va yetarli ma'lumotni talab qiladi. Shuning uchun, CHO’ modellari bilan ishlaganda, to'plangan ma'lumotlarni uchta asosiy kichik to'plamga bo'lish tavsiya etiladi:
(i) o'qitish,
(ii) tekshirish
(iii) test.
O’qitish ma'lumotlar to'plami NT o'qitish protsedurasi davomida qo'llaniladi; yagona shart - bu ma'lumotlar to'plami yechimni umumlashtirish uchun model uchun yetarlicha katta bo'lishi kerak. Sinov ma'lumotlar to'plami modelning ishlashini o'lchash uchun ishlatiladi. Nihoyat, tasdiqlash ma'lumotlar to'plami agar test ma'lumotlari bunday bo'linish uchun yetarli bo'lsa, modelning ishlashini sozlash uchun ishlatiladi. Ba'zi taxminlarni hisobga olish kerak, masalan, uchta ma'lumotlar to'plamidagi ma'lumotlar bir-biridan mustaqil va bir xil ehtimollik taqsimotidan kelib chiqadi. Bunday shartlar ma'lumotlar to'plamlari o'rtasida matematik aloqani o'rnatishga imkon beradi, bu model yashirin kalitni olish uchun umuman qanchalik yaxshi ishlashini aniqlashga imkon beradi.
Ma'lumotlardagi naqshlar nihoyat, mashg'ulotlardan olingan ma'lumotlar testda mavjud emasligi muhimdir; aks holda modelning yakuniy ishlashi ishonchli bo'lmaydi.
2.6.1 Orqaga tarqalish
Tarmoq arxitekturasi aniqlangandan so'ng, tarmoqni o'qitish orqaga tarqalish algoritmining bajarilishi hisoblanadi. Orqa tarqalish tarmoq og'irliklarini ishga tushirgandan so'ng sodir bo'ladigan ikkita asosiy bosqichdan iborat: (i) oldinga o'tish (kirish qatlamidan chiqish qatlamiga) va (ii) orqaga o'tish (chiqish qatlamidan kirish qatlamiga). Ikkala bosqich ham bitta iteratsiyani tashkil qiladi va orqaga tarqalish iterativ jarayon bo'lib, uning maqsadi qaysi og'irliklar to'plami haqiqiy qiymat va tarmoq prognozi o'rtasidagi xatolikni (yoki yo'qotishni) minimallashtirishini aniqlashdir. Ushbu ikki bosqichni o'z ichiga olgan orqaga tarqalish algoritmining har bir to'liq bajarilishi deb ataladi. Davr va odatda, mashg'ulot ma'lum miqdordagi davrlardan iborat.
Tarmoq og'irliklarini ishga tushirish orqaga tarqalishdan oldin muhim qadamdir. Ushbu qadam tarmoqni birlashtirish uchun juda muhimdir, chunki o'zboshimchalik bilan qiymatlarni belgilash kabi yomon ishga tushirish strategiyasi optimal konfiguratsiya emas, chunki u mashg'ulot paytida ishlashni sekinlashtiradi . Shuning uchun bu borada turli xil texnikalar qo'llaniladi, masalan Xaver yoki Xemming ishga tushirish. Xaver ishga tushirish - tarmoq og'irliklarining qiymatlarini ko'rsatishning mashhur usuli vazn = [√-6,√6],qayerda i- bu qatlamga oziqlanadigan tugunlar soni va o- qatlamning bir xil taqsimotga rioya qilgan holda chiqish tugunlari soni.
Bu usul ko'p hollarda yaxshi ishlashiga qaramay, bu usul bilan yaxshi ishlamaydi, deb da'vo qildi ReLu, va bu muammoni yengish uchun yangi usul deb ataladi. U ishga tushirish taklif qilindi. Tarmoqda vaznni ishga tushirish o'rnatilgandan so'ng, oldinga o'tishning birinchi bosqichi chiqishni yaratish uchun tarmoqning boshlang'ich qatlamidan kirish ma'lumotlarini qayta ishlashdan iborat. Har bir qatlamda har bir neyron, avval aytib o'tilganidek, o'z vaznlari bilan og'irlik summasini hisoblab chiqadi.
Keyinchalik, neyronlar belgilangan faollashtirish funktsiyasini qo'llaydilar, bu keyingi qatlamga amalga oshiriladigan chiqish qiymatini hosil qiladi, bu erda yakuniy chiqish qiymati olinmaguncha xuddi shu jarayon takrorlanadi.
Orqaga o'tish. Tarmoqning og'irliklari va tarafkashliklarining birinchi konfiguratsiyasi tarmoqni bashorat qilishda eng yaxshi natijani bermasligi ehtimoli juda katta bo'lgani uchun, og'irliklar va tarafkashlik qancha bo'lishi kerakligi haqida tasavvurga ega bo'lish uchun xatoni (yo'qotish qiymatini) hisoblash kerak. Kamaytirish uchun tuzatilgan, chunki o’rganishning asosiy maqsadi uni minimallashtirishdir.
Gradient tushishi gradientni hisobga olgan holda yo'qotish funksiyasining minimaliga yaqinlashishga yordam beradigan algoritmdir. Gradientning tushishi gradientni hisoblab chiqadi va undan keyin gradientni qayta hisoblash uchun neyrondagi joriy og‘irliklar qancha o‘zgarishi kerakligini aniqlash uchun foydalanadi va uni minimal qiymatga qarab pastga siljitadi
Yo'qotish funktsiyasi. Shunga qaramay, tarmoq og'irliklarini yangilash jarayoni neyronlarning oldingi qatlamlardan ko'p jihatdan bog'liqligi tufayli murakkab. Hisoblash zanjiri qoidasi bu hisoblash uchun yondashuvdir, chunki oxirgi qatlamdagi bitta neyronning og'irligining o'zgarishi oldingi qatlamlardagi barcha neyronlardan kirish qatlamigacha bo'lgan faollashtirish chiqishini sozlashni nazarda tutadi. Ushbu yoyilgan sozlash tugallangandan so'ng, yo'qotish funktsiyasini yangi og'irliklar va moyillik to'plami bilan qayta baholash uchun boshqa oldinga o'tish amalga oshirilishi mumkin.
2.6.2 Optimizatorlar
Gradientni tushirish algoritmi hisoblash uchun qimmat ekanligini hisobga olsak, optimallashtiruvchilar deb ataladigan uchta o'zgartirilgan versiya mavjud bo'lib, ularning asosiy farqi gradientni hisoblash uchun ishlatiladigan ma'lumotlar miqdoriga bog'liq; shunga qaramay, o’rganish davomida foydalanilgan ma'lumotlar miqdoriga qarab, modelning aniqligi yoki o’rganish vaqti ta'sir qilishi mumkin. Bu uchta versiya: to'plamli gradient tushishi (BGD), stokastik gradient tushishi (SGD) va mini-partiyali gradient tushishi.
BGD butun o'rganilgan ma'lumotlar to'plami asosida tarmoq parametrlarini yangilaydi; ya'ni o'quv jarayoni bir necha davrni o'z ichiga olganligini hisobga olsak, har bir davr uchun bitta parametr yangilanadi. Ushbu yondashuv kichik ma'lumotlar to'plamlari uchun samarali ishlaydi, chunki model tezroq birlashadi, katta ma'lumotlar to'plamlarini birlashtirish uchun ko'proq vaqt talab etiladi, chunki ko'proq hisoblash resurslari kerak.
SGD Bu mashg'ulotni tezlashtirish uchun har bir davrdagi haqiqiy gradientni baholash usulidir. SGDdan samaraliroqdir BGD xotiradan foydalanishni optimallashtirish tufayli, chunki u har bir davrda o'quv ma'lumotlar to'plamidagi namunalar bilan tarmoq parametrlarini yangilaydi. Biroq, u qiymatlarni tez-tez yangilab turadiganligi sababli, tadqiqotlar shuni ko'rsatdiki, u birlashishda ko'proq beqarorlikni ko'rsatadi, chunki optimal yechim sari qadamlar shovqinli bo'lishi mumkin. Ushbu muammoni hal qilish uchunmini-to'plamli gradient tushishiusuli o'quv ma'lumotlar to'plamini har bir minito'plamdagi gradient qiymatiga asoslangan tarmoq parametrlarini yangilash uchun mini-to'plamlar deb ataladigan kichikroq guruhlarga namuna olish uchun ishlatiladi. Ushbu hisobning foydasi tarmoqning yanada barqaror konvergentsiyasi va xotira va hisoblash resurslaridan samaraliroq foydalanishdir. NT konfiguratsiyasida ikkita tegishli tushunchani hisobga olish kerak: parametrlar va giperparametrlar. Birinchisi mashg'ulot paytida ma'lumotlar asosida aniqlangan og'irliklar va noto'g'riliklar to'plamini nazarda tutsa, ikkinchisi odatda tajriba, sinov va xatolik yoki evristik qoidalar natijasida mashg'ulotdan oldin qo'lda hisoblangan qiymatlarga ishora qiladi. Muhim giperparametr deb ataladigan o'rganish darajasi, gradientni sozlashda kattalikni hisoblashda hal qiluvchi rol o'ynaydi. O'rganish tezligi muhim o'zaro ta'sirga ega uning qiymatlarida va ushbu giperparametrni o'rnatishda alohida e'tibor talab etiladi, chunki kata qiymat kattaroq sozlash hajmini ko'rsatadi, bu gradientni yaqinlashmasdan va o'zgaruvchan yo'qotish qiymatlarini keltirib chiqaradigan optimal yechim atrofida tebranadi, kichik qiymat esa kichikroq ekanligini ko'rsatadi.
Gradientdagi o'lchamni sozlash, o'quv jarayonini sekinlashtiradi va ko'proq davrlarni birlashtirishni talab qiladi. O'rganish tezligi bilan bir qatorda, impuls modelni tezroq birlashtirishga yordam beradigan yana bir giperparametrdir. Bu yerda g'oya gradient yo'nalishini saqlab qolish uchun oldingi gradientlarning eksponensial ravishda pasayib borayotgan harakatlanuvchi o'rtacha qiymatini hisoblash yo'li bilan mashg'ulot paytida harakatlanishi kerak bo'lgan yo'nalish va tezlikni ifodalovchi hisoblangan gradientga omil qo'shishdan iborat.
Impulsning ta'siri bu yechim maydoni bo'lmagan muammolar uchun mahalliy minimal nuqtalarda qolib ketishdan saqlaydi, bu NT modellarida orzu qilingan xatti-harakatlardir. NTni o'qitish jarayonida o'rganish tezligining dolzarbligini hisobga olgan holda, tadqiqotchilar optimal ishlash uchun o’rganish davomida ushbu giperparametrlarni o'zgartiradigan optimallashtirish algoritmlarini ishlab chiqdilar.
CHO’ modellarida, algoritm murakkabroq bo'lganlarda ba'zi kamchiliklarni taqdim etadi. Bu algoritm gradientning eksponensial og'irlikdagi harakatlanuvchi o'rtacha qiymatini hisoblab chiqadi, chunki uzoq tarixga ega bo'lgan gradient qiymatlariga ega bo'lish orqali oxirgi hisob-kitobga ta'sir qilmasdan ishlashni yaxshilash, birlashish uchun tez o'rganish tezligi qiymatini saqlab qolish; Moslashuvchan momentni baholash (Odam) CHO’da keng qo'llanilishi isbotlangan misoldir, chunki u dastlab NTlarni o'qitish uchun ishlab chiqilgan.
Ushbu strategiyaning asosiy kontseptsiyasi shundan iboratki, o'rganish tezligi modelning konvergentsiya tezligi va aniqligini optimal yechimga qarab yaxshilash uchun o'zini o'zi sozlashi mumkin. Bunday xatti-harakatlar xotira sarfini oshiradi va hisoblash resurslarini yaxshiroq boshqarishni taklif qiladi.
2.6.3 Yo'qotish funktsiyalari
Yuqorida aytib o'tilganidek, NTlar ma'lum bir maqsadni o'rganish uchun gradient tushish algoritmidan foydalanadilar. Yo'qotish funktsiyasi gradient tushish algoritmida qo'llanilganligi sababli, tarmoqning o'rganish maqsadi uchun mos yo'qotish funktsiyasini tanlash muhim ahamiyatga ega. Masalan, tibbiy sohada muammolar tasniflash, semantik segmentatsiya yoki misol segmentatsiyasi bilan bog'liq. Har xil holatlarda yaxshi ishlaydigan bir nechta taniqli va yaxshi o'rganilgan xarajatlar funktsiyalari mavjud:
1. Ikkilik xoch entropiya (miloddan avvalgi): O'zaro entropiya berilgan tasodifiy o'zgaruvchi yoki hodisalar to'plami uchun ikkita ehtimollik taqsimoti o'rtasidagi farqning o'lchovi sifatida aniqlanadi. U tasniflash uchun keng qo'llaniladi va tasvirni segmentatsiyalash muammolarida piksel faol yoki faol emasligini aniqlash uchun tasniflash piksel darajasida amalga oshiriladi. Bu funksiyadan foydalanish holatida keltirilgan ma'lumotlar teng taqsimlangan sinflarga ega bo'lganda.
2. Fokus yo'qotish: Bu miloddan avvalgi o'zgaruvchanlikdir. Asosiy farq, oson misollarning hissasini kamaytiradigan va modelga qiyin misollarni o'rganishga ko'proq e'tibor qaratishga imkon beruvchi multiplikativ omilga ega. Odatda tibbiy tasvirlar kabi juda nomutanosib sinf stsenariylarida yaxshi ishlaydi.
3. Zarni yo'qotish koeffitsienti (CHO’K): Dice koeffitsienti ikkita rasm o'rtasidagi o'xshashlikni hisoblab chiqadi va u NTlarni o'rgatishda xato funksiyasi sifatida ham foydalanish mumkin. Bu funksiya tasvirni segmentatsiyalash masalalarida keng qo'llaniladi. Xususan, tibbiy tasvirlar fon va old fon o'rtasidagi taqqoslash bilan bog'liq muhim muammodir. Bir tomondan, tasvirning kichik bir qismi, odatda, butun skanerlash oralig'ida bemorlarning miya shikastlanishiga to'g'ri keladi. Boshqa tomondan, qolgan maydon fon bilan band bo'lib, bu bashorat qilish uchun qiziq bo'lmagan maydon. Shunday qilib, ushbu sohalar orasidagi farqning nisbati ikkita asosiy sababga ko'ra mashg'ulot paytida sezilarli ta'sir ko'rsatadi:
(i) bu sinf nomutanosibligi muammosi deb hisoblanadi, chunki tasvirning bir nechta qismi lezyonlarga mos keladi va (ii) mumkin. aniqlik ko'rsatkichi oqilona tanlanmasa, modelning aniqligini pasaytiring. Ushbu dissertatsiyada bunday muammolarni hal qilish uchun, ning kombinatsiyasi bo'lgan yo'qotish funktsiyasi Ikkilik oʻzaro entropiya (miloddan avvalgi) va Zarni yo'qotish koeffitsienti (CHO’C) tanlanadi. Miloddan avvalgi bashorat qilingan chiqishning asosiy haqiqatga o'xshashligi ehtimolini hisoblash uchun ishlatiladi, qiymati 0 va 1 oralig'ida, 1 esa eng yuqori ehtimollikdir, holbuki CHO’K sinf-nomutanosiblik piksel muammosidan qat'inazar, ikki tasvir o'rtasidagi o'xshashlikni o'lchaydigan koeffitsientdir. Demak, yakuniy yo'qotish funksiyasi yig'indisi sifatida hisoblanadi Miloddan avvalgi+CHO’K.
2.6.4 Tartibga solish
Modelni o'qitish aniq natijalarni berishi mumkin bo'lsada, NT modelining asosiy maqsadi noma'lum ma'lumotlarga, xususan, test ma'lumotlar to'plamiga asoslangan aniq bashorat qilishdir. Maqsad - model muammoning yechimini umumlashtiradimi yoki yo'qligini tahlil qilishdir.
To'g'ri modelni umumlashtirishni isbotlashning usullaridan biri test ma'lumotlar to'plamida bashorat qilish va sinov xatosini (umumlashtirish xatosi) o'quv xatosi bilan solishtirishdir. Mashg'ulot xatosi kam bo'lishi va mashg'ulot va test yo'qotilishi o'rtasidagi kichik farq modelni yaxshi umumlashtirishni ta'minlashning ikkita asosiy jihatidir. Bunday jihatlar NTlarni o'qitish jarayonida yuzaga keladigan ikkita asosiy muammoni aniqlashga yordam beradi: to'liq mos kelmaslik va haddan tashqari moslash. Birinchisi, model asosiy jihatlarni o'zlashtira olmaganida yuzaga keladi.
Dizayndagi murakkablik yo'qligi yoki optimal yechim topilmaganligi sababli ma'lumotlarning mahalliy minimal yechimida qolib ketishi mumkin. Bundan tashqari, cheklangan miqdordagi davrlar tufayli model bir-biriga yaqinlashmasligi mumkin. Oddiy qilib aytganda, o'quv ma'lumotlar to'plamida kam xatolik yo'q. Aksincha, ikkinchisi umumlashtirishning etishmasligi bo'lganda yuzaga keladi va mashg'ulot xatosi test xatosiga nisbatan kichikdir. Boshqacha qilib aytadigan bo'lsak, mashg'ulot xatosi va test xatosi bir-biri o'rtasida katta farqga ega. Bunday stsenariy modelda yuqori murakkablik va ko'p parametrlar mavjud bo'lganda yuzaga keladi. Bundan tashqari, etarli ma'lumotlarning etishmasligi ham ushbu muammoga olib kelishi mumkin, chunki model odatda shovqinli ma'lumotlar deb ataladigan tegishli xususiyatlarni o'z ichiga olmaydigan ma'lumotlar bilan yaxshi echimlarni taqdim etishi mumkin. Shu sababli, model yaxshi ma'lumotlar sifati namunalari o'rniga bunday shovqinni tushuntiradi va trening va test ma'lumotlari o'rtasidagi bo'shliq ortib boradi. 2.12-rasmda bu ikki holatga misol keltirilgan. Sig'im modelning haddan tashqari mos kelishiga yoki to'g'riligiga hissa qo'shadi. Modelning imkoniyatlari uchta xususiyatdan iborat:
(i) modelning arxitekturasi (u qanchalik chuqurligi), (ii) mos keladigan yo'qotish funktsiyasini tanlash va (iii) o'qitish va yo'qotish funktsiyasiga muvofiq modeldagi tartibga solish darajasi.
Modelning imkoniyatlarini aniqlash o'quv vazifasining murakkabligiga ham bog'liq. Bir tomondan, murakkab bo'lmagan vazifalar uchun yuqori sig'imga ega modellar ko'proq mos keladi, chunki ular sinov ma'lumotlar to'plamida talab qilinganidan ko'ra murakkabroq xususiyatlarni eslab qolishadi. Boshqa tomondan, murakkab vazifalarni bajarish qobiliyatiga ega bo'lmagan modellar mos kelmaydi, chunki ular ushbu muammoni hal qilish uchun o'quv ma'lumotlar to'plamining tegishli xususiyatlarini ololmaydilar.

2.12-rasm:Noto'g'ri va ortiqcha moslama [93]
Regularizatsiya texnikasi, shuningdek, mashg'ulot paytida bunday muammolarni oldini olish uchun modelni jihozlaydi.Tushib qolish, masalan, ma'lum bir ehtimollik darajasiga ega bo'lgan ba'zi neyronlarning keying qatlamlarga ulanishini tasodifiy kesish orqali modelni aniqlash darajasida amalga oshiriladigan tartibga solish usulining bir turi. Natijada, matritsa parametrlari 0 ga o'rnatilgan bir nechta qiymatlarga ega bo'ladi, ular yashirin qatlamlardagi neyronlarni o'chirib, xususiyatlarni eslab qolishdan qochadi. Yana bir tartibga solish usuli vaznning pasayishi, bu parametr bo'shlig'ini kamaytirish uchun yo'qotish funktsiyasini qo'shimcha muddat bilan jazolashdan iborat. Uning amalga oshirilishi modelga shovqinli ma'lumotlarni qabul qilishga yordam beradi. Uning formulasi yo'qotish=Funktsiyani yo'qotish+l w, qayerda l ifodalaydi.
0 dan 1 gacha bo'lgan kichikroq og'irliklarga ega bo'lgan jazoning nisbati va w og'irlik tarmog'ining qiymatini ifodalaydi.

2.13-rasm:Tashlab ketish effekti [61]
Nihoyat, optimallashtiruvchi tarmoq parametrlarini yangilash uchun NTda orqaga tarqalish algoritmini amalga oshirish uchun javobgardir. Ko'plab optimallashtiruvchilar mavjud va ular tarmoq parametrlarini yangilash uchun o'rganish tezligini talab qiladi. Arxitekturasidan qat'i nazar, NT uchun o'qitish tartibi bir xil. Keyingi bo'limda konvolyutsion neyron tarmoqlar tasvirlangan, chunki ular tasvirlar bilan ishlashda birinchi afzal ko'rilgan yondashuvdir.
2.7 Konvolyutsion neyron tarmoqlari
Konvolyutsion neyron tarmog'i (KNT) - bu tasvir ma'lumotlarini tasniflash va aniqlash uchun neyron tarmoq arxitekturasining bir turi. Tasniflash kirish va yorliq o'rtasida xaritalash mavjud bo'lganda yuzaga keladi; ya'ni it tasviri va mushuk tasviri kiritilgan bo'lsa, tegishli yorliq mos ravishda "it" va "mushuk" bo'ladi. Bu KNTni boshqa NTlardan ajratib turadigan narsa, chunki KNT tasvirlar kabi tuzilmagan ma'lumotlarda naqshlarni olishda ustunlik qiladi va tasvirni segmentatsiyalash kabi vizual aniqlash vazifalarini hal qilishning afzal usuliga aylanadi.
Xususan, KNT konvolyutsiya deb ataladigan operatsiyani amalga oshiradi, bu asosan ikkita funktsiya o'rtasidagi mahsulot bo'lib, oldingi ikkitasidan ko'ra ko'proq ma'lumotni o'z ichiga olgan uchinchisini hosil qiladi. KNTlar kerakli o'rganish vazifasi asosida tasvirdan tegishli xususiyatlarni chiqaradigan natijalarni yaratish uchun tasvir bilan birlashtirilgan bir nechta yadrolarni aniqlash uchun javobgardir. Barcha konvolyutsion qatlamlarda mavjud bo'lgan ushbu yadrolar muammoning optimal echimini ta'minlab tarmoqni o'qitish jarayonida yo'qotish funktsiyasini minimallashtiradigan o'rgatish mumkin bo'lgan og'irliklarni ifodalaydi [43,77]. Oddiy CNN arxitekturasi quyidagi uch turdagi qatlamlardan iborat:
• Kirish qatlamlari:Ushbu qatlam tarmoqning kirish tasvirini ifodalaydi, u modelga kiritilgan tasvir turiga qarab kanallar sonini o'zgartirishi mumkin [77]. Masalan, kulrang shkaladagi tasvir faqat bitta kanalga ega, rangli tasvir esa RGB ga mos keladigan uchta kanalga ega.
• Yashirin qatlamlar: Bu qatlamlar tarmoqning ichki qismi bo'lib, tartib odatda uchta komponentdan iborat: (i) konvolyutsion qatlamlar, (ii) birlashtiruvchi qatlamlar va (iii) to'liq bog'langan qatlamlar.33]. (i)Konvolyutsion qatlamlar. Yuqorida ta'kiCHO’ab o'tilganidek, ushbu turdagi qatlamlarda, amaliy ma'noda og'irliklarni o'z ichiga olgan matritsa bo'lgan yadro turli xil xususiyat xaritalarini yaratish uchun gorizontal va vertikal ravishda (konvolyutsiya) tasvir ustida siljiydi. Ushbu xususiyatni yaratish yadro va yadro hajmini o'rab turgan tasvir qismi o'rtasidagi matritsani ko'paytirish natijasidir. Ushbu yadrolarning ahamiyati shundaki, ular orqaga tarqalish vaqtida moslashtiriladi. Ehtimol, bu qatlamlarning asosiy asosiy xususiyati shundaki, barcha neyronlar bir xil og'irlik qiymatlariga ega. Tushunchasi umumiy og'irliklar konvolyutsion qatlamdagi bir guruh neyronlar uchun og'irliklar va moyilliklarning bir xil qiymatlariga ega bo'lishini anglatadi [37]. Bunday guruhlar samolyotlar deb ataladi va har bir tekislik xususiyat xaritasini ishlab chiqaradi, natijada har bir qatlam uchun bir nechta xususiyat xaritalari paydo bo'ladi. Natijada, bir xil filtr naqshini tasvirning istalgan qismida aniqlash mumkin, ayniqsa ob'ektni aniqlashda qo'llaniladi va tarmoq yakuniy parametrlarning sezilarli darajada kamligiga ega [43,77]. Ushbu qatlamdagi giperparametrlar yadro hajmi, to'ldirish va qadam bilan bog'liq.yadro hajmi konvolyutsiya uchun yadro qanchalik katta ekanligini aniqlaydi. Ushbu parametr o'quv vazifasi uchun optimal echimni topish uchun juda muhimdir. Kattaroq yadrolar ko'proq tasvir maydonini egallaydi, lekin tarmoqning tez birlashishiga qaramay, kam ishlashga olib keladigan kamroq ma'lumot chiqaradi. Kichikroq yadrolar tegishli xususiyatlarni ajratib oladi, chunki ular ko'proq mintaqaga xosdir va ular qatlamlarni chuqurroq joylashtirishga imkon beradi.To'ldirishkonvolyutsiya paytida yadro tasvirning asl o'lchamidan tashqariga chiqadigan joylarni qoplash uchun tasvir chegarasi atrofida qo'shimcha ma'lumot qo'shish orqali kiritilgan tasvir hajmini saqlaydi. Nollarni qo'shish (nolto'ldirish) CNN-larda to'ldirish uchun keng qo'llaniladigan amaliyotdir, chunki tasvirga nollar qo'shilganda sezilarli hisoblash yuki bo'lmaydi.Qadamtasvir bilan konvolyutsiya paytida yadro siljishi kerak bo'lgan piksellar sonini boshqaradi. Kattaroq qadam chiqarilgan funksiyalar sonini, shuningdek, tasvir oʻlchamlarini kamaytiradi, kichik qadam esa olingan funksiyalar sonini ham, chiqish tasvir oʻlchamlarini ham oshiradi.77]. (ii)Birlashtiruvchi qatlamlar. Ushbu qatlamlar kirish hajmini kamaytirish uchun ba'zi ma'lumotlarni yo'qotishdan iborat bo'lgan pastga namuna olish deb ataladigan qadamni bajaradi.43,77,80]. Ushbu ma'lumotlarni qisqartirish haddan tashqarimoslashishni oldini olish va modelning keyingi qatlamlari uchun hisoblash yukini kamaytirish uchun kalit hisoblanadi, chunki o'qitish uchun kamroq parametrlar mavjud. O'rtacha birlashtirish va maksimal birlashtirish bu qatlamlardagi standart strategiyalardir. Farq asosan matematik funktsiyaga bog'liq bo'lib, har bir tur ma'lumotlarning qisqarishiga erishish uchun olingan xususiyatlar (o'rtacha yoki maksimal, ularning nomidan ko'rinib turibdiki) uchun amal qiladi: Bu qatlamdagi giperparametrlar yadro hajmi va qadam [43,77].
(iii)To'liq bog'langan qatlamlar. Ushbu turdagi qatlam oldingi qatlamdagi barcha faollashtirilgan neyronlardan joriy qatlamdagi barcha neyronlarga ulanish orqali yashirin qatlamlar yoki chiqish qatlamidagi o'lchamlarni kamaytirish uchun ishlatiladi.80]. Asosan, u keyingi qayta ishlashga ruxsat berish yoki tasniflash muammosidagi sinflarning yakuniy sonini aniqlash uchun barcha o'lchamlarni bittaga qisqartiradi.43,77].
• Chiqish qatlamlari:Bu qatlam to'liq bog'langan qatlam shaklini oladi, chunki bu erda tasniflash sodir bo'ladi. Funktsiyalar soni bizning o'quv vazifamizdagi sinflar sonini ifodalaydi va sigmasimon yoki softmax kabi faollashtirish funktsiyasi amalga oshiriladi [77]. Avval aytib o'tilgan tushunchalar tufayli, CNN boshqa CHO’ arxitekturalari bilan solishtirganda tasvirlarni tahlil qilish uchun zarur bo'lgan hisoblash jarayonini kamaytiradi.80].

2.8 Baholashning namunaviy usullari
Tasvirni segmentlash muammolarida, kabi ko'rsatkichlarZar hisobi (DSC)[11] vaKesishish Over Union (IoU)[11] tarmoq ishlashi haqida hisobot berish va yakuniy natijalarni o'lchash uchun ikkita tez-tez ishlatiladigan ko'rsatkichdir. DSC tasvirni segmentatsiyalash vazifalarida keng qo'llaniladi, chunki u bashoratning bir-biriga mos keladigan maydonini va asosiy haqiqatni ikkala tasvirdagi piksellarning umumiy soniga bo'lingan holda hisoblab chiqadi. IoU, shuningdek, Jaccard indeksi sifatida ham tanilgan, bashorat va asosiy haqiqat o'rtasidagi kesishish maydonini piksellarning umumiy soniga bo'lingan holda hisoblab chiqadi. Ikkala ko'rsatkichda ham qiymat 0 dan 1 gacha o'zgarib turadi, bu erda 1 tasvirlar orasidagi to'liq o'xshashlikni bildiradi. |A∩B|
IoU=J(A, B) = |A∪B|
2|A∩B|
Zar= |A|+|B|
Bundan tashqari, ishlashni o'lchash uchun odatiy ko'rsatkichlar mavjud Aniqlik,A niqlik,Eslab qoling va F1 ball[11]. Bunday ko'rsatkichlarni quyidagi chalkashlik matritsasiga qarab tushunish osonroq:

2.15-rasm:Chalkashlik matritsasi
Matritsa asosli haqiqatni va modelning bashoratini solishtirish uchun foydalidir. Tushuntirishni soddalashtirish uchun, natijada faqat ijobiy yoki salbiy sinflar mavjud bo'lgan ikkilik tasniflash muammosini ko'rib chiqing. Matritsaning har bir kvadranti ma'lum bir hududni ifodalaydi: haqiqiy ijobiy (TP), noto'g'ri musbat (FP), noto'g'ri salbiy (FN), haqiqiy salbiy (TN). TP qonuniy ma'lumotlar to'plamida to'g'ri deb belgilangan model tomonidan bashorat qilingan ijobiy holatlar sonini anglatadi. FP ma'lumotlar to'plamida aslida salbiy bo'lgan model tomonidan bashorat qilingan ijobiy holatlar sonini anglatadi. FN - bu model salbiy deb bashorat qilingan holatlar sonini anglatadi, lekin ular asl ma'lumotlar to'plamida to'g'ri bo'lgan va nihoyat, TN ma'lumotlar to'plamida salbiy bo'lgan model tomonidan bashorat qilingan to'g'ri salbiy holatlardir. Bundan tashqari, aniqlik, aniqlik va eslab qolish formulalarini quyidagi atamalar bilan izohlash mumkin:
TN+TP

Aniqlik=

TN+FP+TP+FN
TP




Aniqlik=

TP+FP
TP




Eslab qoling= TP+FN
2×aniqlik×eslash
aniqlik+eslash

TP
=
TP+FP+FN

F1Xol=

2 Aniqlik to'g'ri bashorat qilingan holatlarning namunalar umumiy soniga bo'lingan nisbatini ko'rsatadi. Shunga qaramay,Aniqlik Bu ishonchli ko'rsatkich emas, ayniqsa ATLAS kabi sinf nomutanosibligi muammosini taqdim etadigan ma'lumotlar to'plamida [15]. Alternativ hisoblanadi Aniqlik, bu modelning to'g'ri bashorat qilingan namunalarining ijobiy prognozli holatlarning umumiy soniga, shu jumladan noto'g'ri natijalarga nisbatini ifodalaydi. Eslab qolingmaʼlumotlar toʻplamidagi ijobiy holatlarning umumiy soniga nisbatan toʻgʻri bashorat qilingan namunalar ulushini oʻlchaydi (jumladan, ijobiy va salbiy bashorat qilingan natijalar).F1 ballning garmonik o'rtasi hisoblanadiAniqlikvaEslab qoling
3-bob. Tibbiyotda tegishli ishlar tic segmentatsiyasi So'nggi o'n yillikdan beri CNN qatlamlari tasvirlardan xususiyatlarni ajratib olishning asosiy yondashuvi bo'lib kelgan, ayniqsa ular birgalikda joylashtirilgan va boshqa turdagi qatlamlar bilan birlashtirilganda, xususiyatlarni chiqarish jarayonining samaradorligini oshirish uchun. Ushbu tartib arxitektura nomini oladi va CNN arxitekturalari tasniflash va tasvirni segmentatsiyalash vazifalarini hayratlanarli darajada bajardi [7, 12]. Turli xil arxitekturalarni ularning dizayn naqshlari asosida ko'rib chiqish quyida keltirilgan.
3.1 Filtr o'lchami va chuqurligiga asoslangan modellar 2000-yillarning birinchi o'n yilligida tadqiqotlar CNN ish faoliyatini yaxshilash uchun ko'plab tajribalar o'tkazdi. O'sha paytdagi eng ko'zga ko'ringan topilmalardan biri filtr o'lchami va tarmoqning chuqurligi bilan bog'liq edi. Birinchidan, ular kattaroq filtr yuqori darajadagi xususiyatlarni ajratib olishini, kichik filtrlar esa yanada nozikroq past darajadagi xususiyatlarni olishini tushunishdi.70,80]. Ikkinchidan, yashirin qatlamlar soni, shuningdek, tarmoqning yaxshi ishlashiga olib keladigan murakkabroq funktsiyalarga ham yaqin.80]. Shunday qilib, CNN arxitekturasidagi filtr o'lchami va chuqurligi tarmoqning aniqligi bilan bog'liq. 80]. Krizhevskiy va boshqalar. (2012) AlexNet ni taklif qildi, CNN arxitekturasi ReLu-ni faollashtirish funktsiyasi sifatida ishlatadigan beshta konvolyutsion qatlamdan va uchta to'liq bog'langan qatlamdan iborat bo'lib, oxirgisi ob'ekt tasnifi uchun softmax faollashtirish funktsiyasini qo'llaydi.25,38]. Ushbu modelning dolzarbligi shundaki, u mashinani o'rganish tarixidagi muhim topilma bo'lib, ko'proq tadqiqotlarga visual aniqlash vazifalari uchun CHO’ CNN arxitekturasini yanada rivojlantirishga imkon beradi. [25]. 2015 yilda Simonyan va Zisserman VGGNet nomi bilan mashhur bo'lgan Visual Geometry Group Network arxitekturasini taklif qildilar, bu arxitektura ikkita konvolyutsion qatlamdan so'ng maksimal birlashtiruvchi qatlamdan va tarmoqning oxiridagi uchta to'liq bog'langan qatlamdan foydalanadi, bu erda oxirgisi softmaxni amalga oshiradi. tasniflash uchun faollashtirish funktsiyasi. U foydalanadigan filtrlar hajmi 3 ga o'rnatiladi×3 .
Ushbu model tarmoqqa qancha qatlam qo'shilsa, tanib olish yoki tasniflashda unumdorlik shunchalik yaxshi ekanligini isbotladi. Shunday bo'lsa-da, tarmoqning chuqurligi uning murakkabligini oshiradi, bu esa ko'proq o'qitish vaqtiga olib keladi, chunki ko'proq parametrlarni yangilash kerak.25,38]. Parametrlar sonini ko'paytirish tarmoqni o'qitish uchun ko'proq hisoblash resurslarini egallashga olib keladi, bu muammoni Szegedy va boshqalar hal qildi. (2015) GoogLeNet v1 modelini taklif qilganida, turli filtr o'lchamlari bilan bir xil darajadagi bir nechta konvolyutsion qatlamlardan foydalangan holda qabul qiluvchi maydonlar sonini oshirdi (1).×1 , 3×3 , 5×5) va 3×3 maks birlashtiruvchi qatlam, bu erda yakuniy natija tarmoqning hisoblash yukini oshirishiga yo'l qo'ymaslik uchun birlashtiriladi. Yakuniy versiya - AlexNet (60M) va VGGNet (138M) kabi oldingi modellarga qaraganda kamroq parametrlarga ega (7M) 22 qatlamli dizayn [25,38].
3.2 Qoldiqlarga asoslangan modellar Ushbu arxitekturalarning maqsadi qatlamlar bo'ylab taqsimlangan ma'lumotni kengaytirish uchun qatlamlar orasidagi yorliqli ulanishlar bo'lgan qoldiqlarni qo'shish orqali chuqur CNN arxitekturalarida yo'qolib borayotgan gradient muammosini oldini olish va qayta ishlash uchun noto'g'ri ma'lumotlarni olish uchun qatlamlarning oldini olish edi. dizaynga chuqurroq [41,80]. 2015 yilda He va boshqalar. taklif qilingan arxitektura bir nechta konvolyutsion qatlamlardan iborat (18, 34, 50, 101,110, 152, 164 va 1202) [38]. ResNet50 eng mashhur modellardan biri bo'lib, uning dizayni bitta konvolyutsiyaning kirishini oldingi ikkita konvolyutsiyaning chiqishi bilan oziqlantirishga asoslangan. Ushbu modelning afzalliklari shundaki, u tarmoq bo'ylab xususiyatlarning tarqalishini kuchaytiradi va qayta ishlatadi, kamroq parametrlar bilan yaxshi ishlashga erishadi [38]. Chjan va boshqalar. taklif qilingan ResU-Net [45], U-Net arxitekturasi tarmoq chuqurligi tufayli unumdorlikning pasayishiga yo'l qo'ymaslik uchun modelning koCHO’ovchi va dekoder qatlamlarida qoldiqlarni qo'shish orqali yaxshilandi. Bundan tashqari, u ko'proq kontekstli ma'lumotlarni saqlab qolish va yaxshi natijalarga erishish uchun uni koCHO’ovchidan dekoder blokiga o'tkazish uchun o'tkazib yuborilgan ulanishlardan foydalanadi [41]. Ushbu arxitektura dastlab yo'llarni qazib olish uchun ishlatilgan bo'lsa-da, u tibbiy sohada, shuningdek, tasvirni segmentatsiyalash vazifalari uchun yaxshi xizmat qiluvchi U-net arxitektura naqshini hisobga olgan holda ishlatilgan. 3.1-rasmda ResU-net arxitekturasi ko'rsatilgan. Jha va boshqalar. ResU-netning ResU-net++ deb nomlangan takomillashtirilgan versiyasini taklif qildi [46] bunda u oʻzining yangi arxitektura dizaynida uchta asosiy qoʻshimcha komponentdan foydalanadi:
(i) maʼlumotni dekoder blokiga tarqatuvchi va tarmoq parametrlarini oshirmasdan, uni har bir qatlamdagi eʼtibor moduli bilan birlashtiruvchi qoldiq blok;
(ii) siqish va qo'zg'atuvchi blok, koCHO’ash qismidagi qoldiqlardan so'ng modeldagi eng mos xususiyatlarni saqlashga xizmat qiladi;
(iii) ko'proq parametrlarni qo'shmasdan yadroning ko'rish maydonini kengaytirish va yaxshi ishlash uchun ko'p miqyosli ma'lumotlarni aniqroq olish uchun atroz konvolusiyalarni qo'llaydigan atrozli fazoviy piramidal birlashtiruvchi blok. Ushbu modul koCHO’ovchi va tarmoq dekoderi o'rtasidagi aloqani ifodalaydi va u tarmoqning oxirgi qatlamida yakuniy tasniflash qismidan oldin qo'llaniladi [46].
3.2-rasmda ResU-net++ arxitekturasi ko'rsatilgan. 3.3 KoCHO’ovchi-dekoderga asoslangan usullar Oldingi arxitekturalar chiqish qatlami (ya'ni to'liq bog'langan qatlam) turiga ko'ra tasniflash muammolarini hal qilishga qaratilgan bo'lsa, boshqa sohalar mavjud, ayniqsa tibbiyotda tarmoqning chiqishi ham tasvir (semantik segmentatsiya) bo'lishi kerak. Shu sababli,

3.1-rasm:ResU-net [45]
turli CNN arxitekturalari taklif qilingan va ulardan biri koCHO’ovchi-dekoder arxitekturasi sifatida tanilgan. KoCHO’ovchi-dekoder arxitekturasi mutanosib ikki bosqichli tuzilma bo'lib, uning afzalligi simmetrik tarmoqning har bir qismi bajaradigan individual vazifaga bog'liq.11,39,80]. Birinchidan, koCHO’ovchi tasvirdan murakkab xususiyatlarni ajratib olish va o'rganish uchun ko'p kanalli xususiyatlar xaritasini yaratish uchun har bir qatlamdagi konvolyutsiyalar to'plamidan iborat. Keyin tarmoqqa chuqurroq kirib borgan sari tasvirning fazoviy o'lchamini kamaytirish uchun birlashtiruvchi qatlamlarni qo'llaydi. Tarmoq tubiga yetgandan so'ng, teskari operatsiya sodir bo'ladi. Ya'ni, yuqori namunali konvolyutsiyalar yoqilgan

3.2-rasm:ResU-net++ [46]
oxirida tasvirning asl hajmini tiklash uchun har bir qatlam. Va nihoyat, ushbu usullarning aksariyati barcha qatlamlarda o'tkazib yuborilgan ulanishlar yordamida ma'lumotni koCHO’ovchidan dekoderga o'tkazadi. Ronneberger va boshqalar. U-Net ni taklif qildi [6], piksel darajasidagi tasnifni amalga oshirish uchun ushbu proportsional naqshga amal qiladigan 2D arxitekturasi; Ushbu tarmoq dastlab biotibbiyot tasvirlari uchun mo'ljallangan edi va uning ajoyib natijalari uni kompyuterning boshqa ko'rish sohalari uchun asosiy variantga aylantirdi. U-Net quyi namuna olish qismiga mos keladigan to'rtta qatlamdan iborat bo'lib, ularning har biri 2 ta konvolyutsion qatlamdan keyin 2 ta qatlamni o'z ichiga oladi.×2 maksimal birlashtiruvchi qatlam. Natija dekoderdagi mos keladigan daraja uchun o'tkazib yuborilgan ulanishlar vatarmoqning keyingi darajasi uchun kirish sifatida ishlatiladi. Yuqori namunaviy qism, dekoder, shuningdek, har biri ikkita modulni bajaradigan to'rtta qatlamdan tashkil topgan: (i) o'tkazib yuborish ulanishi va transpozitsiyali konvolyutsiyani amalga oshirgandan keyingi natija o'rtasidagi bog'lanish, (ii) 2-konvolyutsiya qatlami 3×(i) bosqichni birlashtirgandan so'ng xususiyatni ajratib olish uchun 3. Asl tarmoq 572 kirishini oladi×572 piksel va 388 chiqish hosil qiladi×388, bu tasvirning barcha piksellarini belgilaydi. U 2015 yilda mikroskopiya tasvirlari yordamida hujayralarni kuzatish bo'yicha qiyinchilikni yengib, tibbiy tasvirlarda sezilarli segmentatsiya natijalariga erishdi [39]. 3.3-rasmda U-net arxitekturasi ko'rsatilgan.

3.3-rasm:2D Unet [6]
U-Net ning asosiy afzalliklaridan biri kontekstli ma'lumotlarni saqlash uchun koCHO’ovchi va dekoder o'rtasidagi o'tkazib yuborilgan ulanishdir. U-Net bir nechta 2D takomillashtirishning asosi bo'lgan bo'lsa-da, Chichek va boshqalar [3] kasal to'qimalarni segmentlash uchun MRT yoki KT kabi 3D tasvirlarning fazoviy ma'lumotlaridan foydalanish uchun 3D U-Netni taklif qildi. Dekoder dizayni uchta qatlamni o'z ichiga oladi; har bir qatlam 2-konvolyutsiyali o'tishga ega, bu erda oxirgi konvolyutsiya oldingi konvolyutsiyadan xususiyatlar sonini ikki baravar oshiradi. U ommaviy normallashtirishni, faollashtirish funktsiyasi sifatida ReLU ni, so'ngra 2 ni qo'llaydi×2×2 maksimal birlashtiruvchi qatlam tasvirning fazoviy o'lchamini kamaytiradi [39]. Dekoder uchta qatlamga ega bo'lib, ularning har biri 2 darajali konvolyutsiyani amalga oshiradi, biri enkoderdagi bir xil darajadagi o'tish ulanishi o'rtasidagi kombinatsiyaga, ikkinchisi esa keyingi qatlamning o'tkazib yuborish ulanishi bilan bir xil o'lchamdagi oldingi qatlamning natijasiga. Daraja. Nihoyat, oxirgi qatlamda piksellarni tasniflash uchun softmax funksiyasini amalga oshiradi. Shuni ta'kiCHO’ash kerakki, ular foydalanadigan yo'qotish funktsiyasi qiziqish maydoniga qarshi fon piksellarining ko'pchiligi masalasini hal qilish uchun og'irlikdagi o'zaro faoliyat entropiya edi [39]. 3.4-rasmda 3D U-net arxitekturasi ko'rsatilgan.

3.4-rasm:3D Unet [3]
Xuddi shunday, SegNet [9] yana bir mutanosib dizayn bo‘lib, uning enkoderi ob’ektni tahlil qilishda foydalaniladigan VGG16 tarmog‘idir. Yangi arxitekturaning bir qismi sifatida o'rnatilgan tarmoqdan foydalanish g'oyasi deyiladi
o'rganishni o'tkazish va foydasi shundaki, u muammoni yanada samaraliroq hal qilishga hissa qo'shadi.28]. U funksiyalarni faollashtirish xaritalarini yaratish uchun VGG16 ning birinchi 13 qatlamidan foydalanadi. Ushbu bosqichdan so'ng, dekoder asosiy faollashtirish funktsiyasi sifatida BN va ReLU tomonidan keyin bir juft konvolyutsiyada namuna olishni amalga oshirish orqali yakuniy natijani yaratish uchun javobgardir. Oxirgi qatlam piksellarni ular ifodalagan ob'ektning yorlig'iga ko'ra tasniflash va yakuniy segmentatsiya niqobini ishlab chiqarish uchun softmax funktsiyasini amalga oshiradi [39]. 3.5-rasmda SegNet arxitekturasi ko'rsatilgan.

3.5-rasm:SegNet [9]
Oldingi modellarning asosiy kamchiliklaridan biri ular hisoblashlari kerak bo'lgan o'rgatish mumkin bo'lgan parametrlarning juda ko'pligi bo'lib, xulosa chiqarishda unumdorlikni sezilarli darajada pasaytiradi, bu modellarni real stsenariylarda qo'llash uchun hal qiluvchi talabdir. Shu sababli K. Qi va boshqalar. taklif qilingan X-Net[7], (i) umumiy konvolyutsiya o‘rniga chuqur ajraladigan konvolyutsiyadan foydalanishni hisobga olgan holda va (ii) tarmoqning pastki qismida saqlab qolish uchun xususiyat o‘xshashlik moduli deb nomlangan yangi modulni amalga oshirish orqali oldingi modellarga yaxshilanishlarni amalga oshiradigan model. zarbalar hajmi va joylashuvidagi farqlarni hisobga olgan holda uzoq muddatli kontekstual ma'lumot [12]. Chuqurlikdagi konvolyutsiyadan farqi shundaki, u kirish xususiyati xaritasining har bir kanali bo'ylab oddiy konvolyutsiyani mustaqil ravishda amalga oshiradi. Masalan, RGB tasvirida kirishning har bir kanalida uchta mustaqil konvolyutsiya amalga oshiriladi. Bundan tashqari, ushbu model uchta konvolyutsion qatlamga mos keladigan "X" deb nomlangan blokni amalga oshiradi, ularning har biri 3 yadroli chuqur konvolyutsiyadan boshlanadi.×3, partiyani normallashtirish va ReLU, keyin 1 bilan konvolyutsiya×1 yadro, to'plamni normallashtirish va ReLU. Blokning oxirida oldingi bosqich natijasini bitta konvolyutsiya natijasi bilan 1 bilan birlashtirish uchun qoldiqlardan foydalanadi.× Quyidagi qatlam uchun kirish funksiyasi xaritasini yaratish uchun 1 yadro, ommaviy normalizatsiya va ReLU. Aslini olganda, oldingi qatlamdagi xususiyatlar sonini ikki baravar oshiradigan X blokidan tashkil topgan 4 ta qatlam va maksimal birlashtiruvchi qatlam 2 tadan iborat.×2 tasvir o'lchamlarini kamaytirish uchun. Qo'shimcha X bloki tarmoqning bo'g'oziga yetmasdan oldin amalga oshiriladi; qiyinchilik - bu xususiyat o'xshashlik moduli joylashgan joy va u 3 ni bajaradi×Kirish xususiyatiga 3 ta konvolyutsiya, so'ngra u uch xil konvolyutsiyani ajratadi. Birinchi ikkita natija birlashtiriladi va softmax funktsiyasi qo'llaniladi, so'ngra uchinchi natija bilan birlashtirilib 3-konvolyutsiyani amalga oshiradi.×3. Yakuniy natijalar qoldiqlardan foydalanish va qo'shimcha ma'lumotlarni uzatish uchun modulning dastlabki kiritishi bilan birlashtiriladi [39]. X-Net o'zlarining segmentatsiya vazifalarida oldingi modellarga nisbatan yaxshiroq aniqlik natijalariga erishdi, chunki bu sezilarli yangi ma'lumotlar bilan o'qitish va xulosa chiqarish jarayonini tezlashtirish uchun modelning o'rgatiladigan parametrlarini qisqartirdi [7]. X-Net ATLAS bilan tasvir segmentatsiyasida ikkinchi oʻrinda turadi [15] ma'lumotlar to'plami, xabar qilingan DSC 48,7% 3.6-rasmda X-Net arxitekturasi ko'rsatilgan.

3.6-rasm:X-Net [7]
Miletari va boshqalar. 3D V-Netni taklif qildi[9], arxitekturasi 3D U-Net ga oʻxshash, lekin asosiy farqi shundaki, u koCHO’ovchi va dekoderning har bir qatlamida qoldiqlarni amalga oshiradi, tarmoq chuqurlashgani sari konvolyutsiyalarni oshiradi, yaʼni bir, ikki va uchta konvolyutsiyadan boshlab birbiriga va u oldingi qatlamdagi xususiyatlar sonini ikki barobarga oshiradi. Tarmoqning qiyin bo'g'inida, sonni uchtadan bittaga kamaytirish orqali yuqori namunali konvolyutsiyalarni guruhlashni qo'llaydi; shuningdek, U-Net-dagi kabi kontekstli ma'lumotlarni saqlab qolish uchun o'tkazib yuborish ulanishlaridan foydalanadi va oxirgi qatlam tasvirdagi piksellarni tasniflash uchun softmax faollashtirish funksiyasidan foydalanadi. Prostata tasvirlarini avtomatik segmentatsiyalashda yaxshi natijalarga qaramay [10], bu model tibbiyot sohasidagi boshqa turdagi tasvirlar uchun kengaytirilgan. Asl tarmoqning kirish va chiqish o'lchamlari 128 ga teng×128×64 [39]. 3.7-rasmda V-Net arxitekturasi ko'rsatilgan.

3.7-rasm:V-Net [9]
Zohu va boshqalar. taklif qilingan D-UNet [2], koCHO’ashning dastlabki bosqichida qatlamlar o'rtasida ma'lumot uzatish uchun 2D va 3D konvolyutsiyalarning kuchidan foydalanadigan model. D-Net shuningdek, bashorat qilingan tasvir va asosiy haqiqat o'rtasidagi o'xshashlikni ta'minlab, sinf nomutanosibligi muammosini hal qilish uchun kuchaytiruvchi aralashtirish yo'qotish funktsiyasidan foydalanadi. Tarmoqning ikkita filiali mavjud: biri 192 tani oladi×192×4 ta 2D tasvir va uchta qatlamni o'z ichiga oladi. Birinchi qatlam 2 guruhli 2D konvolyutsiyalarni
amalga oshiradi, so'ngra to'plamni normalizatsiya qiladi, so'ngra 2 ta qo'llaniladi.×2 ta maksimal birlashtiruvchi qatlam, keyin yana 2D konvolyutsiyalar, keyin esa partiyani normalizatsiya qilish. Ikkinchi filial 192 ta oladi×192×4 ×1 ta kirish, bu yerda u 2-guruh 3D konvolyutsiyani amalga oshiradi, keyin esa partiyani normalizatsiya qiladi. Keyin u 3D max birlashtiruvchi qatlamni qo'lladi va natija ham 3D konvolyutsiyalari va partiyani normalizatsiya qilish guruhidan o'tadi. Bu erda filiallar o'lchamni o'zgartirish blokini amalga oshirish orqali birlashtiriladi, bu 3D tasvirning fazoviy o'lchamini 1 yordamida kamaytirish uchun javobgardir.×1×1 konvolyutsiya, uni 3 dan o'tkazish× 3 ta 2D konvolyutsiya va yakuniy natijani 2D tasvir bilan birlashtirish [39]. D-UNet ATLAS bilan tasvir segmentatsiyasida birinchi o'rinni egallaydi [15] ma'lumotlar to'plami, DSC 53,5%. 3.8-rasmda D-Unet arxitekturasi ko'rsatilgan.

3.8-rasm:D-UNet [2]
Nihoyat, Lou va boshqalar. taklif qilingan kontekstli eksenel teskari e'tibor tarmog'i CaraNet [8] o'z dizaynida bir nechta elementlarni amalga oshiradi: (i) magistral, (ii) qisman dekoder, (iii) kanal bo'yicha xususiyatlar piramidasi va (iv) eksenel-teskari diqqat. Magistral bu oldindan o'qitilgan Res2Net modeli bo'lib, u ImageNet ma'lumotlar to'plami tomonidan o'rganilgan vizual tasvirdan olingan xususiyatlarni ajratib olish bilan qoldiq tarmoq dizaynidan foydalanishga imkon beradi. Qisman dekoder moduli tibbiy ob'ektlarning joylashishini taxminan aniqlaydigan xususiyatlarning global xaritasini yaratadi; Kanalga asoslangan xususiyat piramida moduli oldindan o'rgatilgan modeldan faqat ko'p miqyosli xususiyatlarni ajratib oladi va eksenel-teskari e'tibor moduli oddiy o'z-o'ziga e'tibor blokiga nisbatan ko'proq hisoblash resurslarini tejash va ikki o'lchovni bir o'lchamga qisqartirish orqali diqqatni samaraliroq amalga oshiradi. .8], [18]. 3.9-rasmda CaraNet arxitekturasi ko'rsatilgan.

3.9-rasm:CaraNet [8]
3.4 Diqqatga asoslangan modellar Ushbu arxitekturalarning g'oyasi insonning ko'rish qobiliyatiga e'tibor ta'sirini taqlid qilishdan iborat bo'lib, u tasvirdagi aniq tafsilotlarga e'tibor qaratish, ahamiyatsiz elementlarga e'tibor bermaslik va ko'proq tushunish uchun kontekstga oid ma'lumotlardan foydalanishdan iborat. Xuddi shunday, CNN yakuniy o'rganish vazifasiga hissa qo'shadigan ko'proq mos xususiyatlarni olish uchun tasvirning muayyan huduCHO’ariga e'tibor qaratadi [80]. Oqtay va boshqalar. Attention U-Net nomli modelni taklif qildi [46] oshqozon osti bezi tasvirini segmentatsiyalashda qo'llaniladigan alohida xususiyatlarga e'tiborni yaxshilash uchun U-Net tarmog'i dizaynining bir qismi sifatida yumshoq e'tibor eshigini o'z ichiga oladi. Diqqat eshiklari bir xil qatlamning faollashtirish xususiyatlarini hisobga olgan holda, o'tkazib yuborilgan ulanishlardan keladigan ma'lumotlarni aniqlashtirish uchun dekoder qismining har bir qatlamiga kirish sifatida qo'shiladi. Diqqat g'oyasi shundaki, tasvirlardagi ba'zi huduCHO’ar o'rgatiladigan parametrlar sonini haddan tashqari oshirmasdan aniqroq koeffitsientlarni yaratish uchun ko'proq javobgardir. 3.10-rasmda Diqqat U-net arxitekturasi ko'rsatilgan.

3.10-rasm:Diqqat U-Net [46]
3.5 Transformatorga asoslangan modellar 2022 yilda Xatamizade va boshqalar [56], SwinUNETR deb nomlangan tarmoqni taklif qildi, bu transformatorlar asosidagi ierarxik enkoderlarga ega so'nggi arxitektura (dastlab tabiiy tilda qo'llanilgan uzoq muddatli munosabatlarni o'rganish uchun o'z-o'ziga e'tibor berish modullaridan iborat muvaffaqiyatli arxitektura) Qayta ishlash (NLP), lekin u tasvirni segmentatsiyalash ilovalari bilan tibbiy muhitga kengaytirilgan.58, 59]). SwinUNETR, shuningdek, tibbiyot sektoriga miya shishi segmentatsiyasida yordam berish uchun ishlab chiqilgan va u har ikki elementdan har bir qatlam o'rtasida o'tkazib yuborilgan ulanishlar bilan koCHO’ovchi-dekoder arxitekturasiga asoslangan. Birinchidan, tarmoq NLP muammolarini kiritishga o'xshash chiziqli elementlarga ega bo'lish uchun yamoq bo'limini yaratadi, so'ngra har bir bo'lim keyingi qatlamlarda ikki baravar ko'payadigan ma'lum miqdordagi xususiyatlarga ega o'z-o'ziga e'tibor modulini amalga oshiradi. Keyin dekoder chiziqli natijalarni konvolyutsion qatlamlarga aylantirish uchun qayta ishlaydi va koCHO’ovchi qatlamlari ma'lumotlarini o'tkazib yuborish ulanishlari bilan birlashtiradi. Dekoderning har bir qatlami ko'proq kontekstli ma'lumotlarni saqlash uchun qoldiqlardan foydalanadi. ?? ma'lumotlariga ko'ra, ushbu model miya shishi segmentatsiyasida, xususan BraTS 2021 ma'lumotlar to'plamida sinovdan o'tkazildi,

3.11-rasm:SwinUNETR [56]
3.6 Ob'ektni aniqlashga asoslangan modellar Ob'ektlarni aniqlaydigan modellarning yana bir turi bir bosqichli tarmoqlar deb ataladi, chunki ular bir bosqichli jarayonda bu maqsadga erishadilar. Bunday turdagi misollar YOLO va SDD. YOLO (v1) Redmon va boshqalar tomonidan taklif qilingan. 2016 yilda bir vaqtning o'zida keyingi darajalarda bashorat qilish uchun xususiyatlar piramidasi tarmog'idan foydalangan holda. YOLO avval tasvirni panjara katakchasiga ajratadi va u har bir katak uchun biron-bir ob'ektga ega bo'lish ehtimolini hisoblab chiqadi va shunga asoslanib ob'ekt atrofida chegaralovchi quti hosil qiladi.25]. Uning arxitekturasi oxirida 2 ta toʻliq bogʻlangan qatlam bilan 24 ta konvolyutsion qatlamdan foydalanadi. Ob'ektni aniqlash tezligidagi ajoyib natijalariga qaramay, YOLOv1 real vaqt rejimida muhim aniqlash tizimlari uchun mos emas [38,39].

3.12-rasm:YOLO [8]
2017-yilda Redmon va Farhodiy YOLOv2 ni taklif qilishdi, bu toifalar sonini 9000 tagacha kengaytirish, partiyalarni normallashtirishdan foydalanish, o‘quv jarayonida yuqori aniqlikdagi tasvirlardan foydalanish va koordinatalarni emas, balki ofsetlarni bashorat qilish orqali oldingi versiyaga nisbatan yaxshilashni taklif qildi. Ayni paytda YOLOv2 kritik aniqlash tizimlari uchun R-CNN, ResNet va SDD kabi modellarni ortda qoldira oldi. Bir yil o'tgach, Redmon va Farhodi yana YOLOv3 ni taklif qilishdi, chunki ular Darknet-53 ni uning asosiy qismi sifatida tanladilar va ResNet kabi qoldiq qatlamlarni amalga oshirib, aniqlashda yuqori tezlikka erishdilar. YOLOv3 ning quyidagi versiyalari oddiygina ushbu versiyani yaxshilash edi [39].
2020 yilda Bochkovskiy va boshqalar. tavsiya etilgan YOLOv4, u yuqori aniqlikka erishish uchun xususiyatlarning kombinatsiyasini o'z ichiga oladi, masalan, vaznli qoldiq ulanishi (WRC), o'zaro bosqichli-qisman ulanishlar (SCP), o'zaro mini-to'plamli Normalizatsiya (CmBN), o'z-o'zidan raqobatlashuvchi mashg'ulotlar (SAT) va noto'g'ri faollashtirish. Ular shuningdek, Mosaic ma'lumotlarini ko'paytirish, DropBlock tartibga solish va CIoU (Complete-IOU) yo'qotish kabi hiylalarni qo'llaydilar [38]. Xuddi shu yili Long va boshqalar. (2020) Darknet 53 magistralini Resnet 50-V bilan almashtirish, partiya hajmini 196 ga oshirish va IOU Loss, Grid Sensitive va IOU Aware qoʻshish orqali YOLOning takomillashtirilgan versiyasi boʻlgan PP-YOLO ni taklif qildi. ) [39]. Xuddi shunday, Liu va boshqalar. (2016) deb nomlangan arxitekturani taklif qildiSSD(Bir martalik detektor). SSD ikkita elementdan iborat: (i) xususiyatni olish uchun ishlatiladigan ResNet kabi oldindan o'qitilgan CNN bo'lgan magistral va (ii) ob'ekt sinfi va ob'ekt joylashuvini aniqlash uchun konvolyutsion qatlamlar to'plami bo'lgan SSD boshi. SDD tasvirni har bir hujayra o'z ichiga olgan ob'ektni aniqlash uchun mas'ul bo'lgan katakchaga ajratadi. Har bir panjara bir yoki bir nechta langarlarga tegishli bo'lishi mumkin, ularning asosiy vazifasi ob'ektning shakli va joylashuvi kabi xususiyatlari uchun etarlicha moslashuvchan bo'lishdir. Shu tarzda, u tasvirdagi joylashuvidan qat'I nazar, turli shakldagi bir nechta ob'ektlarni aniqlay oladi. Shunday qilib, SSD boshqa shunga o'xshash algoritmlarga qaraganda yaxshi ko'rsatkichga ega bo'lgan ko'krak bezi saratonini aniqlashda ishlatilgan. Fu va boshqalar. (2017) va Cai va boshq., (2016) sezilarli natijalarsiz SSD-da aniqlikni yaxshilashga harakat qilishdi. Biroq,25], [39].

3.13-rasm:SDD [8]
Lin, Goyal va boshqalar. (2017) RetinaNet-ni taklif qildi, chunki oldingi arxitekturalarning ba'zilari sinfning nomutanosib ma'lumotlar to'plamidan kelib chiqqan muammoni hal qilmagan. Shu sababli, RetinaNet foydalanadi.
ta'lim jarayonida ushbu muammoni hal qilish uchun muqobil sifatida fokusli yo'qotish. U ResNet va Feature Pyramid Network (FPN) dan foydalanadi va ularning mualliflariga ko'ra, COCO ma'lumotlar to'plamida sinovdan o'tkazilganda FPNda Faster R-CNN dan oshib ketgan [39].

3.14-rasm:Retina Net [8]
3.7 Hududga asoslangan modellar Vizual aniqlash vazifalarida ajoyib natijalarga ega bo'lgan yana bir yondashuv Girshick va boshqalar tomonidan taklif qilingan R-CNN (Regionga asoslangan konvolyutsion neyron tarmog'i). (2014). Birinchidan, R-CNN tasvirdagi bir qator potentsial ob'ekt huduCHO’arini aniqlaydi, konvolyutsiya qatlamlari bilan ushbu huduCHO’ardan xususiyatlarni chiqaradi va nihoyat ob'ektlarni chegara qutilari bilan o'rab oladi.25,39]. 2015 yilda Girshick o'zining oldingi dizaynining yomon ishlashini bartaraf etish uchun Fast R-CNN deb nomlangan boshqa usulni taklif qildi. Ushbu yangi arxitekturada tarmoq bir vaqtning o'zida ob'ektlarni tasniflaydi va ularning joylashishini chegaralovchi qutilar bilan bashorat qiladi. Qiziqarli huduCHO’arni (RoI) aniqlashning yondashuvi selektiv qidiruv algoritmidan foydalanish va undan so'ng u ob'ektlarning sinf belgilari va chegaralovchi qutini olish uchun tasniflagich qatlamiga kiritilgan xususiyatlarni olish uchun RoI birlashtiruvchi qatlamlarni qo'llaydi. ob'ektlarning koordinatalarini aniqlaydigan regressor, ya'ni bu ikki modul o'qitish va sinov vaqtini qisqartirish uchun birlashtirilgan.25,39]. Ren va boshqalar. (2017) tezroq R-CNN ni taklif qildi, bunda Mintaqaviy Takliflar Tarmog'i (RPN) deb nomlangan NN real vaqt rejimida ob'ektni aniqlash ilovalarida foydalanish uchun barcha oldingi bosqichlarni birida o'z ichiga olishi mumkin.39]. Shunga qaramay, ishlash optimal emas edi va shuning uchun Dai va boshqalar. (2016) ob'ekt holatiga sezgir ball xaritasi bilan to'liq konvolyutsion mintaqaga asoslangan detektorni (R-FCN) taklif qildi. Ushbu dizayn Faster R-CNN ga o'xshash aniqlikni yaratdi, lekin kamroq hisoblash vaqti bilan [39]. U va boshqalar. (2017) Mask R-CNN modelini taklif qildi, u tasniflash va chegaralovchi qutini aniqlash bilan bir qatorda semantik segmentatsiya uchun niqobni aniqlash modulini qo'shadi. U RoI birlashtirishni RoI align bilan almashtiradi va oldingi modellarga qaraganda aniqlikni 40% ga oshiradi [25], [39]. Law and Deng (2018) CornerNet deb nomlangan usulni taklif qildi, u asosan (i) fokus yo'qotishdan foydalangan holda sinf nomutanosibligini hal qilishga va (ii) o'lcham, aspekt, nisbat kabi ko'proq giperparametrlarni qo'shishga yordam beradigan yangi langarsiz modelni amalga oshiradi. va yaxshi aniqlikka erishish uchun langarlar soni. CenterNet (Chjou va boshq., 2019), FCOS (Tian va boshq., 2019) va RepPoints (Yang va boshq., 2019) CornetNet-dan ilhomlangan usullardir [39].

3.15-rasm:Mask R-CNN [8]
3.8 Boshqa modellar 2017 yilda Huang va boshqalar. har bir qatlamni modeldagi barcha voris qatlamlari bilan o'zaro bog'laydigan DenseNet arxitekturasini taklif qildi. Ushbu o'zaro bog'liqlik, shuningdek qoldiq tarmoqlar (ResNet) xususiyatlarning tarqalishini kuchaytiradi va qayta ishlatadi, bu parametrlar sonini kamaytiradi, bu esa xususiyatlarni ajratib olish uchun yanada samarali modelni yaratish imkonini beradi [38]. Uning dizayni 3 ta seriyadan iborat×Har biri to'plamni normallashtirishni amalga oshiradigan 3 ta konvolyutsion qatlam va 2×2 o'rtacha birlashma. Tarmoqdagi oxirgi qatlam tranzaksiya qatlami nomini oladi va u 1 ni bajaradi×To'plamni normallashtirish bilan 1 konvolyutsiya va 2×2 o'rtacha birlashtiruvchi qatlam. Ushbu modelning asosiy kontseptsiyasi funksiyadan qayta foydalanishni yoqish orqali parametrlar sonini kamaytirishdir [25,38].
4-bob. Metodologiya va amalga oshirish Ushbu bo'limda quyidagi jihatlar ko'rib chiqiladi: Birinchidan, ML loyihalaridagi metodologiyaning umumiy ko'rinishi tushuntiriladi; keyin kelajakda takrorlanadigan natijalarni ta'minlash uchun loyihaning to'liq ma'lumotlar liniyasi tasvirlangan. Bundan tashqari, izohli ma'lumotlar to'plami uning ushbu loyihadagi ahamiyati, shuningdek, tibbiy tasvirni o'rganish jarayoni, shu jumladan MRT uchun barcha dastlabki ishlov berish bosqichlarini chuqurroq tushuntirish uchun qamrab olingan. Nihoyat, taklif qilingan CNN arxitekturasining dizayni ko'rsatilgan. 4.1 Mashinani o'rganish operatsiyalari Mashinalarni o'rganish operatsiyalari (MLOps) ML loyihalarida keng qo'llaniladigan yondashuv bo'lib, u ikkala rivojlanish operatsiyalari (DevOps) va ML quvurlari tamoyillarini o'z ichiga oladi.

4.1-rasm:DevOps [68]
DevOps tezkor dasturiy ta'minotni ishlab chiqish amaliyotiga ishora qiladi, uning maqsadi dasturiy ta'minotni ishlab chiqish guruhining biznes operatsiyalari jamoasi bilan dasturiy mahsulotga tezkor o'zgarishlarni ta'minlash uchun sa'yharakatlarini birlashtirishdir.64,65,66,67]. Dasturiy ta'minotni ishlab chiqish guruhi odatda quyidagilardan iborat amaliyotga amal qiladirejalashtirish,koCHO’ash,sinovdan o'tkazish,binovachiqarishdasturiy ta'minot, operatsion guruh ko'proq e'tiborni qaratadisozlash,monitoringvafaoliyat ko'rsatmoqdamijozning fikr-mulohazalarini so'rash va yakuniy mahsulotni yaxshilash uchun tizim. G'oya shundan iboratki, bu birgalikdagi harakatni qisqa vaqt ichida sprintlar deb ataladigan to'liq avtomatlashtirilgan jarayon bilan amalga oshirish, bu ikkita asosiy tushunchaga asoslanadi: uzluksiz integratsiya va uzluksiz yetkazib berish. Uzluksiz integratsiya - bu har bir sprint davomida ishlab chiquvchilar jamoasining mustaqil hissasini asosiy komponentga, ya'ni kodning yakuniy versiyasini o'z ichiga olgan joyga birlashtirishga yondashuv. G'oya jamoalarning mahsuldorligini, samaradorligini oshirish va yuqori sifatli natijalarni taqdim etish uchun ushbu qismni avtomatlashtirishdir [64,65]. Uzluksiz yetkazib berish - bu qo'shimcha yangilanishlar bilan foydalanuvchining fikr-mulohazalariga tez javob beradigan avtomatlashtirilgan dasturiy ta'minot relizlarini ta'minlashga qaratilgan yondashuv; maqsad, yakuniy dasturga ta'sir qilmasdan, xarajatlarni, vaqtni va joylashtirish xavfini minimallashtirishdir [64,65]. Ikkala kontseptsiyaning afzalligi shundaki, dasturiy ta'minotni ishlab chiquvchilar o'rtasidagi hamkorlik natijasida dasturiy ta'minot tizimlari osonlikcha kengayishi mumkin va o'zaro faoliyat guruhlari. Bundan tashqari, versiyalarni boshqarish tizimidan (VCS) foydalanish DevOps strategiyasiga ikkala usulni kiritishni osonlashtirish uchun kalit hisoblanadi, chunki u barcha kod o'zgarishlarini bir joyda kuzatib borish va oldingi versiyalar tarixini saqlash imkonini beradi. [64,67]. Rasmda odatiy DevOps diagrammasi ko'rsatilgan. Bundan farqli o'laroq, ML quvurlari ML muhandislari ML modellarini ishlab chiqish va joylashtirish uchun amal qiladigan jarayonni tavsiflaydi. Umuman olganda, ushbu protsedura quyidagi bosqichlarni o'z ichiga oladi [64,68]: • Ma'lumotlarni chiqarish: ma'lum bir muammoni hal qilishga yordam beradigan turli manbalardan tegishli ma'lumotlarni to'plashni o'z ichiga olgan ma'lumotlarni yig'ish jarayoni.
• Ma'lumotlarni o'rganish: ma'lumotlarning asosiy xususiyatlarini tushuning va ma'lumotlar sifatini oshirish uchun nima kerakligini ko'rib chiqing.
• Ma'lumotlarni tayyorlash: ma'lumotlarni tozalash jarayoni va ma'lumotlarga qo'shimcha o'zgartirishlar, ularni o'qitish, tekshirish va modelni ta'minlaydigan test ma'lumotlar to'plamlariga bo'lish.
• Model tayyorlash: mos modelni tanlash va eng yaxshi modelni tanlash uchun zarur bo'lgan barcha giperparametrlarni sozlash uchun turli xil texnikalar.
• Modelni baholash: prognozlash modelining metrik bahosi samaradorlikni baholash uchun test ma'lumotlar to'plamiga olib keladi.
• Modelni joylashtirish: modelni individual iste'mol qilish yoki boshqa tizimlar bilan integratsiya qilish uchun mavjud qilish.
• Model monitoringi: yangi ma'lumotlar bilan qayta tayyorlash va yangilangan va yuqori model ishlashini saqlab qolish uchun ishlab chiqarish muhitida model ishlashini kuzatib boring. ML muhandislari ma'lum bir ML modeli bilan kerakli natijani ta'minlaydigan eng yaxshi konfiguratsiyani topish uchun iterativ tajribalarni bajarishlari kerak. Shuning uchun, barcha konfiguratsiyalarni ular ishlagan yoki ishlamagan bo'lsa ham kuzatib borish, natijalarni yaxshilashi mumkin bo'lgan boshqa imkoniyatlarni aniqlash kerak. Dasturiy ta'minot komponentlari sifatida ML quvurlari, shuningdek, qayta foydalanish mumkin bo'lgan kodni loyihalash orqali kodning ortiqchaligini bartaraf etish uchun dasturiy ta'minotni ishlab chiqishda eng yaxshi amaliyotlarga amal qilishi kerak. ML quvur liniyasida natijalarning takrorlanishi, shuningdek, ishlab chiqish, ishlab chiqarish va ishlab chiqarish kabi turli muhitlarga modellarni qo'llashda xatolarni kamaytirish uchun juda muhimdir. Shunday qilib, natijalarni bir nechta muhitda takrorlaydigan quvurlarni qayta ishlatish ML modellarini sinab ko'rish, sozlash va osongina joylashtirish uchun kalit hisoblanadi. Nihoyat, Yangi ma'lumotlar bilan uzluksiz o'qitish uchun ishlab chiqarishdagi modellarni monitoring qilish juda muhim, chunki har qanday modelning ishlashi vaqt o'tishi bilan pasayib boradi va bunday modellardan foydalanadigan tizimning funksionalligiga salbiy ta'sir qiladi. DevOps tamoyillariga muvofiq avtomatlashtirilgan jarayonlarga ega bo'lish foydali va ML quvurlarida tavsiya etiladi [64,68,69]. ML jarayonini oldingi bosqichlarning avtomatlashtirish darajasiga qarab uch xil guruhga bo'lish mumkin.68,69]:
• MLOps darajasi 0.ML quvuridagi har bir bosqichning to'liq qo'lda bajarilishi va doimiy integratsiya amaliyotlarining etishmasligi mavjud, chunki modellar muntazam ravishda o'zgarmaydi, ishlash monitoringining to'liq etishmasligiga olib keladi. Bu asosan ML modellarini yaratishning dastlabki bosqichlarida sodir bo'ladi.
• MLOps darajasi 1.Avtomatlashtirish uzluksiz integratsiya, uzluksiz yetkazib berish va uzluksiz sinovga erishish uchun amalga oshiriladi. Ushbu turdagi avtomatlashtirilgan quvur liniyalarining asosiy afzalligi quvur liniyasidagi minimal o'zgarishlar bilan bir nechta tajribalarni amalga oshirish mumkin bo'lgan ob'ektdir; ularni yangi ma'lumotlar bilan qayta tayyorlash va ularning ishlash natijalarini solishtirish uchun qo'shimcha modellarni o'z ichiga olgan holda ishlab chiqarishga takomillashtirilgan modellarni targ'ib qilish uchun tegishli vazifadir.
• MLOps 2 darajasi:Quvurning har bir bosqichida to'liq avtomatlashtirilgan orkestr mavjud bo'lib, u ishlab chiqarishda mustahkam va kengaytiriladigan tizimlarda oson tajriba o'tkazish, model ishlashini faol kuzatish va kerak bo'lganda yangi versiyalarni avtomatik ravishda sozlash va joylashtirish imkonini beradi. 4.2-rasmda 2-darajali ML quvur liniyasi ko'rsatilgan:

4.2-rasm:Uzluksiz o'qitish uchun to'liq avtomatlashtirilgan jarayonlarga ega ML Pipeline Level 2 4.2 Mashinani o'rganish ma'lumotlar uzatish liniyasi Ushbu bo'limda MLOps metodologiyasining bir qismi sifatida ML quvur liniyasining asosiy komponentlari tasvirlangan.
4.2.1 Ma'lumotlarni chiqarish Izohlangan ochiq manba ma'lumotlar to'plami, insultdan keyingi jarohatlarning anatomik izlari (ATLAS) 2.0 nashri, 2021 yil [15], taklif etilayotgan modelni o'qitish uchun ishlatiladi, chunki u butun dunyo bo'ylab 20 ta muassasadagi 33 turli kogortalardan 655 ta anonim bemorlarni o'z ichiga oladi, ularning tegishli lezyonlarga bo'lingan niqoblari bilan. Ikkita ma'lumotlar to'plami taqdim etiladi: trening va test. Trening holatlarida har bir bemor uchun T1 o'lchovli MRT va jarohatning qo'lda segmentlangan niqobi mavjud bo'lsa-da, sinov holatlarida baholash uchun T1 vaznli tasvirlari bo'lgan 300 ta mavzu ko'rib chiqiladi.
maqsaCHO’ar. Modelni o'qitish uchun test ma'lumotlar to'plami tasdiqlash va testga bo'lingan. Shuning uchun, ushbu dissertatsiya uchun 2.6-bo'limda ko'rsatilganidek, uchta asosiy ma'lumotlar to'plamini ko'rib chiqish kerak: o'qitish, tekshirish va sinov. Qo'shimcha ma'lumotlar 4.2.3 bo'limida keltirilgan. Shuni ta'kiCHO’ash kerakki, segmentatsiya niqobi mutaxassislar tomonidan qo'lda yorliqlangan va tasvirlar allaqachon dastlabki ishlov berish jarayonidan o'tgan, jumladan: intensivlikni normallashtirish, standartlashtirilgan shablonga ro'yxatdan o'tish va bunday hujjatlarda ko'rsatilganidek, deformatsiya (yuz tuzilmalarini olib tashlash). maʼlumotlar toʻplami [15].
4.2.2 Ma'lumotlarni o'rganish Ma'lumot to'plash jarayoni tugagandan so'ng, mavjud tibbiy ma'lumotlar bo'yicha tushunishni shakllantirish kerak. Birinchidan, ma'lumotlarni to'plash jarayonida foydalaniladigan skanerlarning bir xilligini hisobga olgan holda ma'lumotlarni o'rganish jarayoni kerak, chunki har bir kogorta bemorning ma'lumotlarini turli xil MRT bo'laklari bilan saqlaydi; bu holda, 4.3-rasmda ko'rsatilganidek, MRT bo'laklari 72 dan 512 gacha.

4.3-rasm:Bemorning MRT ketma-ketliklarining taqsimlanishini ko'rsatadigan gistogramma ATLAS ma'lumotlar to'plami. Ikkinchidan, segmentlangan huduCHO’arga asoslanib, zarbaning taxminiy joylashuvi chiziladi. Ushbu vazifani bajarish uchun (i) har bir rasmning o'lchamini 224 ga o'zgartirish kabi bir necha qadamlar bajarildi.×Taqqoslash uchun 224; (ii) 0 dan 1 gacha bo'lgan piksellarni normallashtirish; (iii) izohli ma'lumotlar to'plamidagi shakl va joylashuvning xilma-xilligini hisobga olgan holda zarbalarni markazlashtirilgan hisoblash. Ushbu hisob-kitobda piksel qiymati 0,6 dan yuqori bo'lgan barcha konturlar uchun kvadratchalar algoritmi ko'rib chiqildi. 4.4-rasmda o'qitish va tekshirish ma'lumotlar to'plamidagi yakuniy taqqoslash tasvirlangan. Uchinchidan, ma'lumotlar to'plamida ularning o'lchamlari bo'yicha zarbalarning taqsimlanishini tushunish uchun zarba maydoniga asoslangan tahlil. Har bir konturning maydoni hisoblab chiqiladi, chunki u butun tasvirga nisbatan miya lezyonini ifodalaydi. Tasvirda tegishli konturlarni saqlab qolish uchun oldingi bosqichga o'xshash qiymati 0,6 bo'lgan bir xil chegara ko'rib chiqiladi. 4.5-rasmda olingan gistogramma tasvirlangan.

4.4-rasm:Treningda (chapda), tekshirishda (o'rtada) va testda (o'ngda) zarba markazlari.

4.5-rasm:Treningda (chapda) va tasdiqlash (o'ngda) ma'lumotlar to'plamida zarba zonalarini taqsimlash.
Nihoyat, ma'lumotlar to'plamidan tasodifiy namunalarni tahlil qiling. MRT tasvirlarining ketma-ketligini tegishli segmentatsiya maskalari bilan ko'rsatish uchun o'quv ma'lumotlaridan o'zboshimchalik bilan bemor tanlandi. Muhim jihat shundaki, har bir bemorning tasvirlarining butun ketma-ketligi NIfTI formatida saqlanadi.19]. 4.6-rasmda tegishli izohi bilan 21 ta bo'lakning namunasi ko'rsatilgan.

4.6-rasm:Alohida 21 MRT tasvirining namunasi va ularning o'xshash lezyon segmentlari.
Har birining ostidagi niqoblar. 4.2.3 Ma'lumotlarni tayyorlash ATLAS ma'lumotlar to'plami bemorlar tomonidan ketma-ketlikning barcha tasvirlari ma'lum bir ma'lumotlar to'plamiga tayinlanganligini ta'minlash uchun bo'linadi. bu holda, dastlabki o'quv ma'lumotlar to'plamidagi tasvirlar o'quv ma'lumotlar to'plamiga tegishli bo'lsa, asl sinov ma'lumotlar to'plami tekshirish va sinov uchun namunalarni taqdim etadi. Har bir ma'lumotlar to'plamining yakuniy nisbati mos ravishda 60%, 30% va 10% ni tashkil qiladi. Boshqacha qilib aytganda, trening 308 NIfTI fayli, 163 NIfTI bo'yicha tekshirish va 184 NIfTI bo'yicha testdan iborat edi. PNG tasvirlari nuqtai nazaridan, tajribalar o'qitish uchun 30K, tasdiqlash uchun 15K va sinov uchun 5K rasmlardan foydalangan. Har bir ma'lumot to'plami uchun alohida papkalar yaratildi, ularda bemor tasvirlari va niqoblarini saqlash uchun ikkita qo'shimcha papka mavjud. Bundan tashqari, tasvir va niqoblar ularni bir-biriga bog'lash jarayonini osonlashtirish va NN treningi davomida izchillikni ta'minlash uchun o'zgartirildi.

4.7-rasm:Ma'lumotlar to'plamini o'qitish, tekshirish va sinovdan o'tkazish uchun ma'lumotlar papkasining tuzilishi Har bir NIfTI faylida uchta tekislik MRT turi mavjud (eksenel, sagittal va koronal tekisliklar). Biroq, ma'lumotlar to'plamida taqdim etilgan segmentatsiya maskalari eksenel ko'rinishga mos keladi. Shuning uchun, eksenel tekislik png formatida individual bemor tasvirlarini saqlash uchun ishlatilgan, chunki u miya shikastlanishlarida xususiyatlarni olish uchun miyaning aniqroq vizual tasvirini beradi. Har bir bemorda mos ravishda kirish tasvirlari va segmentatsiya niqoblarini o'z ichiga olgan ikkita papka mavjud. Jilddagi barcha tasvirlar uchun nomlash qoidasi XXXX.png formatidagi raqamdan iborat bo'lib, bu erda X ketmaketlikdagi raqamni ifodalaydi. Masalan, 130 bo'lakli bemorda tasvir nomlari 0000.png dan 0129.png gacha bo'ladi. Napari [20], barcha png tasvirlarini yaratish uchun asosiy vosita bo'lgan, chunki u muhim tasvir xususiyatlari uchun qiymatlarni o'rnatish imkonini beradi, masalan, (1) yorqinlikni 1 ga teng va (2) tibbiy tasvirlarning ko'rinishini oshirish uchun gamma 1 ga teng. Normalizatsiya 0 yoki 1 qiymatlarini ta'minlash uchun lezyon maskalari uchun qo'llaniladigan yagona transformatsiya edi. Tasvirlarni o'z ichiga olgan kataloglarning namunasi 4.8-rasmda ko'rsatilgan.

4.8-rasm:Ma'lumotlar to'plamini o'qitish, tekshirish va sinovdan o'tkazish uchun ma'lumotlar papkasining tuzilishi ML modellari yaxshiroq umumlashtirish uchun katta hajmdagi ma'lumotlarni talab qilganligi sababli, ushbu yakuniy maqsadga hissa qo'shish uchun ma'lumotlarni ko'paytirish bosqichlari talab qilinadi. Ushbu loyihada quyidagi o'zgarishlar ko'rib chiqiladi:
(1) har bir tasvir uchun bitta kanalning model kiritishiga mos keladigan faqat kulrang o'lchamdagi tasvirlarni ta'minlash, (2) gamma va kontrast qiymatlarini sozlash, tasvirdagi quyuqroq huduCHO’arni ajratib ko'rsatish, (3) tasodifiy aylantirish, 0 orasidagi burchak bilan°va 180°zarba holatini o'zgartirish va modelni o'rganishga yordam berish ular paydo bo'ladigan turli mintaqalar va (5) ikkala rasmdagi tasvir hajmini 224 ga o'zgartirish×224 piksel, modelning kirish o'lchamlarini, bir nechta tajribalardan so'ng aniqlangan o'lchamini va o'qitish va xulosa chiqarish jarayonida ishlashga ta'sir qilmasdan tezlikni oshirish va xotira sarfini kamaytirish uchun eng yaxshiamaliyotlarga rioya qilish uchun [27]. Ba'zi tasvirlarni yakuniy konvertatsiya qilish misolini 4.9-rasmda ko'rish mumkin:

4.9-rasm:Chapdagi ikkala rasmga ham kontrastni sozlash, aylantirish va o‘lchamini o‘zgartirish qo‘llaniladi (kirish va niqob).
4.2.4 Namunaviy trening Moslashtirilgan NN dizayni tibbiy segmentatsiya muammolarida tez-tez ishlatiladigan diqqat bloklari bilan nosimmetrik koCHO’ovchi-dekoder arxitekturasiga asoslangan. Bu erda enkoderning har bir qismi 3 bilan ikkita 2D-konvolyutsiya guruhini qo'llaydi×Xususiyatlar xaritalarini yaratish uchun 3 yadro, toʻldirish 1 va qadam 1. Shuningdek, u ommaviy normalizatsiya bilan chiqishni normallashtiradi va keyin asosiy faollashtirish funktsiyasi sifatida ReLU ni qo'llaydi. 2 bilan maksimal birlashtiruvchi qatlam×2 yadrosi tasvir hajmini yarmiga qisqartirish uchun mas'uldir va qoldiq tarmoqqa o'xshab, har bir qatlam uchun xususiyatlar 64 va 112.×112 piksel, 128 va 56 piksel×56, 256 va 28×28, 512, 14×14. 14 bilan 1024 hosil qilish uchun qo'shimcha konvolyutsiya guruhi qo'shiladi×14 piksel, ya'ni e'tibor blokida ishlatiladigan yuqori namuna olish operatsiyalarining asosiy chizig'i bo'lgan tarmoqning shisha bo'yni kirishi. Diqqat bloki ikkita kirishdan iborat: birinchisi koCHO’ash qatlamidan skip ulanishiga mos keladi, ikkinchisi esa pastki qatlamdan yuqori namuna olish jarayonining natijasidir. Har bir kirish bitta 2D-konvolyutsiyadan o'tadi, so'ngra natijalar bir-biriga qo'shiladi, ReLu funksiyasi orqali faollashtiriladi va keyin kirishlar o'lchamini kichraytirish uchun ularni o'tkazib yuborish ulanishidan keladigan kirish bilan qoldiq sifatida ishlatish uchun yana bir konvolyutsiya qo'shiladi. Shundan so'ng, yana bir namuna olish jarayoni sodir bo'ladi va natija keyingi dekoCHO’ash qatlami uchun quyidagi diqqat blokiga yuboriladi. Xuddi shunday, oxirgi konvolyutsiya sigmasimon funksiya orqali piksellarni faollashtirish va mumkin bo'lgan zarba joyini aniqlash uchun chiqish filtrlarini 64 dan 1 gacha kamaytiradi. 4.10-rasmda ushbu CNNning to'liq arxitekturasi ko'rsatilgan. Tibbiyot sohasida sinf nomutanosibligi tez-tez uchraydigan muammo bo'lib, uni turli nuqtai nazardan hal qilish mumkin:sezgir yo'qotish funktsiyasi, bu erda maqsad turli sinflar misollarida tasniflash to'g'ri bo'lmasa, boshqa xarajatlarni belgilash;haddan tashqari namuna olish, qaysi

4.10-rasm:Tajribalar uchun tavsiya etilgan Diqqat CNN.
asl tasvirlardagi yamoqlardan foydalanadi, bu erda maqsad ozchilik sinfi bilan tasvirlarni ko'paytirish va muvozanatlashdir yokiko'p bosqichli mashg'ulotlar, bu erda tarmoqni qayta tayyorlash uchun alohida sinf taqsimoti qo'llaniladi [14]. Bunday holda, BCE + Dice Loss kabi sezgir yo'qotish funktsiyasini tanlash ushbu muammoni bartaraf etishga yordam beradi, chunki u tasvir segmentatsiyasi bilan bog'liq shunga o'xshash nashrlarda keng qo'llaniladi [7,59], muhim natijalarga erishish. Biroq, ushbu dissertatsiyada aniqroq bo'lish uchun, vaznli BCEDiceLoss funktsiyasi tajribalarda qo'llaniladi, chunki har bir alohida funktsiyaning turli hissasi yaxshiroq natijalar berishi mumkin. Og'irlangan BCEDiceLoss formulasi quyidagicha: Og'irlangan BCEDiceLoss=aBC+b Zar yo'qotish Ta'lim va tekshirish o'rtasidagi ishlashni, shuningdek, mashg'ulot vaqtini bajarishni solishtirish uchun to'rt xil optimallashtiruvchi ko'rib chiqildi: SGD, Adam, AdamW va AdaGrad. O'rganish tezligi tarmoqning eng mos giperparametrini ifodalaganligi sababli, eng yaxshi ishlashga olib kelishi mumkin bo'lgan qiymatlar kombinatsiyasini empirik tarzda sinab ko'rish uchun platoda o'rganish tezligi, ko'p bosqichli o'rganish tezligi va tsiklik o'rganish tezligi kabi turli strategiyalardan foydalanilgan. Tashlab ketish va vaznni pasaytirish muntazamlashtirish uchun ishlatiladigan asosiy strategiyalar, shuningdek, ma'lumotlar namunalarini ko'paytirish uchun ma'lumotlarni ko'paytirishdir [30]. Nihoyat, tasodifiy qidiruv giperparametrlarning turli kombinatsiyasini (davrlar, partiyalar hajmi,a,b, o'rganish tezligi, vaznning pasayishi, momentum) modelni o'rgatish uchun, chunki u eng yaxshi model uchun konfiguratsiyalarning bir nechta kombinatsiyasinibo'rganishning eng oson yo'lini ifodalaydi.

Giperparametr

Qiymat

Davrlar
To'plam hajmi
O'rganish darajasi
Og'irlikning pasayishi
Momentum
ab

30, 50, 80, 100
1, 2, 4, 8, 16, 32
0,01 - 0,00001
0,01 - 0,00001
0,1 - 0,9
0,1 - 1
0,1 - 1

4.1-jadval:Tasodifiy qidiruvda ko'rib chiqilgan giperparametrlar
5-bob. Natijalar
Quyidagi jadvalda test ma'lumotlar to'plamidagi har bir modelning ishlashini baholash uchun tegishli ma'lumotlar jamlangan.

Model

Parametrlar

Oʻrtacha zar ball

Oʻrtacha IoU

Diqqat U-Net (maxsus)
ResU-Net++
U-Net
ResU-Net
Diqqat U-net

57 355 373
14 481 412
1 511 124
13 040 705
1 905 321

11%±0.04
9%±0.24
9%±0.22
9%±0.18
7%±0.25

8%±0.02
6%±0.18
6%±0.16
6%±0.12
5%±0.19

5.1-jadval:Eksperimental natijalar
Shaxsiy ishlashni ko'rsatish uchun quyidagi tasvirlar beshta tasodifiy holat bo'yicha natijalarni ko'rsatadi, bunda model segmentatsiya niqobi berilgan natijani bashorat qilgan. Har bir rasm beshta ustunga bo'lingan bo'lib, ularning har biri mos ravishda kiritilgan tasvirni, asosiy haqiqatni, modelni bashorat qilishni va zarlar hisobini aks ettiradi. Natijalarni segmentatsiya niqobi va model chiqishi o'rtasida miqdoriy jihatdan solishtirish uchun zar balli eng o'ng ustunga qo'shildi.

5.1-rasm:Diqqat U-Net bashorat natijalari

5.2-rasm:ResU-Net++ bashorat natijalari

5.3-rasm:U-Net prognozi natijalari

5.4-rasm:ResU-Net bashorat natijalari

5.5-rasm:Moslashtirilgan Diqqat U-Net bashorat natijalari
6-bob. Baholash Tajribalar 50K tasvirni ko'rib chiqdi: o'qitish uchun 30K (60%), tasdiqlash uchun 15K (30%) va sinov uchun 5K (10%). U-Net, ResU-Net, ResU-Net++, Attention U-Net va moslashtirilgan versiya modellari samaradorlikni baholash, tahlil qilish va yakuniy natijalarni taqqoslash uchun eksperimentlarning bir qismi sifatida ko'rib hiqildi. Barcha modellar har biri 12 Gb bo'lgan 4 ta NVIDIA TITAN X (Paskal) grafik protsessorlarini o'z ichiga olgan tugunga ega Fraunhofer yuqori samarali klasterida o'qitildi. MONAI [22] U-Net, Attention UNet modellarini amalga oshirish uchun tanlangan python ochiq manbali ramka edi, chunki MONAI ushbu arxitekturalarni foydalanishga tayyor holda taqdim etadi. ResU-Net, ResU-Net++ asl nashrida mavjud bo'lgan pytorch versiyalaridan amalga oshirildi, ular Githubda ham mavjud [90] va nihoyat, moslashtirilgan model Pytorch bilan amalga oshirildi [21]. Trening davomida sozlangan giperparametrlar quyidagilar edi: o'rganish tezligi, davrlar soni, optimallashtiruvchi, vaznning pasayishi, momentum, partiya hajmi va ma'lumotlar namunalari soni. Tekshirish ma'lumotlar to'plamida eng yuqori DSC va IoU bilan konfiguratsiyani aniqlash uchun test holatlarining yakuniy natijalari qayd etildi va taqqoslandi. MRT 3D modelda ishlatilishi mumkin bo'lgan 3D ma'lumotlar turi bo'lsa-da, 3D modellardan foydalangan holda olingan natijalar apparat cheklovlari muammosi tufayli 2D modellar bilan olingan natijalardan yuqori emas edi. Shu sababli, joriy yondashuv faqat ishlashni o'lchash uchun 2D-ga asoslangan modellardan iborat edi. Tajribalarimizda (SGD, Adam, AdamW va AdaGrad) turli xil optimallashtiruvchilardan foydalanishga qaramay, yakuniy tanlov Odam bo'ldi, chunki u boshqalariga nisbatan ta'lim va tekshirish ko'rsatkichlarida yaxshi javob va barqarorlikni ko'rsatdi. Barcha modellar yuqori ishlashga erishish uchun 0,9 ga o'rnatilgan impulsdan foydalangan. Quyidagi jadvallar eksperiment davomida eng yaxshi ko'rsatkichlarga mos keladigan har bir model uchun giperparametrlarning yakuniy ro'yxatini ko'rsatadi:

Model

O'rganish darajasi

Davrlar

Download 8,47 Mb.
  1   2




Download 8,47 Mb.

Bosh sahifa
Aloqalar

    Bosh sahifa



Raqamlar ro'yxati VI Jadvallar ro'yxati VIII

Download 8,47 Mb.