Raqamlar ro'yxati VI Jadvallar ro'yxati VIII




Download 8,47 Mb.
bet2/2
Sana28.01.2024
Hajmi8,47 Mb.
#147460
1   2
Bog'liq
dars jadvali narxo\'z 2 semestr.xlsx


Partiya hajmi

Og'irlikning pasayishi

Diqqat Unet
ResU-net
ResU-net++
U-tarmoq
Moslashtirilgan diqqat modeli

1e-3
1e-3
1e-3
1e-3
1e-4

50
50
50
50
30

16
8888

1e-4
1e-5
1e-4
1e-5
1e-5

6.1-jadval:Modellardagi giperparametrlar
Har ikkala va har xil nisbatlarda bir nechta tajribalardan so'ngbvaznli BCEDiceLossda eng yaxshi ko'rsatkich har bir alohida funktsiyaga teng hissa qo'shgan holda Weighted BCDEDiceLoss yordamida olingan (a=b=1). Ushbu yo'qotish funksiyasiga ega modellar uchun yo'qotish funktsiyasi egri chizig'i
6.1-rasmda ko'rsatilgan.
6.1-rasm:Tekshirish ma'lumotlar to'plamidagi barcha modellar uchun yo'qotish
6.1-rasmda tasdiqlash ma'lumotlar to'plamidagi barcha modellarning turli xil yo'qotish egri chiziqlari ko'rsatilgan. Gorizontal o'q tarmoqni o'qitish davridagi davrlarni, vertikal o'q esa yo'qotish qiymatini ifodalaydi. To'q ko'k chiziq Diqqat Unetining yo'qotish egri chizig'ini ta'kiCHO’aydi (41-davrda erishilgan eng past qiymat 0,51), chunki bu model eksperimental natijalar davomida DSCda eng yuqori aniqlikni oldi. To'q sariq chiziq Diqqat U-net bilan ishlashni solishtirish uchun maxsus modelning yo'qolgan xatti-harakatlarini ta'kiCHO’aydi (27-davrda erishilgan eng past qiymat 0,57). ResU-net 24-davrda 0,61 bilan yakunlandi, keyin U-net 0,62 va ResU-net++ 0,70 bilan 28-davrda. Chiziqlar 50 davrga etib bormaydi, chunki joriy chiziqlar eng yaxshi ishlashga erishilgan joyni ko'rsatadi. 6.2-rasmda barcha modellar uchun DSC egri chiziqlari tasvirlangan. Bu modellarning ishlashi baholanadigan ko'rsatkichdir. To'q ko'k chiziq Diqqat U-Net modelining aniqligini 52,2% ko'rsatadi, to'q sariq rangda ko'rsatilgan moslashtirilgan model 45,50% ball bilan 2- o'rinni egalladi. ResU-net 42,6% ballga yetdi, undan keyin 40,8% bilan U-Net va 35,5% qiymati bilan ResU-net++. Xuddi shunday, 6.3-rasmda barcha modellar uchun IoU natijasi ko'rsatilgan. Xuddi shunday, ta'kiCHO’angan ko'k chiziq 37,8% ball bilan Attention U-Netga mos keladi, keyin esa to'q sariq rangda ko'rsatilgan 33,9% bilan tayyorlangan Attention U-net modeli. ResU-Net 31,3%, U-net 29,5%, ResUnet++ esa 24,4% bilan yakunlandi.

6.2-rasm:Tasdiqlash ma'lumotlar to'plamidagi barcha modellar uchun zar bahosi

6.3-rasm:Tekshirish ma'lumotlar to'plamidagi barcha modellar uchun IoU ball
7-bob. Munozara KoCHO’ovchi-dekoderga asoslangan CHO’ arxitekturalari bilan zarbalarni aniqlash, vazifaning murakkabligiga qaramay, taxminiy natijalarni beradi. Aslida, tadqiqotlar shuni ko'rsatadiki, enkoder-dekoder modeli tibbiy segmentatsiya muammolarida samarali ishlashi tufayli keng qo'llaniladi.46,50,59,63, 81]. Buning asosiy sababi shundaki, ushbu arxitekturalar dekoder qismida tegishli xususiyatlarni saqlab qolish uchun o'tkazib yuborilgan ulanishlardan foyda oladi, chunki ular tarmoqning birlashishi uchun barqarorlikni qo'shish uchun ishlatiladi. Bundan tashqari, e'tibor bloklari modellarni ish faoliyatini yaxshilash uchun jihozlaydi, chunki bunday komponentlar tegishli bo'lmagan xususiyatlarni filtrlaydi. Shunga qaramay, modelga qancha elementlar qo'shilgan bo'lsa, unda o'rgatish mumkin bo'lgan parametrlar shunchalik ko'p bo'ladi. Bu U-netni boshqa murakkab modellardan ajratib turadigan asosiy xususiyatdir. Boshqa CNN arxitekturalari o'z dizayniga bir nechta komponentlarni qo'shish orqali bashorat qilishning aniqligini oshirishi mumkin bo'lsa-da, U-net tanlangan guruh orasida eng kam o'rgatiladigan parametrlarga ega eng oddiy modellardan biri bo'lib qolmoqda, bu esa kamroq hisoblash resurslaridan foydalangan holda tezlashtirilgan o'qitish imkonini beradi, Shubhasiz, enkoder-dekoderga asoslangan moslashtirilgan arxitekturani diqqat bilan amalga oshirish, kam parametrli modellarga nisbatan yuqori aniqlikka qaramay, juda ko'p parametrlarga ega CHO’ tarmoqlariga olib keldi. Yangi ko'rinmaydigan ma'lumotlarda o'qitish va bashorat qilish jarayonini tezlashtiradigan optimal modelga ega bo'lish har qanday sohaning, xususan, tibbiy sohaning ikkinchi ustuvor talabidir. Bundan tashqari, ba'zi giperparametrlar tezkor sinov muhitida aniq ishlashga erishish uchun yaxshi ko'rsatkich bo'lishi mumkin bo'lsa-da, muammoni eng yaxshi tarzda hal qiladigan eng mos modelni topish uchun doimiy tajriba va monitoring zarur. ATLAS bilan og'irlikdagi BCEDiceLossning alohida holatida [15] ma'lumotlar to'plami, har bir alohida funktsiyaning hissasi, ayniqsa, ko'proq ma'lumotlar o'quv jarayonining bir qismi bo'lsa, yuqori ko'rsatkichlarga erishish uchun mashg'ulot paytida yakuniy yo'qotishga ta'sir qilmaydi. Shunga qaramay, u nisbatan kichikroq ma'lumotlar to'plamlari bilan ishlashda giperparametr bo'shlig'ida muqobildir. Va nihoyat, model o'qitish va tekshirish ma'lumotlar to'plamini hisobga olgan holda yuqori aniqlikdagi natijalarni ko'rsatishi mumkin. Biroq, modelga ko'rinmaydigan yangi ma'lumotlar taqdim etilganda, model o'quv vazifalarini umumlashtirishda muvaffaqiyatsiz bo'lishi mumkin. Ma'lumotlardagi anomaliyalar, namunaviy ma'lumotlarning asosiy taqsimotidan tashqarida yoki haqiqiy holatlar uchun etarli ma'lumotlarning yo'qligi modelning kutilganidek ishlamasligiga olib kelishi mumkin bo'lgan xavf omillari hisoblanadi.
8-bob. Xulosa
Ushbu dissertatsiyada insultni avtomatlashtirilgan aniqlash uchun ikki bosqichli arxitekturaning birinchi bosqichini bajarish uchun ishlashni solishtirish uchun zarbani aniqlash uchun 2D tasvir segmentatsiyasi modellari amalga oshirildi. Birinchidan, ma'lumotni o'zgartirishning asosiy usullari ATLASdagi tibbiy tasvirlar va shikastlanishlar uchun ishlatilgan.15] ma'lumotlar to'plami, masalan, tasodifiy aylantirish, gamma va kontrastni oshirish, tasvirni yaxshiroq ko'rish va tasvir hajmini 224 gacha o'zgartirish×224 piksel. Ikkinchidan, ikkala model ham koCHO’ovchi-dekoder arxitekturasiga asoslangan bo'lib, u tegishli funksiyalarni faollashtirish xaritalarini chiqarishga yordam beradi va keyin modelning dastlabki qatlamlaridan keladigan kontekstual ma'lumotlarni o'z ichiga olgan kirish bilan bir xil o'lchamdagi yakuniy natija beradi. Uchinchidan, mualliflar o'xshash simmetrik arxitekturalardan, jumladan U-Net, V-Net kabi modellar va U-ning takomillashtirilgan versiyalari kabi boshqa nashrlar xabar qilganiga o'xshash DSC va IoU aniqligiga erishish uchun giper parametrlarning keng doirasi sinovdan o'tkazildi. e'tibor va qoldiq modullarni o'z ichiga olgan tarmoq. Taklif etilgan modellarni takomillashtirish jarayonida har bir alohida funktsiyaning turli hissalarini o'rnatish orqali mumkin bo'lgan aniqlikni yaxshilashni aniqlash uchun vaznli BCEDiceLoss funktsiyasi sinovdan o'tkazildi, chunki tezkor model sinovlarida yuqori aniqlik kuzatildi.
9-bob. Kelajakdagi ishlar
Amalga oshirilgan CNN modeli bemorlarda insultlarni segmentlashda sezilarli aniqlikni beradi; ammo, bunday model 57,3 milliondan ortiq o'rgatish mumkin bo'lgan parametrlarga ega, bu esa modelni sozlashni baholash va bajarish qiyin bo'lgan sekin o'qitish jarayoniga olib keladi. Shuning uchun, bunday protsedurani tezlashtirish va yaxshiroq alternativalarni o'rganishni davom ettirish uchun aniqlikka salbiy ta'sir ko'rsatmasdan parametrlar sonini kamaytirish uchun modelni optimallashtirish zarur. Bundan tashqari, apparat cheklanganligi sababli, 3D modellar modellarni oziqlantiruvchi cheklangan ma'lumotlar namunalari tomonidan ishlab chiqarilgan past unumdorlik tufayli ushbu loyiha doirasidan tashqarida edi. Shunday qilib, 3D modelni o'rganish unumdorlikni oshirishni ko'rsatadigan ishonchli alternativlarni taqdim etishi mumkin, chunki MRT tabiatan 3D tasvirlardir. Shunga qaramay, arxitekturaning birinchi komponentiga alohida e'tibor qaratish zarur, chunki ushbu loyihada avval aytib o'tilgan ma'lumotlar bilan bog'liq muammolar tufayli tasvirni segmentatsiyalashda olingan natijalar qoniqarli emas. Ko'proq tajriba natijalari uchun yuqori sifatli ma'lumotlarni izlash maqsadga muvofiqdir. Darhaqiqat, aniqlikni oshirish uchun tasvirni segmentatsiyalashda qo'shimcha tahlil qilish kerak, chunki zarbani zo'rg'a ko'rish mumkin bo'lgan holatlar mavjud edi, chunki u tasvirning faqat tor qismini qamrab oladi va hech qanday bashorat qilinmadi. Bunday holatlar ushbu dissertatsiyadagi modellarning hech biri tomonidan doimiy ravishda aniqlanmagan. Ushbu stsenariy [da ko'rsatilgan manfaatdor tomonlarni kuchaytiradi.8]. Gemorragik insultning erta tashxisi mutaxassisga bemorlarning miyasidagi baxtsiz hodisalarga tezroq harakat qilish uchun foydali bo'lishi mumkin. Nihoyat, ATLAS maʼlumotlar toʻplami [15] zarbalar soniga oid jadval ma'lumotlari bilan metama'lumotlarni, shuningdek, insult sodir bo'lgan miyaning o'ziga xos yarim sharining qisqacha matnli tavsifini o'z ichiga oladi. Bunday ma'lumotlar taklif qilingan arxitekturaning ikkinchi bosqichida o'quv topshirig'ining aniqligini oshirish uchun qo'shimcha o'zgaruvchilar sifatida ishlatilishi mumkin.
Bibliografiya
[1] S. Chjan, S. Xu, L. Tan, H. Vang va J. Meng, "Chuqur o'rganishga asoslangan MRT tasvirlarida qon tomir lezyonlarini aniqlash va tahlil qilish", Journal of Healthcare Engineering, jild. 2021, p. e5524769, 2021 yil aprel, doi: 10.1155/2021/5524769.
[2] Y. Zhou, W. Huang, P. Dong, Y. Xia va S. Wang, "D-UNet: A Dimension-Fusion U ShapeNetwork for Chronic Stroke Lesion Segmentation", IEEE/ACM Computational Biologytranzaksiyalari va Bioinformatika, jild. 18, yo'q. 3, 940–950-betlar, 2021 yil may, doi:10.1109/TCBB.2019.2939522.
[3] Ö. Chichek, A. Abdulqodir, SS Lienkamp, T. Brox va O. Ronneberger, “3D U-Net: Noyob izohlardan zich hajmli segmentatsiyani oʻrganish”, arXiv: 1606.06650 [cs], 2016-yil, iyun, kirish: 24-aprel, 2022. [Onlayn]. Mavjud: http://arxiv.org/abs/1606.06650
[4] AN Kristensen, "Tibbiy tasvirlarning ma'lumotlar tahlili: KT, MRT, fazali kontrastli roentgen va PET". kg. Lyngby: Daniya Texnik Universiteti, 2016 yil. [5] TE Nichols va boshqalar, "Ma'lumotlarni tahlil qilish va MRT yordamida neyroimagingda almashish bo'yicha eng yaxshi amaliyotlar", Nat Neurosci, jild. 20, yo'q. 3-modda. yo'q. 3, 2017 yil mart, doi: 10.1038/nn.4500.
[6] O. Ronneberger, P. Fischer va T. Brox, “U-Net: biotibbiyot tasvir segmentatsiyasi uchun konvolyutsion tarmoqlar”. arXiv, 2015-yil 18-may. Kirilgan: 2022-yil 01-iyun. [Onlayn]. Mavjud: http://arxiv.org/abs/1505.04597
[7] K. Qi va boshq., “X-Net: Miya insultining lezyon segmentatsiyasi chuqur boʻlinish va uzoq masofali bogʻliqliklarga asoslangan”, arXiv: 1907.07000 [cs, eess], 2019 yil dekabr, doi: 10.1007/978 3-030-32248-9 28.
[8] A. Lou, S. Guan, H. Ko va MH Loew, "CaraNet: kichik tibbiy ob'ektlarni segmentatsiyalash uchun kontekstli eksenel teskari diqqat tarmog'i", Medical Imaging 2022: Rasmni qayta ishlash, San-Diego, Amerika Qo'shma Shtatlari, aprel 2022, b. 11. doi: 10.1117/12.2611802. [9] F. Millatari, N. Navab va S.-A. Ahmadi, "V-Net: Volumetrik tibbiy tasvir segmentatsiyasi uchun to'liq konvolyutsion neyron tarmoqlari", arXiv: 1606.04797 [cs], 2016 yil iyun, kirish: 2022 yil 25 aprel. [Onlayn]. Mavjud: http://arxiv.org/abs/1606.04797 [10] V. Badrinarayanan, A. Kendall va R. Cipolla, “SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation,” arXiv:1511.00561 [cs], 2016 yil oktyabr, kirish: 22-aprel, 22-aprel. [Onlayn]. Mavjud: http://arxiv.org/abs/1511.00561 61
[11] S. Minaee, Y. Boykov, F. Porikli, A. Plaza, N. Kehtarnavaz va D. Terzopoulos, “Image Segmentation using Deep Learning: A Survey,” IEEE Transactions on Pattern Analysis and Machine Intelligence, jild. 44, yo'q. 7, 3523–3542-betlar, iyul 2022, doi: 10.1109/TPAMI.2021.3059968.
[12] M. Soltanpour, R. Greiner, P. Boulanger va B. Buck, "Piksel-darajali klassifikator yordamida bir nechta parallel Utarmoqlardan foydalangan holda KT perfuzion skanerlashda ishemik insult lezyonini bashorat qilish", 2019 yilda IEEE 19-Xalqaro bioinformatika va bioinjeneriya konferensiyasi (BIBE), 2019 yil oktyabr, 957–963-betlar. doi: 10.1109/BIBE.2019.00179.
[13] W. Vu, Y. Lu, R. Mane va C. Guan, "Ma'lumotlarni yangi strategiyasi bilan neyroimaging segmentatsiyasini chuqur o'rganish", 2020 yilda IEEE muhandisligi tibbiyot biologiya jamiyatining (EMBC) 42-yillik xalqaro konferentsiyasi ), 2020 yil iyul, 1516–1519-betlar. doi: 10.1109/EMBC44109.2020.9176537.
[14] A. Clèrigues, S. Valverde, J. Bernal, J. Freixenet, A. Oliver va X. Llado, "To'liq konvolyutsion neyron tarmoqlardan foydalangan holda KT perfuzion tasvirlarida o'tkir ishemik insult lezyon yadrosi segmentatsiyasi", Biologiya va kompyuterlar. Tibbiyot, jild. 115, b. 103487, 2019 yil dekabr, doi: 10.1016/j.compbiomed.2019.103487.
[15] S.-L. Liew va boshqalar, "Insult anatomik miya tasvirlari va qo'lda lezyon segmentatsiyasining katta, ochiq manbali ma'lumotlar to'plami", Sci Data, jild. 5, yo'q. 1-modda. yo'q. 1, fevral 2018, doi: 10.1038/ sdata.2018.11.
[16] V.-D. Heiss, "Ishemik yarim soya: odamda funktsional tasvirlash dalillari", J Cereb Blood Flow Metab, jild. 20, yo'q. 9, 1276–1293-betlar, 2000 yil sentyabr, doi: 10.1097/00004647-200009000-00002.
[17] HJ Audebert va JB Fiebach, "O'tkir ishemik insultda miya tasviri - MRT yoki KTmi?", Curr Neurol Neurosci Rep, jild. 15, yo'q. 3, p. 6, mart 2015 yil, doi: 10.1007/s11910-015-0526-4.
[18] AM Hafiz va GM Bxat, “Namunani segmentatsiyalash boʻyicha soʻrov: eng zamonaviy”, Int J Multimed Info Retr, jild. 9, yo'q. 3, 171–189-betlar, 2020 yil sentyabr, doi: 10.1007/s13735-020-00195-x.
[19] X. Li, PS Morgan, J. Ashburner, J. Smit va C. Rorden, "Neyroimaging ma'lumotlarini tahlil qilish uchun birinchi qadam: DICOMdan NIfTIga konvertatsiya qilish", Journal of Neuroscience Methods, vol. 264, 47–56-betlar, 2016 yil may, doi: 10.1016/j.jneumeth.2016.03.001.
[20] Napari ishtirokchilari (2019). napari: python. doi: 10.5281/zenodo.3555620. https://napari.org/stable/ 2022-yil 13-sentabrda olingan koʻp oʻlchovli tasvirni koʻrish vositasi
[21] Linux fondi. (nd). Pytorch. PyTorch. 2022-yil 13-sentabr, https://pytorch.org/ saytidan olindi.
[22] MONAI loyihasi. (nd). Monai - sun'iy intellekt uchun ochiq tibbiy tarmoq. 2022-yil 13-sentabr, https://monai.io/ saytidan olindi
[23] K. Simonyan va A. Zisserman, “Katta miqyosdagi tasvirni aniqlash uchun juda chuqur konvolyutsion tarmoqlar”. arXiv, 2015-yil 10-aprel. Kirilgan: 2022-yil 02-iyul. [Onlayn]. Mavjud: http://arxiv.org/abs/1409.1556
[24] K. Xe, X. Chjan, S. Ren va J. Sun, "Tasvirni aniqlash uchun chuqur qoldiq o'rganish". arXiv, 2015 yil 10 dekabr. Kirilgan: 2022 yil 02 iyul. [Onlayn]. Mavjud: http://arxiv.org/ abs/1512.03385
[25] Z. Alom, TM Taha, C. Yakopcic, S. Westberg, P. Sidike va MS Nasrin, "Tarix AlexNet dan boshlangan: chuqur o'rganish yondashuvlari bo'yicha keng qamrovli so'rov", p. 39.
[26] Y. Chjan, J. Chu, L. Leng va J. Miao, "Niqob bilan tozalangan R-CNN: Instance segmentatsiyasida ob'ekt tafsilotlarini tozalash tarmog'i", Sensorlar, jild. 20, yo'q. 4, p. 1010, 2020 yil fevral, doi: 10.3390/s20041010.
[27] H. Talebi va P. Milanfar, “Kompyuterni koʻrish vazifalari uchun tasvir oʻlchamlarini oʻzgartirishni oʻrganish”, arXiv, arXiv: 2103.09950, 2021 yil mart. doi: 10.48550/arXiv.2103.09950.
[28] F. Zhuang va boshq., “A Comprehensive Survey on Transfer Learning,” IEEE materiallari, jild. 109, yo'q. 1, 43–76-betlar, 2021 yil yanvar, doi: 10.1109/JPROC.2020.3004555.
[29] S. Jadon, “Semantik segmentatsiya uchun yoʻqotish funksiyalari boʻyicha tadqiqot”, 2020-yilda IEEE Bioinformatika va hisoblash biologiyasida hisoblash intellektiga oid konferentsiya (CIBCB), 2020-yil, oktabr, 1–7-betlar. doi: 10.1109/CIBCB48159.2020.9277638.
[30] Z. Li, K. Kamnitsas va B. Glocker, "Tasvir segmentatsiyasi uchun neyron tarmoqlarda sinf nomutanosibligi ostida ortiqcha moslashishni tahlil qilish", IEEE Trans. Med. Tasvirlash, jild. 40, yo'q. 3, 1065–1077-betlar, 2021 yil mart, doi: 10.1109/TMI.2020.3046692.
[31] S. Sun, Z. Cao, H. Zhu va J. Zhao, "Mashinalarni o'rganish nuqtai nazaridan optimallashtirish usullarini o'rganish", IEEE Trans. Cybern., jild. 50, yo'q. 8, 3668–3681-betlar, 2020 yil avgust, doi: 10.1109/TCYB.2019.2950779.
[32] V.-D. Heiss, "Ishemik yarim soya: odamda funktsional tasvirlash dalillari", J Cereb Blood Flow Metab, jild. 20, yo'q. 9, 1276–1293-betlar, 2000 yil sentyabr, doi: 10.1097/00004647-200009000-00002.
[33] A. Voulodimos, N. Doulamis, A. Doulamis, va E. Protopapadakis, "Kompyuterni ko'rish uchun chuqur o'rganish: qisqacha sharh", Computational Intelligence and Neuroscience, jild. 2018, 1– 13-betlar, 2018, doi: 10.1155/2018/7068349.
[34] S. Sharma, S. Sharma va A. Athaiya, “Neyron tarmoqlarda faollashtirish funksiyalari”, IJEAST, jild. 04, yo'q. 12, 310–316-betlar, 2020 yil may, doi: 10.33564/IJEAST.2020.v04i12.054.
[35] SK Kumar, "Chuqur neyron tarmoqlarda vaznni ishga tushirish to'g'risida". arXiv, 2017-yil 02-may. Kirilgan: 2022-yil 13-iyul. [Onlayn]. Mavjud: http://arxiv.org/abs/1704.08863
[36] Q. Li, M. Yan va J. Xu, “Toʻgʻri moslashish va haddan tashqari moslashishni yumshatish orqali konvolyutsion neyron tarmoq ish faoliyatini optimallashtirish”, 2021-yilda IEEE/ACIS 19. Kompyuter va axborot fanlari boʻyicha xalqaro konferensiya (ICIS), Shanxay, Xitoy, 2021 yil iyun, 126–131-betlar. doi: 10.1109/ICIS51600.2021.9516868.
[37] Q. Vu, Y. Liu, Q. Li, S. Jin va F. Li, "Kompyuterni ko'rishda chuqur o'rganishni qo'llash", p. 6.
[38] J. Chai, H. Zeng, A. Li va EWT Ngai, "Kompyuterni ko'rishda chuqur o'rganish: rivojlanayotgan texnikalar va dastur stsenariylarini tanqidiy ko'rib chiqish", Ilovalar bilan Machine Learning, jild. 6, p. 100134, 2021 yil dekabr, doi: 10.1016/j.mlwa.2021.100134.
[39] X. Liu, L. Song, S. Liu va Y. Zhang, "Chuqur o'rganishga asoslangan tibbiy tasvirni segmentatsiyalash usullarini ko'rib chiqish", Barqarorlik, jild. 13, yo'q. 3-modda. yo'q. 3 yanvar 2021 yil, doi: 10.3390/su13031224.
[40] S. Studer va boshqalar, “CRISP-ML(Q) tomon: Sifat kafolati metodologiyasi bilan mashinani oʻrganish jarayoni modeli”, MAKE, jild. 3, yo'q. 2, 392–413-betlar, 2021 yil aprel, doi: 10.3390/ make3020020.
[41] L. Alzubaidi va boshqalar, "Chuqur o'rganishni ko'rib chiqish: tushunchalar, CNN arxitekturalari, muammolar, ilovalar, kelajak yo'nalishlari", Katta ma'lumotlar jurnali, jild. 8, yo'q. 1, p. 53, 2021 yil mart, doi: 10.1186/ s40537-021-00444-8.
[42] R. Soto-Cámara, JJ Gonsales-Bernal, J. Gonsales-Santos, JM Aguilar-Parra, R. Trigueros va R.Lopez-Liria, "Insult bemorlaridagi belgilar va xavf omillari haqida bilim", JCM, jild. 9, yo'q. 8, p. 2557, 2020 yil avgust, doi: 10.3390/jcm9082557.
[43] AT Tursynova, BS Omarov, OA Postolache va MZ Sakypbekova, "Qurilish tasvirini aniqlash uchun konvolyutsion chuqur o'rganish neyron tarmoqlari: ko'rib chiqish", . , , , jild. 112, yo'q. 4-modda. yo'q. 4, dekabr 2021 yil, doi: 10.26577/JMMCS.2021.v112.i4.09.
[44] N. Burgos, S. Bottani, J. Faouzi, E. Thibeau-Sutre va O. Colliot, "Miya kasalliklari uchun chuqur o'rganish: ma'lumotlarni qayta ishlashdan kasallikni davolashgacha", Bioinformatikadagi brifinglar, jild. 22, yo'q. 2, 1560–1576-betlar, 2021 yil mart, doi: 10.1093/bib/bbaa310.
[45] Z. Zhang, Q. Liu va Y. Vang, "Chuqur qoldiq U-Net orqali yo'l qazib olish", IEEE Geosci. Masofadan zonCHO’ash Lett., jild. 15, yo'q. 5, 749–753-betlar, 2018 yil may, doi: 10.1109/LGRS.2018.2802944.
[46] D. Jha va boshqalar, “ResUNet++: Tibbiy tasvir segmentatsiyasi uchun ilg'or arxitektura”. arXiv, 16-noyabr, 2019-yil. Kirilgan: 2022-yil, 02-avgust. [Onlayn]. Mavjud: http:// arxiv.org/abs/1911.07067
[47] O. Oktay va boshq., “Diqqat U-Net: Oshqozon osti bezini qayerdan qidirishni oʻrganish”. arXiv, may 20, 2018. Kirilgan: 2022 yil 02 avgust. [Onlayn]. Mavjud: http://arxiv.org/abs/1804.03999
[48] D. Weishaupt, VD Köchli va B. Marincek, “MRT qanday ishlaydi? magnit-rezonans tomografiyaning fizikasi va funksiyasiga kirish”, 2-nashr. Berlin; Nyu-York: Springer, 2006 yil.
[49] A. Berger, "Bu qanday ishlaydi?: Magnit-rezonans tomografiya", BMJ, jild. 324, yo'q. 7328, 35–35-betlar, 2002 yil yanvar, doi: 10.1136/bmj.324.7328.35.[50] I. Rizvan I Haque va J. Neubert, "Biomedikal tasvirni segmentatsiyaga chuqur o'rganish yondashuvlari", Informatics in Medicine Unlocked, jild. 18, b. 100297, 2020, doi:10.1016/j.imu.2020.100297.
[51] B. Liu, ""Zaif AI" hech qachon "kuchli sun'iy intellekt"ga aylanmasligi mumkin, shuning uchun biz uchun uning eng katta qiymati nima?" arXiv, 2021-yil 28-mart. Kirilgan: 2022-yil 07-avgust. [Onlayn]. Mavjud: http:// arxiv.org/abs/2103.15294
[52] CM Bishop, "Neyron tarmoqlari va ularning ilovalari", Neyron tarmoqlari, p. 31.
[53] WW McCulloch va V. Pitts, A Logical Calculus of Ideas Inminent in Nervous Activity,Bulletin of Mathematical Biophysics, 5:115–133, 1943.
[54] W. Pitts va WW McCulloch, How We Know Universallar, Matematik biofizika xabarnomasi, 9:127147, 1947.
[55] D. Andina, A. Vega-Corona, JI Seijas va J. Torres-Garcìa, "Neyron Networks Historical Review", Computational Intelligence, D. Andina va DT Pham, Eds. Boston, MA: Springer US, 2007, 39-65-betlar. doi: 10.1007/0-387-37452-3 2.
[56] A. Xatamizadeh, V. Nath, Y. Tang, D. Yang, H. Roth va D. Xu, “Swin UNETR: MRT tasvirlarida miya shishlarining semantik segmentatsiyasi uchun Swin transformatorlari”. arXiv, 2022 yil 04 yanvar. Kirilgan: 2022 yil 10 avgust. [Onlayn]. Mavjud: http://arxiv.org/abs/2201.01266
[57] S. Khan, M. Naseer, M. Hayat, SW Zamir, FS Khan va M. Shah, "Transformers in Vision: A Survey", ACM Comput. Surv., p. 3505244, 2022 yil yanvar, doi: 10.1145/3505244.
[58] A. Dosovitskiy va boshqalar, “Tasvir 16x16 Soʻzlarga arziydi: Oʻlchamdagi tasvirni aniqlash uchun transformatorlar”. arXiv, 03-iyun, 2021-yil. Kirilgan: 2022-yil, 11-avgust. [Onlayn]. Mavjud: http://arxiv.org/abs/2010.11929
[59] A. Xatamizadeh va boshq., “UNETR: 3D tibbiy tasvir segmentatsiyasi uchun transformatorlar”. arXiv, 09-oktabr, 2021-yil. Kirilgan: 2022-yil, 11-avgust. [Onlayn].Mavjud: http://arxiv.org/abs/2103.10504
[60] H. Chjan, L. Chjan va Y. Jiang, "Chuqur o'rganishga asoslangan end-to-end aloqa tizimlari uchun haddan tashqari moslash va noto'g'ri tahlil qilish", 2019 yilda Simsiz aloqa va signallarni qayta ishlash bo'yicha 11-xalqaro konferentsiya (WCSP), Xi 'an, Xitoy, 2019 yil oktyabr, 1–6-betlar. doi:10.1109/WCSP.2019.8927876.
[61] N. Srivastava, G. Hinton, A. Krizhevskiy, I. Sutskever va R. Salahutdinov, “Tarkibni tashlab ketish: Neyron tarmoqlarni haddan tashqari o'rnatishdan himoya qilishning oddiy usuli”, s. 30.
[62] Preston, DC (2016 yil 7 aprelda ko'rib chiqilgan). Miya va umurtqa pog'onasining magnitrezonans tomografiyasi (MRT): asoslar. MRTnbsp; ASOSLAR. 2022-yil 12-avgust, https://case.edu/med/neurology/NR/MRT%20Basics.htmdan olindi
[63] Esteva, A., Chou, K., Yeung, S., Naik, N., Madani, A., Mottagi, A., Liu, Y., Topol, E., Dean, J., Socher, R. (2021). Chuqur o'rganishga asoslangan tibbiy kompyuter ko'rish. Npj Digital Medicine, 4(1), 5. https://doi.org/10.1038/s41746-020-00376-2
[64] Karamitsos, I., Albarhami, S., Apostolopoulos, C. (2020). Mashinani o'rganish uchun DevOps uzluksiz avtomatlashtirish amaliyotlarini qo'llash. Ma'lumot, 11(7), 363. https://doi.org/10.3390/info11070363
[65] Ebert, C., Gallardo, G., Hernantes, J., Serrano, N. (2016). DevOps. IEEE Software, 33(3), 94–100. https://doi.org/10.1109/MS.2016.68
[66] Makinen, S., Skogstrom, H., Laaksonen, E., Mikkonen, T. (2021). MLOps kimga kerak: ma'lumotlar olimlari nimaga erishmoqchi va MLOps qanday yordam berishi mumkin? 2021 IEEE/ACM AI muhandisligi boʻyicha 1-seminar – AI uchun dasturiy taʼminot muhandisligi (WAIN), 109–112. https://doi.org/10.1109/WAIN52551.2021.00024
[67] Lvakatare, LE, Crnkovich, I., Bosch, J. (2020). AI uchun DevOps - sun'iy intellektga ega ilovalarni ishlab chiqishdagi qiyinchiliklar. 2020 Dasturiy taʼminot, telekommunikatsiya va kompyuter tarmoqlari boʻyicha xalqaro konferensiya (SoftCOM), 1–6. https://doi.org/ 10.23919/SoftCOM50211.2020.9238323
[68] Google Cloud. 2020. Oxirgi yangilangan 2020-yil, 7-yanvar, MLOps: Mashinani oʻrganishda uzluksiz yetkazib berish va avtomatlashtirish quvurlari — Cloud Architecture Center — Google Cloud. [onlayn] Mavjud: https://cloud.google.com/architecture/mlops-continuous-delivery-andautomation-pipelinesin-machine-learning, 2022-yil 25-avgustda foydalanilgan.
[69] Garg, S., Pundir, P., Rati, G., Gupta, PK, Garg, S., (2021). MLOps yordamida mashinani o'rganish modellarini avtomatlashtirilgan joylashtirish uchun uzluksiz integratsiya / uzluksiz yetkazib berish to'g'risida. 2021 IEEE Toʻrtinchi Xalqaro sunʼiy intellekt va bilim muhandisligi konferensiyasi (AIKE), 25– 28.https://doi.org/10.1109/AIKE52691.2021.00010 Ahlavat, S.
[70] I. Gudfello, Y. Benjio va A. Kurvil. Chuqur o'rganish. MIT Press, 2016. http://www.deeplearningbook.org.
[71] Kukačka, J., Golkov, V., Cremers, D. (2017). Chuqur o'rganish uchun tartibga solish: Taksonomiya (arXiv: 1710.10686). arXiv. http://arxiv.org/abs/1710.10686
[72] Kelleher, JD (2019). 3-bob, Neyron tarmoqlar: chuqur o'rganishning asosiy bloklari. Chuqur o'rganishda (65-100-betlar). insho, The Mit Press. [73] Glorot, X., Bengio, Y. (nd). Oldinga chuqur neyron tarmoqlarni o'rgatish qiyinligini tushunish. 8.
[74] U, K., Chjan, X., Ren, S., Sun, J. (2015). Rektifikatorlarni chuqur o'rganish: ImageNet tasnifida inson darajasidan oshib ketish (arXiv: 1502.01852). arXiv. http://arxiv.org/abs/1502.01852
[75] Katanforoosh https://www.deeplearning.ai/ai-notes/initialization/Kunin, "Neyron tarmoqlarni ishga tushirish", deeplearning.ai, 2019.
[76] Ruder, S. (2017). Gradient tushishini optimallashtirish algoritmlariga umumiy nuqtai (arXiv:1609.04747). arXiv. http://arxiv.org/abs/1609.04747
[77] Wang, ZJ, Turko, R., Shaikh, O., Park, H., Das, N., Hohman, F., Kahng, M., Polo Chau, DH (2021). CNN Explainer: Interaktiv vizualizatsiya bilan konvolyutsion neyron tarmoqlarni o'rganish. Vizualizatsiya va kompyuter grafikasi bo'yicha IEEE operatsiyalari, 27(2), 1396–1406. https://doi.org/10.1109/TVCG.2020.3030418
[78] Ibm.com. 2022. Kompyuterni ko'rish nima? ¡https://www.ibm.com/topics/computer-vision¿ [Kirish 2022-yil 29-avgust].- IBM. [onlayn] Bu yerda mavjud:
[79] Huang, TS (nd). Kompyuterni ko'rish: evolyutsiya va va'da. 5.
[80] Bhatt, D., Patel, C., Talsania, H., Patel, J., Vaghela, R., Pandya, S., Modi, K., Ghayvat, H. (2021). Kompyuterni ko'rish uchun CNN variantlari: tarix, arxitektura, qo'llash, muammolar va kelajak doirasi. Elektronika, 10(20), 2470. https://doi.org/10.3390/electronics10202470
[81] Pham, CHO’, Xu, C., Prince, JL (nd). Tibbiy tasvirni segmentatsiyalashning joriy usullarini o'rganish. Tasvir segmentatsiyasi, 27.
[82] Hofiz, AM, Bhat, GM (2020). Namuna segmentatsiyasi bo'yicha so'rov: San'at darajasi. Multimedia ma'lumotlarini qidirish xalqaro jurnali, 9(3), 171–189. https://doi.org/ 10.1007/s13735-020-00195-x
[83] Kim, D., Vu, S., Li, J.-Y., Kweon, IS (nd). Videoning panoptik segmentatsiyasi. 10.
[84] Milioto, A., Behley, J., McCool, C., Stachniss, C. (2020). Avtonom haydash uchun LiDAR panoptik segmentatsiyasi. 2020 IEEE/RSJ Intellektual robotlar va tizimlar boʻyicha xalqaro konferensiya (IROS), 8505–8512. https://doi.org/10.1109/IROS45743.2020.9340837
[85] Zou, Z., Shi, Z., Guo, Y., Ye, J. (2019). 20 yil ichida ob'ektni aniqlash: tadqiqot (arXiv:1905.05055). arXiv. http://arxiv.org/abs/1905.05055
[86] Fu, J., yoshni belgilash. Signal va axborotni qayta ishlash bo'yicha APSIPA operatsiyalari, 6(1).https://doi.org/10.1017/ATSIP.2017.12 Rui, Y. (2017). Imkoniyatlar uchun chuqur o'rganish yondashuvlaridagi yutuqlar
[87] Castiglioni, I., Rundo, L., Codari, M., Di Leo, G., Salvatore, C., Interlenghi, M.,Gallivanone, F., Cozzi, A., D'Amico, NC, Sardanelli, F. (2021). AI ilovalari tibbiy tasvirlarga: mashinani o'rganishdan chuqur o'rganishgacha. Physica Medica, 83, 9-24. https://doi.org/10.1016/j.ejmp.2021.02.006
[88] Chinnamgari, SK (2019). 1-bob. R mashinasini oʻrganish loyihalarida: r 3.5 (8–20-betlar) yordamida nazorat ostidagi, nazoratsiz va mustahkamlovchi oʻrganish usullarini amalga oshiring. insho, Packt nashriyoti. [89] Singx, J., Banerji, R. (2019). Yagona va ko'p qatlamli perseptron neyron tarmog'ini o'rganish. 2019 Hisoblash metodologiyalari va kommunikatsiyalari bo‘yicha 3-xalqaro konferensiya (ICCMC), 35–40. https://doi.org/10.1109/ICCMC.2019.8819775
[90] Rishikesh. (nd). Rishikksh20/ResUnet: ResUnet va resunet-ni Pytorch orqali amalga oshirish + + . GitHub. 2022-yil 11-avgust, https://github.com/rishikksh20/ResUnet saytidan olindi
[91] Alison Scarpa, OTRL (2020-yil, 22-iyun). Qon tomirlarining qanday turlari bor? NEO-FECT blogi. 2022-yil 7-avgust, https://www.neofect.com/us/blog/what-arete-different-types-ofstroke saytidan olindi
[92] Preston, DC (Ko'rib chiqilgan 2016 yil, 7 aprel). Miya va umurtqa pog'onasining magnitrezonans tomografiyasi (MRT): asoslar. MRTnbsp; ASOSLAR. 2022-yil 12-avgust, https://case.edu/med/neurology/NR/MRT%20Basics.htm dan olindi
[93] Chjou, I. (2021 yil, 7 iyul). Machine Learning bilan namunaviy trening. Uchish AI. 2022-yil 11-avgust, https://landing.ai/model-training-with-machine-learning/ dan olindi.
Download 8,47 Mb.
1   2




Download 8,47 Mb.

Bosh sahifa
Aloqalar

    Bosh sahifa



Raqamlar ro'yxati VI Jadvallar ro'yxati VIII

Download 8,47 Mb.