|
1. Sun’iy intellek nima? Mashinali o‘qitish va suniy intellekt
|
bet | 28/32 | Sana | 20.12.2023 | Hajmi | 46,87 Kb. | | #125194 |
Bog'liq mashinaliModel xususiyatlari: Mashinali o'qitish modellari odatda bir nechta yonlab turar va uni parametrlarini moslash uchun o'zgaruvchilarni o'rganadi. Lekin chuqur o'qitishda modellar murakkablik darajasi, sinflar soni va parametrlar juda ko'p bo'lishi mumkin.
Algoritmlar: Mashinali o'qitishda qisqa va ko'p o'zgaruvchili modellar ishlatiladi, ammo chuqur o'qitishda neural tarmoqlar va qattiq qo'llaniladigan modellar foydalaniladi.
Chuqur o'qitish mashhur bo'lib, juda murakkab ma'lumotlar ustida yaxshi natijalarni chiqarishda yordam beradi, ammo u yuqori kuch va ma'lumotlar soni talab qiladi. Mashinali o'qitish esa, odatiy va o'zgaruvchili ma'lumotlar ustida yaxshi natijalarni chiqarishda yaxshi ishlaydi va ko'p turlarda keng qo'llaniladi.
40. Softmax faollashtirish funksiyasi, qo‘llanishdan maqsad.
ChatGPT
Softmax faollashtirish funksiyasi, masofaviy sinflandirish modellarining ayrim chiziqlarini hisoblashda va sinflarni aniqlovchilik jarayonida ishlatiladi. Uchuvchi ma'lumotlarni sinflarga bo'lish va har bir sinfning ehtimolini (e'tirozini) hisoblashda qo'llaniladi.
Softmax funksiyasi kategorik ma'lumotlarni sinflandirishda ishlatiladi va quyidagi formula orqali amalga oshiriladi:
P(yi∣x)=∑j=1Kexjexi
Bu yerda:
P(yi∣x) – x ma'lumotlari berilgan holda yi sinfning ehtimoli.
xi – i-chi sinfning beringan ma'lumotlar.
K – sinflar soni.
e – eksponenta.
Softmax funksiyasi odatda ko'p sinflardagi sinflandirish modellari (masalan, Logistik regressiya va kategorik ma'lumotlarni sinflandirishning nuqtaviy neural tarmoqlari) uchun boshqaruvchi faollashtirish funksiyasi sifatida ishlatiladi. Ushbu funksiya berilgan ma'lumotlarni sinflarga bo'lish va har bir sinfning ehtimolini hisoblashda yordam beradi.
Softmax funksiyasining maqsadi, beringan ma'lumotlarni sinflarga bo'lish orqali har bir sinfning ehtimolini aniqlash va sinflandirish jarayonida eng yaxshi sinfni tanlashda yordam berishdir. Bu funksiya esa, ehtimolni hisoblashda va modelning chiziqlarini boshqarishda juda foydali bo'ladi.
41. ReLU faollashtirish funksiyasi. Uning boshqa varinatlari (Leaky ReLU, parametrik ReLU)
ChatGPT
ReLU (Rectified Linear Unit) – bu faollashtirish funksiyasi, chuqur o'rganuvchili tarmoqlarda va sinflandirish modellarida juda keng qo'llaniladi. Bu funksiya aktivatsiya funksiyasi sifatida ishlaydi va odatda chuqur o'qitishda (deep learning) foydalaniladi. ReLU funksiya o'z xususiyatlariga ega:
f(x)=max(0,x)
Bu yerda x ma'lumot, f(x) esa aktivatsiya natijasi bo'ladi. x musbat bo'lsa, f(x) o'sadi, lekin manfiy bo'lsa, f(x) nolga teng bo'ladi. Bu funksiya odatda ishonchli va tez ishlaydi, shuningdek, murakkab modellar uchun ham yaxshi natijalarni chiqaradi.
Boshqa ReLU funksiyalarining turli variantlari ham mavjud:
Leaky ReLU: Bu funksiya ReLUning o'zgartirilgan varianti bo'lib, manfiy qiymatlarda ham nol bo'lmaydi. Leaky ReLU manfiy qiymatlarni qo'llash orqali funksiyani o'zgartiradi:
f(x)={x,ax,agar x>0boshqa holatda
Bu yerda a – o'zgaruvchilik bo'lib, odatda u juda kichik qiymat, masalan, 0.01 bo'ladi.
|
| |