|
Chiziqli regressiya tushunchasi. Ikkinchi darajali polynomial regressiya tushunchasi
|
bet | 2/4 | Sana | 20.05.2024 | Hajmi | 0,56 Mb. | | #246584 |
Bog'liq mashinaliq oqitishDataset yaratish: numpy yordamida 20 ta qator va 10 ta ustundan iborat tasodifiy sonlar bilan to'ldirilgan dataset yaratadi.
DataFrame: pandas yordamida datasetni DataFrame formatida saqlaydi va ustunlarga nom beradi.
Maqsadli o'zgaruvchi: Datasetga maqsadli o'zgaruvchini (Target) qo'shadi.
Ma'lumotni ajratish: Ma'lumotlarni o'qitish va test setlariga ajratadi (train_test_split).
Model yaratish: sklearn kutubxonasidagi LinearRegression modelini yaratadi va o'qitadi.
Natijalarni baholash: Test setida bashorat qiladi va Mean Squared Error (MSE) ni hisoblaydi.
Natijamiz:
Dataset:
Feature_1 Feature_2 Feature_3 ... Feature_8 Feature_9 Feature_10
0 0.496714 -0.138264 0.647689 ... 0.767435 -0.469474 0.542560
1 -0.463418 -0.465730 0.241962 ... 0.314247 -0.908024 -1.412304
2 1.465649 -0.225776 0.067528 ... 0.375698 -0.600639 -0.291694
3 -0.601707 1.852278 -0.013497 ... -1.959670 -1.328186 0.196861
4 0.738467 0.171368 -0.115648 ... 1.057122 0.343618 -1.763040
2-Chiziqli regressiya tushunchasi. Ikkinchi darajali polynomial regressiya tushunchasi. y=wx+b va y=w1x2+w2x+b funksiyalardagi og`irliklar va bias qiymatlarini topish. Gradient pastlash va Loss grafigi.
Chiziqli regressiya (linear regression) bir xususiyatning (y) boshqa bir yoki bir nechta xususiyatlarning (x1, x2, ..., xn) o'rtasidagi bog'lovchilarni (w1, w2, ..., wn) hisoblash uchun ishlatiladi. Uning formulasi y=wx+b shaklida ifodalangan, bu yerda w - og'irliklar (weights), b - bias deb ataladi. Bu formulani gradient pastlash yordamida, yani y(x) = wx+b - y funksiyasi va uning nuqtaga qarshi gradinetni hisoblab, w va b ni yangilash orqali amalga oshiriladi.
Ikkinchi darajali polynomial regressiya (second-degree polynomial regression) esa y=w1x^2+w2x+b formulasi yordamida ifodalangan, bu yerda x^2 - x ning kvadrati, w1 - x^2 uchun og'irlik, w2 - x uchun og'irlik, b - bias.
Gradient pastlashda har bir og'irlik va bias uchun gradientni hisoblashda juda muhim bo'lgan dastlabki hodisalar bo'ladi. Unda, hamma og'irlik va biasni teskari yo'nalishga surib chiqish, uning o'zgarishiga qarshi gradientni topish, va gradientni ko'rsatuvchi orqali og'irlik va biaslarni yangilash, ya'ni w = w - alpha * dw, b = b - alpha * db formulalariga asosan, alpha - o'zgaruvchan qadam hajmi.
Loss (xotira) grafigi esa modelning qanday ishlashini vizualizatsiya qiladi. Ushbu grafikda x o'qida urunishlar soni yoki gradientning o'zgarishiga qarab modelning qanday to'g'ri ishlayotgani ko'rsatiladi. Qanday to'g'ri ishlashi deganda, modelning qanday to'g'ri yoki yomon natijalarni qaytarishini anglatadi. Bu esa, og'irlik va biasni qanday yangilashlarni qilishimiz kerakligini tasavvur qilishda yordam beradi.
|
| |