Mula sa praktikal na pananaw, ang L1 ay may posibilidad na paliitin ang mga coefficient sa zero samantalang ang L2 ay may posibilidad na paliitin ang mga coefficient nang pantay-pantay. Samakatuwid, ang L1 ay kapaki-pakinabang para sa pagpili ng tampok, dahil maaari nating i-drop ang anumang mga variable na nauugnay sa mga coefficient na napupunta sa zero. Ang L2, sa kabilang banda, ay kapaki-pakinabang kapag mayroon kang collinear/codependent na mga feature.
Ano ang gamit ng regularization Ano ang L1 at L2 regularization?
Ang
L1 regularization ay nagbibigay ng output sa binary weights mula 0 hanggang 1 para sa mga feature ng modelo at pinagtibay para sa pagpapababa ng bilang ng mga feature sa isang malaking dimensional na dataset. Ang regularization ng L2 ay nagpapakalat ng mga termino ng error sa lahat ng mga timbang na humahantong sa mas tumpak na na-customize na mga panghuling modelo.
Ano ang mga pagkakaiba sa pagitan ng L1 at L2 na regularisasyon?
Ang pangunahing intuitive na pagkakaiba sa pagitan ng L1 at L2 regularization ay ang L1 regularization ay sumusubok na tantyahin ang median ng data habang ang L2 regularization ay sumusubok na tantyahin ang mean ng data upang maiwasan ang overfitting. … Ang halagang iyon ay magiging median din ng pamamahagi ng data sa matematika.
Ano ang regularisasyon ng L1 at L2 sa malalim na pag-aaral?
Ang
L2 regularization ay kilala rin bilang weight decay dahil pinipilit nito ang mga weight na bulok patungo sa zero (ngunit hindi eksaktong zero). Sa L1, mayroon kaming: Dito, pinarusahan namin ang ganap na halaga ng mga timbang. Hindi tulad ng L2, ang mga timbang ay maaaring mabawasan sa zero dito. Samakatuwid, ito ay lubhang kapaki-pakinabang kapag sinusubukan naming i-compressang aming modelo.
Paano gumagana ang regularization ng L1 at L2?
Ang isang modelo ng regression na gumagamit ng L1 regularization technique ay tinatawag na Lasso Regression at ang modelo na gumagamit ng L2 ay tinatawag na Ridge Regression. Ang pangunahing pagkakaiba sa pagitan ng dalawang ito ay ang termino ng parusa. Ang ridge regression ay nagdaragdag ng "squared magnitude" ng coefficient bilang termino ng parusa sa loss function.