Regularizers ay nagbibigay-daan sa iyong maglapat ng mga parusa sa mga parameter ng layer o aktibidad ng layer sa panahon ng pag-optimize. Ang mga parusa na ito ay isinama sa loss function na ino-optimize ng network. Ang mga parusa sa regularization ay inilalapat sa bawat layer.
Ano ang activity regularizer?
Gumagana ang activity regularizer bilang isang function ng output ng net, at kadalasang ginagamit upang gawing regular ang mga nakatagong unit, habang gumagana ang weight_regularizer, gaya ng sinasabi ng pangalan, sa mga timbang (hal. ginagawa itong nabubulok).
Kailan ko dapat gamitin ang activity regularizer?
Kung gusto mong dumaan ang output function sa (o magkaroon ng intercept na mas malapit sa) pinanggalingan, maaari mong gamitin ang bias regularizer. Kung gusto mong maging mas maliit ang output (o mas malapit sa 0), maaari mong gamitin ang activity regularizer.
Paano ko gagamitin ang Keras regularizer?
Upang magdagdag ng regularizer sa isang layer, mayroon ka lang upang ipasa ang ginustong pamamaraan ng regularization sa keyword argument ng layer na 'kernel_regularizer'. Ang mga pamamaraan ng pagpapatupad ng regularization ng Keras ay maaaring magbigay ng isang parameter na kumakatawan sa halaga ng hyperparameter ng regularization.
Ano ang kernel at bias?
Dense class
Dense ay nagpapatupad ng operasyon: output=activation(dot(input, kernel) + bias) kung saan ang activation ay ang element-wise activation function na ipinasa bilang activation argument, Ang kernel ay isang weights matrix na ginawa ng layer, atang bias ay isang bias vector na ginawa ng layer (naaangkop lang kung True ang use_bias).