Ang
Categorical crossentropy ay isang loss function na ginagamit sa mga gawain sa multi-class classification. Ito ay mga gawain kung saan ang isang halimbawa ay maaari lamang mapabilang sa isa sa maraming posibleng kategorya, at ang modelo ay dapat magpasya kung alin. Sa pormal, ito ay idinisenyo upang mabilang ang pagkakaiba sa pagitan ng dalawang distribusyon ng posibilidad.
Bakit gumamit ng cross entropy sa halip na MSE?
Una, Ang cross-entropy (o softmax loss, ngunit gumagana nang mas mahusay ang cross-entropy) kaysa sa MSE para sa pag-uuri, dahil ang hangganan ng desisyon sa isang gawain sa pag-uuri ay malaki(kung ihahambing sa regression). … Para sa mga problema sa regression, halos palaging gagamitin mo ang MSE.
Ano ang pagkakaiba sa pagitan ng sparse cross entropy at categorical cross entropy?
Ang tanging pagkakaiba sa pagitan ng sparse categorical cross entropy at categorical cross entropy ay ang format ng mga totoong label. Kapag mayroon kaming single-label, multi-class classification na problema, ang mga label ay kapwa eksklusibo para sa bawat data, ibig sabihin, ang bawat data entry ay maaari lamang mapabilang sa isang klase.
Paano mo binibigyang-kahulugan ang categorical cross entropy loss?
Ang
Cross entropy ay tumataas habang ang hinulaang probabilidad ng isang sample ay nag-iiba mula sa aktwal na halaga. Samakatuwid, ang paghula ng posibilidad na 0.05 kapag ang aktwal na label ay may halaga na 1 ay nagpapataas ng cross entropy loss. nagsasaad ng hinulaang probabilidad sa pagitan ng 0 at 1 para sa sample na iyon.
Bakit maganda ang cross entropy?
Sa pangkalahatan, tulad ng nakikita natin na ang cross-entropy ay isang paraan lamang upang sukatin ang posibilidad ng isang modelo. Ang cross-entropy ay kapaki-pakinabang dahil maaari itong ilarawan kung gaano kalamang ang isang modelo at ang error function ng bawat data point. Maaari din itong gamitin upang ilarawan ang isang hinulaang kinalabasan kumpara sa tunay na kinalabasan.