Iyon ay sinabi, maaari nilang tinatayang isang hindi tuloy-tuloy na function nang arbitraryong malapit. Halimbawa, ang heaviside function, na 0 para sa x=0 ay maaaring tantiyahin ng sigmoid(lambdax) at ang approximation ay nagiging mas mahusay habang ang lambda ay napupunta sa infinity.
Maaari bang matutunan ng mga neural network ang mga hindi tuloy-tuloy na function?
Ang isang tatlong layer na neural network ay maaaring kumatawan sa anumang hindi tuluy-tuloy multivariate na function. … Sa papel na ito, pinatutunayan namin na hindi lamang ang mga tuluy-tuloy na pag-andar kundi pati na rin ang lahat ng hindi tuloy-tuloy na pag-andar ay maaaring ipatupad ng naturang mga neural network.
Maaari bang tantiyahin ng neural network ang anumang function?
Isinasaad ng Universal Approximation Theorem na ang isang neural network na may 1 nakatagong layer ay maaaring humigit-kumulang sa anumang tuluy-tuloy na function para sa mga input sa loob ng isang partikular na saklaw. Kung tumalon ang function o may malalaking gaps, hindi namin ito matantya.
Aling neural network ang maaaring humigit-kumulang sa anumang tuluy-tuloy na paggana?
Summing up, ang isang mas tumpak na pahayag ng universality theorem ay ang neural network na may iisang hidden layer ay maaaring gamitin upang tantiyahin ang anumang tuluy-tuloy na function sa anumang nais na katumpakan.
Maaari bang lutasin ng mga neural network ang anumang problema?
Ngayon, ginagamit ang mga neural network para sa paglutas ng maraming problema sa negosyo gaya ng pagtataya ng mga benta, pagsasaliksik ng customer, pagpapatunay ng data, at pamamahala sa panganib. Halimbawa, sa Statsbot kamimaglapat ng mga neural network para sa mga hula sa serye ng oras, pagtuklas ng anomalya sa data, at natural na pag-unawa sa wika.