mohol mi niekto vysvetliť rozdiel medzivýpočet derivátu v RBM pomocou -h_j * x_k a - h_j (x) * x_k? Pri oboch implementáciách som našiel zdrojové kódy a nie som si istý, ktorý z nich je lepší (a prečo?)
odpovede:
0 pre odpoveď č. 1H_j a h_j (x) máte na mysli j ^ tskrytá vzorka neurónu alebo j-tá skrytá neurónová sigmoidálna aktivácia? Za predpokladu, že ak vypočítate derivát negatívnej funkcie pravdepodobnosti log, ukáže sa, že je P (h_j = 1) * x_k.