Variational Autoencoder 的 KL Divergence 看不懂

各位好,這幾天剛接觸  VAE 有些地方看得不是很等懂
 想要請問一下各位 KL [N(μ(X),Σ(X))∥N(0,1)] 的這個部分(不知道有沒有理解錯誤)
 
為什麼是讓 N(μ(X),Σ(X)) 擬合 N(0,1)?
 
假如 z 的 layer 為20 神經元, 20個維度的  N(μ(X),Σ(X))  都是擬合 N(0,1) 嗎?
 
已邀请:

要回复问题请先登录注册