emb16짜리

작은 hidden dim = 64

image.png

image.png

loss가 잘 떨어지긴 하나 fid나 mpjpe를 측정해보면

331 epoch 기준

FID: 0.014, conf. 0.000
Diversity: 8.440, conf. 0.066
TOP1: 0.439, conf. 0.002, TOP2. 0.637, conf. 0.002, TOP3. 0.743, conf. 0.002
Matching: 3.415, conf. 0.007
MAE:0.015, conf.0.000

KLD weight가 좀 크면 점점 성능이 좋아지긴 한다 그러나 아무리 학습을 오래해도 성능이 오를것 같지는 않다

image.png

image.png

kl weight가 0.001정도로 너무 크면 그냥 KLD가 이겨버리던가 그냥 성능이 안좋다.

큰 hidden dim = 128

image.png

image.png

기본적으로 klw가 0.002면 중간부터 학습이 이상하고 validation loss가 조금씩 오르는 것을 확인할 수 있다.

/home/whwjdqls99/MARM/checkpoints/t2m_STVAE_qf2_sqf2_hd2d128_hd1d64_ebd16_fd256_nl1_nh4_klw0.0004_loss_l2_bsz1024_1004182146/eval/TVAE_best_69_0_eval.txt final result

FID: 0.028, conf. 0.000 Diversity: 8.396, conf. 0.068 TOP1: 0.437, conf. 0.003, TOP2. 0.634, conf. 0.002, TOP3. 0.741, conf. 0.002 Matching: 3.422, conf. 0.007 MAE:0.014, conf.0.000

FID: 0.021, conf. 0.000
Diversity: 8.528, conf. 0.061
TOP1: 0.440, conf. 0.003, TOP2. 0.636, conf. 0.003, TOP3. 0.743, conf. 0.002
Matching: 3.410, conf. 0.008
MAE:0.020, conf.0.000

당연히 모두 69 에폭, 18에폭에서 validation 이 제일 좋았으니, 둘다 성능이 그저 그렇다. 이런 현상은