유사도 판단을 위한 임베딩을 얻기 위해
pretrained model을 가져다 fine-tuning을 통해 태스크에 좀 더 적합한 임베딩을 만들기 위해서
Arcface Loss를 학습을 했는데, 학습 후에 모든 입력에 대해 동일한 출력을 내는 기이한 현상을 겪었다.
Loss는 줄어드는 것을 보고 학습은 되고 있는게 아닌가 싶었는데...
아래 글에서 힌트를 얻어 확인해보니, 결국 Learning Rate이 너무 높은게 문제였다.
아마 이 때, ArcFace에 속한 FC Layer에 높은 LR을 부여하다가,
너무 큰 LR을 할당해버리는 바람에 학습이 이상하게 된 듯 싶다.
'DL&ML > code.data.tips' 카테고리의 다른 글
Kaggle Shopee 대회 top-solution 정리 (1) | 2021.05.13 |
---|---|
모델 학습이 잘 되는지 여부를 판단할 수 있는 지표 (1) | 2021.04.27 |
Kaggle TSE 2020 대회 top-solution 정리 (0) | 2021.04.15 |
분류 문제 관련 torch loss (BCEWithLogitsLoss, CrossEntropyLoss, LogSoftmax, NLLLoss) (0) | 2021.04.14 |
torch amp mixed precision (autocast, GradScaler) (0) | 2021.04.13 |