Regularization1 반응형 [딥러닝 논문 리뷰] Regularizing Class-wise Predictions via Self-knowledge Distillation 이번에 포스팅할 논문은 "Regularizing Class-wise Predictions via Self-knowledge Distillation" 이라는 논문입니다. 최근에 Knwledge Distillation에 관심을 가지기 시작해서 읽어본 논문인데 사실 Knwledge Distillation과 크게 상관있지는 않는 논문이네요..ㅋㅋ 올해(2020) CVPR에 accept된 논문이고 카이스트에서 나온 논문입니다. 매우 심플하고 쉬운 아이디어를 논문에 잘 녹여낸것 같습니다. 이 논문은 아래 두문장으로 짤막하게 요약할 수 있을 것 같습니다. New Regularization method - We distill the predictive distribution between different sample.. 2020. 6. 12. 이전 1 다음