[WACV 2020] Class-incremental Learning via Deep Model Consolidation (DMC) 핵심 리뷰
DMC(Deep-Model-Consolidation) 방식의 Incremental Learning 방법론을 제안합니다. Old class + New class로 이루어진 unlabeled auxiliary dataset을 활용하여 Double Distillation Loss를 적용했습니다.
DMC(Deep-Model-Consolidation) 방식의 Incremental Learning 방법론을 제안합니다. Old class + New class로 이루어진 unlabeled auxiliary dataset을 활용하여 Double Distillation Loss를 적용했습니다.
Expandable feature extractor를 사용하는 새로운 incremental learning 방법론 DER을 제안합니다. Channel level masking auxiliary loss, sparsity loss를 사용합니다. 다양한 데이터셋에 대한 실험 결과를 통해 기존 방법들보다 성능이 좋음을 보입니다.