[21′ NIPS] MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer는 CNN이나 Transformer와 같은 복잡한 구조를 사용하지 않고도 경쟁력 있는 성능을 보여주며, 이미지 처리 분야에 새로운 패러다임을 제시합니다. MLP-Mixer의 제안 방법과 장단점 의의를 알아봅니다.
MLP-Mixer는 CNN이나 Transformer와 같은 복잡한 구조를 사용하지 않고도 경쟁력 있는 성능을 보여주며, 이미지 처리 분야에 새로운 패러다임을 제시합니다. MLP-Mixer의 제안 방법과 장단점 의의를 알아봅니다.
Vision Transformer: 이미지 분야에서의 혁신적인 변화. CNN에서 벗어나 Transformer 구조를 적용한 Vision Transformer의 원리, 장단점, 그리고 그 의의에 대해 자세히 알아봅니다.
Basic Vision Model의 응용 버전에 해당하는 Wide ResNet, PyramidNet, FractalNet, DenseNet, Xception, Active Convolution에 대해 살펴봅니다.
딥러닝 Vision Model의 초창기 버전이라고 할 수 있는 AlexNet, VGGNet, GoogleNet, Batch Normalization, ResNet 등을 비교해보며 각각의 의의를 살펴봅니다.
SKNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 SKNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 SKNet의 효과를 확인합니다.
Residual Attention Network 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 효과를 확인합니다.
Active Convolution 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 Active Convolution의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 효과를 확인합니다.
PyramidNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 PyramidNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 PyramidNet의 효과를 확인합니다.
DenseNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 DenseNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 DenseNet의 효과를 확인합니다.
FractalNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 FractalNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 FractalNet의 효과를 확인합니다.