1. Basic Vision Model
딥러닝 Vision Model의 초창기 버전이라고 할 수 있는 AlexNet, VGGNet, GoogleNet, Batch Normalization, ResNet 등을 비교해보며 각각의 의의를 살펴봅니다.
딥러닝 Vision Model의 초창기 버전이라고 할 수 있는 AlexNet, VGGNet, GoogleNet, Batch Normalization, ResNet 등을 비교해보며 각각의 의의를 살펴봅니다.
AlexNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 AlexNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 AlexNet의 효과를 확인합니다.
Inception 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 Inception의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 Inception의 효과를 확인합니다.
VGGNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 VGGNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 VGGNet의 효과를 확인합니다.
Batch Normalization 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법들의 문제점을 분석합니다. 이를 해결하기 위한 Batch Normalization의 핵심 내용을 살펴봅니다. 실험 결과를 통해 효과를 알아봅니다.
ResNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 ResNet의 제안 방법을 살펴봅니다. 마지막으로 실험 결과를 통해 제안 방법의 효과를 살펴봅니다.
Basic Vision Model의 응용 버전에 해당하는 Wide ResNet, PyramidNet, FractalNet, DenseNet, Xception, Active Convolution에 대해 살펴봅니다.
Wide ResNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 Wide ResNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 Wide ResNet의 효과를 확인합니다.
Xception 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 Xception의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 Xception의 효과를 확인합니다.
FractalNet 논문의 핵심 내용을 리뷰합니다. 먼저 기존 방법의 문제점을 살펴봅니다. 이어서 이를 해결하기 위한 FractalNet의 제안 방법을 살펴봅니다. 마지막으로 성능 비교 실험을 통해 FractalNet의 효과를 확인합니다.