안녕하세요. 데이터 요리사, 루나 입니다.

이번 시간에는 딥러닝 구조에 Residual 열풍을 이끈 'ResNet'에 대해서 정리하겠습니다.
1 | ResNet이란? |
- 마이크로소프트에서 개발한 CNN구조로 2015년 ILSVRC에서 에러율 3.57%로 1위를 차지한 신경망
- 총 152개의 레이어로 구성: Conv. block + Identity block
- 논문: Deep Residual Learning for Image Recognition
2 | ResNet의 주요 특징 |
- Skip connection(Identifu mapping) 구조
- 일정 이상의 Conv. layer 추가 시 학습 성능의 저하 발생함
- Lower level의 피처를 재사용하여 성능을 개선하고, 기울기 소멸 문제를 완화
- weight에 대한 loss 형태가 convex한 형태로 나타나기 때문에 global optimum을 찾기 쉬움
- FC를 사용하지 않고, GAP(Global Average Pooling) 적용
- 이전 레이어의 연산과정에서 이미 피처가 선형적으로 구분(linearly seperable)하기 때문에 별도의 비선형 분류기의 적용이 필요 없음
- Output은 선형 분류기(linear classifier)를 사용
- zero padding이나 max pooling은 사용하지 않고, stride만 조절하여 레이어를 구성
- BN(Batch nomalization) layer 적용
함께 보면 좋은 글 |
https://www.kaggle.com/general/255114
https://medium.com/@AnasBrital98/residual-networks-with-examples-80b47cacecf4
※ 이 글의 내용을 상업적으로 무단 활용, 편집하는 것은 금지하고 있습니다. 강의, 출판 등 상업적 이용이 필요하신 경우, 문의 바랍니다.
728x90
'딥러닝 > 컴퓨터비전' 카테고리의 다른 글
[컴퓨터비전10] 자율주행자동차의 핵심 알고리즘, 객체 인식(Object Detection) 기본 개념 정리 (0) | 2021.12.13 |
---|---|
[컴퓨터비전6]GoogLeNet(ILSVRC 2014 top1) (0) | 2021.12.13 |
[컴퓨터비전5]VGGNet(ILSVRC 2014 top2) (0) | 2021.12.13 |
[컴퓨터비전4]AlexNet(ILSVRC 2012 top1) (0) | 2021.12.13 |
[컴퓨터비전3]CNN 연산 시 사용하는 메모리, 파라미터 계산 (0) | 2021.12.13 |