본문 바로가기
모두의 연구소 AIFFEL 교육

Going Deeper : ResNet

by robotgo 2021. 4. 5.

<논문 논리구조>

1) 이전까지의 연구가 해결하지 못했던 문제의식
2) 이 문제를 해결하기 위한 그동안의 다른 시도들
3) 이 문제에 대한 이 논문만의 독창적인 시도
4) 그러한 시도가 가져온 차별화된 성과

 

<ResNet에 대한 나의 논리구조>

1) 기존의 레이어 깊게 쌓을 수록 loss funtion 값 증가, accuracy 값 하락 문제 지적
2) vanishing/exploding gradients문제가 있었지만 normalized initial-ization(정규화 된 초기화), intermediate normalization layers(중간정규화 레이어) 을 통해 어느정도 해결
3) H(x) = f( x) + x 라는 residual 함수 형태를 만들고 skip-connection 기법을 사용
4) 레이어를 깊게 쌓아도 loss funtion, accuracy 값 상승

 

<예시 답변 논리구조>

1. Abstract와 1.Introduction에서 문제의식과 이를 해결하는 솔루션의 전체적 개요를 요약해서 제시한 후
2.Related Work에서는 본 논문의 솔루션과 유사한 다른 시도들을 언급합니다.
3.Deep Residual Learning에는 제안 방법의 구체적인 내용과 구현 방법을 소개하고
4.Experiments에서 비교실험 구조와 다양한 데이터셋에서의 실험결과를 통해 이를 검증합니다
끝으로 References와 Appendix가 뒤를 잇습니다.

'모두의 연구소 AIFFEL 교육' 카테고리의 다른 글

DenseNet 요약  (0) 2021.04.12
cutmix  (0) 2021.04.09
가상환경 딥러닝  (0) 2021.03.31
Resnet Abstract, Introduction  (0) 2021.03.30
딥러닝 데이터셋, 예제 확인 사이트  (0) 2021.03.22