모두의 연구소 AIFFEL 교육
Going Deeper : ResNet
robotgo
2021. 4. 5. 17:25
<논문 논리구조>
1) 이전까지의 연구가 해결하지 못했던 문제의식
2) 이 문제를 해결하기 위한 그동안의 다른 시도들
3) 이 문제에 대한 이 논문만의 독창적인 시도
4) 그러한 시도가 가져온 차별화된 성과
<ResNet에 대한 나의 논리구조>
1) 기존의 레이어 깊게 쌓을 수록 loss funtion 값 증가, accuracy 값 하락 문제 지적
2) vanishing/exploding gradients문제가 있었지만 normalized initial-ization(정규화 된 초기화), intermediate normalization layers(중간정규화 레이어) 을 통해 어느정도 해결
3) H(x) = f( x) + x 라는 residual 함수 형태를 만들고 skip-connection 기법을 사용
4) 레이어를 깊게 쌓아도 loss funtion, accuracy 값 상승
<예시 답변 논리구조>
1. Abstract와 1.Introduction에서 문제의식과 이를 해결하는 솔루션의 전체적 개요를 요약해서 제시한 후
2.Related Work에서는 본 논문의 솔루션과 유사한 다른 시도들을 언급합니다.
3.Deep Residual Learning에는 제안 방법의 구체적인 내용과 구현 방법을 소개하고
4.Experiments에서 비교실험 구조와 다양한 데이터셋에서의 실험결과를 통해 이를 검증합니다
끝으로 References와 Appendix가 뒤를 잇습니다.