Batch Normalization

ph
Admin (토론 | 기여)님의 2017년 5월 16일 (화) 18:31 판 (새 문서: - [https://shuuki4.wordpress.com/2016/01/13/batch-normalization-설명-및-구현/ 우리말로 된 블로그]인데 설명이 아주 잘 되어 있음 <blockquote>Training 할 때는...)
(차이) ← 이전 판 | 최신판 (차이) | 다음 판 → (차이)
이동: 둘러보기, 검색

- 우리말로 된 블로그인데 설명이 아주 잘 되어 있음

Training 할 때는 mini-batch의 평균과 분산으로 normalize 하고, Test 할 때는 계산해놓은 이동 평균으로 normalize 한다. Normalize 한 이후에는 scale factor와 shift factor를 이용하여 새로운 값을 만들고, 이 값을 내놓는다. 이 Scale factor와 Shift factor는 다른 레이어에서 weight를 학습하듯이 back-prop에서 학습하면 된다.

- CNN의 경우 채널마다 gamma, beta가 하나씩임. 곧 필터 하나에 gamma, beta 하나씩이라는 얘기.