FC Layer

linear한 dot product를 진행하고, bias를 연결 layer dimension에 맞게 더해주는 연결 패턴

Back Propagation

연산값이 틀리면 틀릴 수록 cost가 높아지고, cost값이 다시금 미분 형태로 back propagation을 거치게 된다.
back propagation은 어떤 weight가 output cost에 영향을 끼쳤는지 연산하게 된다.
initialize되는 weight가 실제 label과 neural net output사이에 얼마만큼 기여했는지 나오게 되고, 이 weight값을 통해 learning rate를 곱하여 weight를 업데이트하게 된다.

CNN

Convolution Layer : 입력데이터를 weight를 갖고 있는 필터가 순회하며 합성곱을 계산하게 되고, 그 계산 결과를 feature map이라고 한다.
Pooling Layer : feature map을 다운샘플링하게 된다.

CNN의 invariant한 성격이 오디오로 가면 어떻게 될까?

ex ) 안녕하세요, 저는 도서관입니다.
저는 도서관입니다. 안녕하세요.

'안녕'이라는 time과 frequency 영역 내에서 정해진 pitch값이 있을텐데 그 frequency값이 time이 뒤에 있건, 앞에 있건 '안녕'이라고 인식할 수 있게 되는 것이다. 그래서 오디오에서 CNN이 적절하다고 하는 것이다.

RNN

hidden state vector를 initialize해주고 time step을 기준으로 for loop를 통해 RNN cell을 돌려준다.

+ Recent posts