article thumbnail image
Published 2021. 2. 1. 15:26

Back propagation 의 가장 핵심적인 미분 계산을 수식적으로 자세히 뜯어보고 이해해보자.

 


합성함수로서의 DNN


입력, 함수모델, 정답은 fix되어있다.

Activation function, loss function도 이미 정의가 되어있는 상태이다.

변할 수 있는건 Trainable parameter와 손실값(L) 밖에 없다.

 

그렇기 때문에 n번째 함수 fn은 n-1번째 데이터셋 값을 입력 받아서 Wn, bn 파라미터가 조건부로 들어가게 된다.

 

다 넣었으면 이제 데이터 셋의 입력과 출력 값은 중요하지 않게 된다.

손실을 최소화하는 파라미터만 찾으면 되기 때문이다.


DNN의 Chain Rule

 


Fully Connected Layer의 미분

 

 

 


Sigmoid 함수의 미분


Back Propagation Algorithm

 

'💡 AI > DL' 카테고리의 다른 글

DL - tech interview  (0) 2022.04.11
Chain Rule  (0) 2021.02.01
DNN의 수학적 이해  (1) 2021.02.01
Deep Neural Network - Back Propagation  (0) 2021.02.01
심화 경사하강법  (0) 2021.01.31
복사했습니다!