💡 AI/DL
Back-Propagation 의 Chain Rule
U-chan Seon
2021. 2. 1. 15:26
Back propagation 의 가장 핵심적인 미분 계산을 수식적으로 자세히 뜯어보고 이해해보자.
합성함수로서의 DNN
입력, 함수모델, 정답은 fix되어있다.
Activation function, loss function도 이미 정의가 되어있는 상태이다.
변할 수 있는건 Trainable parameter와 손실값(L) 밖에 없다.
그렇기 때문에 n번째 함수 fn은 n-1번째 데이터셋 값을 입력 받아서 Wn, bn 파라미터가 조건부로 들어가게 된다.
다 넣었으면 이제 데이터 셋의 입력과 출력 값은 중요하지 않게 된다.
손실을 최소화하는 파라미터만 찾으면 되기 때문이다.
DNN의 Chain Rule
Fully Connected Layer의 미분
Sigmoid 함수의 미분
Back Propagation Algorithm