Deep Learning

loss back-propagating

응엉잉 2022. 8. 30. 10:57

https://m.blog.naver.com/PostView.nhn?isHttpsRedirect=true&blogId=laonple&logNo=220507299181 

weight나 bias 값을 아주 작게 변화시키면(=편미분시키면) output의 변화 역시 매우 작은 변화가 생김

= 작은 변화의 관점에서는 선형적인 관계가 있음

output에서 생긴 오차를 반대로 input 쪽으로 전파시키면서 w와 b 등을 갱신하면 됨

cost function은 결국 w와 b로 이루어진 함수기 때문에 output에서 input 방향으로 cost function에 대한 편미분을 구하고 얻은 값을 이용해 w와 b의 값을 갱신

모든 train data에 대해 이 작업을 수행하다보면 훈련 데이터에 최적화된 w와 b 값을 얻을 수 있음

 

'Deep Learning' 카테고리의 다른 글

momentum update  (0) 2022.08.30
Dive into BYOL  (0) 2022.08.25
cv2  (0) 2022.08.19
lambda(), sort()에서 key와 lambda 사용하기  (0) 2022.08.18
os와 glob  (0) 2022.08.18