Page 22 -
P. 22

1.3.3.2 손실 함수

               신경망에는 다양한 손실 함수를 사용할 수 있으며, 당면 문제에 따라 손실 함수 선택도 달라진다.
               예제에서는 우선 SSE(Sum-of-Squares Error)를 사용하자.







               SSE는 단순히 예측값과 실제값의 차이를 더한 것이며, 차이의 제곱값을 사용해 절댓값을 반영한

               다. 결국 신경망 훈련이란 손실 함수 값을 최소로 줄일 수 있는 최적의 가중치와 편향을 찾는 과정
               이다.



               1.3.3.3 역전파 과정

               예측 오차를 측정할 방법을 마련했다. 이제 오차를 역으로 전파하고 가중치와 편향을 갱신할 방법
               이 필요하다. 가중치와 편향을 어떻게 조절해야 적당할지 알아내려면 가중치와 절편에 따른 손실
               함수의 미분(derivative)을 알아내야 한다. 미분을 배운 기억을 떠올려 보자. 함수의 미분은 단순히
               함수의 경사다.


                  그림 1-7 손실을 최소화하는 역전파 과정
               손실
                                      손실 함수는 특정 가중치 값이
                                      얼마나 적정한지 계산한다.



                           경사의  기울기
                           (미분값)는 최저
                           점으로  가는  방
                           향을 가리킨다.

                                         손실 함수 최저점의 가중치가 결국
                                         손실을 최소화한다.

                                                                      가중치


               그림 1-7에서 볼 수 있듯이, 미분 값만 얻으면 가중치와 편향을 적절히 조절할 수 있다. 이 방식을
               경사 하강법(gradient descent)이라고 한다.






         34





     신경망교과서_07.indd   34                                                                     2020-05-19   오전 9:04:31
   17   18   19   20   21   22   23   24   25   26   27