Lecture or Textbook Review/Deep Learning

[Deep Learning] 신경망 학습 성능 판단

-ˋˏ ♡ ˎˊ- 2024. 1. 22. 19:24

1. Loss(손실값)

 

원하는 출력값(target, y)과 실제 출력값(output, y_hat)의 차이의 합

 

$$Loss = \sum_{i = 1}^N  \parallel y_i - \hat{y_i}  \parallel  = \sum_{i = 1}^N  \parallel y_i - \ f(x_i)  \parallel $$

Loss가 작을 수록 좋은 성능을 보인다. 따라서 제일 작은 Loss를 가지는 Linear Layer가 최적의 신경망이 되는 것이다. 

 

2. Loss Fuction

  • Linear Layer의 파라미터를 바꿀 때마다 Loss를 계산
  • 입력: Linear Layer의 파라미터
  • 출력: Loss

$$L( \theta ) =  \sum_{i = 1}^N  \parallel y_i - f(x_i)  \parallel$$ $$where$$ $$\theta \in = {W, b}$$

 

3. Euclidean Distance

 

Euclidean distance는 두 점 사이의 거리를 의미한다. 이를 나타내는 수식은 아래와 같다. 

 

$$ \parallel y -  \hat{y}  \parallel_2 =  \sqrt{(y_1 -  \hat{y_1} )^2 + (y_2 -  \hat{y_2} )^2 +  \ldots + (y_n -  \hat{y_n} )^2}   =  \sqrt{ \sum_{i = 1}^N (y_i -  \hat{y_i} )^2 }$$ $$where$$ $$ y \in \mathbb{R}^n,  \hat{y}   \in \mathbb{R}^n$$

 

이 두 점 사이의 거리를 이용하여 Loss를 계산할 수 있다. 

 

4. RMSE(Root Mean Square Error)

 

$$RMSE(y,  \hat{y} ) =  \sqrt{ \frac{1}{n}  \sum_{i = 1}^N (y_i -  \hat{y_i})^2} $$

 

5. MSE(Mean Square Error)

 

$$MSE( y,  \hat{y}  ) = \frac{1}{n}  \sum_{i = 1}^N (y_i -  \hat{y_i})^2 = \frac{1}{n}( \parallel y - \hat{y_i}   \parallel_2)^2 = \frac{1}{n} \parallel y - \hat{y_i}  \parallel{_2^2} \propto  \parallel y - \hat{y_i} \parallel{_2^2} $$