평균제곱오차,mean_square_error,MSE

mean squared error (MSE) or mean squared deviation (MSD)
squared 대신 square로 표현해도 무방.

가장 많이 쓰이는 손실함수,loss_function

$E=\frac12\sum_k(y_k-t_k)^2$
여기서
$y_k$ : 신경망,neural_network의 출력
$t_k$ : 정답 레이블
$k$ : 데이의 차원 수

분모의 2를 보니 위에는 NN에만 해당되는 내용인가보네...

tmp from [https]here
{
$\text{MSE = }\frac1n\sum_{i=1}^n (y_i-\hat{f}(x_i))^2$

TBW....
}

Formula for MSE:
$\text{MSE}=\frac{\sum(y_i-\hat{y}_i)^2}{n}$
where
$y_i$ : $i$ 번째, 측정값 (observed value)
$\hat{y}_i$ : $i$ 번째, 예상한 값 (predicted value)
$n$ : 측정의 수 (number of observations)

식에서 분자,numerator는 SSE(sum of the squared errors)이다. // SSE
MSE는 단순히 SSE를 sample size로 나눈 것이다. // 표본,size 표본크기,sample_size


구하는 방법
  1. 평균을 구한다.
  2. 각 데이터와 평균의 차에 제곱을 한다.
  3. 위에서 구한 값을 모두 더한다.
  4. 위에서 구한 값을 총 데이터 숫자만큼 나눈다.

추정량,estimator $\hat{\theta_n}$모수,parameter $\theta$ 에 가까운 정도를 나타내는 측도로 평균제곱오차(mean squared error, MSE) $E(\hat{\theta_n}-\theta)^2$ 를 쓸 수도 있다.
Lp거리의 특수 형태인 L2 거리,distance.
from https://seoncheolpark.github.io/book/_book/7-3-lp-convergence-in-lp.html

예측,prediction값과 실제값의 차이를 측정하는 방법 중 하나...
{
MSE가 있고
다른방법으로는


참값과 예측값(예측,prediction)의 차이,difference오차,error aka 편차,deviation? chk
}

비교: 다른 errors

SSE = SSR = RSS .... curr. 제곱합,square_sum
RMSE = RMSD ... 평균제곱근편차(root_mean_square_deviation RMSD) 또는 평균제곱근오차(root_mean_square_error RMSE) - rel. 제곱평균제곱근,root_mean_square,RMS
.. tbw