mean squared error (MSE) or mean squared deviation (MSD)
squared 대신 square로 표현해도 무방.

가장 많이 쓰이는 손실함수,loss_function

$E=\frac12\sum_k(y_k-t_k)^2$
여기서
$y_k$ : 신경망,neural_network의 출력
$t_k$ : 정답 레이블
$k$ : 데이의 차원 수

분모의 2를 보니 위에는 NN에만 해당되는 내용인가보네...

tmp from [https]here(https://medium.com/mighty-data-science-bootcamp/%EC%B5%9C%EC%84%A0%EC%9D%98-%EB%AA%A8%EB%8D%B8%EC%9D%84-%EC%B0%BE%EC%95%84%EC%84%9C-%EB%B6%80%EC%A0%9C-bias%EC%99%80-variance-%EB%AC%B8%EC%A0%9C-%EC%9D%B4%ED%95%B4%ED%95%98%EA%B8%B0-eccbaa9e0f50)
{
$\text{MSE = }\frac1n\sum_{i=1}^n (y_i-\hat{f}(x_i))^2$

TBW....
}

Formula for MSE:
$\text{MSE}=\frac{\sum(y_i-\hat{y}_i)^2}{n}$
where
$y_i$ : $i$ 번째, 측정값 (observed value)
$\hat{y}_i$ : $i$ 번째, 예상한 값 (predicted value)
$n$ : 측정의 수 (number of observations)

식에서 분자,numerator는 SSE(sum of the squared errors)이다. // SSE
MSE는 단순히 SSE를 sample size로 나눈 것이다. // 표본,size 표본크기,sample_size

tmp from https://statisticsbyjim.com/regression/mean-squared-error-mse/

구하는 방법
  1. 평균을 구한다.
  2. 각 데이터와 평균의 차에 제곱을 한다.
  3. 위에서 구한 값을 모두 더한다.
  4. 위에서 구한 값을 총 데이터 숫자만큼 나눈다.

추정량,estimator $\hat{\theta_n}$모수,parameter $\theta$ 에 가까운 정도를 나타내는 측도로 평균제곱오차(mean squared error, MSE) $E(\hat{\theta_n}-\theta)^2$ 를 쓸 수도 있다.
Lp거리의 특수 형태인 L2 거리,distance.
from https://seoncheolpark.github.io/book/_book/7-3-lp-convergence-in-lp.html

예측,prediction값과 실제값의 차이를 측정하는 방법 중 하나...
{
MSE가 있고
다른방법으로는

교차엔트로피,cross_entropy $L=-\sum_i t_i \log p_i$
교차엔트로피오차

참값과 예측값(예측,prediction)의 차이,difference오차,error aka 편차,deviation? chk
}

비교: 다른 errors

SSE = SSR = RSS .... curr. 제곱합,square_sum
RMSE = RMSD ... 평균제곱근편차(root_mean_square_deviation RMSD) 또는 평균제곱근오차(root_mean_square_error RMSE) - rel. 제곱평균제곱근,root_mean_square,RMS
.. tbw

Twins

Retrieved from http://tomoyo.ivyro.net/123/wiki.php/평균제곱오차,mean_square_error,MSE
last modified 2023-11-02 04:31:13