#noindex '''mean squared error (MSE)''' or '''mean squared deviation (MSD)''' squared 대신 square로 표현해도 무방. 가장 많이 쓰이는 [[손실함수,loss_function]] $E=\frac12\sum_k(y_k-t_k)^2$ 여기서 $y_k$ : [[신경망,neural_network]]의 출력 $t_k$ : 정답 레이블 $k$ : 데이의 차원 수 ''분모의 2를 보니 위에는 NN에만 해당되는 내용인가보네...'' ---- tmp from [[https://medium.com/mighty-data-science-bootcamp/%EC%B5%9C%EC%84%A0%EC%9D%98-%EB%AA%A8%EB%8D%B8%EC%9D%84-%EC%B0%BE%EC%95%84%EC%84%9C-%EB%B6%80%EC%A0%9C-bias%EC%99%80-variance-%EB%AC%B8%EC%A0%9C-%EC%9D%B4%ED%95%B4%ED%95%98%EA%B8%B0-eccbaa9e0f50 here]] { $\text{MSE = }\frac1n\sum_{i=1}^n (y_i-\hat{f}(x_i))^2$ TBW.... } ---- Formula for MSE: $\text{MSE}=\frac{\sum(y_i-\hat{y}_i)^2}{n}$ where $y_i$ : $i$ 번째, 측정값 (observed value) $\hat{y}_i$ : $i$ 번째, 예상한 값 (predicted value) $n$ : 측정의 수 (number of observations) 식에서 [[분자,numerator]]는 SSE(sum of the squared errors)이다. // [[SSE]] MSE는 단순히 SSE를 sample size로 나눈 것이다. // [[표본,size]] [[표본크기,sample_size]] tmp from https://statisticsbyjim.com/regression/mean-squared-error-mse/ ---- 구하는 방법 1. 평균을 구한다. 1. 각 데이터와 평균의 차에 제곱을 한다. 1. 위에서 구한 값을 모두 더한다. 1. 위에서 구한 값을 총 데이터 숫자만큼 나눈다. ---- [[추정량,estimator]] $\hat{\theta_n}$ 이 [[모수,parameter]] $\theta$ 에 가까운 정도를 나타내는 측도로 평균제곱오차(mean squared error, MSE) $E(\hat{\theta_n}-\theta)^2$ 를 쓸 수도 있다. L^^p^^거리의 특수 형태인 L^^2^^ [[거리,distance]]. from ~~https://seoncheolpark.github.io/book/_book/7-3-lp-convergence-in-lp.html~~ ---- [[예측,prediction]]값과 실제값의 차이를 측정하는 방법 중 하나... { '''MSE'''가 있고 다른방법으로는 [[교차엔트로피,cross_entropy]] $L=-\sum_i t_i \log p_i$ [[교차엔트로피오차]] 참값과 예측값([[예측,prediction]])의 [[차이,difference]]는 [[오차,error]] aka [[편차,deviation]]? chk } = 비교: 다른 errors = SSE = SSR = RSS .... curr. [[제곱합,square_sum]] RMSE = RMSD ... 평균제곱근편차(root_mean_square_deviation RMSD) 또는 평균제곱근오차(root_mean_square_error RMSE) - rel. [[제곱평균제곱근,root_mean_square,RMS]] .. tbw = Twins = WpEn:Mean_squared_error ---- Up: [[오차,error]] [[평균제곱,mean_square]] [[손실함수,loss_function]]