제곱합,square_sum

Difference between r1.7 and the current

@@ -4,6 +4,7 @@
sum of squares error - [[제곱합오차,square_sum_error]] ... [[오차,error]]

residual sum of squares (RSS) = sum of squared residuals (SSR) = sum of squared estimate of errors (SSE)
''tmp curr [[잔차,residual]]''

----
MKLINK
@@ -29,5 +30,4 @@

Up:
[[제곱,square]] [[합,sum]]



sum of squares (SS)

Sub:
sum of squares error - 제곱합오차,square_sum_error ... 오차,error

residual sum of squares (RSS) = sum of squared residuals (SSR) = sum of squared estimate of errors (SSE)
tmp curr 잔차,residual


MKLINK
제곱,square
합,sum
제곱근,square_root
노름,norm esp L2 norm
분산,variance은 제곱합 나누기 dof.
Srch:sum_of_sq
평균제곱오차,mean_square_error,MSE
선형회귀,linear_regression근사해,approximate_solution와 (...)의 차이,difference(오차,error)의 제곱합,square_sum을 최소화하는 해,solution를 찾는 것에 대한??? 그 외의 다른 방법도 있음? CHK Ggl:선형회귀