BackLinks search for "비용함수,cost_function"
- Class_2023_1
[[비용함수,cost_function]]
// [[손실함수,loss_function]] [[비용함수,cost_function]] ... 다만 [[오차함수,error_function]]는 여기선 다른 뜻.
- 기계학습,machine_learning
cost/loss function // [[비용함수,cost_function]] [[손실함수,loss_function]]
- 기울기하강,gradient_descent
[[비용함수,cost_function]]
- 미적분,calculus
에도 마찬가지로 [[손실함수,loss_function]]=[[비용함수,cost_function]](손실하면 그만큼 비용이 필요)를 만들어 놓고 '''최소화'''하는 (...ditto)
- 손실함수,loss_function
비교: [[비용함수,cost_function]]
- 엔트로피,entropy
[[로지스틱회귀,logistic_regression]]의 [[비용함수,cost_function]]는 cross entropy 식과 같다. (Cross entropy는 log loss로 불리기도 하는데, 왜냐하면 cross entropy를 최소화하는 것은 log likelihood를 최대화하는 것과 같기 때문.)
- 오차,error
신경망 학습에서 사용하는 지표는 [[손실함수,loss_function]] or [[비용함수,cost_function]]라고 하는데, 일반적으로 [[평균제곱오차,mean_square_error,MSE|MSE]]와 [[교차엔트로피오차,cross_entropy_error,CEE|CEE]]를 쓴다.
- 최적화,optimization
머신러닝/딥러닝에서 말하는 '''최적화'''는 항상 [[손실함수,loss_function]] [[비용함수,cost_function]]의 최소를 찾는 것과 연관인지? 예외가 있다면?
Found 8 matching pages out of 1075 total pages
You can also click here to search title.