비교: [[비용함수,cost_function]] 보통, [[기계학습,machine_learning]]에서 둘은 비슷한 의미지만 single training set에는 '''loss function''', 여러 training set에는 cost function이라 하는 듯. ML쪽에서 cost vs loss 는 크게 다른 것은 아님. 구분이 무의미할지도.. [[https://developers.google.com/machine-learning/glossary?hl=ko#cost Google ML glossary에선 동의어로 처리.]] 목적함수 objective_function? tmp ref. https://developers.google.com/machine-learning/glossary?hl=ko#objective-function and Google:objective.function+definition [[오차,error]]와 밀접한데 정확한 관계가? ''대충, (학습된 NN의 출력)과 (정답)의 [[차이,difference]]로 계산된다는 (그 차이 값이 [[손실,loss]]?)그런 점이 비슷한데/같은데, ...tbw'' ---- 이하는 Google:"loss function cost function difference" [[Date(2021-01-05T10:25:04)]] 검색결과 중 몇가지임. 세 함수 비교한 곳 (ko) https://ganghee-lee.tistory.com/28 https://ggodong.tistory.com/15 (en) https://stats.stackexchange.com/questions/179026/objective-function-cost-function-loss-function-are-they-the-same-thing 다양한 이들 function의 구체적 예 까지 설명한 곳 (en) https://medium.com/@zeeshanmulla/cost-activation-loss-function-neural-network-deep-learning-what-are-these-91167825a4de ---- https://www.youtube.com/watch?v=5WSff-U2muI 20분짜리 개념설명동영상 (ko) ---- Bmks en Google ML Glossary에서 { https://developers.google.com/machine-learning/glossary?hl=ko#l 저기서 설명: L1_loss L1_regularization L2_loss L2_regularization mklink: 이름만 봐도 [[거리,distance]] [[노름,norm]] [[측도,measure]] 관련이며 ... [[regularization]](pagename은 아마 [[정칙화,regularization]] or [[정규화,regularization]] 둘중 하나로..) lasso ridge ... 그리고 L2_loss 최소화 - rel. least_squares_regression LSR .... rel. [[최소제곱,least_square]] https://developers.google.com/machine-learning/glossary?hl=ko#loss 바로 아래 loss_curve loss_surface 아주짧은설명이어짐 } ---- [[WpKo:손실_함수]] [[WpEn:Loss_function]]