기호: $\eta$ 또는 $\alpha$

기계학습,machine_learning통계,statistics에서,
최적화,optimization algorithm (optimization_algorithm) 에서,
hyperparameter의 일종.
손실함수,loss_function최소,minimum으로 갈 때 step size를 결정함.

a hyperparameter that determines the step size in adjusting the weights
(Kwak, Slide 3, p18)

$w_{t+1}=w_t - \alpha L'(w_t)$
$0<\alpha<1$
더 섬세하고 촘촘히 : small $\alpha$
더 빠르게 : large $\alpha$ [1]

갱신하는 정도/양을 결정. 함수 값이 낮아지는 곳으로 얼마나 이동할지 즉 보폭(step size)을 정하는 역할.
너무 크거나 작으면 곤란.

MKLINK
기울기하강,gradient_descent 식에 나옴.


WpEn:Learning_rate

Up: 비율,rate 기계학습,machine_learning 통계,statistics hyperparameter(하이퍼파라미터 or 초매개변수) 학습,learning
----
Retrieved from http://tomoyo.ivyro.net/123/wiki.php/학습율,learning_rate
last modified 2023-05-03 22:49:08