기울기 소실
기울기 소실 문제 vanishing gradient problem
AKA
기울기 소멸
활성화함수,activation_function
로
시그모이드함수,sigmoid_function
를 사용할 때 나타남
그래서 ReLU가 sigmoid를 대체.
MKLINK
gradient_clipping
{
gradient_clipping
을 하는 이유는 학습 중
기울기소실,gradient_vanishing
이나
gradient_exploding
을 방지하기 위함.
https://eehoeskrap.tistory.com/582
...
gradient_clipping
gradient_clipping
}
LSTM
도 이걸 해결함. .... via
AI 용어사전: LSTM
(https://terms.naver.com/entry.naver?docId=6653450&cid=69974&categoryId=69974)
ResNet
도 이것을 해결하기 위해 나온? chk
Compare:
반대인 기울기 폭주 / 폭발 (gradient_exploding) {
gradient exploding
}
기울기_소멸_문제
Vanishing_gradient_problem
...
gradient vanishing
Up:
기울기,gradient
Retrieved from http://tomoyo.ivyro.net/123/wiki.php/기울기소실,gradient_vanishing
last modified 2023-06-13 06:06:59