AKA RL

// KU오승상 https://youtu.be/dkm0RrmnH4s?t=1481
지도학습,supervised_learning은 labeled training data가 있었고,
비지도학습,unsupervised_learning은 unlabeled training data가 있었다.
강화학습환경,environment상호작용,interaction을 해서 학습,learning한다.
(It learns by interacting with the environment, rather than from a sample data set.)
상태,state에서, action을 택하며, action이 얼마나 좋은지에 대한 reward를 받는다. (feedback) 그래서 training하는 동안, total reward를 최대화하기 위한 policy를 adapt한다.
(It chooses an action at each state, and receives a reward indicating how good an action is. Therefore, during training, it adapts its policy in order to maximize the total reward.)
사용되는 곳: robotics, game playing, autonomous cars.

scalar rewards and punishments; expected reward를 최대화하는 action sequence를 선택하도록 배움. not much information in the reward, which is often delayed

기본이 되는 게 동적계획법,dynamic_programming마르코프_결정과정,Markov_decision_process,MDP? CHK

// 오승상 https://www.youtube.com/watch?v=HXIbrL-glpU
RL은: 모든 정보를 알 수 없고 sample로 주어진 data에 대해서만 정보를 갖고 있기 때문에 그걸 가지고 정책,policy을 평가하고 update하는 방식.
(즉 정답이 없다?)
reinforcement learning 방법에는
Monte Carlo
Sarsa
Q-learning
deep reinforcement learning (DRL; RL에 심층학습,deep_learning 기법을 활용한 것) 방법에는
DQN
REINFORCE
A3C
policy gradient DRL 방법에는
DDPG
TRPO
PPO
distributed reinforcement learning 방법에는
C51
QR-DQN
IQN


prerequisites (용어)

return https://developers.google.com/machine-learning/glossary?hl=ko#return
reward https://developers.google.com/machine-learning/glossary?hl=ko#reward
추가..

2022-03-17
용어들
action
policy
action for each state.
강화학습에선 total reward를 최대화하기 위해 policy를 계속 개선시켜나간다.
policy evaluation
policy improvement
reward 보상
total reward - 이것을 maximize(최대화,maximization)하는 방식으로 action을 취하는 policy를 구해나가는 것이 목적 ...(?) - policy는 고정되어 있지 않음, 더 좋은 policy로 update하는 방향으로...
reward_signal 보상신호? 신호,signal http://www.scholarpedia.org/article/Reward_signals
punishment 처벌


결과의 법칙에 의한 학습?
{
손다이크(Thorndike)는 동물의 지능에 대한 실험을 함. 고양이 실험, 문제상자(puzzle box).
관련: 행동주의심리학(behaviorism)

결과의 법칙 (시행착오 학습)
강화학습이 필요한가?
바둑을 이기는 방법
Ref: KU 데이터과학원
}


(Skinner 쥐 box를 생각) WpKo:스키너_상자 WpEn:Operant_conditioning_chamber
에이전트(agent) 행동과 학습의 주체
박스 환경(environment) 에이전트가 처한 환경
먹이 보상(reward)
쥐의 생각 방침(policy) 에이전트가 스스로 수정할 수 있음

자율주행차의 경우,
agent
충돌 마이너스 보상 혹은 penalty

시행착오 끝에 방침을 찾는 방식도 있지만, 시행착오를 줄이는 '스승'을 사용하는 방법이 있다. 스승을 Q라 부른다. Deep neural net으로 만든 스승 Q를 DQN(deep Q network)라 한다.

보상은 받으려고 하고, 처벌은 최소화하려고 하고.
value는 최대화?

문제 : 실제 결과가 레버 누르면 먹이 나오듯 바로바로 나오지 않는 경우, etc.

NN(신경망,neural_network)은 덮어쓰기식으로 학습하는 것에는 뛰어나다. 다만 새로운 지식이 들어와서 과거 지식을 덮어쓰면 곤란하다(ex. 자동차 운전을 배우면 자전거 타기를 잊어버린다던지). 기존 연결을 보호하는 뇌의 방법이 있고(생략) 구현된 방법이 EWC(elastic weight conditioning).[1] 고정된 숫자의 뉴런이 아니라 새로운 일을 배울 때마다 인공 뉴런을 추가하는 방법도 제안됨.[2]
//내용 참고 from: 브레인 이미테이션


관련: 시행착오

Q-learning

See also

----
Retrieved from http://tomoyo.ivyro.net/123/wiki.php/강화학습,reinforcement_learning
last modified 2023-04-05 05:02:54