접속자 폭증으로 서버 상태가 원활하지 않습니다 | 소유권 이전과 관련한 공지

강화학습(r3 Blame)

r3
r1

(새 문서)
1[[분류:수학]]
2[목차]
3[clearfix]
4== 개요 ==
r2
5{{{+1 強化學習 / Reinforcement learning}}}
r1

(새 문서)
6
7강화학습은 동물의 학습 능력을 모방한 것으로, 특정 상태(state)에서 어떤 행동(action)을 취하는 것이 최적인지를 학습하는 것이다.
8== 원리 ==
r3
9[[파일:나무위키강화학습사진.webp|bgcolor=#FFFFFF]]
r1

(새 문서)
10
11강화학습의 주요한 기원 중 하나는 MDP(Markov Decision Process)가 있다. MDP는 1960년대 제안된 방법으로, 확률적 의사결정 문제를 수학적으로 정의하기 위한 프레임워크로 이해할 수 있다. 어떤 상태 S에서 행동 A를 취하면 보상 R을 받는 구조를 통해 심리학의 보상 기반 학습 개념을 수학적으로 모델링하였다.
12
13강화학습의 또 다른 기원으로는 벨만 방정식이 있다. 1950년대, [[동적 프로그래밍]]을 비롯한 제어이론을 연구하던 미국의 응용수학자 리처드 E. 벨만은 제어 문제를 재귀적인 형태[* [math(a_{n+1}=f(a_n))]의 형태로 소위 [[점화식]]이라 불리는 형태를 의미한다.]로 정의하였으며, 이를 벨만 방정식이라고 불렀다. 당시에는 연료, 에너지, 시간 등 다양한 요소로 정의된 비용을 최소화하는 방식으로 문제를 해결하였다. 이러한 비용 최소화 문제를 보상 최대화 문제로 등가 변환하는 관점을 채택하는데 이것이 강화학습으로 연결된다.
14
15이 두 이론이 결합된 것이 바로 강화학습의 이론적 기초가 된다. 즉, 보상 기반의 확률적 의사결정 문제를 벨만 방정식을 이용하여 재귀적으로 해석하는 것이 강화학습 이론의 수학적 핵심이라 할 수 있다.
16
17강화학습을 구성하는 주요한 구성요소는 다음과 같다.
18 *에이전트(Agent): 강화학습 문제 상황에서 학습 혹은 행동의 주체가 되는 시스템을 말한다. 다음과 같은 하위 구성요소를 지닌다.
19 *상태(State, [math(s)]): 에이전트가 환경을 관찰한 결과
20 *행동(Action, [math(a)]): 환경을 관찰한 에이전트의 선택
21 *정책(Policy, [math(\pi(a|s))]): 상태에 따른 행동을 선택하는 전략
22 *가치 함수(Value function): 정책하에서 미래 보상의 기댓값
23 *상태 가치 함수(State Value Function, [math(V^{\pi}(s))]): 어떤 정책 [math(\pi)]를 따를 때, 상태 [math(s)]가 가지는 미래 보상의 기댓값.
24 *행동 가치 함수(Action Value Function, [math(Q^{\pi}(s, a))]): 어떤 정책 [math(\pi)]를 따를 때, 상태 [math(s)]에서 행동 [math(a)]를 선택할때 가지는 미래 보상의 기댓값
25 *환경(environments): 에이전트가 상호작용하는 외부 세계를 의미하며, 다음과 같은 구성요소로 정의된다.
26 *상태공간(State Space, [math(S)]): 환경이 정의하는, Agent가 가질 수 있는 모든 상태의 집합
27 *행동공간(Action Space, [math(A)]): 환경이 정의하는, Agent가 선택할 수 있는 모든 행동의 집합
28 *상태 전이 함수(State Transition Function, [math(P(s'|s, a))]): 에이전트가 상태 [math(s)]에서 행동 [math(a)]를 선택할 때, 다음 상태를 정의하는 함수
29 *보상 함수(Reward Function, [math(R(s, a))]): 에이전트가 상태 [math(s)]에서 행동 [math(a)]를 선택할 때, 그 결과로 제공될 보상을 정의하는 함수
30 *보상(Reward, [math(r)]): 보상함수의 결과값
31
32== 알고리즘 ==
33강화학습의 알고리즘은 가치 함수를 최적화 하는가? 아니면 정책 함수를 최적화하는가? 라는 기준에 따른 대분류를 가진다.
34
35=== 가치 기반 알고리즘 ===
36
37=== 정책 경사 알고리즘 ===