infinite horizon MDP의 구성요소, value function,value iteration, policy iteration
Finite-Horizon MDP 문제를 푸는 법 - Optimal Value Function 구하는 DP 문제
optimal value function과 Bellman Equation을 통해 MDP 문제 풀기
프로그램을 작성하기 쉽다는 장점이 있다.해당 변수에 접근하는 함수가 뭔지 파악하기 어렵다.의도치 않게 전역변수를 바꿀 수 있다.
Scene Text Detection & Recognition - typical dataset & models