# Actor-Critic
총 5개의 포스트

DDPG - 구글은 신이고 딥마인드는 무적이다.
논문 출처: https://arxiv.org/pdf/1509.02971.pdf Background 보통 강화학습의 알고리즘을 테스트하기 위해 많이 사용하는 환경 툴이 Gym의 Cartpole-v1이다. Cartpole에서 Agent는 떨어지지 않기 위해 왼쪽 혹은
2022년 2월 18일
·
0개의 댓글
Actor-Critic Instance Segmentation - 논문 리뷰
논문 출처: https://ieeexplore.ieee.org/document/8954189이번에는 강화학습 알고리즘 중에 하나인 Actor-Critic의 DDPG 알고리즘을 이용해 Segmentation의 끝판왕인 Instance Segmentation 을
2022년 2월 16일
·
0개의 댓글
Improved Soft Actor-Critic: Mixing Prioritized Off-Policy Samples with On-Policy Experience -논문 리뷰
논문 출처: https://arxiv.org/abs/2109.11767https://velog.io/@everyman123/PRIORITIZED-EXPERIENCE-REPLAY-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0http
2022년 2월 7일
·
0개의 댓글
Asynchronous Episodic Deep Deterministic Policy Gradient: Towards Continuous control in Computationally Complex Environments -논문 리뷰
논문 출처: https://arxiv.org/abs/1903.00827오늘은 이전에 소개한 Prioritized-Experience-Replay 처럼 Sample에 우선순위를 두어 Data-Efficient 를 높인 논문을 소개하겠다.Prioritized-Ex
2022년 2월 7일
·
0개의 댓글