최근 딥러닝에 대한 관심이 뜨겁습니다. 복잡해 보이는 AI 기술을 체계적으로 이해할 수 있는 책을 찾는 분들께 혁펜하임의 『Easy! 딥러닝』을 소개합니다.
책 19쪽에 번역 모델의 성능 평가에 사용되는 Perplexity와 BLEU 스코어에 대한 언급은 있지만, 개인적으로 좀 더 정리가 필요하다고 생각하여 해당 포스트에 정리를 수행하였습니다.
이 포스트에서는 강화학습(RL)과 Q-Learning의 개념 및 학습 과정을 상세히 설명합니다. 벨만 방정식, ε-탐욕 정책, Q-Table 업데이트 방식 등을 다루며, Q-Learning의 한계와 DQN(Deep Q-Network)과의 차이점까지 정리합니다.
딥러닝에서 웨이트 초기화(Weight Initialization)는 신경망의 가중치를 학습 전에 설정하는 과정입니다. 초기화 방식에 따라 모델의 학습 속도, 성능, 안정성이 크게 달라질 수 있습니다. 탐구해봅시다!