girini.log
로그인
girini.log
로그인
batch size와 learning rate의 관계
기린이
·
2023년 6월 12일
팔로우
0
0
머신러닝/딥러닝 지식
목록 보기
16/20
batch size
큰 배치 사이즈
gpu를 효율적으로 사용가능하다. 학습 시간이 빠르다.
학습 데이터의 분포와 유사해지기 때문에 noise가 적어진다.
안정된 수렴을 한다.(local minima에 빠질 수 있다.)
과적합이 일어날 수 있다
작은 배치 사이즈
큰 noise를 가진다.
적당한 noise는 regularization효과를 하여 과적합을 방지할 수도 있고
너무 큰 noise는 성능에 악역향을 줄 수 있다.
많은 학습 시간 소요
local minima에 빠질 수 있다.(작은 sample로 여러 step을 학습하기에)
learning rate
큰 학습률
큰 보폭을 가지기에 빠른 수렴이 가능
오버슈팅 문제가 발생할 수 있다.
작은 학습률
작은 보폭을 가지기에 학습 속도가 느리다.
local minima에 빠질 수 있다.
batch size와 learning rate
큰 배치사이즈, 큰 학습률(👍)
많은 데이터를 적용한 결과를 큰 lr을 적용해 반영
과적합 문제 발생할 수 있음
작은 배치사이즈, 작은 학습률(👍)
작은 배치 사이즈는 노이즈가 크기에 이러한 결과를 높은 학습률로 적용하기보다 작은 학습률을 적용하는 것이 적절할 것이다.
local minima의 문제 있을 수 있음
학습 오래 걸릴 것이다.
큰 배치사이즈, 작은 학습률(👎)
많은 데이터로 보폭을 작게 학습하기에 과적합 문제 발생할 확률이 높다.
작은 배치사이즈, 큰 학습률(👎)
noise가 많이 존재하는데 큰 학습률을 적용하여 수렴이 어려울 수 있다.
참고
https://inhovation97.tistory.com/32
기린이
중요한 것은 속력이 아니라 방향성, 공부하며 메모를 남기는 공간입니다.
팔로우
1개의 댓글
댓글 작성
찹쌀이네공부방
2024년 3월 18일
작다 크다의 기준이 애매하고 이미지 특성에 따라 너무 많이 결과가 달라서...
답글 달기
작다 크다의 기준이 애매하고 이미지 특성에 따라 너무 많이 결과가 달라서...