# batch size

[pytorch] batch size에 대해서
데이터를 모델에 입력하여 예측을 수행할 때, 일반적으로 한 번에 하나의 데이터 샘플을 처리하는 것보다 여러 개의 데이터 샘플을 함께 처리하는 것이 효율적입니다. 이때 한 번에 처리되는 데이터 샘플의 개수가 배치 크기입니다.배치 크기를 선택하는 것은 학습 알고리즘의 성능

[SpringBoot / JPA] JPA Batch Size에 대한 고찰
JPA의 N+1 문제를 해결할 수 있는 전략으로 Batch Size를 설정하여 쿼리 수를 압도적으로 줄일 수 있습니다.@BatchSize( size = n )기술 블로그를 서칭하면서 상황에 맞게 Batch Size를 고려해야 한다라는 글을 읽은 적이 있습니다. 저는 이

Batch Normalization
본 포스트는 KAIST AI대학원 신진우 교수님(https://alinlab.kaist.ac.kr/index.html)의 AI602 강의를 참고하였습니다.정규화는 왜 필요한 것일까? 위와 같은 그림에서 unnormalized 상태라면 initial point가
배치사이즈(Batch size)와 에폭(Epoch)
배치사이즈란, 한 번에 모델이 학습하는 데이터 샘플의 개수를 의미합니다. 학습 데이터셋이 매우 클 경우, 전체 데이터셋을 한 번에 모델에 넣어 학습하는 것은 메모리와 게산적인 측면에서 불가능할 수 있습니다. 이러한 경우, 데이터셋을 작은 단위로 나누어 모델에 입력하게

[딥러닝] epoch, batch size, iteration
입사 테스트 시험 문제로 batch size가 나왔다. 딥페이크로 졸업 프로젝트 할 때랑, 작년에 실험 계획서+실험 준비할 때가 생각났다. 얕고 넓은 내 지식... 자꾸 헷갈려-\_- 잘 정리해주신 분 꺼 보고 기록해두기.epoch : 전체 트레이닝셋이 신경망을 통과한
📌 배치 사이즈(batch size), 에포크(epoch), 반복(iteration)의 차이는?
배치는 메모리에서 CPU에 올릴 수 있는 최대 데이터(이미지) 양에포크는 모델 훈련 반복 횟수if 배치 사이즈가 너무 크면 아래의 문제가 발생 1\. 학습 속도가 느려짐 2\. 메모리 부족 문제\-> 배치 사이즈를 줄여서 많은 배치로 나눠 훈련시키는게 좋음
Batch size, Mini batch, Epoch
기본 중에 기본. 모델학습을 처음 시도할 때 'tiny dataset으로 해보는 거고 사용자가 적절히 정해주는 건데 내가 적절히 해주면 얘도 눈치껏 알아먹겠지' 이런 식으로 접근했던 게 일주일치 고생으로 돌아왔다 하하하. 역시 기본기가 탄탄해야 한다.