서버가 처리해야 할 업무 혹은 요청(load)을 여러 대의 서버로 나누어(balancing) 처리하는 것이다. 여러 대의 서버에서 서비스를 제공하는 분산 처리 시스템에서 필요하다.
한 대의 서버로 부하가 집중되지 않도록 트래픽을 관리해 각각의 서버가 최적의 퍼포먼스를 보일 수 있도록 하는 것이 목적이다. 기존의 서버 성능을 확장하는 Scale-Up 방식과 기존의 서버와 동일하거나 낮은 성능의 서버를 증설하는 Scale-Out 방식이 있다. Scale-Out 방식으로 서버를 증설한다면, 로드 밸런싱이 반드시 필요하다.
서버에 들어온 요청을 순서대로 돌아가며 배정하는 방식.
클라이언트 요청을 순서대로 분배함. 여러 대의 서버가 동일한 스펙을 갖고 있고, 세션이 오래 지속되지 않는 경우 사용.
각각의 서버마다 가중치를 매기고 가중치가 높은 서버를 우선으로 돌아가며 배정하는 방식.
주로 서버의 트래픽 처리 능력이 상이한 경우 사용.
클라이언트의 IP 주소를 특정 서버로 매핑하여 요청을 처리하는 방식.
사용자의 IP를 해싱해 로드를 분배하므로 사용자가 항상 동일한 서버로 연결되는 것을 보장.
요청이 들어온 시점에 가장 적은 연결상태를 보이는 서버에 우선적으로 트래픽을 배분하는 방식.
주로 세션이 자주 길어지거나 서버에 분배된 트래픽들이 일정하지 않은 경우 사용.
서버의 현재 연결 상태와 응답 시간을 모두 고려하여 트래픽을 배분하는 방식. 가장 적은 연결 상태와 가장 짧은 응답 시간을 보이는 서버에 우선적으로 로드를 배분.
로드 밸런싱에는 포트 정보를 바탕으로 로드를 분산하는 것이 가능한 L4 로드 밸런싱과 L7 로드 밸런싱이 가장 많이 활용된다.
L4는 Layer 4(전송 계층) 프로토콜, L7은 Layer 7(응용 계층) 프로토콜의 헤더를 부하 분산에 이용해서 붙은 접두사이다.
네트워크 계층(IP, IPX)이나 전송 계층(TCP, UDP)의 정보(IP 주소, 포트 번호, MAC 주소, 전송 프로토콜)를 바탕으로 로드를 분산한다.
애플리케이션 계층(HTTP, FTP, SMTP)에서 HTTP 헤더, 쿠키 등 사용자의 요청을 기준으로 로드를 분산한다. 즉, 패킷의 내용을 확인하고 그 내용에 따라 로드를 특정 서버에 분배한다.
참조