인터넷의 발달로 데이터 통신은 더욱 활발해졌고, 트래픽의 폭발적인 증가로 이어졌습니다. 따라서 아무리 성능이 좋은 서버라도 1대로 모든 트래픽을 감당하기에는 턱없이 부족하게 되었습니다.
이러한 문제를 해결하기 위해 Scale Up과 Scale Out이 있습니다.
Scale Up은 단일 서버의 성능을 향상시켜 더 많은 트래픽을 처리하도록 하는 전략입니다. 기존 서버의 CPU, 메모리, 디스크 등의 리소스를 업그레이드하거나 추가하여 성능을 증가시킵니다. 물리적 한계가 있을 수 있으며, 확장에 한계가 있을 수 있습니다.
Scale Out은 여러 대의 서버를 추가하여 트래픽을 분산시켜 성능을 향상시키는 전략입니다. 서버를 여러 대 추가하므로 전체 시스템의 처리 능력을 증가시킬 수 있습니다. 하지만 서버 간의 데이터 동기화와 관리가 복잡할 수 있습니다.
아래에서 다룰 로드 밸런싱은 Scale Out에 속합니다.
그대로 서버가 처리해야 할 업무 혹은 요청(Load)을 여러 대의 서버로 나누어(Balancing) 처리하는 것을 의미합니다. 한 대의 서버로 부하가 집중되지 않도록 트래픽을 분산 관리해 각각의 서버가 최적의 퍼포먼스를 보일 수 있도록 하는 것이 목적입니다.
서버에 들어온 요청을 순서대로 돌아가며 배정하는 방식입니다.
클라이언트의 요청을 순서대로 분배하기 때문에 여러 대의 서버가 동일한 스펙을 갖고 있고, 서버와의 연결(세션)이 오래 지속되지 않는 경우에 활용하기 적합합니다.
주로 서버의 트래픽 처리 능력이 상이한 경우 사용되는 부하 분산 방식이다.
각각의 서버마다 가중치를 매기고 가중치가 높은 서버에 클라이언트 요청을 우선적으로 배분합니다. 예를 들어 A라는 서버가 5라는 가중치를 갖고 B라는 서버가 2라는 가중치를 갖는다면, 로드 밸런서는 라운드로빈 방식으로 A 서버에 5개 B 서버에 2개의 요청을 전달합니다.
클라이언트의 IP 주소를 특정 서버로 매핑하여 요청을 처리하는 방식입니다.
사용자의 IP를 해싱해(Hashing, 임의의 길이를 지닌 데이터를 고정된 길이의 데이터로 매핑하는 것, 또는 그러한 함수) 로드를 분배하기 때문에 사용자가 항상 동일한 서버로 연결되는 것을 보장합니다.
세션이 길어지거나, 서버에 분배된 트래픽들이 일정하지 않은 경우에 적합한 방식입니다.
요청이 들어온 시점에 가장 적은 연결상태를 보이는 서버에 우선적으로 트래픽을 배분합니다.
가장 적은 연결 상태와 가장 짧은 응답 시간을 보이는 서버에 우선적으로 로드를 배분하는 방식입니다.
서버의 현재 연결 상태와 응답 시간(Response Time, 서버에 요청을 보내고 최초 응답을 받을 때까지 소요되는 시간)을 모두 고려하여 트래픽을 배분합니다.
L4, L7은 각각 Layer 4(전송 계층) 프로토콜과 Layer 7(응용 계층) 프로토콜의 헤더를 부하 분산에 이용하기 때문에 붙은 접두사입니다.
피드백 및 개선점은 댓글을 통해 알려주세요😊