한 회사에서 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 응용 프로그램은 다양한 워크로드를 제공합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 복원력과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 할까요?
A. Amazon Simple Queue Service(Amazon SQS) 대기열을 작업의 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
B. Amazon Simple Queue Service(Amazon SQS) 대기열을 작업의 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
C. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스를 사용하여 기본 서버 및 컴퓨팅 노드를 구현합니다. AWS CloudTrail을 작업의 대상으로 구성합니다. 기본 서버의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.
D. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스를 사용하여 기본 서버 및 컴퓨팅 노드를 구현합니다. Amazon EventBridge(Amazon CloudWatch Events)를 작업의 대상으로 구성합니다. 컴퓨팅 노드의 로드에 따라 EC2 Auto Scaling을 구성합니다.
예약된 조정
예측 가능한 부하 변화에 대해 조정 일정을 설정할 수 있음. 예를 들어, 매주 수요일에 웹 애플리케이션에 대한 트래픽이 증가하고 목요일까지 높은 상태로 유지되다가 금요일에 줄어들기 시작한다고 가정해 보겠음. Amazon EC2 Auto Scaling이 수요일에 용량을 늘리고 금요일에 용량을 줄이도록 일정을 구성할 수 있음.
따라서 확장성 능력은 대기열 크기에 따라 조절되는 것이 더 높음. 따라서 답은 B