AWS Solution Architect Associate(SAA) - Study

LEE EUI JOO·2023년 1월 12일
0

AWS Certificate

목록 보기
3/9

NO1.
A company is hosting a three-tier web application in an on-premises environment. Due to a recent surge in traffic that resulted in downtime and a significant financial impact, company management has ordered that the application be moved to AWS. The application is written in .NET and has a dependency on a MySQL database A solutions architect must design a scalable and highly available solution to meet the demand of 200000 daily users.
Which steps should the solutions architect take to design an appropriate solution?

사내 환경에서 3계층 웹 애플리케이션을 호스팅하고 있다. 최근 트래픽이 급증해 다운타임이 발생하고 재정적으로 큰 영향을 미치자 회사 경영진은 애플리케이션을 AWS로 옮기라고 지시했다. 지원서는 에 기재되어 있습니다.NET 및 MySQL 데이터베이스에 대한 의존성 솔루션 설계자는 일일 사용자 200,000명의 수요를 충족하기 위해 확장 가능하고 가용성이 높은 솔루션을 설계해야 한다.솔루션 설계자가 적절한 솔루션을 설계하기 위해 취해야 할 단계는?


(A). Use AWS Elastic Beanstalk to create a new application with a web server environment and an Amazon RDS MySQL Multi-AZ DB instance The environment should launch a Network Load Balancer (NLB) in front of an Amazon EC2 Auto Scaling group in multiple Availability Zones Use an Amazon Route 53 alias record to route traffic from the company's domain to the NLB.
(B). Use AWS CloudFormation to launch a stack containing an Application Load Balancer (ALB) in front of an Amazon EC2 Auto Scaling group spanning three Availability Zones. The stack should launch a Multi-AZ deployment of an Amazon Aurora MySQL DB cluster with a Retain deletion policy. Use an Amazon Route 53 alias record to route traffic from the company's domain to the ALB
(C). Use AWS Elastic Beanstalk to create an automatically scaling web server environment that spans two separate Regions with an Application Load Balancer (ALB) in each Region. Create a Multi-AZ deployment of an Amazon Aurora MySQL DB cluster with a cross-Region read replica Use Amazon Route 53 with a geoproximity routing policy to route traffic between the two Regions.
(D). Use AWS CloudFormation to launch a stack containing an Application Load Balancer (ALB) in front of an Amazon ECS cluster of Spot Instances spanning three Availability Zones The stack should launch an Amazon RDS MySQL DB instance with a Snapshot deletion policy Use an Amazon Route 53 alias record to route traffic from the company's domain to the ALB

A). AWS Elastic Beanstalk를 사용하여 웹 서버 환경과 Amazon RDS MySQL Multi-AZDB 인스턴스를 포함하는 새 애플리케이션 생성 환경에서 여러 가용성 영역의 Amazon EC2 자동 스케일링 그룹 앞에 NLB(Network Load Balancer)를 시작해야 함 Amazon Route 53 별칭 레코드를 사용하여 회사 도메인의 트래픽을 NLB 에 라우팅
(B). AWS Cloud Formation을 사용하여 3개의 가용성 영역에 걸쳐 있는 Amazon EC2 자동 스케일링 그룹 앞에 ALB(Application Load Balancer)가 포함된 스택을 시작합니다. 스택이 삭제 유지 정책을 사용하여 Amazon Aurora MySQL DB 클러스터의 Multi-AZ 배포를 시작해야 합니다. Amazon Route 53 별칭 레코드를 사용하여 회사 도메인에서 ALB로 트래픽 라우팅
(C). AWS Elastic Beanstalk를 사용하여 각 영역에 ALB(Application Load Balancer)가 있는 두 개의 개별 영역에 걸쳐 자동으로 확장되는 웹 서버 환경을 만듭니다. 교차 영역 읽기 복제본이 있는 Amazon Aurora MySQL DB 클러스터의 다중 AZ 배포 생성 두 영역 간에 트래픽을 라우팅하려면 지정 확률 라우팅 정책과 함께 Amazon Route 53을 사용합니다.
(D). AWS CloudFormation을 사용하여 3개의 가용성 영역에 걸쳐 있는 스팟 인스턴스의 Amazon ECS 클러스터 앞에 ALB(Application Load Balancer)가 포함된 스택을 시작함 스택이 스냅샷 삭제 정책과 함께 Amazon RDS MySQL DB 인스턴스를 시작해야 함 Amazon Route 53 별칭 레코드를 사용하여 회사 도메인의 트래픽을 라우팅합니다 ALB에


NO2.
A company is running its solution on AWS in a manually created VPC. The company is using AWS Cloud Formation to provision other parts of the infrastructure. According to a new requirement, the company must manage all infrastructure in an automatic way.
What should the company do to meet this new requirement with the LEAST effort?

A사는 수동으로 만든 VPC로 AWS에서 솔루션을 실행하고 있다. 이 회사는 AWS Cloud Formation을 사용하여 인프라의 다른 부분을 프로비저닝하고 있습니다. 새로운 요구 사항에 따르면, 회사는 모든 인프라를 자동으로 관리해야 합니다.
최소한의 노력으로 이 새로운 요구사항을 충족하기 위해 회사는 무엇을 해야 할까요?


(A). Create a new AWS Cloud Development Kit (AWS CDK) stack that stnctly provisions the existing VPC resources and configuration. Use AWS CDK to import the VPC into the stack and to manage the VPC.
(B). Create a CloudFormation stack set that creates the VPC. Use the stack set to import the VPC into the stack.
(C). Create a new CloudFormation template that strictly provisions the existing VPC resources and configuration. From the CloudFormation console, create a new stack by importing the existing resources.
(D). Create a new CloudFormation template that creates the VPC. Use the AWS Serverless Application Model {AWS SAM) CLI to import the VPC.

(A). 기존 VPC 리소스 및 구성을 엄격하게 프로비저닝하는 새 AWS CDK(Cloud Development Kit) 스택을 생성합니다. AWS CDK를 사용하여 VPC를 스택으로 가져오고 VPC를 관리합니다.
(B). VPC를 생성하는 CloudFormation 스택 세트를 생성합니다. 스택 집합을 사용하여 VPC를 스택으로 가져옵니다.
(C). 기존 VPC 리소스 및 구성을 엄격하게 프로비저닝하는 새 CloudFormation 템플릿을 생성합니다. CloudFormation 콘솔에서 기존 리소스를 가져와 새 스택을 생성합니다.
(D). VPC를 생성하는 새 CloudFormation 템플릿을 생성합니다. AWS 서버리스 애플리케이션 모델 {AWS SAM} CLI를 사용하여 VPC를 가져옵니다.


NO3.
A company is configuring connectivity to a multi-account AWS environment to support application workloads fiat serve users in a single geographic region. The workloads depend on a highly available, on-premises legacy system deployed across two locations It is critical for the AWS workloads to manias connectivity to the legacy system, and a minimum of 5 Gbps of bandwidth is required All application workloads within AWS must have connectivity with one another.
Which solution will meet these requirements?

A사는 단일 지리적 영역에서 사용자에게 서비스를 제공하는 애플리케이션 워크로드를 지원하기 위해 다중 계정 AWS 환경에 대한 연결을 구성하고 있습니다. 워크로드는 두 위치에 걸쳐 구축된 고가용성 사내 레거시 시스템에 따라 달라집니다. AWS 워크로드는 레거시 시스템에 대한 연결을 유지하고 최소 5Gbps의 대역폭이 필요합니다. AWS 내의 모든 애플리케이션 워크로드는 서로 연결되어 있어야 합니다.
이러한 요구사항을 충족하는 솔루션은 무엇입니까?


(A). Configure multiple AWS Direct Connect (OX) 10 Gbps dedicated connections from a DX partner for each on-premises location Create private virtual interfaces on each connection for each AWS account VPC Associate me private virtual interface with a virtual private gateway attached to each VPC
(B). Configure multiple AWS Direct Connect (DX) 10 Gbps dedicated connections from two DX partners for each on-premises location Create and attach a virtual private gateway for each AWS account VPC. Create a DX gateway m a central network account and associate it with the virtual private gateways Create a public virtual interface on each DX connection and associate the interface with me DX gateway.
(C). Configure multiple AWS Direct Connect (DX) 10 Gbps dedicated connections from two DX partners for each on-premises location Create a transit gateway and a DX gateway in a central network account. Create a transit virtual interface for each DX interlace and associate them with the DX gateway. Create a gateway association between the DX gateway and the transit gateway
(D). Configure multiple AWS Direct Connect (DX) 10 Gbps dedicated connections from a DX partner for each on-premises location Create and attach a virtual private gateway for each AWS account VPC. Create a transit gateway in a central network account and associate It with the virtual private gateways Create a transit virtual interface on each DX connection and attach the interface to the transit gateway.

(A). 각 사내 위치에 대해 DX 파트너의 다중 AWS Direct Connect(OX) 10Gbps 전용 연결 구성 각 AWS 계정에 대한 개인 가상 인터페이스 생성 VPC 각 VPC에 연결된 가상 개인 게이트웨이와 개인 가상 인터페이스 연결
(B). 각 사내 위치에 대해 두 개의 DX 파트너로부터 여러 개의 AWS Direct Connect(DX) 10Gbps 전용 연결 구성 각 AWS 계정 VPC에 대해 가상 사설 게이트웨이를 생성하고 연결합니다. DX 게이트웨이를 중앙 네트워크 계정으로 생성하여 가상 사설 게이트웨이와 연결 각 DX 연결에 공용 가상 인터페이스를 생성하고 인터페이스를 나와 연결합니다.DX 게이트웨이로
(C). 각 사내 위치에 대해 두 개의 DX 파트너로부터 여러 개의 AWS Direct Connect(DX) 10Gbps 전용 연결 구성 중앙 네트워크 계정에 중계 게이트웨이 및 DX 게이트웨이 생성. 각 DX 인터레이스에 대한 중계 가상 인터페이스를 생성하고 DX 게이트웨이에 연결합니다. DX 게이트웨이와 전송 게이트웨이 간에 게이트웨이 연결 생성
(D). 각 사내 위치에 대해 DX 파트너로부터 여러 개의 AWS Direct Connect(DX) 10Gbps 전용 연결 구성 각 AWS 계정 VPC에 대한 가상 사설 게이트웨이 생성 및 연결. 중앙 네트워크 계정에 전송 게이트웨이를 생성하고 가상 사설 게이트웨이와 연결 각 DX 연결에 전송 가상 인터페이스를 생성하고 해당 인터페이스를 전송 게이트웨이에 연결합니다.


NO4.
A financial services company loaded millions of historical stock trades into an Amazon DynamoDB table The table uses on-demand capacity mode Once each day at midnight, a few million new records are loaded into the table Application read activity against the table happens in bursts throughout the day, and a limited set of keys are repeatedly looked up. The company needs to reduce costs associated with DynamoDB.
Which strategy should a solutions architect recommend to meet this requirement?

한 금융 서비스 회사가 수백만 개의 과거 주식 거래를 Amazon Dynamo DB 테이블에 로드했습니다. 테이블은 주문형 용량 모드를 사용합니다. 매일 자정에 한 번씩 테이블에 수백만 개의 새 레코드가 로드됩니다. 테이블에 대한 애플리케이션 읽기 활동은 하루 종일 발생하고 제한된 키 집합은 반복적으로 표시됩니다 회사는 DynamoDB와 관련된 비용을 줄여야 합니다.
이러한 요구사항을 충족하기 위해 솔루션 설계자가 권장해야 할 전략은 무엇입니까?


(A). Deploy an Amazon ElastiCache cluster in front of the DynamoDB table.
(B). Deploy DynamoDB Accelerator (DAX) Configure DynamoDB auto scaling Purchase Savings Plans in Cost Explorer
(C). Use provisioned capacity mode Purchase Savings Plans in Cost Explorer
(D). Deploy DynamoDB Accelerator (DAX) Use provisioned capacity mode Configure DynamoDB auto scaling

(A). DynamoDB 테이블 앞에 Amazon ElastiCache 클러스터를 배포합니다.
(B). DAX(DynamoDB Accelerator) 배포 비용 탐색기에서 DynamoDB 자동 확장 구매 절감 계획 구성
(C). Provisioned Capacity 모드를 사용하여 비용 탐색기에서 구입 비용 절감 계획 사용
(D). DAX(DynamoDB Accelerator) 배포하고, 프로비저닝된 용량 모드 사용 DynamoDB 오토스케일링 구성


NO5.
A company wants to host a new global website that consists of static content. A solutions architect is working on a solution that uses Amazon CloudFront with an origin access identity <OAI) to access website content that is stored in a private Amazon S3 bucket.
During testing, the solutions architect receives 404 errors from the S3 bucket. Error messages appear only for attempts to access paths that end with a forward slash. such as example.com/path/. These requests should return the existing S3 object path/index.html. Any potential solution must not prevent CloudFront from caching the content.
What should the solutions architect do to resolve this problem?

A사는 정적인 콘텐츠로 구성된 새로운 글로벌 웹사이트를 호스팅하기를 원한다. 솔루션 설계자가 개인 아마존 S3 버킷에 저장된 웹 사이트 콘텐츠에 액세스하기 위해 오리진 액세스 ID OAI 를 가진 아마존 클라우드 프론트를 사용하는 솔루션을 개발하고 있습니다.
테스트하는 동안 솔루션 설계자는 S3 버킷에서 404개의 오류를 수신합니다. 오류 메시지는 example.com/path/과 같이 슬래시로 끝나는 경로에 액세스하려는 시도에 대해서만 나타납니다. 이러한 요청은 기존 S3 개체 path/index.html을 반환해야 합니다. 잠재적인 솔루션이 CloudFront의 콘텐츠 캐싱을 방해해서는 안 됩니다.
솔루션 설계자는 이 문제를 해결하기 위해 무엇을 해야 합니까?


(A). Change the CloudFront origin to an Amazon API Gateway proxy endpoint. Rewrite the S3 request URL by using an AWS Lambda function.
(B). Change the CloudFront origin to an Amazon API Gateway endpoint. Rewrite the S3 request URL in an AWS service integration.
(C). Change the CloudFront configuration to use an AWS Lambda@Edge function that is invoked by a viewer request event to rewrite the S3 request URL.
(D). Change the CloudFront configuration to use an AWS Lambda@Edge function that is invoked by an origin request event to rewrite the S3 request URL.

(A). CloudFront 오리진을 Amazon API Gateway 프록시 끝점으로 변경합니다. AWS Lambda 기능을 사용하여 S3 요청 URL을 다시 작성합니다.
(B). CloudFront 오리진을 Amazon API Gateway 끝점으로 변경합니다. AWS 서비스 통합에서 S3 요청 URL을 다시 작성합니다.
(C). 시청자 요청 이벤트에 의해 호출되는 AWS Lambda@Edge 함수를 사용하여 S3 요청 URL을 다시 작성하도록 CloudFront 구성을 변경합니다.
(D). CloudFront 구성을 변경하여 오리진 요청 이벤트에 의해 호출되는 AWS Lambda@Edge 함수를 사용하여 S3 요청 URL을 다시 작성합니다.


NO6.
A company hosts a web application on AWS in the us-east-1 Region. The application servers are distributed across three Availability Zones behind an Application Load Balancer The database is hosted in a MySQL database on an Amazon EC2 instance A solutions architect needs to design a cross-Region data recovery solution using AWS services with an RTO of less than 5 minutes and an RPO of less than 1 minute. The solutions architect is deploying application servers in us-west-2 and has configured Amazon Route 53 health checks and DNS failover to us-west-2.
Which additional step should the solutions architect take?

A사는 us-east-1 지역의 AWS에서 웹 애플리케이션을 호스팅한다. 애플리케이션 서버가 애플리케이션 로드 밸런서 뒤에 있는 세 가지 가용성 영역에 분산됨 데이터베이스가 Amazon EC2 인스턴스의 MySQL 데이터베이스에 호스팅됨 솔루션 설계자는 RTO가 5분 미만이고 RPO가 1분 미만인 AWS 서비스를 사용하여 지역 간 데이터 복구 솔루션을 설계해야 합니다. 솔루션 설계자는 us-west-2에 애플리케이션 서버를 배포하고 있으며 Amazon Route 53 상태 점검 및 us-west-2에 대한 DNS 페일오버를 구성했습니다.
솔루션 설계자가 취해야 할 추가 단계는 무엇입니까?


(A). Migrate the database to an Amazon RDS for MySQL instance with a cross-Region read replica in us-west-2
(B). Migrate the database to an Amazon Aurora global database with the primary in us-east-1 and the secondary in us-west-2
(C). Migrate the database to an Amazon RDS for MySQL instance with a Multi-AZ deployment
(D). Create a MySQL standby database on an Amazon EC2 instance in us-west-2

(A). us-west-2에서 교차 영역 읽기 복제본이 있는 MySQL 인스턴스용 Amazon RDS로 데이터베이스 마이그레이션
(B). 데이터베이스를 us-east-1에 기본 데이터베이스, us-west-2에 보조 데이터베이스를 사용하여 Amazon Aurora 글로벌 데이터베이스로 마이그레이션
(C). Multi-AZ 배포를 사용하여 MySQL용 Amazon RDS 인스턴스로 데이터베이스 마이그레이션
(D). us-west-2의 Amazon EC2 인스턴스에 MySQL 대기 데이터베이스 생성


N07.
A company runs an application that gives users the ability to search for videos and related information by using keywords that are curated from content providers. The application data is stored in an on-premises Oracle database that is 800 GB in size.
The company wants to migrate the data to an Amazon Aurora MySQL DB instance. A solutions architect plans to use the AWS Schema Conversion Tool and AWS Database Migration Service (AWS DMS) for the migration. During the migration, the existing database must serve ongoing requests. The migration must be completed with minimum downtime
Which solution will meet these requirements?

A사는 콘텐츠 제공업체에서 큐레이팅한 키워드를 이용해 사용자가 동영상과 관련 정보를 검색할 수 있는 기능을 제공하는 애플리케이션을 운영한다. 애플리케이션 데이터는 800GB 크기의 사내 Oracle 데이터베이스에 저장됩니다.
이 회사는 데이터를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션하려고 합니다. 솔루션 설계자는 마이그레이션에 AWS Schema Conversion Tool과 AWS DMS(데이터베이스 마이그레이션 서비스)를 사용할 계획입니다. 마이그레이션하는 동안 기존 데이터베이스는 진행 중인 요청을 처리해야 합니다. 다운타임을 최소화하면서 마이그레이션을 완료해야 한다.이러한 요구사항을 충족하는 솔루션은 무엇입니까?


(A). Create primary key indexes, secondary indexes, and referential integrity constraints in the target database before starting the migration process
(B). Use AWS DMS to run the conversion report for Oracle to Aurora MySQL. Remediate any issues Then use AWS DMS to migrate the data
(C). Use the M5 or CS DMS replication instance type for ongoing replication
(D). Turn off automatic backups and logging of the target database until the migration and cutover processes are complete

(A). 마이그레이션 프로세스를 시작하기 전에 대상 데이터베이스에 기본 키 인덱스, 보조 인덱스 및 참조 무결성 제약 조건 생성
(B). AWS DMS를 사용하여 Oracle에서 Aurora MySQL로의 변환 보고서를 실행합니다. 모든 문제 해결 그런 다음 AWS DMS를 사용하여 데이터 마이그레이션
(C). 지속적인 복제를 위해 M5 또는 CSDMS 복제 인스턴스 유형 사용
(D). 마이그레이션 및 컷오버 프로세스가 완료될 때까지 대상 데이터베이스의 자동 백업 및 로깅 해제


NO8.
A retail company has a small ecommerce web application that uses an Amazon RDS for PostgreSQL DB instance The DB instance is deployed with the Multi-AZ option turned on. Application usage recently increased exponentially and users experienced frequent HTTP 503 errors Users reported the errors, and the company's reputation suffered The company could not identify a definitive root cause.
The company wants to improve its operational readiness and receive alerts before users notice an incident The company also wants to collect enough information to determine the root cause of any future incident.
Which solution will meet these requirements with the LEAST operational overhead?

소매 회사는 PostgreSQL DB 인스턴스용 Amazon RDS를 사용하는 작은 전자 상거래 웹 애플리케이션을 보유하고 있습니다 DB 인스턴스는 Multi-AZ 옵션이 설정된 상태로 배포됩니다. 최근 애플리케이션 사용량이 기하급수적으로 증가하고 사용자는 빈번한 HTTP 503 오류를 경험했습니다. 사용자는 오류를 보고했고 회사의 평판은 어려움을 겪었습니다. 회사는 명확한 근본 원인을 식별할 수 없었습니다.
회사는 운영 준비 상태를 개선하고 사용자가 사고를 인지하기 전에 알림을 받기를 원합니다. 또한 회사는 향후 사고의 근본 원인을 파악하기 위해 충분한 정보를 수집하기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구사항을 충족하는 솔루션은 무엇입니까?


(A). Turn on Enhanced Monitoring for the DB instance Modify the corresponding parameter group to turn on query logging for all the slow queries Create Amazon CloudWatch alarms Set the alarms to appropriate thresholds that are based on performance metrics in CloudWatch
(B). Turn on Enhanced Monitoring and Performance Insights for the DB instance Create Amazon CloudWatch alarms Set the alarms to appropriate thresholds that are based on performance metrics in CloudWatch
(C). Turn on log exports to Amazon CloudWatch for the PostgreSQL logs on the DB instance Analyze the logs by using Amazon Elasticsearch Service (Amazon ES) and Kibana Create a dashboard in Kibana Configure alerts that are based on the metrics that are collected
(D). Turn on Performance Insights for the DB instance Modify the corresponding parameter group to turn on query logging for all the slow queries Create Amazon CloudWatch alarms Set the alarms to appropriate thresholds that are based on performance metrics in CloudWatch

(A). DB 인스턴스에 대한 향상된 모니터링 설정 모든 느린 쿼리에 대해 쿼리 로깅을 설정하도록 해당 매개 변수 그룹 수정Amazon CloudWatch 경보 생성 CloudWatch의 성능 메트릭을 기반으로 하는 적절한 임계값으로 경보 설정
(B). DB 인스턴스에 대한 향상된 모니터링 및 성능 통찰력 켜기Amazon CloudWatch 경보 생성 CloudWatch의 성능 메트릭을 기반으로 하는 적절한 임계값으로 경보 설정
(C). Postgre용 Amazon CloudWatch로 로그 내보내기 설정DB 인스턴스의 SQL 로그Amazon Elastic Search Service(Amazon ES) 및 Kibana를 사용하여 로그 분석Kibana에서 대시보드 만들기 수집된 메트릭을 기반으로 경고 구성
(D). DB 인스턴스에 대한 성능 통찰력 켜기모든 느린 쿼리에 대한 쿼리 로깅을 설정하도록 해당 매개 변수 그룹 수정Amazon CloudWatch 경보 생성 CloudWatch의 성능 메트릭을 기반으로 하는 적절한 임계값으로 경보 설정


NO9.
A company has an application that uses Amazon EC2 instances in an Auto Scaling group. The quality assurance (QA) department needs to launch a large number of short-lived environments to test the application. The application environments are currently launched by the manager of the department using an AWS CloudFormation template To launch the stack, the manager uses a role with permission to use CloudFormation EC2. and Auto Scaling APIs. The manager wants to allow testers to launch their own environments, but does not want to grant broad permissions to each user Which set up would achieve these goals?

A사는 자동 스케일링 그룹에서 Amazon EC2 인스턴스를 사용하는 애플리케이션을 보유하고 있습니다. 품질 보증(QA) 부서는 애플리케이션을 테스트하기 위해 수명이 짧은 환경을 대거 출시해야 합니다. 애플리케이션 환경이 현재 AWS CloudFormation 템플릿을 사용하여 부서의 관리자에 의해 시작됨 스택을 시작하기 위해 관리자는 CloudFormation EC2 및 자동 스케일링 API를 사용할 수 있는 권한이 있는 역할을 사용합니다. 관리자는 테스터가 자체 환경을 시작할 수 있도록 허용하려고 하지만 각 사용자에게 광범위한 권한을 부여하고 싶지는 않습니다. 이러한 목표를 달성할 수 있는 설정은 무엇입니까?


(A). Upload the AWS CloudFormation template to Amazon S3. Give users in the QA department permission to assume the manager's role and add a policy that restricts the permissions to the template and the resources it creates Train users to launch the template from the CloudFormation console
(B). Create an AWS Service Catalog product from the environment template Add a launch constraint to the product with the existing role Give users in the QA department permission to use AWS Service Catalog APIs only_ Train users to launch the template from the AWS Service Catalog console.
(C). Upload the AWS CloudFormation template to Amazon S3 Give users in the QA department permission to use CloudFormation and S3 APIs, with conditions that restrict the permissions to the template and the resources it creates Train users to launch the template from the CloudFormation console.
(D). Create an AWS Elastic Beanstalk application from the environment template Give users in the QA department permission to use Elastic Beanstalk permissions only Train users to launch Elastic Beanstalk environments with the Elastic Beanstalk CLI, passing the existing role to the environment as a service role

(A).AWS CloudFormation 템플릿을 Amazon S3에 업로드합니다. QA 부서의 사용자에게 관리자 역할을 맡을 수 있는 권한을 부여하고 템플릿에 대한 권한과 템플릿이 생성하는 리소스를 제한하는 정책을 추가합니다. 사용자가 CloudFormation 콘솔에서 템플릿을 시작하도록 교육합니다
(B). 환경 템플릿에서 AWS 서비스 카탈로그 제품 생성 기존 역할로 제품에 시작 제약 조건 추가 QA 부서의 사용자에게 AWS 서비스 카탈로그 API만 사용할 수 있는 권한 부여_ 사용자가 AWS 서비스 카탈로그 콘솔에서 템플릿을 시작하도록 교육합니다.
(C).AWS CloudFormation 템플릿을 Amazon S3에 업로드합니다. QA 부서의 사용자에게 템플릿에 대한 사용 권한 및 템플릿이 생성하는 리소스를 제한하는 조건으로 CloudFormation 및 S3 API를 사용할 수 있는 권한을 부여합니다. 사용자가 CloudFormation 콘솔에서 템플릿을 시작하도록 교육합니다.
(D). 환경 템플릿에서 AWS Elastic Beansstalk 응용 프로그램 만들기 QA 부서의 사용자에게 Elastic Beansstalk 권한만 사용 권한 부여 Elastic Beansstalk CLI를 사용하여 사용자가 Elastic Beansstalk 환경을 시작하도록 교육하여 기존 역할을 환경에 서비스 역할로 전달


N10.
A company has a website that enables users to upload videos. Company policy states the uploaded videos must be analyzed for restricted content. An uploaded video is placed in Amazon S3, and a message is pushed to an Amazon SOS queue with the video's location. A backend application pulls this location from Amazon SOS and analyzes the video.
The video analysis is compute-intensive and occurs sporadically during the day The website scales with demand. The video analysis application runs on a fixed number of instances. Peak demand occurs during the holidays, so the company must add instances to the application dunng this time. All instances used are currently on-demand Amazon EC2 T2 instances. The company wants to reduce the cost of the current solution.
Which of the following solutions is MOST cost-effective?

A사는 사용자들이 동영상을 업로드할 수 있는 웹사이트를 가지고 있다. 회사 정책에 따르면 업로드된 동영상은 제한된 콘텐츠에 대해 분석되어야 합니다. 업로드된 동영상이 아마존 S3에 배치되고, 해당 동영상의 위치가 적힌 메시지가 아마존 SOS 대기열에 푸시된다. 백엔드 애플리케이션은 아마존 SOS에서 이 위치를 가져와 동영상을 분석한다.
비디오 분석은 컴퓨팅 집약적이며 웹 사이트가 수요에 따라 확장되는 낮 동안 산발적으로 발생합니다. 비디오 분석 애플리케이션은 고정된 수의 인스턴스에서 실행된다. 연휴 동안 최대 수요가 발생하기 때문에 이번에는 애플리케이션 다운에 인스턴스를 추가해야 합니다. 현재 사용되는 모든 인스턴스는 주문형 Amazon EC2 T2 인스턴스입니다. 이 회사는 현재 솔루션의 비용을 줄이고자 합니다.
다음 솔루션 중 가장 비용 효율적인 솔루션은 무엇입니까?


(B). Keep the website on T2 instances. Determine the minimum number of website instances required during off-peak times and use Reserved instances to cover them while using On-Demand instances to cover peak demand. Use Spot Fleet for the video analysis application comprised of Amazon EC2 C4 and Amazon EC2 C5 Spot instances.

(B). 웹사이트를 T2 인스턴스에 보관합니다. 사용량이 적은 시간에 필요한 최소 웹 사이트 인스턴스 수를 결정하고 예약된 인스턴스를 사용하여 해당 인스턴스를 처리하는 동시에 주문형 인스턴스를 사용하여 최대 수요를 처리합니다. Amazon EC2 C4 및 Amazon EC2 C5 Spot 인스턴스로 구성된 비디오 분석 애플리케이션은 Spot Fleet을 사용합니다.


profile
무럭무럭 자라볼까

1개의 댓글

comment-user-thumbnail
2023년 10월 23일

It's great to see your achievements highlighted in the post. If you're curious about the broader role and responsibilities of Solutions Architects, this blog post from Cleveroad provides a comprehensive overview: https://www.cleveroad.com/blog/what-does-a-solutions-architect-do/. Keep up the fantastic work!

답글 달기