Linux Amazon EC2 인스턴스를 사용하여 데이터는 EBS 볼륨에 저장된다. 조직은 오류 발생시 애플리케이션의 복원력을 높이고 원자성, 일관성, 격리 및 내구성 요구사항(ACID)를 준수하는 스토리지를 제공할 솔루션은 무엇일까?
여러 가용영역에 걸쳐 Auto Scaling 그룹이 있는 Application Load Balancer 를 생성한다. EFS에 데이터를 저장하고 각 인스턴스에 대상을 탑재한다.
일단 ACID가 나오면 s3는 제끼고 시작하자
EBS내 EC2 인스턴스 사용 불가
68번
트래픽이 일정하고 때때로 매우 높은 트래픽을 예상하는데, 웹앱은 가용성이 높아야하고 내결함성이 있어야하며 응답시간이 짧아야 한다. 어떤걸 사용해야할까?
여러 가용 영역에서 Application Load Balancer가 있는 Auto Scaling 그룹의 EC2 인스턴스를 사용한다.
클러스터 배치 그룹은 멀티 AZ를 지원하지 않는다.
69번
Public API 액세스를 가능하게 하는 애플리케이션에 대한 다중 지역 재해 복구 솔루션을 구축하는데, 애플리케이션 코드를 로드하기 위해 애플리케이션은 사용자 데이터 스크립트 및 MySQL용 RDS 데이터베이스가 있는 EC2 인스턴스를 사용한다. 3시간은 RTO(복구시간목표) 이고, 24시간은 RPO(복구시점목표)이다. 가장 비용이 적게드는 아키텍쳐는?
리전 장애 조치를 위해 Route 53을 사용한다. API용 userdata 스크립트를 사용하여 새 EC2 인스턴스를 배포하고 백업을 위해 매일 RDS 인스턴스의 스냅샷을 생성한다. 스냅샷을 백업 리전에 복제한다.
RPO가 24시간이라 replica 까지는 아니고 매일 snapshot을 가지고 있으면 됨
RTO가 3시간이나 되니 실시간 복제는 필요없고 일단위 snapshot 백업
70번
온프레미스에 NFS가 있는데, S3에 자주 백업 하고싶다, 가장 비용 효율적인 옵션은?
온프레미스 서버에 AWS DataSync 에이전트를 설정하고 데이터를 S3에 동기화 한다.
DataSync는 기존 데이터를 S3로 마이그레이션 한 다음, 이후 Storage Gateway의 파일 게이트웨이 구성을 사용하여 마이그레이션 된 데이터 민 온프레미스 파일 기반 애플리케이션의 지속적인 업데이트에 대한 액세스 유지
DataSync 초기에 데이터를 s3로 전송 // 이후에 Storage Gateway를 통해 지속적인 업데이트 유지
Transfer for SFTP는 동기화가 안됨
storage gateway는 파일시스템 가상화 서비스임
71번
내부 보안 전문가가 주기적으로 생성하고 순환하는 키를 사용하여, 모든 S3 버킷과 EBS 볼륨이 암호화 되었는지 확인해야 하는데, 이를 위해 추천할만한 솔루션은?
AWS Key Management Service(KMS)를 고객 마스터 키(CMK)와 함께 사용하여 마스터 키 구성요소를 저장하고 정기적으로 새 키 재생성하고 KMS에 교체하는 루틴을 적용한다.
AWS secrets Manager : 수명 주기 동안 db 자격 증명, API 키 및 기타 보안 정보를 손쉽게 교체, 관리 및 검색 -> EBS 볼륨 암호화와 무관함, 암호를 관리하는 서비스, 암호를 암호화& 복호화, 암호의 주기적 변경
KMS : 암호화 작업에 사용되는 키를 쉽게 생성하고 제어할 수 있도록 지원하는 관리형 서비스, 이 서비스는 고가용성 키 생성, 스토리지, 관리 및 감사 솔루션을 제공하므로, 이를 통해 자체 앱 내 데이터를 암호화 또는 디지털 방식으로 서명하거나 데이터의 암호화 제어 가능, 암호화 키 제공, 1년단위로 키 교체 (Key 와 관련)
73번
온프레미스 네트워크 연결 파일 시스템에서 S3 Glacier 로 750TB의 데이터를 이동하는데, 마이그레이션은 온프레미스에서 1Mbps 인터넷 연결을 초과해서는 안된다. 어떤 솔루션이 좋을까?
AWS Snowball Edge Storage optimized 디바이스 10개를 주문하고, S3 버킷을 대상으로 선택, S3객체를 S3 Glacier로 전환하는 수명 주기 정책 생성
Snowball Edge를 사용하여 S3 Glacier에 직접 객체를 업로드할 방법은 없음, 그래서 S3 standard에 업로드 후 수명 주기 정책을 사용하여 파일을 Glacier 로 전환해야함
S3 객체 넣을때 바로 glacier 로 못보내고 넣고 나서 glacier로 보내야함
75번
일반 트래픽의 경우 최소 4개의 EC2 인스턴스가 필요하며, 트래픽이 피크일 경우 최대 12개의 EC2 인스턴스가 필요하다. 높은 수준의 가용성을 유지하기 위해 어떻게?
Auto Scaling 그룹에 EC2 인스턴스를 배포하고, 가용영역 A에 2개, 가용영역 B에 2개로 최소값을 4로, 최대값을 12로 설정한다.