1.다중 사용자 그룹에 속한 IAM 사용자
2.IAM 사용자들을 위한 비밀번호 정책을 정의 하는 IAM 개체
3.AWS 서비스에 요청을 생성하기 위한 일련의 권한을 정의하고, AWS 서비스에 의해 사용될 IAM 개체
4.특정 행동 수행을 위해 IAM 사용자에게 할당된 권한
일부 AWS 서비스는 여러분을 위해 특정 행동을 수행해야 합니다. IAM 역할은 이러한 권한을 할당하기 위해 사용됩니다.
1.IAM 자격 증명 보고서
2.IAM 루트 계정 관리자
3.IAM 서비스 보고서
4.IAM 보안 관리자
IAM 자격 증명 보고서에는 AWS 계정의 모든 IAM 사용자와 이들의 다양한 자격 증명 상태가 포함되어 있습니다.
1.IAM 사용자들은 다중 사용자 그룹에 속할 수 있습니다.
2.IAM 사용자들이 사용자 그룹에 속할 필요는 없습니다.
3.IAM 정책은 IAM 사용자에게 직접 연결될 수 있습니다.
4.IAM 사용자들은 루트 계정 자격 증명을 통해 AWS 서비스에 액세스 합니다.
IAM 사용자들은 자신만의 자격 증명(사용자 이름 & 비밀번호, 혹은 액세스 키)을 통해 AWS 서비스에 액세스합니다.
1.한 사람에게 다수의 IAM 사용자 생성하기
2.루트 계정 사용하지 않기
3.동료들이 업무를 대신 수행할 수 있도록 AWS 계정 자격 증명을 공유하기
4.보다 쉬운 액세스를 위해 MFA를 활성화하지 않기
루트 계정은 최초 IAM 사용자 생성과 일부 계정/서비스 관리 업무에만 사용됩니다. 일상적인 업무에는 IAM 사용자를 사용하셔야 합니다.
1.AWS 계정들이 상호작용하는 방법을 정의하는 일련의 정책
2.AWS 서비스에 요청을 생성하기 위한 일련의 권한을 정의하며, IAM 사용자, 사용자 그룹 및 IAM 역할에서 사용하게 될 JSON 문서
3.IAM 사용자들의 비밀번호를 정의하는 일련의 정책
4.고객들이 AWS와 상호작용하는 방법을 보여주는, AWS에서 정의한 일련의 정책
1.최대 권한 부여하기
2.직원의 요청이 있을 경우, 더 많은 권한 부여하기
3.최소 권한 부여하기
4.루트 계정 권한 해지하기
사용자에게 필요 이상의 권한을 부여하지 마세요.
1.루트 계정에서 권한 제거하기
2.AWS 명령줄 인터페이스(CLI)를 통해서만 AWS 서비스에 액세스하기
3.IAM 사용자를 생성하지 않고, 루트 계정으로만 AWS 계정에 액세스하기
4.다중 인증(MFA) 활성화하기
MFA를 활성화할 경우, 보안에 하나의 층을 더 추가하게 됩니다. 비밀번호가 유출되었거나 도용을 당한 경우에도, 여러분의 계정은 안전합니다.
1.O
2.X
IAM 사용자 그룹은 IAM 사용자만을 포함할 수 있습니다.
1.효과
2.원칙
3.버전
4.조치
5.리소스
IAM 정책의 문장은 시드, 효과, 원칙, 조치, 리소스, 그리고 조건으로 구성됩니다. 버전은 IAM 정책 자체의 일부이지, 문장의 일부가 아닙니다.
1.전환 가능 예약 인스턴스
2.전용 호스트
3.스팟 인스턴스
스팟 인스턴스는 단기적인 워크로드에 적합하며, 가장 저렴한 EC2 구매 옵션입니다. 하지만 EC2 인스턴스를 손실할 우려가 있기 때문에, 신뢰도가 떨어집니다.
1.네트워크 액세스 제어 리스트(NACL)
2.보안 그룹
3.IAM 정책
보안 그룹은 EC2 인스턴스 레벨에서 운용되며, 트래픽을 제어할 수 있습니다.
1.1년, 혹은 3년
2.2년, 혹은 4년
3.6개월, 혹은 1년
4.1년에서 3년 사이의 기간
EC2 예약 인스턴스는 1년, 혹은 3년의 기간으로만 예약이 가능합니다.
1.스토리지 최적화
2.컴퓨팅 최적화
3.메모리 최적화
4.범용
컴퓨팅 최적화 EC2 인스턴스는 고성능 프로세서(예: 배치 처리, 미디어 트랜스코딩, 고성능 컴퓨팅, 과학적 모델링 및 머신 러닝, 전용 게이밍 서버 등)가 필요한 집중 컴퓨팅 워크로드에 적합합니다.
1.예약 인스턴스
2.스팟 인스턴스
3.온디맨드 인스턴스
예약 인스턴스는 장기적인 워크로드에 적합합니다. EC2 인스턴스는 1년, 혹은 3년의 기간으로 예약할 수 있습니다.
1.SSH를 통해 각 EC2인스턴스에 연결한 후, 필수 소프트웨어를 설치하고 OS 패키지를 수동으로 업데이트 하기
2.필수 소프트웨어의 설치 및 OS업데이트를 수행하는 bash스크립트를 작성한 후, AWS 지원 센터에 연락해 스크립트 제공하기 이들은 EC2인스턴스를 실행할 때 인스턴스에서 실행됩니다.
3.필수 소프투웨어의 설치 및 OS업데이트를 수행하는 bash스크립트를 작성한 후, 이 스크립트를 EC2인스턴스 실행 시에 EC2사용자 데이터에서 사용하기
EC2 사용자 데이터는 bash 스크립트를 사용해 EC2 인스턴스를 부트스트랩 할 경우에 사용됩니다. 이 스크립트에는 소프트웨어/패키지 설치, 인터넷에서 파일 다운로드 등, 여러분이 원하는 작업을 수행하기 위한 명령어를 포함시킬 수 있습니다.(3)
1.컴퓨팅 최적화
2.스토리지 최적화
3.메모리 최적화
4.범용
메모리 최적화 EC2 인스턴스는 메모리에 대규모 데이터 세트가 필요한 워크로드에 적합합니다.
1.컴퓨팅 최적화
2.스토리지 최적화
3.메모리 최적화
4.범용
스토리지 최적화 EC2 인스턴스는 로컬 스토리지의 대규모 데이터 세트에 대해 높은 수준의, 그리고 순차적인 읽기/쓰기 액세스 권한이 필요한 워크로드에 적합합니다.
1.맞습니다.
2.아닙니다.
1.전환 가능 예약 인스턴스컨버터블 예약 인스턴스
2.전용 호스트
3.스팟 인스턴스
전용 호스트는 높은 수준의 규정 준수가 필요한 기업, 혹은 복잡한 라이선스 모델을 가진 소프트웨어에 적합합니다. 이는 가장 비싼 EC2 구매 옵션입니다.
1.스팟 인스턴스
2.온디맨드
3.전용 호스트
4.예약 인스턴스
전용 호스트는 특정 물리적 서버를 예약하여 해당 서버의 모든 리소스를 독점적으로 사용할 수 있는 옵션입니다. 따라서 라이선스 비용이 물리적 코어 및 기반 네트워크 소켓 가시성에 기반하여 책정되기 때문에 전용 호스트를 사용하면 이러한 비용을 최적화할 수 있습니다.
1.EC2 인스턴스에 탄력적 IP할당
2.EC2 인스턴스 OS에서, 네트워크 구성을 DHCP에서 정적으로 변경한 뒤 공요 IPv4에 할당
3.AWS지원 센터에 연락해 EC2인스턴스를 위한 정적 공용 IPv4요청
4.불사능, EC2 인스턴스에는 고정 사설 IPv4만 할당 가능
탄력적 IP는 여러분이 원하는 기간만큼 소유할 수 있는 공용 IPv4로, 한 번에 하나의 EC2 인스턴스에만 연결할 수 있습니다.
1.예약 인스턴스
2.온디맨드 인스턴스
3.전용 호스트
4.전용 인스턴스
스팟 플릿은 한 세트의 스팟 인스턴스로, 선택적 온디맨드 인스턴스입니다. 이를 사용하면 가장 낮은 가격의 스팟 인스턴스를 자동으로 요청할 수 있습니다.
1.분산 배치 그룹
2.클러스터 배치 그룹
3.분할 배치 그룹
클러스터 배치 그룹을 사용하면 EC2 인스턴스들이 나란히 위치하게 되어 고성능의 컴퓨팅 및 네크워킹 성능을 제공하게 됩니다.
1.클러스터 배치 그룹
2.분할 배치 그룹
3.분산 배치 그룹
분산 배치 그룹은 EC2 인스턴스를 여러 AZ에 걸쳐 서로 다른 물리적 하드웨어에 배치합니다.
1.맞습니다.
2.아닙니다.
탄력적 네트워크 인터페이스(ENIs)는 특정 AZ로 국한됩니다. 다른 AZ에 있는 EC2 인스턴스에 ENI를 연결할 수는 없습니다.
1.EC2 인스턴스 루트 볼륨은 반드시 인스턴스 스토어 볼륨이어야 함
2.온디맨드 및 예약 인스턴스를 지원함
3.EC2 인스턴스 RAM은 150GB 미만이어야 함
4.EC2인스턴스 루트 볼륨은 유형은 EBS볼륨이어야 함
EC2 절전 모드를 활성화하기 위해서는 EC2 인스턴스 루트 볼륨 유형이 EBS 볼륨이어야만 하며, 민감한 내용을 보호할 수 있도록 암호화되어야 합니다.
1.IAM 권한이 없음
2.EBS 볼륨은 AWS 리전으로 제한되어 있음
3.EBS 볼륨은 가용 영역으로 제한되어 있음
EBS 볼륨은 특정 AZ에 맞춰 생성됩니다. EBS 스냅샷을 활용하면 다른 AZ 간의 이전이 가능합니다.(3)
1.루트 볼륨 유형과 EBS볼륨 유형이 모두 삭제됨
2.루트 볼륨 유형은 삭제되지만, EBS 볼륨 유형은 삭제되지 않음
3.루트 볼륨 유형은 삭제되지 않고, EBS 볼륨 유형은 삭제됨
4.루트 볼륨 유형과 EBS볼륨 유형 모두 삭제되지 않음
루트 볼륨의 경우, ‘종료 시 삭제' 속성이 기본으로 활성화되어 있기 때문에, 기본적으로 삭제되게 됩니다. 기타 EBS 볼륨 유형의 경우, ‘종료 시 삭제' 속성이 기본적으로 비활성화되어 있으므로 삭제되지 않습니다.
1.맞습니다.
2.아닙니다.
AMI는 특정 AWS 리전에 국한되며, 각 AWS 리전에는 고유한 AMI가 있습니다. 다른 AWS 리전에서 AMI를 사용해 EC2 인스턴스를 실행하는 것은 불가능하지만, 대상 AWS 리전으로 AMI를 복사해 EC2 인스턴스를 생성하는 것은 가능합니다.
1.gp2,gp3,st1,sc1
2.gp2,gp3,io1,io2
3.io1,io2,st1,sc1
EC2 인스턴스를 생성할 때, 부팅 볼륨으로는 다음의 EBS 볼륨 유형만을 사용할 수 있습니다: gp2, gp3, io1, io2, Magnetic(표준)
1.동일한 EBS볼륨을 다수의 AZ에 있는 다수의 EC2인스턴스에 연결
2.다수의 EBS볼륨을 동일한 AZ에 있는 동일 EC2인스턴스에 연결
3.동일한 EBS볼륨을 동일한 AZ에 있는 다수의 EC2인스턴스에 연결
4.다수의 EBS볼륨을 다수의 AZ에 있는 동일 EC2인스턴스에 연결
EBS 다중 연결을 사용하면, 동일한 EBS 볼륨을 동일 AZ 상에 있는 다수의 EC2 인스턴스에 연결할 수 있습니다. 각 EC2 인스턴스는 완전한 읽기/쓰기 권한을 갖게 됩니다.
1.EBS볼륨의 EBS스냅샷을 생성하고, 스냅샷을 복사한 뒤 복사된 스냅샷을 암호화하는 옵션을 체크합니다. 그 후, 암호화된 스냅샷을 사용해 새로운 EBS볼륨을 생성합니다.
2.EBS볼륨을 선택하고, Edit속성을 선택한 후, KMS옵션을 사용해 암호화 옵션을 체크합니다.
3.암호화된 EBS볼륨을 새로 생성한 후, 암호화되지 않은 EBS볼륨의 데이터를 새로운 EBS볼륨으로 복사합니다.
4.AWS지원 센터에 EBS볼륨 암호화를 요청합니다.
1
1.EBS사용
2.EFS사용
3.인스턴스 스토어 사용
EFS는 네트워크 파일 시스템(NFS)으로 여러 AZ 상에 있는 EC2 인스턴스에 동일한 파일 시스템을 마운트할 수 있게 해줍니다.
1.EBS사용
2.EFS사용
3.인스턴스 스토어 사용
EC2 인스턴스 스토어는 최적의 디스크 I/O 성능을 제공합니다.
1.EBS gp2드라이브 사용
2.EBS io1드라이브 사용
3.EC2 인스턴스 스토어 사용
4.EBS io2 Block Express 드라이브 사용
- EBS gp2 볼륨 유형으로 달성할 수 있는 최대 IOPS는 16,000입니다.
- EBS io1 혹은 io2 볼륨 유형으로 달성할 수 있는 최대 IOPS는 64,000입니다.
- EC2 인스턴스에서 데이터베이스를 인스턴스 스토어를 사용하여 실행 가능하지만, EC2 인스턴스가 중지 시 데이터가 손실이라는 문제가 있습니다 (문제 없이 다시 시작할 수 있음). 한 가지 솔루션은 인스턴스 스토어가 있는 다른 EC2 인스턴스에서 복제 메커니즘을 설정하여 대기 복사본을 가질 수 있다는 것입니다. 또 다른 솔루션은 데이터에 대한 백업 메커니즘을 설정하는 것입니다. 요구 사항을 검증하기 위해 아키텍처를 설정하는 방법은 모두 사용자에게 달려 있습니다. 이 사용 사례에서는 IOPS 기준이므로 EC2 인스턴스 스토어를 선택해야 합니다.
1.수평 확장성
2.수직 확장성
2
1.수평 확장성
2.수직 확장성
1
1.애플리케이션에 사용 가능한 정적 IPv4
2.애플리케이션에 사용 가능한 정적 DNS 이름
3.애플리케이션에 사용 가능한 정적 IPv6
AWS에서 관리하는 기반 인프라가 변경되었다고 하더라도, AWS가 정적 엔드 포인트를 사용해 로드 밸런스로 액세스할 수 있기를 원하는 이유입니다.(2)
1.웹사이트가 다수의 EC2인스턴스에서 호스팅되어 문제가 발생함
2.IP주소를 확인할 수 없기 때문에 EC2인스턴스가 사용자들을 로그아웃 시키고, 그 대신 ELB IP주소를 받은 것
3.Elastic Load Balancer가 고정 세션을 활성화하지 않은 것
ELB 고정 세션 기능은 동일한 클라이언트에 대한 트래픽이 항상 동일한 대상으로 리다이렉트되도록 해줍니다(예: EC2 인스턴스) 이는 클라이언트들이 세션 데이터를 소실하지 않게 해줍니다.
1.웹사이트의 프론트엔드를 수정해 사용자들이 모든 요청에서 자신의 IP를 보낼 수 있도록 만들기
2.웹사이트의 백엔드를 수정해 X-Forwarded-For 헤더로부터 클라이언트 IP주소를 가져오도록 만들기
3.웹사이트의 백엔드를 수정해 X-Forwarded-Port 헤더로부터 클라이언트 IP주소를 가져오도록 만들기
4.웹사이트의 백엔드를 수정해 X-Forwarded-Proto 헤더로부터 클라이언트 IP주소를 가져오도록 만들기
Application Load Balancer를 사용하여 EC2 인스턴스에 트래픽을 배분하는 경우, 요청을 받게 되는 IP 주소는 ALB의 사설 IP 주소가 됩니다. 클라이언트의 IP 주소를 받기 위해, ALB는 클라이언트의 IP 주소를 포함하고 있는 X-Forwarded-For라는 헤더를 추가합니다.
1.ELB 상태 확인 활성화
2.ELB 고착도 활성화하기
3.SSL 종료 활성화
4.영역간 로드 밸런싱 활성화
ELB 상태 확인을 활성화하면, ELB가 비정상(충돌) EC2 인스턴스로는 트래픽을 보내지 않게 됩니다.
1.Application Load Balancer(ALB)
2.Classic Load Balancer(CLB)
3.Network Load Balancer(NLB)
Network Load Balancer는 애플리케이션이 필요로 할 경우 가장 높은 성능과 가장 낮은 지연 시간을 제공합니다.
1.HTTP
2.HTTPS
3.TCP
4.WebSocket
Network Load Balancer는 TCP와 UDP 프로토콜을 모두 지원합니다.
1.클라이언트의 위치(지리적)
2.호스트 이름
3.요청 URL경로
4.소스 IP-주소
ALB는 URL 경로, 호스트 이름, HTTP 헤더 및 쿼리 문자열을 기반으로 트래픽을 다른 대상 그룹으로 라우팅할 수 있습니다.(1)
1.EC2 인스턴스
2.Network Load Balancer(NLB)
3.사설 IP주소
4.Lambda 함수
2
1.탄력적 IP가 연결된 Application Load Balancer
2.Network Load Balancer(NLB)
3.Classic Load Balancer(CLB)
Network Load Balancer는 AZ 당 하나의 정적 IP 주소를 가지며, 여기에 탄력적 IP 주소를 연결할 수 있습니다. Application Load Balancer와 Classic Load Balancer를 정적 DNS 이름으로 사용할 수 있습니다.
1.AWSALBAPP
2.APPUSERC
3.AWSALBTG
4.AWSALB
다음의 쿠키 이름은 ELB가 선점하고 있습니다(AWSALB, AWSALBAPP, AWSALBTG).
1.영역간 로드 밸런싱 활성화
2.고정 센서 활성화
3.ELB 상태 확인 활성화
4.SSL 종료 활성화
영역간 로드 밸런싱을 활성화하면, ELB가 모든 AZ에 있는 등록된 EC2 인스턴스 전체에 동등하게 분배됩니다.
1.TLS 종료
2.서버 이름 표식(SNI)
3.SSL 보안 정책
4.호스트 헤더
2
1.HTTP를 HTTPS로 리다이렉팅하는 규칙 사용
2.보안 그룹 SSL 인증서 사용
3.서버 이름 표식(SNI)사용
서버 이름 표식(SNI)을 사용하면 동일한 리스너 상에 있는, 자체 SSL 인증서를 가진 다수의 HTTPS 애플리케이션을 노출시킬 수 있습니다. 더 많은 정보는 여기를 참고하세요: https://aws.amazon.com/blogs/aws/new-application-load-balancer-sni/
1.아무 일도 일어나지 않음
2.희망 용량은 4까지 올라가는 반면, 최대 용량은 3에 머뭄
3.희망 용량은 4까지 올라가는 반면, 최대 용량은 4에 머뭄
오토 스케일링 그룹은 스케일 아웃 시, (구성된) 최대 용량을 넘어설 수 없습니다.
1.ASG가 인스턴스는 계속 실행하되, 애플리케이션은 재시작할 것
2.ASG가 EC2인스턴스를 분리하고 실행 상태로 둘 것
3.ASG가 EC2인스턴스를 종료할 것
오토 스케일링 그룹이 EC2 상태 확인(기본 설정)이 아닌 Application Load Balancer의 상태 확인을 기반으로 EC2 인스턴스의 상태를 판단하도록 구성할 수 있습니다. EC2 인스턴스가 ALB의 상태 확인에 실패할 경우, 이는 비정상인 것으로 표시되어 종료되며 ASG는 새로운 EC2 인스턴스를 실행합니다.
1.CloudWatch 사용자 지정 지표를 생성한 후 ASG를 스케일링하기 위한 CloudWatch 경보 생성
2.불가능한 작업이라고 공손히 설명해 주기
3.상세 모니터링을 활성화한 후 ASG스케일링을 위한 CloudWatch 경보 생성하기
백엔드-데이터베이스 연결에는 ‘분당 요청'에 해당하는 CloudWatch 지표가 존재하지 않습니다. CloudWatch 경보를 생성하려면 CloudWatch 사용자 지정 지표를 먼저 생성해야 합니다.
1.단순 조정 정책
2.단계 조정 정책
3.대상 추적 조정 정책
4.예약된 조정 정책
ALB만이 EC2 인스턴스로 액세스할 수 있게 할 수 있는 가장 안전한 방법입니다. 규칙에서 보안 그룹을 참조하는 것은 매우 강력한 규칙으로, 이 내용을 바탕으로 많은 시험 문제가 출제됩니다. 그러니 이에 관련된 내용은 반드시 숙지하도록 하세요!(3)
1.로드 밸런서 애플리케이션 로드 밸런서로 변경한다.
2.상태 확인 방식을 HTPP로 변경한다.
NLB는 TCP, HTTPS 및 HTTP 상태 확인을 지원합니다.(2)
1.모든 고객에게 HTTPS 대신 HTTP를 사용하라는 이메일을 보낸다.
2.애플리케이션 로드 밸런서가 HTTP를 HTTPS로 리디렉션하도록 설정한다.
3.DNS 레코드가 HTTP를 HTTPS로 리디렉션하도록 설정한다.
2
1.몽고DB
2.MYSQL
3.마리아DB
4.Microsoft SQL 서버
RDS는 MySQL, PostgreSQL, MariaDB, Oracle, MS SQL Server, Amazon Aurora를 지원합니다.
1.분류해 복제 생성
2.활동 활성화
3.다중 AZ 활성화
다수 AZ는 전체 AZ가 의심되는 경우의 재난 복구를 계획하는 데 도움이 됩니다. 전체 AWS 리전이 유사한 경우에 대비해 계획을 세울 때, AWS 리전 예비 백업과 사본을 보내드립니다.
1.ElasiCache 설치
2.RDS 다중 AZ
3.RDS 선두 복제본
시험을 관련하여 주의하시기 바랍니다. 이 문제에서는 이러한 문제를 해결하기 위해 사용자가 "안 되는" 것이 무엇인지 묻고 있습니다. ElastiCache RDS 순위표 복제본은 규모 조정에 도움이 됩니다.(2)
1.사유에 버그가 존재함
2.숫자는 복제된 복제를 선택하며, 사용자는 일관성 있게만 복제할 수 있습니다.
3.그 대신에 AZ를 설정해야 합니다.
이 경우에는 사용자가 올바른 복제본을 선택하고, 선택한 복제본이 일관성 있게 업데이트되도록 하는 것이 해결책이 될 것입니다.-GPT 답변(2)
1.다중AZ
2.분류해 복제
다수의 AZ는 활성화 상태의 데이터베이스 종류와 성과가 동일하게 비슷한 연결을 유지합니다.
다중AZ를 사용하면 Amazon Aurora 데이터베이스의 고가용성을 향상시킬 수 있습니다. 이 기능을 활성화하면 프라이머리 데이터베이스와 동일한 가용 영역에 대기 중인 스탠바이 데이터베이스가 생성되어 장애 발생 시 자동으로 전환됩니다. 이 경우 SQL 연결 문자열을 변경할 필요가 없습니다.
1.EC2에 있어 ALB가 아닌 자체 맞춤형 로드 밸런서 사용하기
2.세션 데이터를 RDS에 저장하기
3.세션 데이터를 ElastiCache에 저장하기
4.세션 데이터를 공유하여 EBS볼륨을 저장하기
세션 데이터를 ElastiCache에 저장하는 방법은 서로 다른 EC2가 필요하기 때문에 사용자의 상태를 회수할 수 있기 때문에 사용하는 경우가 많습니다.
1.정체성 복제 설정
2.다수의 AZ 설정
3.밤에 분석 쿼리 실행
즐겨찾는 복제본을 설정하면 분석이 쿼리를 수행할 수 있고, 이 쿼리가 주요 참여 RDS 데이터베이스에는 영향을 미치기 때문에 도움이 되지 않습니다.
1.RDS 선두 복제본
2.RDS 다중 AZ
3.오로라 순위 복제
4.오로라 글로벌 데이터베이스
Aurora 데이터베이스를 사용하면 최대 5개의 2차까지 Aurora 복제본을 가질 수 있습니다.
1.Redis 인증 사용하기
2.IAM 정품 사용하기
3.보안그룹 사용하기
Redis 클러스터에 연결할 때 인증을 사용하는 것은 보안을 강화하는 좋은 방법 중 하나입니다. Redis는 비밀번호를 통한 간단한 인증을 제공하므로, 올바른 비밀번호를 갖춘 사용자만이 클러스터에 접근할 수 있습니다.
1.RDS 데이터베이스에 AZ를 활성화하고 대기 데이터베이스에서 분석 워크로드 실행하기
2.다른 AZ에 읽기 본제본을 생성하고 데이터베이스의 복제본에 분석 로드 실행하기
3.다른 AZ에 읽기 복제를 생성하고 소스 데이터베이스에 분석 워크로드 실행하기
읽기 전용 복제본을 사용하여 분석 워크로드를 처리하면서, Multi-AZ 설정을 사용하여 고가용성을 유지할 수 있습니다.(2)
1.공유하기 전에 복제를 생성하여 메인데이터베이스에서 AZ를 활성화합니다.
2.다른 서두에 있는 복제물을 구성하는 것은 앞서 말한 복제물에서 다수의 AZ를 활성화한다.
3.공유하기 전에 복제를 구성하는 것은 중요 복제에서 다수의 AZ를 활성화한다.
4.데이터베이스 메인에서 멀티 리전(Multi-Region)설정을 활성화합니다.
일반적으로는 여러 리전 간에 데이터베이스를 복제하고, DR용 데이터베이스를 두는 방식이 고가용성을 최대화하면서 안정적인 복구를 가능케 하는 방법입니다.(2)
1.IAM 사용자는 기본적으로 RDS데이터베이스에 접근할 수 있습니다.
2.Amazon Cognito를 사용합니다.
3.IAM데이터베이스 인증을 활성화합니다.
IAM 데이터베이스 인증은 AWS Identity and Access Management (IAM)을 사용하여 MySQL RDS 데이터베이스에 대한 인증을 관리하는 방법입니다. 이를 통해 개발자들은 별도의 MySQL 데이터베이스 사용자를 생성하지 않고도 IAM 사용자 자격 증명을 통해 RDS에 액세스할 수 있습니다.
이 방법을 사용하면 개발자가 IAM 사용자로 등록되어 있으면 해당 IAM 사용자의 IAM 역할을 사용하여 MySQL RDS에 연결할 수 있습니다. MySQL RDS에 대한 액세스 권한은 IAM 역할 정책에 설정되며, 개발자는 IAM 자격 증명을 사용하여 RDS에 로그인할 수 있습니다.
1.주요 이점은 복제를 사용하고, 다수의 AZ도 복제를 사용함
2.다수의 복제는 복제를 사용하고, 다수의 AZ는 혼합 복제를 사용합
3.선호하는 복제는 혼합 복제를 사용하고, 다수의 AZ도 혼합 복제를 사용함
4.주요 선호 복제는 혼합 복제를 사용하고, 다수의 AZ는 복제를 사용함
"다수의 AZ는 혼합 복제를 사용함"은 다중 가용 영역(Multi-AZ) 설정에서 혼합 복제를 사용한다는 것을 의미합니다. 이는 주 데이터베이스와 다중 AZ에 있는 복제본 간에 비동기 복제를 사용하여 가용성을 높이는 방식입니다(2)
1.AWS 콘솔에서 RDS DB를 제외하고 고른 후, Actions를 선택하며느 바로 KMS를 잡을 수 있습니다.
2.RDS DB중단을 중단한 후, AWS 콘솔에서 바로 가능
3.플러그인되지 않은 RDS DB의 스냅샷을 생성하고, 스냅샷을 복사해 '암호화 활성화하기' 상자를 체크한 뒤, RDS DB에 포함되지 않은 스냅샷 복구하기
3
1.3
2.7
3.15
3
1.신탁
2.포스트그레SQL
3.MYSQL
IAM 기반의 인증은 RDS MySQL 및 RDS PostgreSQL에서 사용할 수 있지만, RDS 신탁(Oracle Database)에서는 지원되지 않습니다.
1.아니오
2.예
플러그인되지 않은 RDS DB에는 플러그인된 복제본을 생성할 수 없습니다.
1.Aurora 글로벌 데이터베이스 사용하기
2.RDS 데이터베이스 사용하기
3.Aurora 서버를 사용하기
4.EC2에 Aurora를 실행하고, EC2인증이 밤에 승인받고 읽기 작성하기
Aurora Serverless
실제 사용량이 기반하여 자동으로 데이터베이스 인스턴스화 및 자동 스케일링이 이루어짐.
비정기적, 간헐적, 또는 예측할 수 없는 워크로드에 적합함.
용량 계획이 필요하지 않음.
초당 결제로 인해 더 경제적일 수 있음.
1.5
2.10
3.15
3
1.MYSQL과 MariaDB
2.MYSQL과 PostgreSQL
3.Oracle과 MariaDB
4.Oracle과 MS SQL서버
Postgres와 MySQL이 호환됨.
1.MYSQL에 RDS사용
2.아마존 오로라 사용
3.캐멤시트에 ElasriCache사용
4.Redis에 ElastiCache사용 - 선택되지 않은 설정
게임 리더보드 생성은 매우 복잡함.
Redis의 Sorted sets는 고유성과 요소 순서를 모두 보장함.
새로운 요소가 추가될 때마다 실시간으로 순위가 매겨진 다음 올바른 순서로 추가됨.
1.업무용 RDS
2.업무용 RDS 맞춤형
3.EC2에 작업 배포
RDS Custom: Oracle과 Microsoft SQL Server에서만 사용 가능, 기저 운영 체제와 데이터베이스에 대한 관리자 권한 전체를 가짐.(2)
1.자동 백업 활성화
2.온디맨드 백업활동
3.Aurora 데이터베이스 복제 사용
3
1.이는 Aurora 데이터베이스 복제본 만들기
2.데이터베이스에 대해 테스트 수행
3.DB스냅샷을 만들어 새 데이터베이스로 복원하기
4.오로라 복제 기능 사용
Aurora는 다중 마스터 및 읽기 전용 복제를 지원하므로, 원본 데이터베이스와 동기화된 읽기 전용 복제본을 생성하여 읽기 작업을 분산시킬 수 있습니다. 이는 효과적인 테스트 환경을 구성하는 데 도움이 됩니다.
1.모든 것을 구성하다
2.다수의 AZ채용
3.다중 AZ활성화
4.RDS 앱 사용
4
1.CNAME
2.별칭
Route 53에서 별칭 레코드를 사용하면 ELB의 DNS 주소를 직접 지정할 수 있습니다.
1.단순
2.가중치 기반
3.지연 시간
4.장애 조치
가중치 기반 라우팅 정책을 사용하면 가중치(예: 백분율)를 기반으로 트래픽의 일부를 리다이렉트할 수 있습니다. 트래픽의 일부를 애플리케이션의 새로운 버전으로 보내는 방식은 흔히 사용되는 방식입니다.
1.별칭 레코드 때문
2.CNAME 레코드 때문
3.TTL 때문
4.Route 53 상태 확인 때문
각 DNS 레코드는 클라이언트들이 이러한 값들을 캐시할 기간을 지정하고 DNS 요청으로 DNS 리졸버에 과부하를 일으키지 않도록 지시하는 TTL(타임 투 리브)을 갖습니다. TTL 값은 값을 캐시해야 하는 기간과 DNS 리졸버로 들어가야 하는 요청의 수 사이의 균형을 유지할 수 있도록 설정되어야 합니다.
1.다중 값
2.가중치 기반
3.지연 시간
4.지리적 위치
지연 시간 라우팅 정책은 사용자와 AWS 리전 사이에서 발생하는 지연 시간을 평가하여 지연 시간(예: 응답 시간)을 최소화할 수 있는 DNS 응답을 수신할 수 있게 해줍니다.
1.지연 시간
2.단순
3.다중 값
4.지리적 위치
지리적 위치 라우팅을 사용하면 특정 지역 또는 국가에 대한 트래픽을 특정 리전으로 라우팅할 수 있습니다
1.도메인 전환 요청하기
2.사설 호스팅 영역을 생성하고 타사 Registrar NS 레코드 업데이트 하기
3.공용 호스팅 영역을 생성하고 Route 53 NS 레코드 업데이트 하기
4.공용 호스팅 영역을 생성하고 타사 Registrar NS 레코드 업데이트 하기
공용 호스팅 영역은 인터넷을 통해 웹사이트로 요청을 보내는 사람들이 사용할 것을 전재하고 있습니다. 마지막으로, NS 레코드는 타사 Registrar에 업데이트되어야 합니다.
1.SQS 대기열 모니터링하는 상태 확인
2.엔드 포인트를 모니터링하는 상태 확인
3.다른 상태 확인을 모니터링하는 상태 확인
4.CloudWatch 경보를 모니터링하는 상태 확인
"SQS 대기열 모니터링하는 상태 확인"은 유효한 Route 53 상태 확인이 아닙니다. Route 53은 DNS와 관련된 서비스로서, SQS (Simple Queue Service) 대기열이나 다른 AWS 서비스를 직접 모니터링하지 않습니다. Route 53 상태 확인은 주로 엔드 포인트, 다른 상태 확인, 또는 CloudWatch 경보 등을 모니터링하는 데 사용됩니다.
1.ALB를 제거하고 탄력적 IP를 대신 사용하기
2.두 개의 EC2인스턴스 예약하기
3.최소 용량 1로 줄이기
4.최소 용량 0으로 줄이기
어떤 상황이건 2개의 EC2 인스턴스를 실행하면 추가적인 비용을 절감할 수 있습니다.
1.세션 데이터를 Amazon RDS에 저장하기
2.Amazon ElastiCache에 세션 데이터 저장하기
3.클라이언트 HTTP 쿠키에 세션 데이터 저장하기
4.EBS 볼륨에 세션 데이터 저장하기
"무상태" 애플리케이션 티어는 세션 상태를 애플리케이션 서버에서 유지하지 않고 외부 저장소 또는 클라이언트에 저장하여 수행됩니다.
EBS 볼륨은 특정 AZ에 저장되며, 한 번에 하나의 EC2 인스턴스에만 연결될 수 있습니다.
1.EBS에 소프트웨어 업데이트를 저장하고 각 AZ의 한 마스터로부터 데이터 복제 소프트웨어를 사용해 동기화하기
2.EFS에 소프트웨어 업데이트를 저장하고 스타트업 시 EFS를 네트워크 드라이브로 마운트하기
3.소프트웨어 업데이트를 EBS 스냅샷으로 패키징하고 새로운 소프트웨어 업데이트 각각에 EBS 볼륨 생성하기
4.Amazon RDS에 소프트웨어 업데이트 저장하기
EFS는 EC2 인스턴스의 100s에 동일한 파일 시스템을 마운트할 수 있게 해주는 네트워크 파일 시스템(NFS)입니다. EFS에 소프트웨어 업데이트를 저장하면 각 EC2 인스턴스가 이들을 평가할 수 있게 됩니다.
EFS는 여러 인스턴스 간에 파일을 공유하고, 파일 시스템을 마운트하는데에 있어서 간단한 설정만 필요하므로 연산 부하가 적을 수 있습니다.
1.Golden AMI사용
2.EC2 사용자 데이터를 이용해 부트스트랩
3.Amazon RDS에 애플리케이션 저장
4.EFS로부터 애플리케이션 설치 파일 회수
Golden AMI는 설치되고 구성된 전체 소프트웨어를 포함한 이미지이기 때문에, 향후 이 AMI로부터 EC2 인스턴스를 빠르게 부팅할 수 있습니다.
1.단일 인스턴스 모드
2.고가용성 모드
문제에서 애플리케이션이 아직 개발 단계에 있으며 비용을 절감하고자 한다고 언급하고 있습니다. 단일 인스턴스 모드는 하나의 EC2 인스턴스와 하나의 탄력적 IP를 생성합니다.
1.코드에서 일부 종속성을 제거
2.종속성을 Amazon EFS에 두기
3.종속성을 포함하는 Golden AMI를 생성해 그 이미지를 EC2인스턴스 실행에 사용
Golden AMI는 전체 소프트웨어, 종속성 및 구성을 포함하는 이미지이기 때문에, 향후 이 AMI로부터 EC2 인스턴스를 빠르게 부팅할 수 있습니다.
1.S3의 파일 크기 제한이 5GB임
2.요청된 AWS 리전의 S3서비스가 차단된 상태
3.5GB보다 크기가 큰 파일을 업로드할 때는 멀티파트 업로드를 사용함
파일 크기가 100MB가 넘는 경우에는 멀티파트 업로드가 권장됩니다.
1.S3버킷 생성에 필요한 IAM권한의 부재
2.S3버킷 이름은 전역에서 고유해야 하며 deV는 이미 사용 중임
2
1.1
2.0
3.-1
4.null
4
1.S3버킷 정책에 문제가 있음
2.사용자에게 권한이 없음
3.연결된 IAM정책 내에 이 사용자를 부인하는 사항이 명시되어 있음
4.AWS 지원 센터에 연락해 문제를 해결해 줄 것을 요청해야 함
IAM 정책 내의 명시적인 부인(DENY)은 S3 버킷 정책보다 우선적으로 고려됩니다.
1.Amazon CloudFront 배포
2.S3버전 관리
3.S3정적 웹 사이트 호스팅
4.S3 복제
S3 복제를 사용하면 S3 버킷에 있는 데이터를 동일한 또는 다른 AWS 리전으로 복제할 수 있습니다.
1.버킷 A에서 B로 복제하고, 버킷 A에서 C로 복제하도록 설정한다.
2.버킷 A에서 B로 복제하고, 버킷 B에서 C로 복제하도록 설정한다.
3.버킷 A에서 C로 복제하고, 버킷 C에서 B로 복제하도록 설정한다.
1
1.긴급(1~5분)
2.표준(12시간)
3.대량(48시간)
1
1.즉시(10초)
2.긴급(1~5분)
3.표준(3~5시간)
4.대량(5~12시간)
1
1.S3 Select
2.S3 액세스 로그
3.S3 이벤트 알림
4.S3 분석
S3 이벤트 알림은 버킷에서 발생하는 이벤트에 대한 알림을 구성하는 데 사용됩니다. 객체 업로드는 S3 이벤트 중 하나이며, Lambda 함수, SQS 대기열 또는 SNS 주제와 같은 대상에게 알림을 보낼 수 있습니다.
1.S3 수명 주기 규칙 - 만료 조치
2.S3 수명 주기 규칙 - 전환 조치
3.S3 액세스 로그
1
1.AWS Lambda
2.CloudWatch Events
3.S3 수명 주기 규칙
S3 수명 주기 규칙은 객체의 수명 주기를 관리하고, 객체를 자동으로 다른 스토리지 클래스로 이동시키거나 삭제하는 데 사용됩니다.
1.AWS Lambda로 오래된/완료되지 않은 각 부분을 루프하여 삭제
2.AWS 지원 센터에 오래된/완료되지 않은 부분을 삭제해 줄 것을 요청
3.S3수명 주기 정책을 사용해 오래된/완료되지 않은 부분의 삭제를 자동화
S3 수명 주기 정책을 설정하면 여러분이 정의한 조건에 따라 객체를 자동으로 관리할 수 있습니다. 이 정책을 사용하면 완료되지 않은 멀티파트 업로드의 부분들을 자동으로 삭제할 수 있습니다. 주로 완료되지 않은 부분은 특정 시간 동안 보존되므로 수명 주기 정책을 활용하여 이를 자동으로 삭제할 수 있습니다.
1.S3인벤토리
2.S3분석
3.S3수명 주기 규칙 관리자
S3 분석은 S3 버킷의 액세스 패턴 및 통계에 대한 분석 정보를 제공합니다. 특히, S3 분석을 사용하면 객체의 최근 액세스 패턴을 이해하고, 이를 기반으로 객체를 특정 스토리지 클래스로 전환하기 위한 최적의 수명 주기 규칙을 결정할 수 있습니다.
1.RDS 가져오기 기능을 사용해 S3로부터 PostgreSQL로 데이터를 로드하고, SQL 쿼리를 실행해 인덱스 구축하기
2.S3버킷을 트래버스하고, 파일을 하나씩 읽어 들여 첫 250바이트를 추출한 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
3.S3버킷을 트래버스하고, 첫 250바이트에 대한 바이트 범위 패치를 발행한 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
4.S3버킷을 트래버스하고, S3 Select를 사용해 첫 250바이트를 얻은 후, RDS에 해당 정보를 저장하는 애플리케이션 생성하기
S3 버킷에 있는 객체들을 하나씩 읽어오며, 그 중에서 각 객체의 처음 250바이트를 추출하여 RDS에 저장하는 애플리케이션을 만든다는 의미(3)
이 방법은 S3 객체의 첫 250바이트를 효율적으로 추출할 수 있도록 S3의 Range GET 요청을 사용하며, 그 정보를 RDS에 저장하는 방식입니다. S3 Select는 전체 객체의 내용을 분석하므로, 객체의 크기가 크면 효율성이 떨어질 수 있습니다.
1.멀티파트 업로드만 사용
2.S3 Select와 S3전송 가속화 사용
3.S3멀티파트 업로드와 S3전송 가속화 사용하기
멀티파트 업로드를 사용하면 대용량 파일을 여러 부분으로 나누어 동시에 업로드할 수 있습니다. 이는 대역폭을 최대한 활용하여 빠르게 업로드할 수 있는 방법입니다. S3 전송 가속화는 AWS의 글로벌 네트워크를 통해 빠르고 안정적인 전송을 지원합니다.(3)
1.S3분석
2.S3액세스 로그
3.S3 Select
4.S3인벤토리
S3 Select은 SQL 쿼리와 유사한 형식으로 S3 객체 내부의 데이터를 처리하는 기능을 제공합니다. 이를 사용하면 필요한 데이터만을 선택적으로 추출할 수 있으며, 이는 데이터 전송량을 최소화하고 원하는 서브셋을 효율적으로 회수하는 데 도움이 됩니다.
간단한 SQL문을 사용하여 행 및 열로 필터링할 수 있음
1.S3액세스 포인트
2.S3교차 리전 복제(CRR)
3.S3배치 작업
4.S3수명 주기 규칙
S3 배치 작업을 사용하여 S3 버킷의 모든 파일을 효율적으로 암호화할 수 있습니다.
단일 요청으로 기존 S3 객체에 대한 대량 작업을 수행하는 서비스.
1.SSE-S3
2.SSE-KMS
3.SSE-C
4.Client-Side Encryption(클라이언트 측 암호화)
SSE-C를 사용하면 암호화는 AWS 서버 측에서 수행되고, 암호화 키에 관한 모든 제어권은 이용자가 갖습니다.
1.SSE-S3
2.SSE-KMS
3.SSE-C
4.Client-Side Encryption(클라이언트 측 암호화)
SSE-KMS를 사용하면 암호화가 AWS 서버 측에서 진행되고 암호화 키 관리도 AWS에서 하지만, 암호화 키 순환 정책에 관한 제어권은 모두 이용자에게 있습니다. 암호화 키는 AWS에 저장됩니다.
1.SSE-S3
2.SSE-KMS
3.SSE-C
4.Client-Side Encryption(클라이언트 측 암호화)
클라이언트 측 암호화를 사용하면 이용자가 직접 암호화를 수행해야 하며 이용자가 암호화 키에 대한 모든 제어권을 갖습니다. 직접 암호화를 수행하고 암호화된 데이터는 AWS로 보냅니다. AWS는 암호화 키를 모르기 때문에 해당 데이터를 복호화할 수 없습니다.
1.버킷 정책이 잘못되었다.
2.IAM정책이 잘못되었다.
3.CORS가 잘못되었다.
4.암호화가 잘못되었다.
교차 출처 리소스 공유(CORS)는 한 도메인에 로드된 클라이언트 웹 애플리케이션이 다른 도메인에 있는 리소스와 상호 작용할 수 있도록 고안된 방식입니다. CORS에 대한 자세한 설명은 아래 링크를 참고하십시오: https://docs.aws.amazon.com/AmazonS3/latest/dev/cors.html
1.S3객체 Lambda를 사용해 보고서 생성 애플리케이션으로 객체를 반환하기 전에 객체를 변경한다.
2.새로운S3버킷을 생성한다. Lambda함수를 만들어 각 파일에서 민감 정보를 삭제하는 작업을 진행하고 해당 파일을 새로 만든 S3버킷으로 이동시킨다.
3.S3객체 잠금을 사용해 보고서 생성 애플리케이션이 민감 정보를 가져가지 못하도록 잠금 처리한다.
S3 객체에 Lambda 함수를 연결하여 해당 객체가 클라이언트에게 전달되기 전에 민감한 정보를 가공할 수 있습니다. Lambda 함수를 사용하여 민감한 정보를 제거하거나 가공한 후에 보고서 생성 애플리케이션으로 전달됩니다. 이렇게 하면 보고서 생성 프로세스에서 민감한 정보를 노출하지 않으면서도 필요한 정보만을 활용할 수 있습니다.(1)
1.S3 액세스 로그를 활성화하고 Athena로 로그를 분석한다.
2.해당 직원의 IAM정책을 제한하고 CloudTrail로그를 확인한다.
3.버킷 정책을 사용한다.
S3 액세스 로그가 S3 버킷에 대한 모든 요청을 로그 파일에 기록하면, Amazon Athena를 사용해 해당 로그 파일에 대해 서버리스 분석을 실행할 수 있습니다.
1.S3 CORS
2.S3 미리 서명된 URL
3.S3 버킷 정책
S3 미리 서명된 URL은 S3 버킷에서 제한된 시간 동안 일부 작업을 수행할 수 있도록 권한을 부여해 만든 임시 URL입니다.
1.볼트 잠금 정책이 적용된 Glacier볼트
2.제한적인 Linux권한이 있는 EFS네트워크 드라이브
3.버킷 정책이 적용된 S3
1
1.HTTPS 연결을 강제하는 버킷 정책을 사용한다.
2.기본 암호화를 활성화한다.
3.버전 관리를 활성화한다.
기본 암호화를 활성화하면 S3에서 새로운 객체를 생성할 때마다 해당 객체에 대한 암호화가 강제됩니다. 이는 사용자가 암호화를 따로 설정하지 않아도 됩니다.
1.버킷 정책을 사용한다.
2.MFA Delete 활성화한다.
3.파일을 암호화한다.
4.버전 관리를 비활성화한다.
MFA Delete는 사용자가 S3 객체를 삭제하기 전에 MFA 코드를 사용하도록 강제합니다. 우발적인 삭제를 방지하기 위한 부가 보안 장치입니다.
1.S3 객체 잠금 - 보존 거버넌스 모드
2.S3 버전 관리
3.S3 객체 잠금 - 보존 규정 준수 모드
4.S3 Glacier 볼트 잠금
회사에서 S3 버킷에 데이터와 파일을 보관하면서 일부 파일은 규정 준수 정책에 따라 특정 기간 동안 보존되어야 하고 덮어쓰거나 삭제되지 않도록 보호해야 한다면, 사용할 수 있는 S3 기능은 S3 객체 잠금 - 보존 규정 준수 모드입니다.
1.보존 거버넌스 모드
2.보존 규정 준수 모드
3.법적 보존
Legal Hold 법적 보관
객체를 보관 모드나 보관 기간과는 상관없이 무기한으로 보호
s3:PutObjectLegalHold IAM 권한을 가진 사용자는 어떤 객체에든 법적 보관을 설정하거나 제거할 수 있음
1.CloudFront 지리적 제한 사용하기
2.원본 액세스 ID 사용하기
3.보안 그룹을 설정한 뒤 이를 CloudFront 배포에 연결하기
4.Route53 지연 시간을 사용해 이를 CloudFront 분배로 연결하기
1
1.클라이언트들에게 이메일을 보내 S3 엔드 포인트를 사용하지 말 것을 요청
2.CloudFront 배포를 구성해 원본 액세스 ID를 생성한 후, S3버킷이 오직 CloudFront 배포 OAI 사용자들이 보내는 요청만을 수락하도록 업데이트
3.클라이언트가 CloudFront로 리다이렉팅되도록 S3액세스 포인트 사용
S3 버킷은 CloudFront 배포의 Origin Access Identity (OAI)를 사용하여 직접 액세스되는 것을 거부하고, CloudFront 배포를 통해서만 액세스할 수 있도록 보호할 수 있습니다.
1.CloudFront에서 GetObject요청이 올 경우, 이를 암호화하도록강제
2.CloudFront 배포 원본 액세스 ID에서 오는 S3 버킷 콘테츠만이 평가될 수 있도록 허가
3.S3버킷에 대한 GetObject유형의 요청만 허가
이 정책은 "Effect"가 "Allow"이므로 허용 정책입니다.
"Principal" 필드에서는 "CloudFront Origin Identity Canonical User ID"라는 특정 CloudFront 배포의 원본 액세스 ID에 대한 권한을 지정하고 있습니다.
"Action" 필드에서는 "s3:GetObject"로 설정되어 있어, 해당 액세스 ID로부터의 GetObject 요청을 허용합니다.
"Resource" 필드에서는 "arn:aws:s3:::examplebucket/*"로 설정되어 있어, 이 정책은 "examplebucket"이라는 S3 버킷의 모든 객체에 대한 GetObject 권한을 부여합니다.(2)
1.AWS Support로 지원 티켓을 열어 CloudFront 캐시를 삭제한다.
2.CloudFront 캐시를 무효화한다.
3.EC2 캐시를 무효화한다.
원하는 변경 사항이 CloudFront에 즉시 반영되도록 하려면 해당 콘텐츠를 CloudFront 캐시에서 무효화해야 합니다. 이를 통해 변경된 내용을 웹사이트 사용자에게 빠르게 제공할 수 있습니다.
1.CloudFront 캐시 무효화
2.CloudFront 가격 등급
3.CloudFront 캐시 동작
4.오리진 액세스 제어(OAC)
비용 절감을 위해 CloudFront를 분산할 엣지 로케이션의 수를 줄일 수 있음(2)
1.AWS Global Accelerator + 애플리케이션 로드 밸런서
2.Amazon CloudFront
3.네트워크 로드 밸런서
4.애플리케이션 로드 밸런서
AWS Global Accelerator: 글로벌 액세스를 통해 안정적이고 빠른 글로벌 배포를 제공하는 서비스입니다. Global Accelerator를 사용하면 고객들이 정적 IP 주소를 통해 액세스할 수 있습니다.
애플리케이션 로드 밸런서: 호스트 기반 라우팅을 지원하고 EC2 인스턴스 세트에 대한 트래픽을 분산시키는 로드 밸런서 서비스입니다.
이 두 가지 서비스를 조합하여 정적 IP 주소를 할당하고 글로벌 액세스를 제공할 수 있습니다.
1.자체 네트워크 사용하기
2.Snowcone 사용하기
3.AWS 데이터 이전 사용하기
4.SnowballEdge 사용하기
Snowball Edge는 컴퓨팅 능력을 갖추고 있으며, 데이터가 Snowball로 이동하는 동안 데이터를 사전에 처리할 수 있도록 해주므로 정답입니다.
1.AWS Snowball
2.AWS Storage Gateway - 테이프 게이트웨이
3.AWS Storage Gateway - 볼륨 게이트웨이
4.AWS Storage Gateway - 파일 게이트웨이
2
1.Windows용 Amazon FSx(파일 서버)
2.Amazon EFS
3.Lustre용 Amazon FSx
4.파일 게이트웨이를 지닌 Amazon S3
- FSx for Windows는 완전 관리형 Windows 파일 시스템 공유 드라이브.
- Microsoft Active Directory 통합을 지원하므로, ACL(액세스 제어 목록)로 사용자 할당량을 추가해 액세스를 제어할 수 있음.
- Linux EC2 인스턴스에 마운트할 수 있음.
- Microsoft의 분산 파일 시스템 (Distributed File System, DFS) 네임스페이스를 지원 (파일 시스템 그룹화).(1)
1.AWS Storage Gateway - 볼륨 Gateway
2.S3 멀티파트 업로드
3.AWS Snowball 엣지
4.AWS 데이터 이전 서비스
AWS Snowball 엣지를 사용하면 데이터를 로컬로 수집하고 Snowball 엣지에 저장한 후, 해당 장치를 AWS로 반환하여 데이터를 S3로 이전할 수 있습니다. 이는 대량의 데이터를 빠르게 이전하고 네트워크 대역폭의 제약을 극복하는 데 도움이 됩니다.
1.AWS Storage Gateway - 볼륨 Gateway
2.AWS Storage Gateway - 파일 Gateway
3.AWS Storage Gateway - 테이프 Gateway
4.AWS 데이터 이전 서비스
- Amazon S3 File Gateway는 NFS 및 SMB 프로토콜을 사용하여 구성된 S3 버킷에 액세스할 수 있음
- 최근에 사용된 데이터는 파일 게이트웨이에 캐시로 저장됨
- 각 파일 게이트웨이에 대한 IAM Role을 사용하여 버킷 액세스 설정
- SMB 프로토콜을 사용하는 경우에는 사용자 인증을 위해 Active Directory (AD)와 통합해야 함
1.Windows용 Amazon FSx(파일 서버)
2.AWS Storage Gateway - 파일 Gateway
3.AWS가 관리하는 Microsoft AD
- Amazon FSx는 Microsoft Windows 파일 서버에 대한 관리형 서비스로, 기업의 파일 공유 및 파일 시스템 요구 사항을 충족하는 데 사용됩니다.
- FSx는 Windows 파일 시스템을 사용하여 온프레미스 Windows 파일 서버와 호환성이 있으며, 데이터의 안정적인 저장, 백업, 복원, 확장 가능한 성능 등을 제공합니다.
1.Max를 가진 EDSIO 활성화
2.Lustre용 Amazon FSxLustre용 Amazon FSx
3.EC2 인스턴스 상에 마운팅된 Amazon S3
4.EC2 인스턴스 스토어
- Amazon FSx for Lustre는 높은 성능을 제공하는 관리형 파일 시스템으로, 수백만 개의 IOPS를 제공할 수 있습니다.
- Lustre는 고성능 컴퓨팅 워크로드에 특히 효과적이며, 확장 가능한 파일 시스템이 필요한 HPC 환경에서 많이 사용됩니다.
- Amazon FSx for Lustre는 AWS에서 Lustre 파일 시스템을 쉽게 프로비저닝하고 관리할 수 있는 서비스를 제공합니다
1.스크래치 파일 시스템
2.영구 파일 시스템
이는 데이터가 동일한 AZ 내에서 복제되는 장기 스토리지를 제공합니다. 실패한 파일들은 수 분 내로 교체됩니다.(2)
1.파일 전송 프로토콜(FTP)
2.SSL을 통한 파일 전송 프로토콜(FTP)
3.전송층 보안(TLS)
4.보안 파일 전송 프로토콜(FTP)
AWS 전송 제품군은 FTP 프로토콜을 사용해 S3, 혹은 EFS 내부/외부로 파일을 전송하는 관리 서비스입니다. 따라서 TLS를 지원하지 않습니다.
1.S3파일 게으트웨이
2.FSx for Windows File Server 온프레미스
3.FSx 파일 게이트웨이
4.볼륨 게이트웨이
- FSx 파일 게이트웨이는 온프레미스 환경에서 AWS의 FSx 파일 서버 스토리지에 접근하는 데 사용됩니다.
- FSx 파일 게이트웨이를 설정하면 온프레미스에서도 AWS의 파일 서버에 액세스할 수 있습니다.
- 이를 통해 데이터를 동기화하고 사용자는 지연 시간이 짧은 형태로 파일 서버의 데이터를 사용할 수 있습니다.
- 볼륨 게이트웨이는 온프레미스와 클라우드 간에 블록 스토리지의 연결을 허용하는데 사용됩니다.
- 그러나 이는 파일 수준이 아닌 블록 수준의 연결이므로 주어진 상황에서는 파일 게이트웨이가 더 적절할 수 있습니다.
1.AWS Storage 테이프 Gateway
2.Amazon EBS
3.AWS Transfer Family
4.AWS DataSync
- AWS DataSync는 대량의 데이터를 안전하고 빠르게 온프레미스에서 Amazon S3로 이전할 수 있는 서비스입니다.
- DataSync는 고성능 네트워크를 통해 데이터를 전송하며, 병렬 처리 및 자동 오류 복구 기능을 제공하여 효율적인 데이터 이전을 지원합니다.
- NFS(Network File System)와 호환되므로 공유 NFS 스토리지에서 쉽게 데이터를 Amazon S3로 전송할 수 있습니다.
AWS Transfer Family는 SFTP 및 FTPS 프로토콜을 통해 데이터를 전송하기 위한 서비스입니다. NFS와는 직접적인 호환성이 없으며, 주로 파일 전송 프로토콜을 통한 전송에 사용됩니다.
1.AWS Snowball
2.AWS DataSync
3.AWS Transfer Family
4.AWS Backup
- 대용량의 데이터를 한 곳에서 다른 곳으로 옮김
- 다음으로 동기화할 수 있다.
- Amazon S3 (Glacier를 포함한 모든 스토리지 클래스)
- Amazon EFS
- Amazon FSx (Windows, Lustre, NetApp, OpenZFS 등)(2)
1.AWS Transfer Family를 사용한다.
2.FTP 서버가 설치된 EC2 인스턴스를 만들고 S3에 있는 데이터를 EC2 인스턴스로 복사한다.
3.AWS Storage Gateway를 사용한다.
4.S3의 데이터를 복사해 EFS 파일 시스템으로 옮긴 다음, FTP 프로토콜에 노출시킨다.
- Transfer Family: FTP, FTPS, SFTP 프로토콜을 사용하여 Amazon S3 또는 Amazon EFS 위에서 파일 전송을 제공하는 완전 관리형 서비스
- S3 APIs나 EFS 네트워크 파일 시스템을 사용하지 않고 FTP 프로토콜만 사용함
- 사용 사례: 파일 공유, 공개 데이터셋 공유, CRM, ERP 등
1.NFS
2.SMB
3.FTP
4.iSCSI
- NFS, SMB, iSCSI 프로토콜과 호환되는 파일 시스템
- 지정 시간 복제 기능을 통한 즉각적인 복제(새로운 워크로드 테스트에 유용)
1.Amazon FSx for OpenZFS
2.Amazon FSx for NetApp ONTAP
3.Amazon FSx for Windows File Server
4.Amazon FSx for Lustre
- Amazon FSx for OpenZFS는 ZFS 파일 시스템을 기반으로 하며, 온프레미스에서 ZFS를 사용하고 있는 경우 이를 AWS로 쉽게 마이그레이션할 수 있는 서비스입니다.
- OpenZFS는 데이터 무결성 및 고급 스냅샷 기능을 제공하며, FSx for OpenZFS는 이러한 기능을 클라우드에서 제공합니다.
1.S3 Glacier로 데이터를 옮기는 Lambda함수를 만들고 Amazon EventBridge를 사용해 매일 주기적으로 실행시킨다.
2.S3배치 작업을 사용해 S3에 있는 모든 파일을 매일 S3 Glacier로 이동시킨다.
3.S3 수명 주기 정책을 사용한다.
4.AWS DataSync를 사용하여 매일 S3 Glacier로 데이터를 복제한다.
5.데이터를 S3 Glacier로 직접 전송하도록 S3 File Gateway를 구성한다.
- S3 수명 주기 정책은 S3 객체에 대한 자동 이동 및 삭제 규칙을 설정할 수 있는 방법을 제공합니다.
- 수명 주기 정책을 사용하여 데이터를 Glacier로 자동으로 이동시킬 수 있습니다.
- 이 방법은 비용을 절감하면서도 데이터를 안전하게 보관할 수 있습니다.
- Lambda 함수 및 EventBridge를 사용하여 주기적으로 실행하는 방법이지만, S3 수명 주기 정책이 더 간단하고 효과적일 수 있습니다.
- S3 배치 작업은 일괄적으로 여러 객체를 처리하는 데 사용됩니다. 그러나 주기적으로 실행되는 것보다는 수명 주기 정책이 더 적합할 수 있습니다.
- AWS DataSync는 데이터를 동기화하고 복제하는 데 사용되는 서비스이며, 주로 다른 용도에 사용됩니다. S3 수명 주기 정책이 S3 Glacier로 이동에 더 적합합니다.
- S3 File Gateway는 S3를 파일 시스템으로 마운트하는 서비스이며, 직접적으로 Glacier로 데이터를 이동시키는 목적에는 적합하지 않을 수 있습니다.
1.AWS Database Migration Service
2.Amazno EFS
3.AWS DataSync
AWS DataSync는 온프레미스 스토리지 시스템과 AWS 스토리지 서비스 또는 AWS 스토리지 서비스 간의 데이터 이동을 단순화, 자동화, 가속화시켜주는 온라인 데이터 전송 서비스입니다.
1.AWS지원 센터에 연락해 SQS표준 대기열을 준비해줄 것을 요청
2.SQS대기열에 오토 스케일링 활성화
3.SQS대기열 용량 늘리기
4.SQS이 자동으로 스케일링해줄 것이므로 아무 조치도 취하지 않음
SQS 대기열과 오토 스케일링 그룹이 있을 때 ASG 내의 EC2 인스턴스에 메시지를 SQS 대기열에서 폴링합니다 이는 오토 스케일링 그룹을 자동으로 대기열 크기에 따라 확장시키기 위함으로 CloudWatch 지표인 대기열 길이를 보고 결정할 수 있습니다.(4)
1.롱 풀링 활성화
2.메시지 생성 시 메시지에 DelaySeconds 파라미터 추가
3.가시성 시간 초과 늘리기
4.가시성 시간 초과 줄이기
- SQS 롱 폴링이 활성화되면, Amazon SQS는 반환할 메시지가 없을 경우의 빈 응답 수를 감소시키고, 거짓 빈 응답(SQS 메시지는 사용할 수 있으나 응답에 포함되지 않은 경우)을 제거합니다.
- SQS 가시성 시간초과는 Amazon SQS가 다른 소비자들의 메시지 재수신 및 재처리를 막는 기간입니다. 가시성 시간초과는 대기열에서 소모된 메시지만을 감춤 처리합니다. 가시성 시간초과를 증가시키면 소비자들이 더 오랜 시간 동안 메시지를 처리할 수 있게 해주며, 메시지의 중복 읽기를 방지합니다.(기본: 30초, 최소: 0초, 최대: 12시간)
- 가시성 시간 제한이 너무 짧을 경우 (초 단위), 처리할 시간이 충분하지 않으면 다른 소비자가 메시지를 여러 번 읽고 해당 요청이 여러 번 처리될 수 있음(답:3)
1.SQS 표준 대기열
2.SQS 데드 레터 대기열
3.SQS 대기열 지연
4.SQS FIFO 대기열
SQS FIFO(First-In-First-Out) 대기열은 SQS 표준 대기열의 모든 기능을 가지고 있으며, 다음과 같은 두 기능이 추가됩니다. 첫 번째, 어떤 메시지를 보내고 수신했는지에 대한 오더가 엄격하게 보존됩니다. 메시지는 한 번만 전송되며, 소비자가 해당 메시지를 처리하고 삭제할 때까지 사용할 수 있습니다. 두 번째, 복제된 메시지는 대기열에 들어오지 않습니다.
1.SQS 복제 기능을 사용
2.SNS + SQS 팬아웃 패턴을 사용
3.3개의 SQS 대기열에 개별적으로 메시지 전송하기
흔히 사용되는 패턴으로, 단 하나의 메시지를 SNS 주제로 전송한 뒤, 다수의 SQS 대기열로 ‘팬 아웃’합니다. 이 방식에는 다음의 기능이 포함되어 있습니다: 완전히 분리되어 있고, 데이터 손실이 없으며, 향후 더 많은 SQS 대기열(더 많은 애플리케이션)을 추가할 수 있습니다.(2)
1.더 많은 샤드 추가
2.Kinesis 복제 활성화
3.SQS를 Kinesis의 버퍼로 사용
Knesis Data Stream의 용량 제한은 데이터 스트림 내에 있는 샤드의 수에 의해 결정됩니다. 이러한 제한은 데이터 처리량, 혹은 읽기 데이터 호출에 의해 초과될 수 있습니다. 각 샤드는 1MB/초 만큼의 들어오는 데이터와 2MB/초 만큼의 나가는 데이터를 허용합니다. 충분한 용량을 제공하려면 데이터 스트림의 샤드 수를 증가시켜야 합니다.
1.샤드가 너무 많으므로 오직 1개의 샤드만 사용해야 함
2.다수의 소비자를 사용해서는 안되므로, 오직 하나만을 사용하면 데이터가 재정렬될 것
3.Kinesis로 보내지는 각 레코드에 사용자의 신원을 나타내는 파티션 키를 추가해야 함
Kinesis Data Stream은 각 데이터 레코드에 연결된 파티션 키를 사용해 주어진 데이터 레코드가 어느 샤드에 속하는지 판단합니다. 각 사용자의 신원을 파티션 키로 사용할 경우, 각 유저에 대한 데이터가 정렬되어 동일한 샤드로 보낼 수 있습니다.
1.SQS + AWS Lambda
2.SNS + HTTP Endpoint
3.Kinesis Data Streams + Kinesis Data Firehose
- 이는 실시간 데이터를 S3와 Redshift로 로딩하기 위한 완벽한 기법 조합입니다. Kinesis 데이터 파이어호스는 AWS Lambda를 사용하는 커스텀 데이터 변환을 지원합니다.
- Kinesis Data Streams는 대량의 스트림 데이터를 처리하는 데 사용되며, 데이터를 실시간으로 전달할 수 있습니다.
- Kinesis Data Firehose는 Kinesis Data Streams로부터 데이터를 수신하고, S3 또는 Redshift와 같은 목적지에 데이터를 로드하며, 변환 작업을 수행할 수 있습니다.
- Kinesis Data Firehose는 목적지에 데이터를 자동으로 로드하고 변환할 수 있는 관리형 서비스로 편리하게 사용할 수 있습니다.(3)
1.Amazon Kinesis Amazon Kinesis Data Streams
2.Amazon SQS
3.HTTP(S) Endpoint
4.AWS Lambda
현재 Kinesis Data Firehose는 지원되지만, Kinesis Data Streams는 지원되지 않습니다.
1.AWS Lambda를 갖는 Amazon SQS
2.Amazon SNS
3.Amazon Kinesis
- Amazon SNS는 푸시 알림, SMS, 이메일 등 다양한 종류의 알림을 효과적으로 관리하고 전송하는 서비스입니다.
- 이메일 알림을 보내기 위해선 이메일 주제 및 본문을 정의하고, 이메일 구독자를 추가하여 알림을 받도록 설정할 수 있습니다.
- 다양한 프로토콜을 지원하여 여러 경로로 알림을 전송할 수 있습니다.
1.Amazon SQS
2.Amazon SNS
3.Amazon Kinesis
4.Amazon MQ
Amazon MQ는 JMS, NMS와 같은 업계 표준 API를 지원하며 AMQP, STOMP, MQTT 및 WebSocket 등을 비롯한 메시징 프로토콜을 지원합니다.
1.SQS를 버퍼로 사용해 Aurora에 쓰기 작업을 수행한다.
2.웹 사이트를 EC2 인스턴스 대신 AWS Fargate에서 호스팅한다.
3.Aurora를 SQL서버용 RDS로 마이그레이션한다.
- SQS를 사용하여 쓰기 작업을 버퍼링하고, Aurora에 대한 쓰기 작업을 분산하여 처리할 수 있습니다.
- SQS를 통해 비동기적으로 데이터베이스에 쓰기 작업을 수행하면 트래픽의 급증에 대응할 수 있으며, 트랜잭션 실패를 방지할 수 있습니다.
1.프로비저닝된 모드
2.온디맨드 모드
- 온디맨드 모드는 트래픽에 따라 자동으로 확장되기 때문에 예측 불가능한 트래픽 증가에 대응하기에 적합합니다.
- 사용한 시간에 따라 비용이 청구되므로 트래픽이 급증할 때만 필요한 용량을 할당받을 수 있습니다.
- 트래픽이 감소하면 자동으로 용량이 축소되어 비용을 최소화할 수 있습니다.
1.Elastic Container Service(ECS)
2.Elastic Container Registry(ECR)
3.AWS Fargate
4.Elastic Kubernetes Service(EKS)
AWS Fargate를 사용하면 서버를 관리할 필요 없이 AWS 상에서 컨테이너를 실행할 수 있습니다.
1.Amazon EC2 실행 유형과 Fargate 실행 유형
2.Amazon EC2 실행 유형과 EKS 실행 유형
3.Fargate 실행 유형과 EKS 실행 유형
Amazon Elastic Container Service(ECS)에는 Amazon EC2 실행 유형과 AWS Fargate 실행 유형이 있습니다. 이 두 실행 유형은 각각 컨테이너를 실행하는 데 사용되는 서비스 모델을 나타냅니다. EC2 실행 유형은 EC2 인스턴스를 사용하여 컨테이너를 실행하고 관리하며, Fargate 실행 유형은 서버리스 컴퓨팅을 사용하여 인프라 관리 없이 컨테이너를 실행합니다.
1.EC2 인스턴스 프로파일
2.ECS 태스크 역할
ECS 태스크 역할은 ECS 태스크 자체가 사용하는 IAM 역할입니다. 컨테이너가 S3, SQS 등의 다른 AWS 서비스를 호출하려 할 때 사용합니다.
1.EFS 볼륨 마운트
2.EBS 볼륨 마운트
3.EC2 인스턴스 스토어 사용
EFS 볼륨은 서로 다른 EC2 인스턴스와 서로 다른 ECS 태스크 간의 공유가 가능합니다. 컨테이너의 영구적인 다중 AZ 공유 스토리지로 사용될 수 있습니다.
1.EC2 인스턴스 역할을 수정해 S3에 대한 권한 추가
2.새 애플리케이션을 위한 IAM 역할 생성
3.Fargate 모드 활성화
4.ECS 태스크를 허용하도록 S3 버킷 정책 수정
새로운 애플리케이션에는 DynamoDB와 S3에 대한 권한이 필요하므로, 각각의 서비스에 대한 권한을 부여하는 새로운 IAM 역할을 생성하는 것이 더 적절합니다. EC2 인스턴스 역할을 수정하는 것은 현재 사용 중인 애플리케이션에 영향을 미칠 수 있으므로 새로운 IAM 역할을 생성하여 해당 역할을 새로운 애플리케이션에 할당하는 것이 좋습니다.(2)
1.AWS Fargate
2.Elastic Container Registry(ECR)
3.Elastic Kubernetes Service(EKS)
4.Amazon EC2
Amazon ECR은 컨테이너 이미지를 손쉽게 저장, 관리, 공유 및 배포할 수 있도록 해주는 완전 관리형 컨테이너 레지스트리입니다. ECR은 Amazon ECS와 완전히 통합되어 있어, ECS를 사용하여 컨테이너를 실행하고 관리하는 동안 ECR에서 컨테이너 이미지를 쉽게 가져올 수 있습니다.
1.관리형 노드 그룹
2.자체 관리형 노드
3.AWS Fargate
4.AWS Lambda
관리형 노드 그룹 (Managed Node Group):
- EKS에서 제공하는 EC2 인스턴스를 사용하는 노드 그룹입니다.
- 클러스터에 쉽게 노드를 추가하거나 제거할 수 있습니다.
자체 관리형 노드 (Self-Managed Node):
- 사용자가 직접 관리하는 EC2 인스턴스를 사용하는 노드입니다.
- EKS 클러스터에 수동으로 노드를 추가하거나 제거할 수 있습니다.
AWS Fargate:
- 서버리스 컨테이너 서비스로, 노드를 직접 관리하지 않고 컨테이너를 실행할 수 있습니다.
- EC2 인스턴스나 다른 노드 유형 없이 컨테이너를 실행할 수 있습니다.
AWS Lambda:
- AWS Lambda는 서버리스 컴퓨팅 서비스로, 함수를 실행할 때에만 자원이 할당됩니다.
- Lambda는 EKS에서 직접적으로 노드로 사용되지 않습니다.(4)
1.AWS App Runner
2.EC2 인스턴스 + 애플리케이션 로드 밸런서
3.Amazon ECS
4.AWS Fargate
1
1.Lambda의 시간초과를 25분으로 구성
2.Lambda의 메모리를 10GB로 구성
3.코드를 다른 곳(예:EC2 인스턴스)에서 실행
Lambda의 최대 실행 시간은 15분입니다. 코드를 EC2 인스턴스처럼 다른 곳에서 실행할 수도 있고, Amazon ECS를 사용할 수도 있습니다.(3)
1.맞습니다.
2.아닙니다.
DynamoDB는 프로비저닝, 패치, 혹은 관리할 서버가 없고 설치, 유지 및 운용해야 할 소프트웨어가 없는 서버리스 서비스입니다. DynamoDB는 용량 조정 및 성능 유지를 위한 테이블의 확장 및 축소를 자동으로 스케일링합니다. 이는 프로비저닝(RCU & WCU 지정) 및 온디맨드 (사용한 만큼의 비용 책정) 용량 모드 모두를 제공합니다.
1.RCU는 증가, WCU는 동일하게 유지
2.RCU와 WCU 모두를 증가시켜야 함
3.RCU증가 및 WCU 감소
RCU와 WCU는 분리되어 있으므로, 각 값을 개별적으로 증가/감소시킬 수 있습니다.(1)
1.RCU를 아주 높은 값으로 설정
2.DAX클러스터 생성하기
3.세일 기간 중 데이터베이스를 DynamoDB 밖으로 이전시키기
DynamoDB Accelerator(DAX)는 완전 관리형에, 고가용성을 갖춘 DynamoDB 용 인메모리 캐시이며, 최대 10배까지 성능을 향상시켜 줍니다 이는 가장 자주 사용되는 데이터를 캐시해 DynamoDB 테이블의 핫 키에서 과도한 양의 읽기를 오프로딩 해주어 ‘ProvisionedThroughputExceededException’ 예외 처리 오류를 방지합니다.
1.CloudWatch Event를 사용해 Lambda 함수를 매 분 실행하여 테이블에 등록된 새로운 사용자를 스캔하게 만들기
2.SNS와 DynamoDB 통합을 활성화
3.DynamoDB Streams을 활성화하고 이메일을 보내기 위해 Lambda 함수를 호출하도록 구성
DynamoDB Streams을 사용하면, DynamoDB 테이블의 항목 레벨 수정의 시간 순서를 파악할 수 있습니다. 이는 AWS Lambda에 통합되어 있기 때문에, 이벤트에 실시간으로 자동 응답하는 트리거를 생성할 수 있습니다.
1.EC2 인스턴스
2.Elastic Load Balancing
3.AWS Lambda
3
1.아닙니다.
2.맞습니다.
엣지 최적화 API Gateway는 지리적으로 분산된 클라이언트에 가장 적합합니다. API 요청은 가장 가까운 CloudFront 엣지 로케이션으로 라우팅되며, 이는 지연 시간을 향상시킵니다. API Gateway는 여전히 하나의 AWS 리전에 존재합니다.(1)
1.개발 및 프로덕션 환경 모두에서 오토 스케일링을 활성화하고 프로비저닝된 용량 모드를 사용한다.
2.프로덕션 환경에는 프로비저닝된 용량 모드 및 오토 스케일링을 사용하고 개발 환경에는 온디맨드 용량 모드를 사용한다.
3.개발 환경에는 프로비저닝된 용량 모드 및 오토 스케일링을 사용하고 프로덕션 환경에는 온디맨등 용량 모드를 사용한다.
4.개발 및 프로덕션 환경 모두에서 온디맨드 용량 모드를 사용한다.
- Provisioned Mode (default)
- 초당 읽기/쓰기 수를 예측하여 미리 지정
- 용량을 사전에 계획해야 함
- 프로비저닝된 읽기 용량 단위 (RCU) 및 쓰기 용량 단위 (WCU)에 대해 비용을 지불
- RCU 및 WCU에 대한 오토 스케일링 가능
- On-Demand Mode
- 읽기/쓰기가 작업량에 따라 자동으로 확장/축소
- 용량 계획이 필요하지 않음
- 사용한 만큼 비용을 지불하며, 비용이 더 비싸지만 ($$$) 사용량에 따라 유연하게 대응할 수 있음
- 예측할 수 없는 작업량이나 급격한 증가가 예상되는 경우에 적합(답:2)
1.Lambda@Edge
2.API Gateway
3.DynamoDB
4.AWS 글로벌 액셀러레이터
Lambda@Edge는 CloudFront의 기능으로, 사용자에 가깝게 코드를 실행하도록 해주어 성능을 향상시키고 지연 시간을 줄여 줍니다.
1.1 MB
2.500 KB
3.400 KB
4.400 MB
3
1.AWS Lambda
2.Amazon ECS
3.AWS Step Functions
4.AWS Storage Gateway
- Lambda 함수를 조율하기 위한 서버리스 워크플로우를 시각적으로 구축할 수 있는 서비스
- 기능: 시퀀스, 병렬 처리, 조건부 실행, 타임아웃, 오류 처리 등
- Lambda 함수 뿐만 아니라 EC2, ECS, 온프레미스 서버, API Gateway, SQS 큐 등 다양한 AWS 서비스와 통합 가능
- 사람이 개입해서 승인을 해야만 진행되는 단계를 설정할 수 있음
- 주문 처리, 데이터 처리, 웹 애플리케이션 등 구성하기 복잡한 다양한 워크플로우를 시각적으로 구성하려고 할 때 사용함(3)
1.Redis가 설치된 EC2인스턴스를 사용하고 이를 Lambda 함수와 DynamoDB테이블 사이에 위치시킨다.
2.DynamoDB를 Aurora로 마이그레이션하고 ElastiCache를 사용해 자주 요청되는 읽기 데이터를 캐싱한다.
3.DynamoDB를 S3으로 마이그레이션하고 CloudFront를 사용해 자주 요청되는 읽기 데이터를 캐싱한다.
4.DynamoDB 액셀러레이터(DAX)를 사용해 자주 요청되는 읽기 데이터를 캐싱한다.
- DynamoDB를 위한 완전 관리형 무결졀 인메모리 캐시
- DynamoDB 테이블에 읽기 작업이 많을 때 DAX 클러스터를 생성하고 데이터를 캐싱하여 읽기 혼잡을 해결함
- 캐시된 데이터에 대한 마이크로초 수준의 지연 시간
- 애플리케이션 로직 수정이 필요하지 않음 (기존 DynamoDB API와 호환됨)
- 캐시의 기본 TTL 기본값은 5분
- 이는 비용 효율적이고 스로틀링을 방지하는 데 도움이 됩니다.(마지막 줄은 GPT답변 추가함)
1.DynamoDB 테이블을 선택하고 S3로 내보내기를 선택한다.
2.DynamoDB 데이터를 읽는 Lambda 함수를 만들어 JSON 파일로 변환하고 변환된 파일을 S3 버킷에 저장한다.
3.AWS Transfer Family를 사용한다.
4.AWS DataSync를 사용한다.
- DynamoDB JSON 또는 ION 형식으로 내보냄
- DynamoDB 내보내기를 사용하면 데이터를 특정 시점의 백업 또는 테이블 스캔을 통해 JSON 형식으로 S3 버킷으로 내보낼 수 있습니다.
1.사용자 세션을 S3 버킷에 저장호고 S3 수명 주기 정책을 활성화한다.
2.사용자 세션을 EC2 인스턴스에 로컬로 저장한다.
3.사용자 세션을 DynamoDB 테이블에 저장하고 TTL을 활성화한다.
4.사용자 세션을 EFS 파일 시스템에 저장한다.
- DynamoDB: DynamoDB는 관리형 NoSQL 데이터베이스 서비스로, 빠르고 확장 가능한 성능을 제공합니다.
- 특히, DynamoDB의 TTL 속성을 사용하면 특정 시간 이후에 항목이 자동으로 삭제되도록 설정할 수 있습니다.
- TTL(Time-To-Live): TTL은 DynamoDB 항목의 만료 시간을 나타내는 속성으로, 이를 활성화하면 일정 시간이 지난 후 해당 항목이 자동으로 삭제됩니다. 사용자 세션의 자동 만료 및 삭제를 위해 TTL을 사용할 수 있습니다.(3)
1.각각의 애플리케이션 사용자에 대해 IAM 사용자 자격 증명 생성한다.
2.Amazon Cognito 아이덴티티 페더레이션을 사용한다.
3.ASML 아이덴티티 페더레이션을 사용한다.
4.버킷 정책을 사용해 버킷을 퍼블릭으로 만든다.
Amazon Cognito을 사용해 모바일 사용자 계정을 페더레이션하거나 사용자에게 IAM 권한을 제공할 수 있으며, 사용자는 이를 통해 S3 버킷에 있는 개인 공간에 액세스할 수 있습니다.
1.KMS로 암호화된 DynamoDB 테이블에 사용자의 자격 증명을 저장한다.
2.KMS로 암호화된 S3 버킷에 사용자의 자격 증명을 저장한다.
3.Cognito 사용자 풀을 사용한다.
4.사용자 자격 증명을 AWS Secrets Manager에 저장한다.
- Cognito 사용자 풀: Amazon Cognito는 AWS에서 제공하는 신뢰성 있고 확장 가능한 사용자 관리 및 인증 서비스입니다. Cognito를 사용하면 사용자를 위한 백엔드 인증 및 인증 서비스를 구축할 수 있습니다. 사용자 풀은 사용자 관리, 인증, 그룹화 등을 쉽게 설정하고 관리할 수 있는 서비스입니다.
- 간편한 설정: Cognito를 사용하면 몇 가지 간단한 설정만으로도 사용자 관리와 인증을 쉽게 구현할 수 있습니다. 사용자 풀을 통해 사용자 등록, 로그인, 비밀번호 재설정 등을 관리할 수 있습니다.
- 안전한 저장: Cognito 사용자 풀은 사용자의 자격 증명을 안전하게 저장하고 관리합니다. 사용자 풀을 통해 보안을 고려한 인증 및 인가 기능을 손쉽게 구현할 수 있습니다.
1.AWS Identity and Access Management(IAM)
2.AWS IAM Identity Center
3.Amazon Cognito
4.Amazon CloudFront
Amazon Cognito를 사용하면 웹 및 모바일 앱에 사용자 가입, 로그인, 액세스 제어 기능을 쉽고 빠르게 추가할 수 있습니다. Amazon Cognito는 사용자를 수백만까지 확장할 수 있으며 SAML 2.0 및 OpenID Connect를 통해 Apple, Facebook, Google, Amazon과 같은 소셜 자격 증명 공급자 및 엔터프라이즈 자격 증명 공급자의 로그인을 지원합니다.
1.API Gateway + AWS Lambda
2.애플리케이션 로드 밸런서(ALB)
3.Elastic Container Service(ECS) + Elastic Block Store(EBS)
4.Amazon CloudFront + S3
이 옵션은 서버리스 아키텍처의 대표적인 방식 중 하나입니다. API Gateway는 RESTful API를 쉽게 관리하고 배포할 수 있는 서비스이며, AWS Lambda는 코드를 실행하는 서버리스 컴퓨팅 서비스입니다. 이를 조합하여 간편하게 REST API를 구축할 수 있습니다. 장점으로는 확장성이 용이하고, 사용량에 따라 비용을 효율적으로 관리할 수 있습니다(1)
1.API Gateway
2.Lambda
3.DynamoDB
- Lambda는 즉시 사용 가능한 캐싱 기능을 가지고 있지 않습니다.
- API Gateway는 캐싱 설정을 통해 요청에 대한 응답을 캐싱할 수 있고, DynamoDB는 내장된 캐싱 기능은 아니지만 인메모리 캐싱을 구현할 수 있는 옵션이 있습니다.
- DynamoDB Accelerator(DAX)는 완전 관리형에, 고가용성을 갖춘 DynamoDB 용 인메모리 캐시이며, 초당 수백만 개의 요청이 있어도 최대 10배(밀리초에서 마이크로초까지)의 성능 향상을 제공해 줍니다. DAX는 개발자들이 캐시 무효화, 데이터 수집 혹은 클러스터 관리를 할 필요 없이 DynamoDB 테이블로 인메모리 가속을 추가하기 위한 모든 복잡한 작업을 수행할 수 있게 해줍니다.
1.S3 리전 간 복제
2.Amazon CloudFront
3.Amazon Route 53
4.API Gateway
Amazon CloudFront는 낮은 지연 시간과 빠른 전송 속도로 전역의 고객들에게 데이터, 영상, 애플리케이션 및 API를 전송해 주는 고속 콘텐츠 전송 네트워크(CDN)입니다. Amazon CloudFront에 딱 맞는 사용 사례입니다.
1.DynamoDB 스트림
2.DynamoDB DAX
3.DynamoDB 버전 관리
4.DynamoDB 백업
DynamoDB Streams은 DynamoDB가 변경 로그를 가져오고, 이를 사용해 다른 AWS 리전에 있는 복제 테이블이 서로의 데이터를 복제할 수 있는 기능을 활성화해 줍니다
1.SQS 대기열로 메시지를 삽입할 때는 Lambda를 사용할 수 없으므로, EC2 인스턴스를 대신 사용해야 함
2.Lambda 실행 IAM 역할에 권한이 없음
3.Lambda 보안 그룹이 SQS에 대한 아웃바운드 액세스를 허용해야만 함
4.SQS 보안 그룹이 AWS Lambda를 허용하도록 수정되어야 함
DynamoDB Streams를 사용하여 Lambda 함수를 트리거할 때, 해당 Lambda 함수는 실행되기 위한 IAM 역할을 가져야 합니다. 이 IAM 역할에는 DynamoDB에 대한 읽기 권한과 SQS에 메시지를 쓰기 위한 권한이 모두 포함되어야 합니다.
Lambda 함수를 트리거할 때 IAM 역할에 필요한 권한을 설정하지 않으면 Lambda 함수가 실행되더라도 필요한 작업을 수행할 수 없습니다. (2)
1.Amazon S3 + AWS Lambda
2.Amazon SNS + Amazon EC2
3.Amazon SQS + Amazon EC2
4.Amazon SQS + AWS Lambda
- 1.Lambda 함수와 S3를 함께 사용할 경우, Lambda 함수를 즉시 트리거해야 하므로 실행을 다음 날로 연기할 수 없습니다.
- 2.Amazon SNS를 사용할 경우, EC2 실패가 발생하더라도 메시지를 대기열로 다시 집어 넣어 재시도를 할 수 없습니다.
- 답:3.Amazon SQS를 사용하면 메시지를 며칠 간 보관하고 향후에 처리할 수 있으며, EC2 인스턴스를 중단할 수도 있습니다.
- 4.사용 가능한 방법이지만, Lambda 함수의 최대 실행 시간이 15분이기 때문에 이 경우에는 사용이 불가능합니다.
1.마스터 팩을 S3으로 호스팅
2.Application Loda Balancer 캐싱 활성화
3.EC2 인스턴스 스케일 업
4.Amazon CloudFront 배포 생성
Amazon CloudFront는 낮은 지연 시간과 빠른 전송 속도로 전역의 고객들에게 데이터, 영상, 애플리케이션 및 API를 전송해 주는 고속 콘텐츠 전송 네트워크(CDN)입니다. Amazon CloudFront는 Application Load Balancer 앞에서 사용될 수 있습니다.(4)
1.Kinesis 데이터 스트림
2.Amazon S3
3.Amazon MQ
- 답:1.Amazon Kinesis Data Streams(KDS)은 확장성과 내구성이 뛰어난 실시간 데이터 스트리밍 서비스입니다. 이는 웹사이트, 클릭스트림, 데이터베이스 이벤트 스트림, 금융 거래, 소셜 미디어 피드, IT 로그 및 위치 추적 이벤트 등의 수백 개 소스로부터 초당 GB에 달하는 데이터를 지속적으로 포착할 수 있습니다.
- 2.Amazon S3은 객체 스토리지 서비스로, 재생 기능을 제공하지 않습니다.
- 3.Amazon MQ는 Apache ActiveMQ와 RabbitMQ 용 관리 메시지 브로커 서비스로 AWS 상에 간편하게 메시지 브로커를 설정하고 운용할 수 있게 해줍니다. MQTT와 같은 타 프로토콜을 지원해야 할 경우, Amazon SQS의 대용으로 사용할 수 있습니다.
1.Amazon Redshift
2.Amazon RDS
3.Amazon DynamoDB
4.Amazon ElastiCache
2
1.Amazon RDS
2.Amazon DynamoDB
3.Amazon ElastiSearch
4.Amazon ElastiCache
Amazon ElastiCache는 완전 관리형 인메모리 데이터 스토어로, Redis 혹은 Memcahched와 호환이 가능합니다.
1.Amazon RDS
2.Amazon DynamoDB
3.Amazon Redshift
4.Amazon Aurora
Amazon DynamoDB는 키-값, 문서, NoSQL 데이터베이스입니다.
1.Amazon ElastiCache
2.Amazon Redshift
3.Amazon Aurora
4.Amazon RDS
Amazon Aurora는 MySQL 및 PostgreSQL과 호환이 가능한 관계형 데이터베이스입니다. Aurora는 데이터베이스 인스턴스 당 최대 128TB까지 자동 스케일 업하는 분산형, 내결함성 자가 복구 스토리지 시스템이라는 것이 특징입니다. 최대 15개의 지연 시간이 낮은 읽기 전용 복제본, 지정 시간 복구, Amazon S3로의 지속적인 백업, 그리고 3개의 AZ에 대한 복제를 통해 높은 성능과 고가용성을 제공합니다.
1.Amazon RDS
2.Amazon Redshift
3.Amazon Neptune
4.Amazon ElastiSearch
Amazon Neptune은 빠르고, 신뢰도가 높은 완전 관리형 그래프 데이터베이스 서비스로 고도로 연결된 데이터셋을 처리하는 애플리케이션을 구축하고 실행하는 데에 도움을 줍니다.
1.Amazon Athena
2.Amazon S3
3.Amazon DynamoDB
4.Amazon ElastiCache
Amazon S3는 키-값 스토어가 맞습니다(키는 버킷 내 객체의 전체 경로입니다)!
1.Amazon ElastiCache
2.Amazon DocumentDB
3.Amazon RDS for MongoDB
4.Amazon Neptune
2
1.Amazon DocumentDB
2.Amazon DynamoDB
3.Amazon Timestream
4.Amazon Keyspaces
4
1.Amazon DocumentDB
2.Amazon Aurora
3.Amazon QLDB
4.Amazon Neptune
3
1.Amazon Timestream
2.Amazon Neptune
3.Amazon S3
4.Amazon ElastiCache
1
1.Amazon RDS
2.Amazon S3
3.Amazon Redshift
4.Amazon Neptune
3
1.Amazon DynamoDB
2.Amazon Redshift
3.S3 Glacier
4.Amazon Athena
4
1.다중 AZ를 활성화한다.
2.자동 스냅샷을 활성화한 다음, Redshift 클러스터가 스냅샷을 다른 AWS 리전으로 자동 복사하도록 설정한다.
3.스냅샷을 만들고 Redshift 글로벌 클러스터로 복원한다.
2
1.향상된 VPC 라우팅
2.개선된 VPC 라우팅
3.Redshift Spectrum
1
1.Amazon DynamoDB
2.Amazon Redshift
3.Amazon OpenSearch
4.Amazon Neptune
3
1.AWS Glue
2.Amazon Redshift
3.Amazon RDS
4.Amazon DynamoDB
1
1.Amazon S3
2.Amazon OpenSearch service
3.Amazon ElastiCache
4.Amazon QLDB
2
1.AWS Lambda
2.Amazon EMR
3.Amazon Athena
4.Amazon OpenSearch Service
2
1.Amazon OpenSearch Service
2.Amazon Athena
3.Amazon QuitSight
4.Amazon EMR
3
1.Glue Job Bookmarks
2.Glue Elastic Views
3.Glue Streaming ETL
4.Glue DataBrew
1
1.S3 객체 버전 관리
2.Kinesis Data Streams
3.Amazon MSK
4.AWS Glue
4
1.Kinesis Data Streams
2.AWS Glue
3.Amazon MSK
4.Kinesis Data Analytics
3
1.AWS Lake Formation 세분화된 액세스 제어
2.Amazon Cognito
3.AWS Shield
4.S3 객체잠금
1
1.Amazon SQS
2.Amazon SNS
3.Amazon Kinesis Data Analytics
4.Amazon Kinesis Data Firehose
3
1.참
2.거짓
Amazon Transcribe는 고객들로 하여금 음성을 텍스트로 손쉽게 변환할 수 있도록 해주는 AWS 서비스입니다. Amazon Polly는 텍스트를 생동감 있는 음성으로 변환해 주는 서비스입니다.
1.Transcribe
2.Rekognition
3.Connect
4.Lex
Amazon Lex는 음성 및 텍스트를 사용하는 애플리케이션에 대화형 인터페이스 구축을 위한 서비스입니다. Lex는 음성을 텍스트로 변환하기 위한 고급 자동 음성 인식(ASR) 딥 러닝 기능과 텍스트의 의도를 인식하는 자연어 이해(NLU) 기능을 제공함으로써 매력적인 사용자 경험을 제공하고 현실 같은 대화형 상호 작용이 가능한 애플리케이션을 구축할 수 있도록 해줍니다
1.Personalize
2.SageMaker
3.Lex
4.Forecast
Amazon Forecast는 머신 러닝을 이용해 매우 정확한 예측을 제공하는 완전 관리형 서비스입니다.
1.Rekognition
2.Polly
3.Kendra
4.Lex
Amazon Rekognition은 확장성이 좋은 입증된 딥 러닝 기술로, 전문 지식 없이도 머신 러닝을 이용한 사진 및 영상 분석 기능을 손쉽게 애플리케이션에 추가할 수 있도록 해줍니다.
1.Personalize
2.Kendra
3.Connect
Amazon Personalize는 개발자로 하여금 애플리케이션을 사용하는 고객들에 대한 맞춤형 추천을 손쉽게 생성할 수 있도록 해주는 머신 러닝 서비스입니다
1.Translate
2.Comprehend
3.Lex
4.Rekognition
Amazon Comprehend는 머신 러닝을 사용해 텍스트 내의 의미와 인사이트를 파악해 주는 자연어 처리(NLP) 서비스입니다.
1.Transcribe
2.Polly
3.Translate
4.WordTranslator
Amazon Translate는 빠르고, 품질이 높으며 합리적인 비용의 언어 번역을 제공하는 신경망 머신 번역 서비스입니다.
1.SageMaker
2.Polly
3.Comprehend
4.Personalize
Amazon SageMaker는 모든 개발자 및 데이터 과학자가 머신 러닝(ML) 모델을 빠르게 구축, 훈련 및 배포할 수 있도록 해주는 완전 관리형 서비스입니다. SageMaker를 사용하면 고품질 모델을 개발을 쉽게 만들어 줌으로써, 머신 러닝 프로세스를 용이하게 합니다.
1.Connect
2.Translate
3.Transcribe
4.Polly
Amazon Transcribe는 고객들로 하여금 음성을 텍스트로 손쉽게 변환할 수 있도록 해주는 AWS 서비스입니다.
1.Forecast
2.Kendra
3.Comprehend
4.Polly
Amazon Kendra는 머신 러닝에 의해 가동되는, 높은 정확성으로 사용이 용이한 기업 검색 서비스입니다.
1.Amazon Polly
2.Amazon Translate
3.Amazon Lex
4.Amazon Rekognition
Amazon Rekognition은 이미지 및 비디오 분석을 위한 기능을 제공하며, 부적절한 콘텐츠, 성인 콘텐츠, 폭력적인 콘텐츠 등을 감지할 수 있는 기능을 가지고 있습니다.
1.Amazon Polly
2.Amazon Transcribe
3.Amazon Recognition
4.Amazon Forecast
Amazon Transcribe은 음성을 텍스트로 변환하는 서비스로, 음성 데이터에서 PII를 삭제하고 필요한 정보만 추출할 수 있습니다. 이를 통해 전화 통화 내용에서 민감한 개인 정보를 보호할 수 있습니다.
1.음성 합성 마크업 언어(SSML), Pronunciation Lexicons
2.Pronunciation Lexicons, 보안 검증 마크업 언어(SAML)
3.Pronunciation Lexicons, 음성 합성 마크업 언어(SSML)
4.보안 검증 마크업 언어(SAML), Pronunciation Lexicons
3
1.Amazon Comprehend Medical
2.Amazon Rekognition
3.Amazon Polly
4.Amazon Translate
1
1.1시간 마다 AWS Lambda를 트리거하도록 예약된 CloudWatch 이벤트를 생성하고, 로그를 스캔해 SNS 주제를 통해 알리기
2.키워드 Error에 대한 로그를 필터링하는 CloudWatch로그 지표 필터를 생성한 후, 지표 필터를 기반으로 CloudWatch 경보를 생성
3.데이터베이스 로그의 오류를 모니터링하는 AWS 구성 규칙을 생성하고 SNS 주제를 통해 알리기
2
1.하나의 EC2 인스턴스가 종료되고 ASG의 원하는 요량 및 최소 용량이 1로 설정됨
2.CloudWatch 경보는 계속 ALARM 상태로 유지되지만, ASG의 EC2 인스턴스 수는 절대 감소하기 않음
3.CloudWatch 경보가 ASG로부터 분리될 것
4.CloudWatch 경보가 OK 상태로 변화함
ASG의 EC2 인스턴스 수는 이론상 CloudWatch 경보가 EC2 인스턴스 중단을 트리거한다 해도, 최소 용량 이하로 감소할 수 없습니다(2)
1.EC2 세부 모니터링을 활성화한다.
2.기본적으로 EC2 인스턴스는 메모리 사용량을 CloudWatch로 푸시한다.
3.통합 CloudWatch 에이전트를 사용해 메모리 사용량을 사용자 지정 지표로 정의해 CloudWatch에 푸시한다.
3
1.Amazon CloudWatch
2.AWS CloudTrail
- Amazon CloudWatch는 모니터링 서비스로 애플리케이션을 모니터링할 수 있게 해줍니다. 이는 시스템의 성능 변경에 따라 반응하며, 리소스 활용을 최적화하며, 운영 상태를 통합적으로 볼 수 있도록 해줍니다. CloudWatch는 애플리케이션의 성능과 지표를 모니터링하는 데에 사용됩니다.
- AWS CloudTrail은 AWS 인프라 간의 작업과 관련된 계정 활동을 로그하고 지속적인 모니터링 및 유지를 가능하게 해줍니다. CloudTrail은 AWS 계정 활동 내역을 제공해 주며, AWS 관리 콘솔, AWS SDK, AWS CLI에서 생성한 API 호출을 감사합니다. CloudTrail은 AWS 계정 내의 비정상적인 활동을 감지하는 데에 사용할 수 있습니다.(답:1)
1.CloudWatch 지표
2.CloudWatch 경보
3.CloudWatch 이벤트
4.AWS CloudTrail
AWS CloudTrail은 AWS 인프라 간의 작업과 관련된 계정 활동을 로그하고 지속적인 모니터링 및 유지를 가능하게 해줍니다. CloudTrail은 AWS 계정 활동 내역을 제공해 주며, AWS 관리 콘솔, AWS SDK, AWS CLI에서 생성한 API 호출을 감사합니다. 따라서 여기에 EC2 인스턴스 중단 API 호출이 나타날 겁니다. CloudTrail은 AWS 계정 내의 비정상적인 활동을 감지하는 데에 사용할 수 있습니다.(4)
1.CloudTrail Data Events
2.CloudTrail Insights
3.CloudTrail Management Events
2
1.CloudTrail 콘솔의 CloudTrail이벤트 내역을 활용
2.Amazon Athena로 S3버킷 내의 CloudTrail 로그를 분석
CloudTrail 콘솔은 지난 90일 간 보고된 API 활동을 확인하려는 경우 활용할 수 있습니다. 90일보다 오래된 이벤트의 경우에는 Athena를 사용해 S3 버킷 내에 저장된 CloudTrail 로그를 분석합니다.(2)
1.CloudWatch 지표 설정
2.CloudTrail 추적 설정
3.구성 규칙 설정
4.CloudWatch 이벤트가 Lambda함수를 트리거해 EC2 인스턴스를 스캔하도록 만들기
AWS Config를 사용하여 EC2 인스턴스의 보안 그룹 구성을 모니터링하고 84번 포트가 노출되어 있는지 확인할 수 있습니다. 설정된 규칙에 위반되는 경우 알림을 받을 수 있습니다.(3)
1.AWS Config
2.Amazon CloudWatch
3.AWS CloudTrail
1
1.Amazon CloudWatch
2.AWS CloudTrail
3.AWS Config
2
1.AWS Config 수정
2.AWS Config 규칙
3.AWS Config
1
1.AWS 구성 수정
2.AWS 구성 규칙
3.AWS 구성 알림
3
1.CloudWatch 지표 스티림
2.CloudWatch 로그 스티림
3.CloudWatch 지표 필터
4.CloudWatch 로그 그룹
- CloudWatch 지표를 선택한 대상으로 지속적으로 스트리밍하면 거의 실시간으로 전송되고 지연 시간을 짧아진다.
- Amazon Kinesis Data Firehose가 대상이 될 수 있고, 해당 대상을 통해 다른 목적지로 이동할 수도 있다.
- Datadog, Dynatrace, New Relic, Splunk, Sumo Logic 등과 같은 제3자 서비스 제공업체도 사용할 수 있다.
- 필요에 따라 지표를 필터링하여 일부 지표만 스트리밍하는 옵션도 제공한다.(1)[CloudWatch Metric Streams]
1.CloudWatch 지표 스티림
2.CloudWatch Alarm
3.CloudWatch Contributoe Insights
4.CloudWatch 지표 필터
- 로그 데이터를 분석하고 기고자(Contributor) 데이터를 표시하는 시계열 데이터를 생성하는 기능
- 상위 N개의 기고자에 대한 지표 확인
- 총 고유 기고자 수 및 사용량에 대한 지표 확인
- 예를 들어, 불량 호스트를 식별하거나, 사용량이 가장 많은 네트워크 사용자를 찾거나, 가장 많은 오류를 생성하는 URL을 찾을 수 있다.
1.개발자들을 DynamoDB 테이블 삭제 권한이 없는 IAM 그룹에 할당하고, EventBridge가 S3로 모든 DeleteTable API 호출을 캡쳐해 KMS로 알림을 보내도록 설정한다.
2.개발자들을 DynamoDB 테이블 삭제 권한이 없는 IAM 그룹에 할당하고, EventBridge가 CloudTrail로 모든 DeleteTable API 호출을 캡쳐해 SNS로 알림을 보내도록 설정한다.
3.개발자들을 DynamoDB 테이블 삭제 권한이 없는 IAM 그룹에 할당하고, EventBridge가 CloudTrail로 모든 DeleteTable API 호출을 캡쳐해 KMS로 알림을 보내도록 설정한다.
2
1.EventBridge 아카이브 및 다시 재생(Replay)기능을 사용한다.
2.나중에 사용할 수 있도록 S3 버킷에 EventBridge 이벤트를 저장하는 Lambda함수를 생성한다.
3.EventBridge가 DynamoDB 테이블에 이벤트를 저장하도록 설정한다.
EventBridge의 아카이브 및 Replay 기능은 이벤트를 저장하고 나중에 필요할 때 이벤트를 다시 재생할 수 있는 강력한 기능입니다. 이 방식은 이벤트를 효율적으로 보관하고, 필요할 때 선택적으로 재생할 수 있도록 합니다.(1)[Amazon EventBrige Evnet Bus]
1.개발 팀에 완전히 독자적인 AWS 계정을 제공
2.글로번 IAM 정책을 프로덕션 계정에 적용
3.AWS 조직을 생성해 두 개의 프로덕션 및 Dev OU를 생성한 후, Prod OU에 SCP를 적용
4.AWS Config 규칙을 생성
Organizational Units (OU)를 사용하여 프로덕션과 개발 환경을 나눈 후, Service Control Policies (SCP)를 적용하여 프로덕션 계정에서 사용할 수 있는 서비스를 제한할 수 있습니다.(3)
1.아무 문제가 없으며, 다시 로그인해야 함
2.아직 버킷에 파일이 없음
3.객체 레벨의 권한이므로, 리소스를 arn:aws:s3:::static-files-bucket-xxx/*로 변경해야 함
3
1.IAM 역할 사용
2.AWS Organizations SCP 사용
3.AWS Config 사용
2
1.aws:RequiredRegion
2.aws:SourceRegion
3.aws:InitialRegion
4.aws:RequestedRegion
4
1.자격 증명 기반 정책, 리소스 기반 정책
2.리소스 기반 정책, 자격 증명 기반 정책
3.자격 증명 기반 정책, 자격 증명 기반 정책
4.리소스 기반 정책, 리소스 기반 정책
2
1.SSL 인증서를 가진 HTTP 엔드 포인트
2.SSL 인증서를 가진 HTTPS 엔드 포인트
3.TCP 엔드 포인트
전송 중 암호화 = HTTPS이며, HTTPS는 SSL 인증서 없이 활성화될 수 없습니다.(2)
1.맞습니다.
2.아닙니다.
서버 측 암호화는 서버가 데이터를 암호화해 준다는 의미입니다. 미리 암호화할 필요가 없습니다.
1.암호화와 복호화 모두 서버에서 이루어짐
2.암호화와 복호화 모두 클라이언트 측에서 이루어짐
3.암호화는 서버에서 이루어지며, 복호화는 클라이언트 측에서 이루어짐
4.암호화는 클라이언트 측에서 이루어지며, 복호화는 서버에서 이루어짐
서버 측 암호화에서는 해당 암호화 키로 액세스할 수 없으므로, 직접 데이터를 복호화할 수 없습니다.(1)
1.아닙니다.
2.맞습니다.
클라이언트 측 암호화를 사용할 경우, 서버에서 암호화 또는 복호화 작업을 수행하지 않기 때문에 사용된 암호화 체계에 대한 어떤 정보도 알 필요가 없습니다.(1)
1.맞습니다.
2.아닙니다.
KMS에서 AWS 관리 서비스 키를 사용할 수 있으므로, 자체적인 KMS 키를 생성할 필요가 없습니다.(2)
1.맞습니다.
2.아닙니다.
KMS키는 대칭일 수도, 비대칭일 수도 있습니다. 대칭 KMS 키는 암호화와 복호화에 사용되는 256비트 키를 나타냅니다. 비대칭 KMS 키는 암호화 및 복호화, 혹은 서명과 검증에 사용되는 RSA 키 쌍을 나타내지만, 둘 다에 사용되지는 않습니다. 혹은 서명 및 검증에 사용되는 타원 곡선(ECC) 키 쌍을 나타냅니다.
1.90일
2.1년
3.2년
4.3년
2
1.다른 AWS 계정이 로그아웃 후 다시 로그인해 자격 증명을 새로고침해야 함
2.AMI를 암호화하는 데에 사용된 KMS CMK를 다른 AWS 계정과 공유해야 함
3.암호화된 EBS 스냅샷을 가진 AMI는 공유할 수 없음
암호화된 AMI를 다른 AWS 계정과 공유하려면 해당 AMI를 암호화하는 데 사용된 AWS Key Management Service (KMS) Customer Master Key (CMK)를 대상 계정과 공유해야 합니다. AMI를 만들 때 사용된 KMS CMK는 다른 계정에서도 사용할 수 있도록 권한이 부여되어야 합니다.(2)
1.KMS CMK를 다시 구성해 자동 교체를 활성화하고, 'Period(기간)'를 3개월로 선택
2.AWS에 의해 3개월 마다 자동으로 교체되는 AWS 관리 키를 사용
3.KMS CMK를 수동으로 교체. KMS CMK를 생성하고 키 별칭을 사용해 새로운 KMS CMK를 참조. 오래된 데이터의 복호화를 위해 기존의 KMS CMK는 유지
KMS CMK를 수동으로 교체하고, 새로운 CMK를 생성한 후 키 별칭을 사용하여 새로운 CMK를 참조하는 것이 올바른 키 교체 절차입니다. (3)
1.KMS 키 정책
2.KMS IAM 정책
3.AWS GuardDuty
4.KMS 액세스 제어 리스트(KMS ACL)
1
1.코드에 임베딩
2.평문 환경 변수로 만들기
3.암호화된 환경 변수로 만들고 런타임에서 복호화
- 암호를 안전하게 관리하려면 Lambda 함수에서 사용되는 비밀번호와 같은 민감한 정보를 코드에 하드 코딩하거나 평문 환경 변수로 저장하는 대신, 암호화된 환경 변수를 사용하고 런타임에서 필요할 때 복호화하는 것이 좋습니다. 이를 통해 보안을 강화하고 민감한 정보를 안전하게 관리할 수 있습니다.
- 암호화된 환경 변수를 사용하면 환경 변수 값이 Lambda 함수에 대해 암호화되어 저장되며, 런타임 시에 필요할 때만 AWS Key Management Service (KMS)나 다른 안전한 방법을 사용하여 해당 값을 복호화할 수 있습니다.(3)
1.AWS KMS 버전 관리 기능
2.SSM 파라미터 스토어
3.Amazon S3
SSM 파라미터 스토어는 암호를 저장하는 데에 사용될 수 있으며, 추적 기능이 내장되어 있습니다. 파라미터의 값을 감사할 때마다, SSM 파라미터 스토어가 파라미터의 새 버전을 생성하고 기존의 버전을 보관합니다. 값을 포함한 모든 파라미터 버전의 내역을 상세히 볼 수 있습니다.
1.AWS WAF
2.AWS Shield Advanced
3.AWS Shield
4.AWS DDos OpsTeam
2
1.Amazon DynamoDB
2.Amazon S3
3.Amazon EBS
4.SSM 파라미터 스토어
4
1.CloudTrail 로그
2.VPC Flow 로그
3.DNS 로그
4.CloudWatch 로그
4
1.AWS Shield
2.AWS WAF
3.AWS Security Hub
4.AWS GuardDuty
2
1.AWS Shield
2.AWS GuardDuty
3.Amazon Inspector
4.AWS Config
Amazon Inspector는 EC2 인스턴스 및 해당 OS에서 취약점을 분석하고 보안 문제를 식별하는 서비스입니다. Amazon Inspector를 사용하면 매주 자동으로 스케줄된 취약성 평가를 수행하고, 발견된 취약점에 대한 구체적인 권장 사항을 제공할 수 있습니다.(3)
1.AWS Secrects Manager
2.AWS KMS
3.AWS SSM Parameter Store
AWS Secrets Manager는 주로 RDS와 같은 서비스와의 통합을 위해 설계되었으며, 비밀 정보의 안전한 저장과 교체를 간편하게 관리할 수 있는 강력한 도구이다.(1)
1.AWS Shield
2.AWS GuardDuty
3.AWS Config
4.AWS Firewall Manager
AWS Firewall Manager는 보안 관리 서비스로 AWS Organizations에 있는 계정과 애플리케이션 간에서 방화벽 규칙을 구성하고 중앙 관리할 수 있게 해줍니다. AWS Organizations에 통합되어 있기 때문에, AWS WAF 규칙, AWS Shield Advanced 보호, 보안 그룹, AWS Network Firewall 규칙, Amazon Route 53 Resolver와 DNS 방화벽 규칙을 활성화할 수 있습니다.(4)
1.AWS GuardDuty
2.AWS Shield
3.Amazon Macie
4.AWS KMS
Amazon Macie는 완전 관리형 데이터 보안 서비스로, 머신 러닝을 사용해 S3 버킷 내에 저장된 민감한 데이터를 발견하고 보호합니다. 이는 암호화되지 않은 버킷의 목록, 공용으로 액세스 가능한 버킷 및 다른 AWS 계정과 공유된 버킷을 포함한 S3 버킷의 인벤토리를 자동으로 제공합니다. 이를 사용하면, 개인 식별 정보(PII)와 같이 민감한 데이터를 식별해 경고해 줍니다.(3)
1.Aurora 클라이언트 측 암호화 및 KMS 멀티 리전 키 사용
2.Lambda 클라이언트 측 암호화 및 KMS 멀티 리전 키 사용
3.Aurora 클라이언트 측 암호화 및 CloudHSM 사용
4.Lambda 클라이언트 측 암호화 및 CloudHSM 사용
1
1.지원하지 않는 기능이다.
2.AWS에 복제 프로세스를 시작해 달라는 지원 티켓을 등록해야 한다.
3.S3 복제 서비스에서 소스 KMS키 Kms:Decrypt와 대상 KMS키 Kms:Encrypt를 모두 사용할 수 있도록 권한을 설정해야 한다.
4.소스 KMS 키와 대상 KMS 키가 동일해야 한다.
- SSE-KMS로 암호화된 객체의 경우 옵션을 활성화해야 한다.
- 대상 버킷 내에서 객체를 암호화할 KMS 키를 지정
- 대상 키를 위한 KMS 키 정책을 조정
- 소스 KMS 키에 대해 kms:Decrypt 및 대상 KMS 키에 대해 kms:Encrypt를 사용하는 IAM 역할이 필요
- KMS 스로틀링 오류가 발생할 수 있으며, 이 경우 서비스 할당량을 늘리도록 요청(3)
1.ACM을 외부 인증서 발급 기관인 LetsEncrypt에 연결해 알림을 보내도록 설정한다.
2.ACM에서 일일 만료 이벤트에 대한 EventBridge를 구성하여 이메일로 SNS 알림을 보내도록 한다.
3.ACM에서 월별 만료 이벤트에 대한 EventBridge를 구성하여 이메일로 SNS 알림을 보내도록 한다.
4.ACM에서 일일 만료 이벤트에 대한 CloudWatch Alarms 구성하여 이메일로 SNS 알림을 보내도록 한다.
2
1.us-east-1
2.us-west-2
3.ap-southeast-1
4.us-east-1와 us-west-2 모두 가능하다.
엣지 최적화 API Gateway는 배후에서 AWS가 관리하는 사용자 지정 CloudFront 배포를 사용하여 CloudFront 엣지 로케이션을 거쳐 전 세계로 요청을 라우팅하기 때문에 ACM 인증서는 us-east-1 리전에 생성해야 합니다.(1)
1.AWS GuardDuty
2.AWS Shield
3.Amazon Inspector
4.AWS Firewall Manager
4
1.10.0.4.0
to 10.0.4.15
2.10.0.4.0
to 10.0.32.0
3.10.0.4.0
to 10.0.4.28
4.10.0.0.0
to 10.0.16.0
/28은16 IP(=2^(32-28) = 2^4)를 의미하는 것으로, 마지막 숫자만 변경할 수 있습니다.(1)
1.172.16.0.0/12
2.172.16.0.0/16
3.10.0.16.0/16
4.192.168.4.0/18
CIDR이 겹쳐서는 안 되며, AWS 내 최대 CIDR의 크기는 /16입니다.(2)
1./28
2./27
3./26
4./25
완벽한 크기입니다, 64 IP입니다.(3)
1.EC2 인스턴스, 서브넷
2.서브넷, EC2 인스턴스
1
1.라우팅 테이블에 항목이 누락됨
2.EC2 인스턴스에 공용 IP가 없음
3.보안 그룹이 들어오는 트래픽을 허용하지 않음
4.NACL이 나가는 네트워크 트래픽을 허용하지 않음
보안 그룹은 상태를 유지하기 때문에, 트래픽이 나갈 수 있다면 다시 들어갈 수도 있습니다.(3)
1.소스/목적지 확인 플래그 오프를 가진 NAT 인스턴스
2.송신 전용 인터넷 게이트웨이
3.NAT Gateway
AWS의 관리형 NAT 인스턴스, 높은 대역폭과 고가용성을 제공하며 관리할 필요가 없음(3)
1.NACL 확인하기
2.VPC B의 라우팅 테이블 확인하기
3.보안 그룹에 연결된 EC2 인스턴스 확인하기
4.DNS Resolution 활성화 여부 확인하기
라우팅 테이블은 피어링이 된 두 VPC 모두에 업데이트되어야 합니다.(2)
1.VPC 피어링 활성화하기
2.고객 게이트웨이 사용하기
3.Direct Connect Gateway
4.NAT Gateway 설정하기
이는 Direct Connect Gateway의 주요 사용 사례입니다.(3)
1.Amazon S3 및 Amazon SQS
2.Amazon SQS 및 Amazon DynamoDB
3.Amazon S3 및 Amazon DynamoDB
이 두 개의 서비스는 VPC 게이트웨이 엔드 포인트를 가지며(기억해 두세요), 이들을 제외한 나머지는 모두 인터페이스 엔드 포인트를 가집니다(Private Link에 의해 구동, 즉, 사설 IP).
1.10.0.0.1
2.10.0.0.2
3.10.0.0.3
4.10.0.0.4
CIDR 10.0.0.0/24로 서브넷을 생성할 경우, 10.0.0.0 (네트워크 주소), 10.0.0.1 (VPC 라우터), 10.0.0.2 (DNS 서버), 10.0.0.3 (예약) 및 10.0.0.255 (브로드캐스트 주소)는 모두 예약됩니다. 이중에서 10.0.0.4부터 사용 가능한 IP 주소가 할당됩니다.(4)
1.VPC 피어링은 전이적 피어링을 지원하므로 2개의 VPC 피어링 연결(AB,BC)을 설정해야 합니다.
2.3개의 VPC 피어링 연결 설정(AB,AC,BC)
2
1.VPC Flow 로그 활성화
2.VPC 트래픽 미러링 활성화
3.CloudWatch 트래픽 로그 활성화
VPC Flow Logs는 VPC 기능으로, VPC에서 네트워크 인터페이스로 드나드는 IP 트래픽에 대한 정보를 포착할 수 있게 해줍니다.
1.전용 Dedicated
2.호스팅 Hosted
- Dedicated Direct Connect 연결은 1Gbps와 10Gbps를 지원합니다.
- Hosted Direct Connect 연결은 50Mbps와 500Mbps를 지원하며, 최대 10Gbps까지 지원합니다.(2)
1.고객 게이트웨이와 NAT Gateway
2.인터넷 게이트웨이와 고객 게이트웨이
3.가상 프라이빗 게이트웨이와 인터넷 게이트웨이
4.가상 프라이빗 게이트웨이와 고객 게이트웨이
- 가상 프라이빗 게이트웨이 (Virtual Private Gateway, VGW)
- VPN 연결에서 AWS 측에 있는 VPN 접선기 (concentrator)
- VWG는 Site-to-Site VPN 연결을 생성하려는 VPC에 연결되고 생성된다.
- ASN (Autonomous System Number, 자율 시스템 번호)를 지정할 수 있다.
- 고객 게이트웨이 (Customer Gateway, CGW)
- VPN 연결의 고객 측에 위치한 소프트웨어 또는 물리적 장치(4)
1.VPC 피어링
2.AWS VPN 클라우드 허브
3.Direct Connect
4.AWS PrivateLink
AWS VPN CloudHub는 AWS VPN을 통한 다수 사이트 간의 안전한 통신을 가능하게 해줍니다. 이는 VPC와 함께, 또는 VPC 없이 사용할 수 있는 단순한 허브 및 스포크 모델로 운용됩니다.(2)
1.사이트 대 사이트 VPN
2.AWS PrivateLink
3.AWS Direct Connect
4.Amazon EventBridge
3
1.참
2.거짓
1
1.가상 프라이빗 게이트웨이(Virtual Private Gateway)를 두 개 사용한다.
2.Direct Connect 게이트웨이를 사용한다.
3.전송 게이트웨이(Transit Gateway)를 사용한다.
3
1.VPC가 IPv6 모드에서만 동작하도록 변경한다.
2.VPC가 IPv4 모드에서만 동작하도록 변경한다.
3.VPC에 IPv4 CIDR을 하나 더 추가한다.
3
1.회사의 퍼블릭 CIDR에서 80번 포트로 들어오는 트래픽만 허용한다.
2.회사의 퍼블릭 CIDR에서 22번 포트로 들어오는 트래픽만 허용한다.
3.회사의 프라이빗 CIDR에서 22번 포트로 들어오는 트래픽만 허용한다.
4.회사의 프라이빗 CIDR에서 80번 포트로 들어오는 트래픽만 허용한다.
- 배스천 호스트의 보안 그룹은 인터넷에서 제한된 CIDR(예: 회사의 공용 CIDR)로부터 포트 22로의 인바운드 연결을 허용해야 한다.
- 배스천 호스트의 보안 그룹은 반드시 인터넷 액세스를 허용해야 한다.
- 사용 가능한 방법이지만, 스케일링이 잘 이루어지지 않으며 VPC 피어링 연결 때문에 광역 네트워크가 노출될 겁니다.(2)
1.동일한 AWS 리전에 또 다른 Direct Connect 연결을 구성한다.
2.다른 AWS 리전에 또 다른 Direct Connect 연결을 구성한다.
3.Site-to-Site VPN 연결을 백업으로 구성한다.
- Direct Connect 연결에 문제가 발생했을 때 Direct Connect로 보조 연결을 할 수 있다. 하지만 이는 비용이 상당히 많이 든다.
- Site-to-Site VPN을 백업 연결로 두어 기본 연결에 문제가 발생했을 때, S2S VPN을 통해 퍼블릭 인터넷에 연결할 수 있으므로 안정성이 높아진다. (퍼블릭 인터넷에 언제나 연결되어있을 것이기 때문)(3)3
1.AWS Network Firewall
2.Amazon Guard Duty
3.Amazon Inspector
4.Amazon Shield
1
1.소스 주소 0.0.0.0/0에서 80 포트에 대한 인바운드 규칙을 추가한다.
2.소스 주소 192.168.0.0/18에서 80 포트에 대한 인바운드 규칙을 추가한다.
3.소스를 ALB 보안 그룹으로 지정하고 80포트에 대한 인바운드 규칙을 추가한다.
4.ALB에 SSL 인증서를 로드한다.
이것이 ALB에게만 EC2 인스턴스 접속을 허용하는 가장 안전한 방법입니다. 규칙에서 보안 그룹이 참조하는 것은 아주 강력한 규칙이며 이를 활용한 시험 문제가 다수 출제됩니다. 따라서 이와 관련된 개념을 완벽히 숙지하시기 바랍니다.(3)
1.백업 및 복구
2.파일럿 라이트
3.Warm Standby
4.멀티 사이트
2
1.백업 및 복원 계획
2.파일럿 라이트
3.Warm Standby
4.Multi-Site
매우 낮은 RTO (몇 분, 몇 초 정도) - 매우 비쌈(4)
1.백업 및 복구
2.파일럿 라이트
3.Warm Standby
4.멀티 사이트
즉, 백업 및 복구는 아주 쉽고 비용이 저렴한 대신 RPO와 RTO가 높음(1)
1.백업 및 복구
2.파일럿 라이트
3.Warm Standby
4.멀티 사이트
- 시스템 전체를 실행하되 최소한의 규모로 가동해서 대기하는 방법
- 재해 발생 시 프로덕션 로드에 맞게 확장할 수 있음(3)
1.데이터베이스 스키마를 변환하기 위해 AWS 스키마 변환 도구(AWS SCT)을 사용한 후, AWS 데이터베이스 이전 서비스(AWS DMS)를 사용해 데이터를 이전
2.데이터베이스 스키마를 변환하기 위해 AWS 데이터베이스 이전 서비스(AWS DMS)를 사용한 후, AWS 스키마 변환 도구(AWS SCT)를 사용해 데이터를 이전
- AWS SCT는 데이터베이스 스키마를 변환하는 데 사용되며, Oracle 스키마를 Amazon Aurora 호환 스키마로 변환할 수 있습니다.
- AWS DMS를 사용하여 데이터를 이전합니다. AWS DMS는 데이터베이스 간의 실시간 데이터 이전을 지원하므로, Aurora로의 데이터 이전에 사용하기에 적합합니다.(1)
1.Amazon S3
2.Amazon EBS
3.Amazon EFS
4.Windows 파일 서버 용 Amazon FSx
- azon S3 (Glacier를 포함한 모든 스토리지 클래스)
- azon EFS
- azon FSx (Windows, Lustre, NetApp, OpenZFS 등)(2)
1.Amazon S3
2.AWS Storage Gateway
3.AWS 백업
4.EC2 스냅샷
AWS 백업을 사용하면 AWS 서비스 전반에 걸친 데이터 보호를 중앙 집중화하고 자동화할 수 있습니다. 이는 데이터 보호를 위한 규정 준수, 혹은 기업의 정책을 지원하는 데에 도움이 됩니다.
1.AWS Database Migration Service
2.AWS Application Migration Service
3.AWS Backup
4.AWS Schema Conversion Tool
MGN은 애플리케이션을 AWS로 간편하게 마이그레이션하는 Lift-and-shift (리호스팅) 솔루션(2)
1.AWS의 VMware Cloud
2.AWS DataSync
3.AWS Application Migration Service
4.AWS Application Discovery Service
VMware Cloud on AWS는 AWS와 VMware의 협력을 통해 개발되었으며, 고객은 기존의 VMware 환경과 동일한 도구와 프로세스를 유지하면서 AWS의 유연성과 확장성을 활용할 수 있다.(1)
1.지원하지 않는 기능이므로 마이그레이션을 요청하는 AWS 지원 티켓을 등록한다.
2.MySQL용 RDS에서 데이터베이스 덤프를 생성해 S3 버킷에 저장하고 MySQL용 Aurora에서 복원한다.
3.MySQL용 Aurora로 바로 마이그레이션할 수 없으므로 데이터를 수동으로 삽입하는 커스텀 애플리케이션을 만들어야 한다.
4.MySQL용 RDS에서 스냅샷을 생성하고 MySQL용 Aurora에서 복원한다.
4
1.Amazon S3 수명 주기 정책
2.AWS DataSync
3.AWS Backup
4.Amazon Glacier
- 완전 관리형 서비스
- AWS 서비스 간의 백업을 중점적으로 관리하고 자동화할 수 있게 도와줌
- 사용자 지정 스크립트나 매뉴얼을 작성할 필요가 없음(3)
1.S3 이벤트
2.SNS 주제
3.Lambda 함수
Lambda 함수의 호출은 ‘비동기적'이기 때문에, DLQ를 Lambda 함수 측에 설정해야 합니다.(3)
1.CloudFront
2.AWS WAF
3.AWS Shield
4.ALB 보안 그룹
5.EC2 보안 그룹
6.NACL
2
1.Elastic Fabric Adapter
2.Elastic Network Interface
3.Elastic Network Adapter
4.FSx for Lustre
Elastic Fabric Adapter는 고성능 컴퓨팅 애플리케이션에서 저지연 및 고대역폭 네트워크 통신을 제공하는 네트워크 어댑터입니다.(1)
1.AWS Trusted Advisor
2.AWS CloudTrail
3.AWS Identity and Access Management(AWS IAM)
4.AWS CloudFormation
AWS Trusted Advisor는 AWS의 모범 사례를 따를 수 있도록 권장 사항을 제공해 줍니다. 이는 검사를 통해 계정을 평가합니다. 이러한 검사는 AWS 인프라를 최적화하고 보안 및 성능의 향상과 비용 절감, 서비스 할당량을 모니터링하기 위한 방법을 식별해 줍니다.(1)