- 버전 관리를 활성화한 상태에서, S3 버킷 상의 파일을 삭제에 각별한 주의를 기울이려 합니다. 실수로 영구 삭제를 하는 일이 없도록 하려면 어떻게 해야 할까요 ?
- A. 버킷 정책 사용
B. MFA 삭제 활성화
- C. 파일 암호화
- D. 버전 관리 비활성화
✅ MFA 삭제는 사용자들이 S3 객체를 삭제하기 전에 MFA 코드를 사용하도록 강제합니다. 이는 실수로 영구 삭제를 하는 일이 없도록 보안을 한 층 더 더해줍니다.
- S3 버킷에 있는 모든 파일이 기본으로 암호화 되었으면 합니다. 이를 위한 최적의 방법은 무엇인가요 ?
- A. HTTPS 연결을 강제하는 버킷 정책 사용
B. 기본 암호화 활성화하기
- C. 버전 관리 비활성화하기
- 일부 직원들이 액세스 권한이 없는 S3 버킷 내에 있는 파일에 액세스를 시도한 것으로 의심되는 상황입니다. 직원들 모르게 이를 확인하기 위해서는 어떤 방법을 사용해야 할까요 ?
A. S3 액세스 로그를 활성화하고 Athena를 사용해 로그를 분석
- B. 직원들의 IAM 정책을 제한하고 CloudTrail 로그를 확인
- 버킷 정책 사용
- S3 버킷의 콘텐츠를 다른 AWS 리전에서도 아무 제한 없이 사용할 수 있었으면 합니다. 이는 팀이 최소 비용 및 최소 지연 시간으로 데이터 분석을 수행할 수 있게 해줄 것입니다. 이 경우, 다음 중 어떤 S3 기능을 사용해야 할까요 ?
- A. Amazon CloudFront 배포
- B. S3 버전 관리
- C. S3 정적 웹 사이트 호스팅
D. S3 복제
✅ S3 복제를 사용하면 S3 버킷에서 동일한 리전 또는 다른 리전으로 데이터를 복제할 수 있습니다.
- 3개의 S3 버킷이 있습니다. 소스 버킷 A, 그리고 다른 AWS 리전에 있는 두 개의 목적지 버킷인 B와 C가 그것입니다. 버킷 A에서 버킷 B와 C 양측 모두로 객체를 복제하려면 어떤 방법을 사용해야 할까요 ?
A. 버킷 A에서 버킷 B로의 복제를 구성한 뒤 버킷 A에서 버킷 C로의 복제를 구성
- B. 버킷 A에서 버킷 B로의 복제를 구성한 뒤 버킷 B에서 버킷 C로의 복제를 구성
- C. 버킷 A에서 버킷 C로의 복제를 구성한 뒤 버킷 C에서 버킷 A로의 복제를 구성
- 다음 중 Glacier 딥 아카이브 회수 모드에 해당하지 않는 것을 고르세요.
A. Expedited (1 - 5분)
- B. Standard (12시간)
- C. Bulk (48시간)
- 어떤 방법을 사용해야 S3 버킷으로 객체가 업로드되었음을 알 수 있을까요 ?
- A. S3 Select
- B. S3 액세스 로그
C. S3 이벤트 알림
- D. S3 분석
- 점점 늘어나고 있는 연결된 사용자들의 목록에 임시 URL을 제공하여, 이들이 특정 로케이션에서 S3 버킷으로 파일 업로드를 수행할 수 있도록 허가하려 합니다. 무엇을 사용해야 할까요 ?
- A. S3 CORS
B. S3 미리 서명된 URL
- C. S3 버킷 정책
- D. IAM 사용자
✅ S3 버킷 정책은 동적 목록의 연결된 사용자들에게 임시적인 액세스를 제공하는 데에는 도움이 되지 않습니다. S3 presigned URL은 S3 버킷에서 특정 조치를 취할 수 있도록 제한된 시간 동안의 액세스를 허용하는 임시 URL입니다.
- S3 버전 관리가 활성화된 S3 버킷이 있습니다. 이 S3 버킷은 여러 객체를 지니고 있으며, 비용 절감을 위해 오래된 버전을 삭제하려 합니다. 오래된 객체 버전의 삭제를 자동화하기 위해서 사용할 수 있는 최신의 방법은 무엇인가요 ?
- A. S3 수명 주기 규칙 - 만료조치
B. S3 수명 주기 규칙 - 전환조치
- C. S3 액세스 로그
- 서로 다른 티어 간의 S3 객체 전환을 자동화하기 위해서는 어떻게 해야 할까요 ?
- A. AWS Lambda
- B. CloudWatch Events
C. S3 수명 주기 규칙
- 다음 중 Glacier 회수 모드에 해당하지 않는 것을 고르세요.
A. Instant (10초)
- B. Expedited (1 - 5분)
- C. Standard (3 - 5시간)
- D. Bulk (5 - 12시간)
- 멀티파트 업로드를 사용해 S3 버킷으로 크기가 큰 파일을 업로드하던 도중, 네트워크 문제로 인해 완료되지 않은 부분의 상당량이 S3 버킷에 저장되었습니다. 완료되지 않은 부분은 불필요하며, 여러분의 비용을 소모합니다. 완료되지 않은 부분을 삭제하기 위해 사용할 수 있는 최적의 접근법은 무엇인가요 ?
- A. AWS Lambda로 오래된/완료되지 않은 각 부분을 루프하여 삭제
- B. AWS 지원 센터에 오래된/완료되지 않은 부분을 삭제해 줄 것을 요청
C. S3 수명 주기 정책을 사용해 오래된/완료되지 않은 부분의 삭제를 자동화
- 다음의 서버리스 데이터 분석 서비스들 중, S3에 있는 데이터를 쿼리하는 데에 사용할 수 있는 것은 무엇인가요 ?
- A. S3 분석
B. Athena
- C. Redshift
- D. RDS
- S3 수명 주기 규칙에 대한 추천 사항을 찾고 있습니다. 서로 다른 스토리지 계층 간의 객체 이동에 필요한 최적의 일수는 어떻게 분석할 수 있을까요 ?
- A. S3 인벤토리
B. S3 분석
- C. S3 수명 주기 규칙 관리자
- Amazon RDS PostgreSQL을 사용하여 S3에 파일의 인덱스를 구축하려 합니다. 인덱스 구축을 위해서는 파일 콘텐츠 자체의 메타데이터를 포함하고 있는 S3에 있는 각 객체의 첫 250바이트를 읽는 작업이 필수적입니다. S3 버킷에는 총 50TB에 달하는 100,000개 이상의 파일이 포함되어 있습니다. 이 경우 인덱스를 구축하기 위한 효율적인 방법은 무엇일까요 ?
- A. RDS 가져오기 기능을 사용해 S3로부터 PostgreSQL로 데이터를 로드하고, SQL 쿼리르 실행해 인덱스 구축하기
- B. S3 버킷을 트래버스하고, 파일을 하나씩 읽어 들여 첫 250바이트를 추출한 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
C. S3 버킷을 트래버스하고, 첫 250바이트에 대한 바이트 범위 패치를 발행한 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
- D. S3 버킷을 트래버스하고, S3 Select를 사용해 첫 250바이트를 얻은 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
- 여러분의 기업은 규정 준수를 위해 데이터베이스의 백업을 4년 동안 보관해야 한다는 정책을 가지고 있습니다. 이를 제거하는 것은 불가능해야 합니다. 어떤 방법을 추천할 수 있을까요 ?
A. Vault 잠금 정책을 가진 Glacier Vaults
- B. 제한 Linux 권한을 가진 EFS 네트워크 드라이브
- C. 버킷 정책을 가진 S3
- S3 버킷으로 업로드하려는 대규모의 데이터셋이 온프레미스로 저장되어 있습니다. 이 데이터셋은 10GB 파일로 분할되어 있습니다. 대역폭은 좋으나, 인터넷 연결은 불안정합니다. 이 경우, 데이터셋을 S3에 업로드하는 프로세스를 빠르게, 그리고 인터넷 연결 문제 없이 처리하려면 어떤 방법을 사용해야 할까요 ?
- A. 멂티파트 업로드만 사용
- B. S3 Select와 S3 전송 가속화 사용
C. S3 멀티파트 업로드와 S3 전송 가속화 사용
- S3에 저장된 데이터셋의 서브셋을 CSV 형식으로 회수하려 합니다. 컴퓨팅 및 네트워크 비용 최소화를 위해 한 달 분의 데이터와 10개 열 중 3개의 열만 회수하려고 합니다. 무엇을 사용해야 할까요 ?
- A. S3 분석
- B. S3 액세스 로그
C. S3 Select
- D. S3 인벤토리