Amazon S3 및 Athena

GonnabeAlright·2022년 6월 15일
0
post-thumbnail
  1. 버전 관리를 활성화한 상태에서, S3 버킷 상의 파일을 삭제에 각별한 주의를 기울이려 합니다. 실수로 영구 삭제를 하는 일이 없도록 하려면 어떻게 해야 할까요 ?
  • A. 버킷 정책 사용
  • B. MFA 삭제 활성화
  • C. 파일 암호화
  • D. 버전 관리 비활성화

✅ MFA 삭제는 사용자들이 S3 객체를 삭제하기 전에 MFA 코드를 사용하도록 강제합니다. 이는 실수로 영구 삭제를 하는 일이 없도록 보안을 한 층 더 더해줍니다.

  1. S3 버킷에 있는 모든 파일이 기본으로 암호화 되었으면 합니다. 이를 위한 최적의 방법은 무엇인가요 ?
  • A. HTTPS 연결을 강제하는 버킷 정책 사용
  • B. 기본 암호화 활성화하기
  • C. 버전 관리 비활성화하기
  1. 일부 직원들이 액세스 권한이 없는 S3 버킷 내에 있는 파일에 액세스를 시도한 것으로 의심되는 상황입니다. 직원들 모르게 이를 확인하기 위해서는 어떤 방법을 사용해야 할까요 ?
  • A. S3 액세스 로그를 활성화하고 Athena를 사용해 로그를 분석
  • B. 직원들의 IAM 정책을 제한하고 CloudTrail 로그를 확인
  • 버킷 정책 사용
  1. S3 버킷의 콘텐츠를 다른 AWS 리전에서도 아무 제한 없이 사용할 수 있었으면 합니다. 이는 팀이 최소 비용 및 최소 지연 시간으로 데이터 분석을 수행할 수 있게 해줄 것입니다. 이 경우, 다음 중 어떤 S3 기능을 사용해야 할까요 ?
  • A. Amazon CloudFront 배포
  • B. S3 버전 관리
  • C. S3 정적 웹 사이트 호스팅
  • D. S3 복제

✅ S3 복제를 사용하면 S3 버킷에서 동일한 리전 또는 다른 리전으로 데이터를 복제할 수 있습니다.

  1. 3개의 S3 버킷이 있습니다. 소스 버킷 A, 그리고 다른 AWS 리전에 있는 두 개의 목적지 버킷인 B와 C가 그것입니다. 버킷 A에서 버킷 B와 C 양측 모두로 객체를 복제하려면 어떤 방법을 사용해야 할까요 ?
  • A. 버킷 A에서 버킷 B로의 복제를 구성한 뒤 버킷 A에서 버킷 C로의 복제를 구성
  • B. 버킷 A에서 버킷 B로의 복제를 구성한 뒤 버킷 B에서 버킷 C로의 복제를 구성
  • C. 버킷 A에서 버킷 C로의 복제를 구성한 뒤 버킷 C에서 버킷 A로의 복제를 구성
  1. 다음 중 Glacier 딥 아카이브 회수 모드에 해당하지 않는 것을 고르세요.
  • A. Expedited (1 - 5분)
  • B. Standard (12시간)
  • C. Bulk (48시간)
  1. 어떤 방법을 사용해야 S3 버킷으로 객체가 업로드되었음을 알 수 있을까요 ?
  • A. S3 Select
  • B. S3 액세스 로그
  • C. S3 이벤트 알림
  • D. S3 분석
  1. 점점 늘어나고 있는 연결된 사용자들의 목록에 임시 URL을 제공하여, 이들이 특정 로케이션에서 S3 버킷으로 파일 업로드를 수행할 수 있도록 허가하려 합니다. 무엇을 사용해야 할까요 ?
  • A. S3 CORS
  • B. S3 미리 서명된 URL
  • C. S3 버킷 정책
  • D. IAM 사용자

✅ S3 버킷 정책은 동적 목록의 연결된 사용자들에게 임시적인 액세스를 제공하는 데에는 도움이 되지 않습니다. S3 presigned URL은 S3 버킷에서 특정 조치를 취할 수 있도록 제한된 시간 동안의 액세스를 허용하는 임시 URL입니다.

  1. S3 버전 관리가 활성화된 S3 버킷이 있습니다. 이 S3 버킷은 여러 객체를 지니고 있으며, 비용 절감을 위해 오래된 버전을 삭제하려 합니다. 오래된 객체 버전의 삭제를 자동화하기 위해서 사용할 수 있는 최신의 방법은 무엇인가요 ?
  • A. S3 수명 주기 규칙 - 만료조치
  • B. S3 수명 주기 규칙 - 전환조치
  • C. S3 액세스 로그
  1. 서로 다른 티어 간의 S3 객체 전환을 자동화하기 위해서는 어떻게 해야 할까요 ?
  • A. AWS Lambda
  • B. CloudWatch Events
  • C. S3 수명 주기 규칙
  1. 다음 중 Glacier 회수 모드에 해당하지 않는 것을 고르세요.
  • A. Instant (10초)
  • B. Expedited (1 - 5분)
  • C. Standard (3 - 5시간)
  • D. Bulk (5 - 12시간)
  1. 멀티파트 업로드를 사용해 S3 버킷으로 크기가 큰 파일을 업로드하던 도중, 네트워크 문제로 인해 완료되지 않은 부분의 상당량이 S3 버킷에 저장되었습니다. 완료되지 않은 부분은 불필요하며, 여러분의 비용을 소모합니다. 완료되지 않은 부분을 삭제하기 위해 사용할 수 있는 최적의 접근법은 무엇인가요 ?
  • A. AWS Lambda로 오래된/완료되지 않은 각 부분을 루프하여 삭제
  • B. AWS 지원 센터에 오래된/완료되지 않은 부분을 삭제해 줄 것을 요청
  • C. S3 수명 주기 정책을 사용해 오래된/완료되지 않은 부분의 삭제를 자동화
  1. 다음의 서버리스 데이터 분석 서비스들 중, S3에 있는 데이터를 쿼리하는 데에 사용할 수 있는 것은 무엇인가요 ?
  • A. S3 분석
  • B. Athena
  • C. Redshift
  • D. RDS
  1. S3 수명 주기 규칙에 대한 추천 사항을 찾고 있습니다. 서로 다른 스토리지 계층 간의 객체 이동에 필요한 최적의 일수는 어떻게 분석할 수 있을까요 ?
  • A. S3 인벤토리
  • B. S3 분석
  • C. S3 수명 주기 규칙 관리자
  1. Amazon RDS PostgreSQL을 사용하여 S3에 파일의 인덱스를 구축하려 합니다. 인덱스 구축을 위해서는 파일 콘텐츠 자체의 메타데이터를 포함하고 있는 S3에 있는 각 객체의 첫 250바이트를 읽는 작업이 필수적입니다. S3 버킷에는 총 50TB에 달하는 100,000개 이상의 파일이 포함되어 있습니다. 이 경우 인덱스를 구축하기 위한 효율적인 방법은 무엇일까요 ?
  • A. RDS 가져오기 기능을 사용해 S3로부터 PostgreSQL로 데이터를 로드하고, SQL 쿼리르 실행해 인덱스 구축하기
  • B. S3 버킷을 트래버스하고, 파일을 하나씩 읽어 들여 첫 250바이트를 추출한 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
  • C. S3 버킷을 트래버스하고, 첫 250바이트에 대한 바이트 범위 패치를 발행한 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
  • D. S3 버킷을 트래버스하고, S3 Select를 사용해 첫 250바이트를 얻은 후, RDS에 해당 정보를 저장하는 애플리케이션 생성
  1. 여러분의 기업은 규정 준수를 위해 데이터베이스의 백업을 4년 동안 보관해야 한다는 정책을 가지고 있습니다. 이를 제거하는 것은 불가능해야 합니다. 어떤 방법을 추천할 수 있을까요 ?
  • A. Vault 잠금 정책을 가진 Glacier Vaults
  • B. 제한 Linux 권한을 가진 EFS 네트워크 드라이브
  • C. 버킷 정책을 가진 S3
  1. S3 버킷으로 업로드하려는 대규모의 데이터셋이 온프레미스로 저장되어 있습니다. 이 데이터셋은 10GB 파일로 분할되어 있습니다. 대역폭은 좋으나, 인터넷 연결은 불안정합니다. 이 경우, 데이터셋을 S3에 업로드하는 프로세스를 빠르게, 그리고 인터넷 연결 문제 없이 처리하려면 어떤 방법을 사용해야 할까요 ?
  • A. 멂티파트 업로드만 사용
  • B. S3 Select와 S3 전송 가속화 사용
  • C. S3 멀티파트 업로드와 S3 전송 가속화 사용
  1. S3에 저장된 데이터셋의 서브셋을 CSV 형식으로 회수하려 합니다. 컴퓨팅 및 네트워크 비용 최소화를 위해 한 달 분의 데이터와 10개 열 중 3개의 열만 회수하려고 합니다. 무엇을 사용해야 할까요 ?
  • A. S3 분석
  • B. S3 액세스 로그
  • C. S3 Select
  • D. S3 인벤토리

0개의 댓글