SAA - Question #1 - 글로벌 수집 데이터 단일 S3 집계

도은호·2025년 10월 2일
0

AWS SAA

목록 보기
2/46

문제

회사는 여러 대륙에 걸친 도시에서 온도, 습도, 대기압 데이터를 수집합니다. 회사가 각 사이트에서 매일 수집하는 데이터의 평균 볼륨은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.
회사는 전 세계의 모든 사이트 데이터를 가능한 한 빨리 단일 Amazon S3 버킷으로 집계하고자 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다.
다음 중 요구 사항을 충족하는 솔루션은 무엇입니까?

A. 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화한다. 멀티파트 업로드를 사용하여 각 사이트에서 대상 S3 버킷으로 직접 업로드한다. (Most Voted 원문 표기)
B. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드한다. S3 교차 리전 복제(CRR) 를 사용하여 대상 S3 버킷으로 객체를 복사한다. 그런 다음 원본 S3 버킷에서 데이터를 제거한다.
C. AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송한다. S3 교차 리전 복제를 사용하여 대상 S3 버킷으로 객체를 복사한다.
D. 각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드한다. Amazon EBS 볼륨에 데이터를 저장한다. 정기적으로 EBS 스냅샷을 생성하여 대상 S3 버킷이 있는 리전에 복사한다. 해당 리전에서 EBS 볼륨을 복원한다.


정답

A. S3 Transfer Acceleration + 멀티파트 업로드로 대상 버킷에 직접 업로드


해설

  • 가장 빠른 집계 경로: S3 Transfer Acceleration(TA) 는 AWS의 글로벌 엣지 네트워크를 활용해 대륙 간 업로드 지연을 크게 줄임. 전 세계 여러 사이트에서 단일 버킷으로 바로 보내기에 적합합니다.
  • 운영 복잡성 최소화: 버킷에서 TA만 한 번 활성화하면 끝. 각 사이트는 가속 엔드포인트로 멀티파트 업로드하면 되고, 중간 리전/버킷/인스턴스/장비 관리가 필요 없습니다.
  • 대용량 일일 업로드에 적합: 멀티파트 업로드는 병렬 전송과 부분 재시도가 가능해 500GB/일/사이트 규모도 안정적으로 처리합니다.

오답 분석

B. 가까운 리전 S3 → CRR

  • 비동기 복제 지연이 필연적이라 “가능한 한 빨리 단일 버킷 집계” 목표에 불리.
  • 각 사이트별 원본 버킷/복제 규칙/버전관리운영 복잡성이 증가.

C. Snowball Edge(매일 스케줄)

  • Snowball은 초기 대용량 이전이나 망이 느리거나 불안정할 때 유용. 여기선 고속 인터넷이 있으므로 과도하며, 매일 장비 발송/회수현실적인 운영 부담이 큼.

D. EC2/EBS/스냅샷 경유

  • 우회 경로가 장황하고 느림. 스냅샷은 내부적으로 S3를 사용하지만 S3 객체로의 즉시 집계가 아님. EC2/EBS 운영, 스냅샷 복사·복원까지 비용·복잡성·지연 모두 증가.

실무 체크리스트

  • 대상 버킷 Transfer Acceleration: Enabled
  • 업로드 시 가속 엔드포인트 사용: https://<bucket>.s3-accelerate.amazonaws.com
  • 멀티파트 업로드 + 병렬화 설정(파트 크기·동시 스레드 튜닝)
  • 체크섬/재시도 옵션으로 무결성 보장
  • TA 추가 요금 → 전송 시간 절감 효과와 비용 비교
profile
`•.¸¸.•´´¯`••._.• 🎀 𝒸𝓇𝒶𝓏𝓎 𝓅𝓈𝓎𝒸𝒽💞𝓅𝒶𝓉𝒽 🎀 •._.••`¯´´•.¸¸.•`

0개의 댓글