✅ 문제1
A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection.
The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must minimize operational complexity.
Which solution meets these requirements?
회사는 여러 대륙에 걸쳐 도시의 온도, 습도 및 대기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 데이터의 평균 볼륨은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.
이 회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하려고 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다. 어떤 솔루션이 요구 사항을 충족합니까?
A.
Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.
대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
B.
Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.
각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
C.
Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.
AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
D.
Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket. Restore the EBS volume in that Region.
각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
⭕ 정답 : A
📝 해설
📍Amazon S3 Transfer Acceleration(전송 가속화)
Amazon S3에 데이터를 업로드할 때 속도를 높이는 기능입니다. 이 기능은 사용자와 Amazon S3 버킷 간의 거리가 멀거나, 전 세계적으로 대량의 데이터를 빠르게 전송해야 할 때 유용합니다. AWS의 글로벌 엣지 로케이션 네트워크를 이용해 사용자 데이터를 가장 가까운 엣지 로케이션으로 먼저 전송하고, 그 다음 Amazon의 내부 네트워크를 통해 해당 S3 버킷으로 데이터를 빠르게 전달합니다.
주로 국제적인 데이터 전송, 대용량 미디어 파일 전송, 전 세계 사용자에게 콘텐츠를 제공할 때 유용합니다.
📍 Amazon S3 Transfer Acceleration 특징
- 속도 향상: 네트워크 지연 시간과 속도 제한을 줄여 데이터 전송 속도를 최대 300%까지 향상시킬 수 있습니다.
- 간편한 사용: S3 버킷 설정에서 Transfer Acceleration을 활성화하기만 하면 됩니다. 별도의 코드 변경이나 복잡한 설정이 필요하지 않습니다.
- 비용: 이 기능은 일반적인 S3 데이터 전송보다 비용이 더 들 수 있으므로, 큰 파일을 자주 옮기는 경우에 비용 대비 효과를 고려해야 합니다.
- 실시간 모니터링: AWS Management Console을 통해 Transfer Acceleration의 효과를 확인하고, 속도 향상을 실시간으로 모니터링할 수 있습니다.
📍 멀티파트 업로드
큰 파일을 여러 파트로 나누어 병렬로 업로드할 수 있게 해주는 기능입니다. 이 기능은 특히 큰 파일(최대 5TB)을 효율적으로 업로드하고, 네트워크 문제나 업로드 실패에 대응하기 위해 사용됩니다. 또한, 대용량 데이터 전송, 대역폭 최적화, 높은 신뢰성이 요구되는 업로드 상황에서 특히 중요합니다.
✅ 문제2
A company needs the ability to analyze the log files of its proprietary application. The logs are stored in JSON format in an Amazon S3 bucket. Queries will be simple and will run on-demand. A solutions architect needs to perform the analysis with minimal changes to the existing architecture.
What should the solutions architect do to meet these requirements with the LEAST amount of operational overhead?
회사는 독점 애플리케이션의 로그 파일을 분석할 수 있는 능력이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하고 주문형으로 실행됩니다. 솔루션 설계자는 기존 아키텍처에 대한 최소한의 변경으로 분석을 수행해야 합니다.
솔루션 설계자는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Use Amazon Redshift to load all the content into one place and run the SQL queries as needed.
Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행합니다.
B.
Use Amazon CloudWatch Logs to store the logs. Run SQL queries as needed from the Amazon CloudWatch console.
Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를
실행합니다.
C.
Use Amazon Athena directly with Amazon S3 to run the queries as needed.
Amazon S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행합니다.
D.
Use AWS Glue to catalog the logs. Use a transient Apache Spark cluster on Amazon EMR to run the SQL queries as needed.
AWS Glue를 사용하여 로그를 분류합니다. Amazon EMR에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다.
⭕ 정답 : C
📝 해설
📍 Amazon Athena
Amazon Athena는 AWS에서 제공하는 서버리스 쿼리 서비스로, Amazon S3에 저장된 데이터를 SQL을 사용하여 직접 쿼리할 수 있습니다. 이 서비스는 사용자가 별도의 인프라를 관리할 필요 없이 대규모 데이터셋을 빠르고 효율적으로 분석할 수 있도록 설계되었습니다.
본 문제에서는 JSON 포맷의 로그 데이터를 S3에 저장하고, 필요에 따라 즉시 Athena를 사용하여 쿼리를 실행할 수 있기 때문에, 복잡한 ETL 작업이나 데이터 파이프라인 구축 없이도 분석 요구 사항을 충족할 수 있습니다.
- 서버리스: Athena는 서버리스 아키텍처를 사용하여, 사용자는 서버를 설정하거나 관리할 필요 없이 데이터에 대한 쿼리를 실행할 수 있습니다. 이는 운영 오버헤드를 최소화하고 빠르게 분석 작업을 시작할 수 있게 해줍니다.
- SQL 기반: Athena는 ANSI SQL을 사용하여 쿼리를 작성하고 실행합니다. 이는 데이터베이스 관리자나 개발자가 이미 익숙한 언어를 통해 복잡한 분석 작업을 수행할 수 있게 해줍니다.
- 다양한 데이터 포맷 지원: Athena는 JSON, CSV, Parquet, ORC 등 다양한 데이터 포맷을 지원합니다. 이는 다양한 소스에서 수집된 데이터를 별도의 변환 없이 바로 분석할 수 있음을 의미합니다.
- 직접적인 S3 통합: Athena는 Amazon S3에 저장된 데이터를 직접 쿼리합니다. 별도의 데이터 이동이나 복사 과정 없이, S3에 저장된 원본 데이터를 바로 분석할 수 있습니다.
- 비용 효율적: Athena는 쿼리 실행 시 실제로 스캔한 데이터 양에 따라 요금이 부과됩니다. 이는 큰 데이터셋에서 작은 부분만을 쿼리할 경우 비용을 크게 절감할 수 있습니다.
- 통합 및 확장성: Athena는 AWS Glue와 통합되어 데이터 카탈로그 기능을 제공하며, QuickSight와 같은 다른 AWS 서비스와도 연동되어 데이터 시각화 및 대시보드 구성이 가능합니다.
✅ 문제3
A company uses AWS Organizations to manage multiple AWS accounts for different departments. The management account has an Amazon S3 bucket that contains project reports. The company wants to limit access to this S3 bucket to only users of accounts within the organization in AWS Organizations.
Which solution meets these requirements with the LEAST amount of operational overhead?
회사는 AWS Organizations를 사용하여 여러 부서의 여러 AWS 계정을 관리합니다. 관리 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations의 조직 내 계정 사용자로만 제한하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Add the aws PrincipalOrgID global condition key with a reference to the organization ID to the S3 bucket policy.
조직 ID에 대한 참조와 함께 aws PrincipalOrgID 글로벌 조건 키를 S3 버킷 정책에 추가합니다.
B.
Create an organizational unit (OU) for each department. Add the aws:PrincipalOrgPaths global condition key to the S3 bucket policy.
각 부서에 대한 조직 단위(OU)를 만듭니다. aws:PrincipalOrgPaths 전역 조건 키를 S3 버킷 정책에 추가합니다.
C.
Use AWS CloudTrail to monitor the CreateAccount, InviteAccountToOrganization, LeaveOrganization, and RemoveAccountFromOrganization events. Update the S3 bucket policy accordingly.
AWS CloudTrail을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization 및 RemoveAccountFromOrganization 이벤트를 모니터링합니다. 그에 따라 S3 버킷 정책을 업데이트합니다.
D.
Tag each user that needs access to the S3 bucket. Add the aws:PrincipalTag global condition key to the S3 bucket policy.
S3 버킷에 액세스해야 하는 각 사용자에 태그를 지정합니다. aws:PrincipalTag 전역 조건 키를 S3 버킷 정책에 추가합니다.
⭕ 정답 : A
📝 해설
📍 AWS Organization
AWS 계정을 중앙에서 관리하도록 도와주는 서비스로, 여러 계정을 조직으로 묶어 정책을 통해 접근 및 보안을 관리할 수 있습니다. 이를 통해 계정 간 리소스 공유, 비용 관리, 보안 정책 설정 등을 효율적으로 수행할 수 있습니다.
📍 aws:PrincipalOrgID 글로벌 조건 키
IAM 정책 또는 S3 버킷 정책에서 사용할 수 있는 조건 키로, 특정 AWS Organizations의 조직 ID와 연결된 AWS 계정의 사용자만 리소스에 접근할 수 있도록 제한하는 데 사용됩니다. 이 조건 키를 사용함으로써, 복잡한 사용자 관리나 접근 제어 리스트(ACL)를 별도로 설정하지 않고도 조직 내의 계정에 속한 사용자에게만 접근을 허용하는 정책을 손쉽게 구현할 수 있습니다.
📍 대표적인 조건 키
- 서비스별 조건 키: 각 AWS 서비스는 자체적인 조건 키를 제공합니다. 예를 들어, S3는 s3:prefix와 s3:max-keys 같은 조건 키를 제공하며, EC2는 ec2:InstanceType이나 ec2:Region 같은 키를 제공합니다.
- 공통 조건 키: 모든 AWS 서비스에서 공통적으로 사용할 수 있는 조건 키입니다. 예를 들어, aws:CurrentTime은 현재 시간을 기준으로 접근을 제어할 때 사용되며, aws:SourceIp는 요청의 IP 주소를 기준으로 접근을 제어하는 데 사용됩니다.
- 태그 기반 조건 키: AWS 리소스에 설정된 태그를 기반으로 접근 제어를 할 수 있는 조건 키입니다. 예를 들어, aws:RequestTag/tag-key를 사용하여 특정 태그가 있는 요청만을 허용하거나, aws:ResourceTag/tag-key를 사용하여 특정 태그가 붙은 리소스에 대한 접근을 제어할 수 있습니다.
✅ 문제4
An application runs on an Amazon EC2 instance in a VPC. The application processes logs that are stored in an Amazon S3 bucket. The EC2 instance needs to access the S3 bucket without connectivity to the internet.
Which solution will provide private network connectivity to Amazon S3?
애플리케이션은 VPC의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷 연결 없이 S3 버킷에 액세스해야 합니다.
Amazon S3에 대한 프라이빗 네트워크 연결을 제공하는 솔루션은 무엇입니까?
A.
Create a gateway VPC endpoint to the S3 bucket.
S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다.
B.
Stream the logs to Amazon CloudWatch Logs. Export the logs to the S3 bucket.
Amazon CloudWatch Logs로 로그를 스트리밍합니다. 로그를 S3 버킷으로 내보냅니다.
C.
Create an instance profile on Amazon EC2 to allow S3 access.
Amazon EC2에 인스턴스 프로파일을 생성하여 S3 액세스를 허용합니다.
*인스턴스 프로파일 : IAM 역할을 위한 컨테이너로서 인스턴스 시작 시 Amazon EC2 인스턴스에 역할 정보를 전달하는 데 사용됨.
D.
Create an Amazon API Gateway API with a private link to access the S3 endpoint.
S3 엔드포인트에 액세스하기 위한 프라이빗 링크가 있는 Amazon API Gateway API를 생성합니다.
⭕ 정답 : A
📝 해설
📍게이트웨이 VPC 엔드포인트
Amazon S3와 같은 AWS 서비스에 대한 프라이빗 네트워크 연결을 가능하게 하는 기능입니다. 이를 사용하면 VPC 내의 리소스가 인터넷을 거치지 않고 직접 AWS 서비스에 접근할 수 있습니다.
게이트웨이 VPC 엔드포인트는 VPC의 라우팅 테이블에 라우트를 추가하여 특정 IP 주소 범위로의 트래픽을 엔드포인트로 리디렉션합니다. 이렇게 하면 EC2 인스턴스 같은 VPC 내의 리소스가 S3와 같은 지원되는 서비스에 프라이빗하게 연결될 수 있습니다.
게이트웨이 엔드포인트를 사용하면 인터넷 게이트웨이, NAT 디바이스, VPN 연결 등의 별도 인프라 없이 AWS 서비스에 안전하고 효율적으로 접근할 수 있어, 비용과 관리 면에서 이점을 제공합니다.
- 프라이빗 연결: VPC와 S3 버킷 간의 트래픽이 AWS 네트워크 내부에서만 이루어지므로 보안이 강화됩니다.
- 간단한 설정: VPC 대시보드에서 엔드포인트를 생성하고, 필요한 라우트 테이블에 엔드포인트를 연결하기만 하면 됩니다.
- 비용 효율적: 추가 비용 없이 VPC 내에서 S3 서비스를 이용할 수 있으며, 인터넷 대역폭 비용이 절감됩니다.
- IAM 정책과의 통합: IAM 정책을 사용하여 엔드포인트에 대한 접근을 제어할 수 있습니다.
✅ 문제5
A company is hosting a web application on AWS using a single Amazon EC2 instance that stores user-uploaded documents in an Amazon EBS volume. For better scalability and availability, the company duplicated the architecture and created a second EC2 instance and EBS volume in another Availability Zone, placing both behind an Application Load Balancer. After completing this change, users reported that, each time they refreshed the website, they could see one subset of their documents or the other, but never all of the documents at the same time.
What should a solutions architect propose to ensure users see all of their documents at once?
회사는 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 더 나은 확장성과 가용성을 위해 이 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자는 웹 사이트를 새로 고칠 때마다 문서의 일부 또는 다른 하위 집합을 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했습니다.
솔루션 설계자는 사용자가 모든 문서를 한 번에 볼 수 있도록 무엇을 제안해야 합니까?
A.
Copy the data so both EBS volumes contain all the documents
두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다 .
B.
Configure the Application Load Balancer to direct a user to the server with the documents
사용자를 문서가 있는 서버로 안내하도록 Application Load Balancer 구성합니다.
C.
Copy the data from both EBS volumes to Amazon EFS. Modify the application to save new documents to Amazon EFS
두 EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. Amazon EFS에 새 문서를 저장하도록 애플리케이션을 수정합니다.
D.
Configure the Application Load Balancer to send the request to both servers. Return each document from the correct server
두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환합니다.
⭕ 정답 : C
📝 해설
📍 Amazon Elastic File System (EFS)
AWS에서 제공하는 관리형 파일 스토리지 서비스로, 여러 Amazon EC2 인스턴스에서 동시에 사용할 수 있는 고성능 파일 시스템을 제공합니다. EFS는 POSIX 호환 파일 시스템으로, 클라우드 환경에서 스케일 아웃이 가능해 대규모 병렬 액세스에 적합합니다.
- 확장성: 사용량에 따라 자동으로 확장되므로, 저장 공간을 미리 프로비저닝할 필요가 없습니다. 저장된 데이터와 I/O 요청이 증가함에 따라 성능이 동적으로 조절됩니다.
- 내구성 및 가용성: EFS는 여러 가용 영역(AZ)에 걸쳐 데이터를 저장하여 높은 내구성과 가용성을 제공합니다.
- 간편한 통합: Linux 기반의 EC2 인스턴스와 함께 NFS를 통해 손쉽게 마운트할 수 있으며, AWS Lambda와의 통합도 지원하여 서버리스 애플리케이션에서 파일 데이터에 접근할 수 있습니다.
- 성능 모드: 다양한 워크로드에 맞춰 '일반적인 성능 모드'와 '최대 I/O 성능 모드' 중 선택할 수 있어, 일반적인 엔터프라이즈 애플리케이션부터 높은 수준의 병렬 처리를 요구하는 애플리케이션까지 대응 가능합니다.
- 비용 효율적: 사용한 만큼만 요금을 지불하는 구조로, 용량을 미리 할당하고 비용을 지불할 필요가 없습니다.
✅ 문제6
A company uses NFS to store large video files in on-premises network attached storage. Each video file ranges in size from 1 MB to 500 GB. The total storage is 70 TB and is no longer growing. The company decides to migrate the video files to Amazon S3. The company must migrate the video files as soon as possible while using the least possible network bandwidth.
Which solution will meet these requirements?
회사는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기 범위는 1MB에서 500GB입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정합니다. 회사는 가능한 한 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Create an S3 bucket. Create an IAM role that has permissions to write to the S3 bucket. Use the AWS CLI to copy all files locally to the S3 bucket.
S3 버킷을 생성합니다. S3 버킷에 대한 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
B.
Create an AWS Snowball Edge job. Receive a Snowball Edge device on premises. Use the Snowball Edge client to transfer data to the device. Return the device so that AWS can import the data into Amazon S3.
AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 장치를 받습니다. Snowball Edge 클라이언트를 사용하여 장치로 데이터를 전송합니다. AWS가 데이터를 Amazon S3로 가져올 수 있도록 디바이스를 반환합니다.
C.
Deploy an S3 File Gateway on premises. Create a public service endpoint to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data
from the existing NFS file share to the S3 File Gateway.
온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 퍼블릭 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
D.
Set up an AWS Direct Connect connection between the on-premises network and AWS. Deploy an S3 File Gateway on premises. Create a public virtual interface (VIF) to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data from the existing NFS file share to the S3 File Gateway.
온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 공용 VIF(가상 인터페이스)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
⭕ 정답 : B
📝 해설
📍 AWS Snowball Edge
대용량의 데이터를 AWS 클라우드로 또는 클라우드에서 물리적으로 전송할 수 있도록 설계된 데이터 전송 서비스입니다. 이 서비스는 인터넷 연결이 느리거나 없는 환경에서도 대량의 데이터를 효과적으로 이동할 수 있게 해주며, 일부 컴퓨팅 기능도 제공합니다. 또한, 리모트 사이트의 대규모 데이터 수집, 장기간 오프라인 데이터 보관, 대규모 데이터 마이그레이션 등 다양하게 활용될 수 있습니다.
- 대용량 데이터 전송: Snowball Edge 장비는 수십 TB에서 수백 TB의 데이터를 저장할 수 있어, 네트워크를 통한 데이터 전송이 비효율적인 경우 유용합니다. Snowball Edge는 이러한 대용량 데이터를 물리적으로 운송하여 효율적으로 전송할 수 있게 해줍니다.
- 컴퓨팅 기능: 일부 Snowball Edge 장비는 AWS Lambda 함수를 로컬에서 실행할 수 있는 컴퓨팅 옵션을 제공하며, 데이터를 전송하는 동시에 간단한 처리 작업을 수행할 수 있습니다.
- 보안: 데이터는 AES-256 암호화로 보호되며, AWS Key Management Service(KMS)와 통합되어 안전한 데이터 관리가 가능합니다.
- 편리한 사용: AWS Management Console을 통해 Snowball Edge 장비를 요청하고, 장비가 도착하면 로컬 네트워크를 통해 데이터를 복사할 수 있습니다. 전송이 완료되면 장비를 AWS로 반송하면 AWS에서 데이터를 S3 버킷으로 자동으로 전송합니다.
- 네트워크 대역폭 최소화: 온프레미스 데이터 센터에서 AWS로 데이터를 마이그레이션하는 과정에서 발생할 수 있는 대역폭 문제를 피할 수 있습니다. Snowball Edge를 사용하면 네트워크 대역폭을 거의 사용하지 않고도 대용량 데이터를 AWS로 옮길 수 있습니다.
✅ 문제7
A company has an application that ingests incoming messages. Dozens of other applications and microservices then quickly consume these messages. The number of messages varies drastically and sometimes increases suddenly to 100,000 each second. The company wants to decouple the solution and increase scalability.
Which solution meets these requirements?
회사에 들어오는 메시지를 수집하는 응용 프로그램이 있습니다. 그러면 수십 개의 다른 애플리케이션과 마이크로서비스가 이러한 메시지를 빠르게 소비합니다. 메시지 수는 급격하게 변하며 때로는 초당 100,000개로 갑자기 증가하기도 합니다. 이 회사는 솔루션을 분리하고 확장성을 높이고자 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Persist the messages to Amazon Kinesis Data Analytics. Configure the consumer applications to read and process the messages.
Amazon Kinesis Data Analytics에 대한 메시지를 유지합니다. 메시지를 읽고 처리하도록 소비자 애플리케이션을 구성합니다.
B.
Deploy the ingestion application on Amazon EC2 instances in an Auto Scaling group to scale the number of EC2 instances based on CPU metrics.
Auto Scaling 그룹의 Amazon EC2 인스턴스에 수집 애플리케이션을 배포하여 CPU 지표를 기반으로 EC2 인스턴스 수를 확장합니다.
C.
Write the messages to Amazon Kinesis Data Streams with a single shard. Use an AWS Lambda function to preprocess messages and store them in Amazon DynamoDB. Configure the consumer applications to read from DynamoDB to process the messages.
단일 샤드를 사용하여 Amazon Kinesis Data Streams에 메시지를 씁니다. AWS Lambda 함수를 사용하여 메시지를 사전 처리하고 Amazon DynamoDB에 저장합니다. 메시지를 처리하기 위해 DynamoDB에서 읽도록 소비자 애플리케이션을 구성합니다.
D.
Publish the messages to an Amazon Simple Notification Service (Amazon SNS) topic with multiple Amazon Simple Queue Service (Amazon SOS) subscriptions. Configure the consumer applications to process the messages from the queues.
여러 Amazon Simple Queue Service(Amazon SQS) 구독이 있는 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. 대기열의 메시지를 처리하도록 소비자 애플리케이션을 구성합니다.
⭕ 정답 : D
📝 해설
📍 Amazon Simple Queue Service (Amazon SQS)
SQS는 완전 관리형 메시지 큐잉 서비스로, 서버나 클러스터를 관리할 필요 없이 메시지를 보내고 받을 수 있게 해줍니다. SQS는 분산 시스템에서 컴포넌트 간의 비동기 통신 및 분리를 가능하게 하며, 처리할 수 없는 메시지를 위한 대기열 관리 기능을 제공합니다.
📍 Amazon Simple Notification Service (Amazon SNS)
SNS는 완전 관리형 퍼블리싱/서브스크라이브 메시징 서비스로, 여러 서브스크라이버에게 메시지를 동시에 효율적으로 전달할 수 있습니다. 이는 이메일, SMS, HTTP 엔드포인트 및 AWS Lambda와 같은 서비스에 메시지를 보낼 수 있습니다.
==> SNS와 SQS를 결합하여 높은 처리량의 메시지를 다양한 소비자 애플리케이션에 분배하는 데 적합합니다. SNS는 여러 SQS 대기열로 메시지를 빠르게 라우팅하고, 각 SQS 대기열은 각 소비자 애플리케이션에 맞게 확장성 있게 구성할 수 있습니다. 이는 초당 100,000개의 메시지를 처리하고, 확장성과 분리를 동시에 달성할 수 있는 가장 적절한 선택입니다.
📍 Amazon Kinesis Data Analytics
실시간 데이터 스트림을 분석할 수 있는 완전 관리형 서비스입니다. Kinesis Data Analytics는 대규모 스트림 데이터를 처리하고, 사용자 정의 애플리케이션을 통해 실시간 분석을 수행할 수 있게 해줍니다. Kinesis Data Streams는 초당 수십만 개의 메시지를 처리할 수 있는 높은 처리량을 제공하며, 이는 급격한 트래픽 증가를 처리하는 데 적합합니다.
==> Kinesis Data Analytics는 실시간 스트림 데이터 분석에 초점을 맞춘 서비스로, 주로 분석 작업에 사용됩니다. 단순히 메시지를 유지하고 소비자 애플리케이션으로 전달하는 데에는 불필요한 복잡성과 비용을 추가할 수 있습니다.
✅ 문제8
A company is migrating a distributed application to AWS. The application serves variable workloads. The legacy platform consists of a primary server that coordinates jobs across multiple compute nodes. The company wants to modernize the application with a solution that maximizes resiliency and scalability.
How should a solutions architect design the architecture to meet these requirements?
회사에서 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. *레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?
* 레거시 : 프로그래밍 언어, 플랫폼 그리고 기술 등에 있어서 과거로부터 물려 내려온 것
A.
Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling to use scheduled scaling.
작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
B.
Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling based on the size of the queue.
작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
C.
Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure AWS CloudTrail as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the primary server.
Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 AWS CloudTrail을 구성합니다. 기본 서버의 부하를 기반으로 EC2 Auto Scaling을 구성합니다.
D.
Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure Amazon EventBridge (Amazon CloudWatch Events) as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the compute nodes.
Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. 컴퓨팅 노드의 부하를 기반으로 EC2 Auto Scaling을 구성합니다.
⭕ 정답 : B
📝 해설
- Amazon SQS (Simple Queue Service): 메시지 대기열 서비스로, 분산 시스템 간의 비동기 통신을 가능하게 하여 각 컴포넌트가 독립적으로 확장되고 관리될 수 있게 합니다.
- Amazon EC2 Auto Scaling: EC2 인스턴스를 그룹으로 관리하여 수요에 따라 자동으로 인스턴스 수를 조정합니다. 이는 워크로드의 변화에 따라 인프라를 탄력적으로 확장하거나 축소할 수 있게 해줍니다.
- Amazon Simple Queue Service (SQS) 대기열 크기 기반의 Auto Scaling: 대기열에 있는 작업의 수를 모니터링하여, 필요에 따라 컴퓨팅 리소스를 동적으로 조정합니다. 이는 처리해야 할 작업이 많을 때 자동으로 리소스를 추가하고, 작업량이 줄어들면 리소스를 줄여 비용을 절감할 수 있게 합니다.
==> Amazon SQS를 사용하여 작업을 관리하고 대기열의 크기에 따라 EC2 인스턴스의 수를 동적으로 조절함으로써, 예기치 않은 워크로드 증가에 빠르게 대응할 수 있으며, 확장성과 탄력성을 극대화할 수 있습니다.
📍 Amazon EventBridge (이전의 Amazon CloudWatch Events)
주로 이벤트 기반 아키텍처를 위해 설계된 서비스입니다. 이 서비스는 AWS 서비스, 사용자 애플리케이션, 외부 애플리케이션에서 발생하는 다양한 이벤트를 수집하여, 이를 기반으로 다른 서비스를 트리거하거나 특정 작업을 실행하는 데 사용됩니다.
여기서는 분산 애플리케이션을 AWS로 마이그레이션하고 있으며, 애플리케이션이 처리해야 하는 워크로드의 변화에 탄력적으로 대응할 수 있는 구조를 만들어야 합니다. 특히, 대규모로 동적으로 변하는 컴퓨팅 요구사항에 대응할 수 있는 방식이 필요합니다.
✅ 문제9
A company is running an SMB file server in its data center. The file server stores large files that are accessed frequently for the first few days after the files are created. After 7 days the files are rarely accessed.
The total data size is increasing and is close to the company's total storage capacity. A solutions architect must increase the company's available storage space without losing low-latency access to the most recently accessed files. The solutions architect must also provide file lifecycle management to avoid future storage issues.
Which solution will meet these requirements?
회사는 데이터 센터에서 SMB 파일 서버를 실행하고 있습니다. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스하는 대용량 파일을 저장합니다. 7일이 지나면 파일에 거의 액세스하지 않습니다.
총 데이터 크기가 증가하고 있으며 회사의 총 저장 용량에 가깝습니다. 솔루션 설계자는 가장 최근에 액세스한 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 솔루션 설계자는 향후 스토리지 문제를 방지하기 위해 파일 수명 주기 관리도 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use AWS DataSync to copy data that is older than 7 days from the SMB file server to AWS.
AWS DataSync를 사용하여 SMB 파일 서버에서 AWS로 7일이 지난 데이터를 복사합니다.
B.
Create an Amazon S3 File Gateway to extend the company's storage space. Create an S3 Lifecycle policy to transition the data to S3 Glacier Deep Archive after 7 days.
Amazon S3 파일 게이트웨이를 생성하여 회사의 스토리지 공간을 확장합니다. S3 수명 주기 정책을 생성하여 7일 후에 데이터를 S3 Glacier Deep Archive로 전환합니다.
C.
Create an Amazon FSx for Windows File Server file system to extend the company's storage space.
Windows 파일 서버용 Amazon FSx 파일 시스템을 생성하여 회사의 저장 공간을 확장합니다.
D.
Install a utility on each user's computer to access Amazon S3. Create an S3 Lifecycle policy to transition the data to S3 Glacier Flexible Retrieval after 7 days.
각 사용자의 컴퓨터에 유틸리티를 설치하여 Amazon S3에 액세스합니다. S3 수명 주기 정책을 생성하여 7일 후 데이터를 S3 Glacier Flexible Retrieval로 전환합니다.
⭕ 정답 : B
📝 해설
📍 AWS S3 File Gateway
Amazon S3 File Gateway는 AWS Storage Gateway 서비스의 일부로, 온프레미스 환경에서 클라우드 스토리지를 사용하여 파일 데이터를 저장할 수 있도록 해주는 하이브리드 스토리지 솔루션이며, 표준 파일 프로토콜인 NFS와 SMB를 지원합니다. 이 게이트웨이는 온프레미스 시스템에서 파일을 S3 버킷으로 직접 저장하고, 필요에 따라 클라우드로부터 데이터를 로컬로 캐시하여 저지연 액세스를 제공합니다. 이를 통해 사용자는 AWS 클라우드의 확장성과 내구성을 활용하면서 기존 애플리케이션과의 호환성을 유지할 수 있습니다.
==> SMB 프로토콜을 사용하여 온프레미스 파일 서버의 확장으로 작동하며, 클라우드에 파일을 투명하게 저장합니다. 이를 통해 회사는 기존 SMB 파일 서버 환경을 유지하면서 저장 공간을 확장할 수 있습니다. 또한, S3 Lifecycle 정책을 설정하여 7일이 지난 후에 사용 빈도가 낮은 파일을 자동으로 설정할 수 있습니다.
📍 AWS Strorage Gateway
온프레미스 환경과 AWS 클라우드 간의 데이터 이동을 용이하게 하는 하이브리드 클라우드 스토리지 서비스입니다. 이 서비스는 데이터를 AWS 클라우드로 안전하게 전송하고 관리하는 데 도움을 줍니다. Storage Gateway는 세 가지 주요 타입으로 구성됩니다: 파일 게이트웨이(S3 File Gateway), 볼륨 게이트웨이, 테이프 게이트웨이. 각 타입은 다른 유형의 데이터와 애플리케이션 요구 사항에 맞게 설계되었습니다. 예를 들어, 파일 게이트웨이는 파일 기반 데이터를 S3에 저장하고, 볼륨 게이트웨이는 iSCSI 기반 스토리지 볼륨을 제공하며, 테이프 게이트웨이는 가상 테이프 라이브러리를 통해 백업과 아카이빙을 지원합니다.
📍 S3 Glacier Deep Archive
Amazon S3의 스토리지 클래스 중 하나로, 데이터를 장기간 저장하기 위한 가장 비용 효율적인 옵션을 제공합니다. 이 스토리지 클래스는 매우 낮은 비용으로 데이터를 저장하며, 주로 접근 빈도가 매우 낮은 데이터를 대상으로 합니다. S3 Glacier Deep Archive는 회계 기록, 과학 데이터, 오래된 미디어 콘텐츠 등 접근이 필요하지 않거나 매우 드문 데이터를 위한 이상적인 솔루션입니다. 데이터는 몇 시간 내에 복구할 수 있으며, 이는 재해 복구 및 컴플라이언스 요구 사항을 충족하는 데 도움이 됩니다. 이 스토리지 클래스는 데이터를 보존하고, 장기적으로 비용을 절감하며, 필요할 때 안전하게 데이터에 접근할 수 있도록 설계되었습니다.
✅ 문제10
A company is building an ecommerce web application on AWS. The application sends information about new orders to an Amazon API Gateway REST API to process. The company wants to ensure that orders are processed in the order that they are received.
Which solution will meet these requirements?
회사는 AWS에서 전자 상거래 웹 애플리케이션을 구축하고 있습니다. 애플리케이션은 처리할 Amazon API Gateway REST API에 새 주문에 대한 정보를 보냅니다. 회사는 주문이 접수된 순서대로 처리되기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use an API Gateway integration to publish a message to an Amazon Simple Notification Service (Amazon SNS) topic when the application receives an order. Subscribe an AWS Lambda function to the topic to perform processing.
API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. AWS Lambda 함수를 주제에 구독하여 처리를 수행합니다.
B.
Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) FIFO queue when the application receives an order. Configure the SQS FIFO queue to invoke an AWS Lambda function for processing.
API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.
C.
Use an API Gateway authorizer to block any requests while the application processes an order.
API Gateway 권한 부여자를 사용하여 애플리케이션이 주문을 처리하는 동안 모든 요청을 차단합니다.
D.
Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) standard queue when the application receives an order. Configure the SQS standard queue to invoke an AWS Lambda function for processing.
API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다.
⭕ 정답 : B
📝 해설
📍 Amazon Simple Queue Service (Amazon SQS) FIFO 대기열
Amazon SQS의 FIFO (First-In-First-Out) 대기열은 메시지가 정확히 한 번 전송되고 순서대로 처리되도록 보장하는 큐 서비스입니다. 이는 메시지의 순서와 전달이 중요한 애플리케이션에 적합합니다. FIFO 대기열은 메시지의 중복 없이, 전송된 순서대로 메시지가 처리되도록 합니다. 이러한 특성 때문에 트랜잭션 처리, 순차적 이벤트 처리 등에 사용됩니다. FIFO 대기열은 초당 최대 3,000개의 메시지를 처리할 수 있는 고성능을 제공합니다.
📍 Amazon Simple Queue Service (Amazon SQS) 표준 대기열
Amazon SQS의 표준 대기열은 높은 처리량과 뛰어난 확장성을 제공하는 메시징 솔루션입니다. 표준 대기열은 메시지가 한 번 이상 전달될 수 있으며, 메시지가 항상 엄격한 순서대로 처리되는 것은 보장하지 않습니다. 하지만, 대부분의 애플리케이션에서 허용 가능한 수준의 순서와 전달 빈도를 제공합니다. 이는 대규모 분산 시스템에서의 태스크 분배, 로그 수집, 실시간 데이터 처리 등에 적합하며, 초당 수십만 개의 메시지를 처리할 수 있습니다.
✅ 문제11
A company has an application that runs on Amazon EC2 instances and uses an Amazon Aurora database. The EC2 instances connect to the database by using user names and passwords that are stored locally in a file. The company wants to minimize the operational overhead of credential management.
What should a solutions architect do to accomplish this goal?
회사에 Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있습니다. EC2 인스턴스는 파일에 로컬로 저장된 사용자 이름과 암호를 사용하여 데이터베이스에 연결합니다. 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 합니다.
솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까?
A.
Use AWS Secrets Manager. Turn on automatic rotation.
AWS Secrets Manager를 사용합니다. 자동 교체를 켭니다.
B.
Use AWS Systems Manager Parameter Store. Turn on automatic rotation.
AWS Systems Manager Parameter Store를 사용합니다. 자동 교체를 켭니다.
C.
Create an Amazon S3 bucket to store objects that are encrypted with an AWS Key Management Service (AWS KMS) encryption key. Migrate the credential file to the S3 bucket. Point the application to the S3 bucket.
AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장할 Amazon S3 버킷을 생성합니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션이 S3 버킷을 가리키도록 합니다.
D.
Create an encrypted Amazon Elastic Block Store (Amazon EBS) volume for each EC2 instance. Attach the new EBS volume to each EC2 instance. Migrate the credential file to the new EBS volume. Point the application to the new EBS volume.
각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 새 EBS 볼륨을 각 EC2 인스턴스에 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션이 새 EBS 볼륨을 가리키도록 합니다.
⭕ 정답: A
📝 해설
📍 AWS Secrets Manager
데이터베이스, 서비스, 다양한 애플리케이션에서 사용하는 비밀번호, 토큰, API 키, 기타 중요한 정보를 안전하게 저장하고 관리하는 서비스입니다. 이 서비스는 비밀을 중앙 집중화하여 관리하며, 액세스 제어, 암호화, 감사 추적 기능을 제공합니다. 자동 교체 기능은 특히 주목할 만합니다. 이 기능을 사용하면 사용자 지정 또는 자동화된 일정에 따라 보안 내용을 정기적으로 교체할 수 있습니다. 이는 보안 위험을 줄이고, 무단 액세스로부터 보호하는 데 도움이 됩니다. 예를 들어, RDS 데이터베이스 비밀번호를 자동으로 교체하도록 설정할 수 있으며, 이 과정은 완전히 자동화되어 운영 부담을 줄여줍니다.
- 보안 강화: 로컬 파일에 저장된 자격 증명은 노출 위험이 높고 보안 취약점을 유발할 수 있습니다. Secrets Manager를 사용하면 자격 증명이 중앙화되고 안전하게 암호화되어 저장됩니다. 또한, AWS Identity and Access Management (IAM)을 통해 세밀한 액세스 제어가 가능해져 비인가 액세스로부터 보호됩니다.
- 자동 자격 증명 교체: AWS Secrets Manager는 데이터베이스 자격 증명의 자동 교체를 지원합니다. 이를 통해 정기적으로 또는 필요에 따라 자동으로 데이터베이스 비밀번호를 교체할 수 있으며, 이 과정은 애플리케이션에 투명하게 진행됩니다. 이는 보안을 강화하고, 자격 증명 관리에 대한 수동 개입을 줄여 운영 오버헤드를 크게 감소시킵니다.
- 중앙화된 자격 증명 관리: 자격 증명을 중앙에서 관리함으로써 여러 애플리케이션과 서비스 간의 일관된 접근 방식을 제공합니다. 이는 자격 증명의 변경이나 업데이트가 필요할 때 모든 애플리케이션에 일관되게 적용될 수 있도록 하며, 관리 포인트를 단일화하여 오버헤드를 감소시킵니다.
- 감사 및 모니터링: Secrets Manager는 자격 증명의 사용과 접근을 추적하는 감사 로그를 제공합니다. 이를 통해 보안 감사와 문제 해결 과정에서 유용한 정보를 얻을 수 있으며, 비정상적인 접근 시도나 사용 패턴을 식별하여 즉각적으로 대응할 수 있습니다.
- 애플리케이션 코드의 간소화: Secrets Manager를 사용하면 애플리케이션 코드에서 자격 증명을 직접 관리하는 복잡성을 제거할 수 있습니다. SDK나 API를 통해 Secrets Manager로부터 자격 증명을 안전하게 조회하며, 이는 코드를 더욱 간결하고 유지 관리하기 쉽게 만듭니다.
📍 AWS Systems Manager Parameter Store
애플리케이션 구성 데이터와 중요한 운영 데이터를 안전하게 저장하고 관리하는 서비스입니다. 이 서비스는 텍스트 문자열 또는 암호화된 데이터 형태로 파라미터 값을 저장할 수 있으며, 이러한 파라미터는 구성 데이터, 데이터베이스 문자열, 비밀번호 등을 포함할 수 있습니다. Parameter Store는 AWS Identity and Access Management (IAM)을 사용하여 세밀한 접근 제어를 제공하고, AWS Key Management Service (KMS)를 사용하여 암호화된 데이터를 보호합니다. 이를 통해 애플리케이션의 설정을 중앙에서 관리할 수 있으며, 코드 내 하드코딩을 피하고 보안을 강화할 수 있습니다. Parameter Store는 비용 효율적이며, 간단한 설정에서 복잡한 애플리케이션 환경까지 지원합니다.
✅ 문제12
A global company hosts its web application on Amazon EC2 instances behind an Application Load Balancer (ALB). The web application has static data and dynamic data. The company stores its static data in an Amazon S3 bucket. The company wants to improve performance and reduce latency for the static data and dynamic data. The company is using its own domain name registered with Amazon Route 53.
What should a solutions architect do to meet these requirements?
글로벌 회사는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터 및 동적 데이터의 성능을 개선하고 대기 시간을 줄이기를 원합니다. 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Create an Amazon CloudFront distribution that has the S3 bucket and the ALB as origins. Configure Route 53 to route traffic to the CloudFront distribution.
S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53을 구성합니다.
B.
Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that has the S3 bucket as an endpoint Configure Route 53 to route traffic to the CloudFront distribution.
ALB가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53을 구성합니다.
C.
Create an Amazon CloudFront distribution that has the S3 bucket as an origin. Create an AWS Global Accelerator standard accelerator that has the ALB and the CloudFront distribution as endpoints. Create a custom domain name that points to the accelerator DNS name. Use the custom domain name as an endpoint for the web application.
S3 버킷을 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다.
D.
Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that has the S3 bucket as an endpoint. Create two domain names. Point one domain name to the CloudFront DNS name for dynamic content. Point the other domain name to the accelerator DNS name for static content. Use the domain names as endpoints for the web application.
ALB가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 하나의 도메인 이름이 동적 콘텐츠의 CloudFront DNS 이름을 가리키도록 합니다. 다른 도메인 이름이 정적 콘텐츠에 대한 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다.
⭕ 정답: A
📝 해설
- 통합된 캐싱 및 최적화: CloudFront는 글로벌 콘텐츠 전송 네트워크(CDN)로, 정적 및 동적 콘텐츠에 대한 접근 속도를 향상시키고 대기 시간을 줄입니다. CloudFront를 통해 S3 버킷에서 호스팅되는 정적 콘텐츠와 ALB를 통해 제공되는 동적 콘텐츠 모두에 대한 캐싱 및 최적화를 제공할 수 있습니다.
- 단일 도메인 사용: 이 구성을 통해 사용자는 하나의 CloudFront 배포를 사용하여 정적 및 동적 콘텐츠 모두에 접근할 수 있습니다. 이는 관리를 간소화하고 사용자 경험을 일관되게 유지하는 데 도움이 됩니다.
- 자동 확장 및 관리: CloudFront는 자동으로 확장되며, AWS의 전 세계 에지 로케이션을 활용하여 사용자에게 빠른 콘텐츠 전송을 제공합니다. 이는 특히 글로벌 사용자 기반을 가진 회사에 중요합니다.
- 보안 및 성능: CloudFront는 SSL/TLS를 사용하여 콘텐츠를 안전하게 전송하며, AWS WAF와 통합하여 보안을 강화할 수 있습니다. 또한, HTTP/2와 같은 최신 프로토콜을 지원하여 성능을 개선합니다.
다른 옵션들과 비교했을 때, A는 정적 및 동적 콘텐츠 모두에 대해 일관된 성능 향상과 운영 효율성을 제공하며, 추가적인 복잡성이나 관리 오버헤드를 최소화합니다. AWS Global Accelerator를 사용하는 다른 옵션들은 별도의 도메인 관리와 복잡한 라우팅 설정이 필요하며, CloudFront만큼 통합된 캐싱 및 최적화를 제공하지 않습니다. 따라서 A는 이 시나리오의 요구 사항을 충족하는 가장 간결하고 효과적인 솔루션입니다.
✅ 문제13
A company performs monthly maintenance on its AWS infrastructure. During these maintenance activities, the company needs to rotate the credentials for its Amazon RDS for MySQL databases across multiple AWS Regions.
Which solution will meet these requirements with the LEAST operational overhead?
회사는 AWS 인프라에 대한 월별 유지 관리를 수행합니다. 이러한 유지 관리 활동 중에 회사는 여러 AWS 리전에서 MySQL용 Amazon RDS 데이터베이스에 대한 자격 증명을 교체해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Store the credentials as secrets in AWS Secrets Manager. Use multi-Region secret replication for the required Regions. Configure Secrets Manager to rotate the secrets on a schedule.
자격 증명을 AWS Secrets Manager에 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 보안 암호를 교체하도록 Secrets Manager를 구성합니다.
B.
Store the credentials as secrets in AWS Systems Manager by creating a secure string parameter. Use multi-Region secret replication for the required Regions. Configure Systems Manager to rotate the secrets on a schedule.
보안 문자열 파라미터를 생성하여 AWS Systems Manager에 자격 증명을 보안 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 암호를 교체하도록 Systems Manager를 구성합니다.
C.
Store the credentials in an Amazon S3 bucket that has server-side encryption (SSE) enabled. Use Amazon EventBridge (Amazon CloudWatch Events) to invoke an AWS Lambda function to rotate the credentials.
서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 AWS Lambda 함수를 호출하여 자격 증명을 교체합니다.
D.
Encrypt the credentials as secrets by using AWS Key Management Service (AWS KMS) multi-Region customer managed keys. Store the secrets in an Amazon DynamoDB global table. Use an AWS Lambda function to retrieve the secrets from DynamoDB. Use the RDS API to rotate the secrets.
AWS Key Management Service(AWS KMS) 다중 리전 고객 관리형 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 전역 테이블에 암호를 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB에서 암호를 검색합니다. RDS API를 사용하여 비밀을 교체합니다.
⭕ 정답: A
📝 해설
- 자동 교체: AWS Secrets Manager는 RDS 데이터베이스의 자격 증명을 자동으로 교체할 수 있는 기능을 제공합니다. 이를 통해 수동으로 자격 증명을 업데이트할 필요가 없으며, 주기적으로 자동으로 안전하게 자격 증명을 갱신할 수 있습니다.
- 중앙화된 관리: Secrets Manager를 사용하면 여러 AWS 리전에 걸쳐 있는 RDS 인스턴스의 자격 증명을 중앙에서 관리할 수 있습니다. 이는 관리의 일관성을 보장하고 오류 가능성을 줄입니다.
- 보안 강화: 자격 증명을 자동으로 교체함으로써 보안 위험을 줄일 수 있습니다. 또한, Secrets Manager는 자격 증명을 암호화하여 저장하며, 엄격한 접근 정책을 통해 보안을 강화합니다.
- 운영 효율성: 이 방법은 유지 관리 기간 동안 수동 개입을 최소화하며, 정기적인 자격 증명 교체를 자동화하여 운영 오버헤드를 크게 줄입니다.
D
MySQL용 Amazon RDS 데이터베이스의 자격 증명 교체는 데이터베이스의 보안을 강화하고, 무단 액세스를 방지하기 위한 중요한 절차입니다. 일반적으로 과정은 다음과 같습니다:
- 새 자격 증명 생성: 새로운 사용자 이름과 비밀번호를 생성합니다.
- 데이터베이스 업데이트: RDS 데이터베이스의 사용자 계정 정보를 새 자격 증명으로 업데이트합니다. 이는 RDS 관리 콘솔, CLI 또는 API를 통해 수행될 수 있습니다.
- 애플리케이션 업데이트: 데이터베이스에 접근하는 애플리케이션의 구성을 업데이트하여 새 자격 증명을 사용하도록 합니다.
- 자동화: AWS Secrets Manager를 사용하면 이 과정을 자동화할 수 있으며, Secrets Manager는 RDS 데이터베이스의 자격 증명을 자동으로 교체하고 관련 애플리케이션의 구성을 업데이트합니다.
이 접근 방식은 수동 오류를 방지하고, 보안을 지속적으로 강화하는 데 도움이 됩니다. 또한, 이 과정을 통해 회사는 지속적으로 자격 증명을 갱신하며, 데이터베이스 보안을 유지할 수 있습니다.
✅ 문제14
A company runs an ecommerce application on Amazon EC2 instances behind an Application Load Balancer. The instances run in an Amazon EC2 Auto Scaling group across multiple Availability Zones. The Auto Scaling group scales based on CPU utilization metrics. The ecommerce application stores the transaction data in a MySQL 8.0 database that is hosted on a large EC2 instance.
The database's performance degrades quickly as application load increases. The application handles more read requests than write transactions. The company wants a solution that will automatically scale the database to meet the demand of unpredictable read workloads while maintaining high availability.
Which solution will meet these requirements?
회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 전자 상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 메트릭을 기반으로 확장됩니다. 전자 상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 트랜잭션 데이터를 저장합니다.
애플리케이션 로드가 증가하면 데이터베이스의 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 이 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 워크로드의 수요를 충족하도록 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use Amazon Redshift with a single node for leader and compute functionality.
리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
B.
Use Amazon RDS with a Single-AZ deployment Configure Amazon RDS to add reader instances in a different Availability Zone.
단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
C.
Use Amazon Aurora with a Multi-AZ deployment. Configure Aurora Auto Scaling with Aurora Replicas.
다중 AZ 배포와 함께 Amazon Aurora를 사용합니다. Aurora 복제본을 사용하여 Aurora Auto Scaling을 구성합니다.
D.
Use Amazon ElastiCache for Memcached with EC2 Spot Instances.
EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용합니다.
⭕ 정답: C
📝 해설
📍 Aurora Auto Scaling
Amazon Aurora 데이터베이스의 성능을 자동으로 조정하는 기능입니다. 이는 데이터베이스 클러스터에 읽기 전용 복제본을 추가하거나 제거하여 읽기 트래픽에 대한 수요 변화에 동적으로 대응할 수 있게 해줍니다. CPU 사용률 같은 지표를 기반으로 자동으로 확장을 조정합니다.
==> 전자 상거래 애플리케이션이 쓰기보다 읽기 요청이 많을 때, 읽기 요청의 부하를 분산시켜 데이터베이스 성능 저하를 방지할 수 있습니다. Auto Scaling을 통해 예측할 수 없는 읽기 워크로드 수요에 효과적으로 대응하며 고가용성을 유지할 수 있습니다.
✅ 문제15
A company recently migrated to AWS and wants to implement a solution to protect the traffic that flows in and out of the production VPC. The company had an inspection server in its on-premises data center. The inspection server performed specific operations such as traffic flow inspection and traffic filtering. The company wants to have the same functionalities in the AWS Cloud.
Which solution will meet these requirements?
최근에 AWS로 마이그레이션한 회사가 프로덕션 VPC로 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 사내 데이터 센터에 검사 서버를 가지고 있었습니다. 검사 서버는 트래픽 흐름 검사 및 트래픽 필터링과 같은 특정 작업을 수행했습니다. 회사는 AWS 클라우드에서 동일한 기능을 갖기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use Amazon GuardDuty for traffic inspection and traffic filtering in the production VPC.
프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링에 Amazon GuardDuty를 사용합니다.
B.
Use Traffic Mirroring to mirror traffic from the production VPC for traffic inspection and filtering.
트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
C.
Use AWS Network Firewall to create the required rules for traffic inspection and traffic filtering for the production VPC.
AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
D.
Use AWS Firewall Manager to create the required rules for traffic inspection and traffic filtering for the production VPC.
AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
⭕ 정답: C
📝 해설
📍 AWS 네트워크 방화벽
AWS 클라우드에서 VPC 트래픽을 검사하고 필터링하는 방화벽 서비스입니다. 이 서비스를 통해 사용자는 세밀한 액세스 제어 정책을 생성하여 트래픽을 모니터링하고, 원하지 않는 트래픽을 차단할 수 있습니다.
==> 회사는 사내 데이터 센터에서 트래픽 흐름 검사 및 필터링을 수행했으며, AWS 클라우드에서 동일한 기능을 원합니다. AWS 네트워크 방화벽을 사용하면, VPC로 들어오고 나가는 모든 트래픽에 대한 검사 및 필터링 규칙을 생성하여 보안을 강화할 수 있습니다. 이는 프로덕션 환경의 보안을 유지하며, 원활한 클라우드 전환을 지원합니다.
📍 VPC 트래픽 미러링 및 기능
Amazon Virtual Private Cloud(VPC)에서 네트워크 트래픽의 복사본을 캡처하여 분석 및 모니터링을 위한 도구로 전송하는 기능입니다. 주요 기능은 다음과 같습니다:
- 트래픽 캡처: 특정 Amazon Elastic Network Interface(ENI)에서 트래픽의 복사본을 만들어 이를 분석 도구로 전송할 수 있습니다.
- 필터링: 미러링할 트래픽의 소스 및 목적지 IP 주소, 포트, 프로토콜 등의 기준을 설정하여 필요한 트래픽만 캡처할 수 있습니다.
- 전송 대상: 트래픽 복사본은 다른 ENI나 Network Load Balancer, 게이트웨이 로드 밸런서 등으로 전송할 수 있습니다.
- 보안 및 모니터링: 보안 및 규정 준수를 위해 트래픽을 모니터링하거나 문제 해결 목적으로 사용할 수 있습니다.
✅ 문제16
A company hosts a data lake on AWS. The data lake consists of data in Amazon S3 and Amazon RDS for PostgreSQL. The company needs a reporting solution that provides data visualization and includes all the data sources within the data lake. Only the company's management team should have full access to all the visualizations. The rest of the company should have only limited access.
Which solution will meet these requirements?
회사는 AWS에서 데이터 레이크를 호스팅합니다. 데이터 레이크는 Amazon S3 및 PostgreSQL용 Amazon RDS의 데이터로 구성됩니다. 이 회사는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리 팀만 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 나머지 회사는 제한된 액세스 권한만 가져야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the data. Share the dashboards with the appropriate IAM roles.
Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
B.
Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the data. Share the dashboards with the appropriate users and groups.
Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
C.
Create an AWS Glue table and crawler for the data in Amazon S3. Create an AWS Glue extract, transform, and load (ETL) job to produce reports. Publish the reports to Amazon S3. Use S3 bucket policies to limit access to the reports.
Amazon S3의 데이터에 대한 AWS Glue 테이블 및 *크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
* 크롤러: Amazon S3 및 관계형 데이터베이스의 데이터를 스캔해 스키마를 추출하고 AWS Glue Data 카탈로그(여기에서 메타데이터를 최신 상태로 유지함)를 자동으로 채워 데이터 집합 검색을 간소화해주는 기능이다.
D.
Create an AWS Glue table and crawler for the data in Amazon S3. Use Amazon Athena Federated Query to access data within Amazon RDS for PostgreSQL. Generate reports by using Amazon Athena. Publish the reports to Amazon S3. Use S3 bucket policies to limit access to the reports.
Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena 연합 쿼리를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
⭕ 정답: B
📝 해설
📍 Amazon QuickSight
클라우드 기반의 비즈니스 인텔리전스(BI) 서비스로, 데이터를 시각화하고 대시보드를 생성하여 쉽게 인사이트를 얻을 수 있게 합니다.
- 데이터 소스 통합: 다양한 데이터 소스와 쉽게 통합할 수 있으며, 데이터 레이크, Amazon S3, RDS 등과 연동이 가능합니다.
- 대시보드 생성: 사용자 친화적인 인터페이스를 통해 대시보드 및 리포트를 생성할 수 있습니다.
- 자동 인사이트: 머신 러닝 기반으로 데이터에서 자동으로 인사이트를 도출합니다.
- 협업 기능: 사용자 및 그룹과 대시보드를 공유하고 협업할 수 있습니다.
📍 IAM 역할 및 대시보드 공유
- 관리 팀 전체 액세스: 관리 팀에게 전체 시각화에 대한 전체 액세스 권한을 부여하기 위해서는, 관리 팀 사용자에게 필요한 QuickSight 관리자 또는 작성자 권한을 IAM 역할로 할당합니다.
- 제한된 액세스: 나머지 회사 직원에게 제한된 액세스 권한을 부여하려면, QuickSight 뷰어 권한을 할당하고, 필요한 대시보드만 공유하여 제한된 데이터를 볼 수 있도록 설정합니다.
✅ 문제17
A company is implementing a new business application. The application runs on two Amazon EC2 instances and uses an Amazon S3 bucket for document storage. A solutions architect needs to ensure that the EC2 instances can access the S3 bucket.
What should the solutions architect do to meet this requirement?
회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 애플리케이션은 2개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 설계자는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다.
솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Create an IAM role that grants access to the S3 bucket. Attach the role to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. 역할을 EC2 인스턴스에 연결합니다.
B.
Create an IAM policy that grants access to the S3 bucket. Attach the policy to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. 정책을 EC2 인스턴스에 연결합니다.
C.
Create an IAM group that grants access to the S3 bucket. Attach the group to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
D.
Create an IAM user that grants access to the S3 bucket. Attach the user account to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.
⭕ 정답: A
📝 해설
📍 Amazon S3 버킷에 대한 액세스 권한을 Amazon EC2에 부여하는 방법
Amazon EC2 인스턴스가 Amazon S3 버킷에 액세스할 수 있도록 하기 위해서는 IAM 역할을 사용하는 것이 일반적입니다. 단계는 다음과 같습니다.
- IAM 역할 생성: IAM 콘솔에서 S3 액세스 권한을 가진 IAM 역할을 생성합니다.
- 정책 부여: S3 버킷에 대한 액세스 정책을 IAM 역할에 부여합니다. 예를 들어, S3FullAccess 정책을 사용할 수 있습니다.
- 역할 연결: 생성된 IAM 역할을 EC2 인스턴스에 연결합니다. EC2 콘솔에서 인스턴스를 선택하고, "작업" 메뉴에서 "IAM 역할 연결/교체"를 선택합니다.
- 권한 확인: EC2 인스턴스에서 AWS CLI를 사용하여 S3 버킷에 접근할 수 있는지 확인합니다.
✅ 문제18
An application development team is designing a microservice that will convert large images to smaller, compressed images. When a user uploads an image through the web interface, the microservice should store the image in an Amazon S3 bucket, process and compress the image with an AWS Lambda function, and store the image in its compressed form in a different S3 bucket.
A solutions architect needs to design a solution that uses durable, stateless components to process the images automatically.
Which combination of actions will meet these requirements? (Choose two.)
애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로 서비스는 이미지를 Amazon S3 버킷에 저장하고, AWS Lambda 함수로 이미지를 처리 및 압축하고, 다른 S3 버킷에 압축된 형태로 이미지를 저장해야 합니다.
솔루션 설계자는 내구성이 있는 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.)
A.
Create an Amazon Simple Queue Service (Amazon SQS) queue. Configure the S3 bucket to send a notification to the SQS queue when an image is uploaded to the S3 bucket.
Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
B.
Configure the Lambda function to use the Amazon Simple Queue Service (Amazon SQS) queue as the invocation source. When the SQS message is successfully processed, delete the message in the queue.
Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
C.
Configure the Lambda function to monitor the S3 bucket for new uploads. When an uploaded image is detected, write the file name to a text file in memory and use the text file to keep track of the images that were processed.
새 업로드에 대해 S3 버킷을 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
D.
Launch an Amazon EC2 instance to monitor an Amazon Simple Queue Service (Amazon SQS) queue. When items are added to the queue, log the file name in a text file on the EC2 instance and invoke the Lambda function.
Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
E.
Configure an Amazon EventBridge (Amazon CloudWatch Events) event to monitor the S3 bucket. When an image is uploaded, send an alert to an Amazon ample Notification Service (Amazon SNS) topic with the application owner's email address for further processing.
Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성하여 S3 버킷을 모니터링합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample Notification Service(Amazon SNS) 주제에 알림을 보냅니다.
⭕ 정답: A, B
📝 해설
- Amazon SQS 대기열을 생성하고, S3 버킷에 이미지가 업로드될 때 SQS 대기열에 알림을 보내도록 구성합니다. 이는 업로드된 이미지를 처리하는 데 필요한 트리거를 관리하는데 유용합니다.
- Lambda 함수를 SQS 대기열의 트리거로 구성하여 S3에 이미지가 업로드될 때 자동으로 호출되도록 합니다. Lambda 함수는 SQS 메시지를 처리한 후 대기열에서 메시지를 삭제합니다. 이는 이미지를 처리 및 압축하는 비동기 워크플로를 구성하는 데 적합합니다.
이 조합을 통해 내구성이 있는 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 구현할 수 있습니다. S3, SQS 및 Lambda의 조합은 확장 가능하고 유연하며 상태 비저장 기능을 제공합니다.
✅ 문제19
A company has a three-tier web application that is deployed on AWS. The web servers are deployed in a public subnet in a VPC. The application servers and database servers are deployed in private subnets in the same VPC. The company has deployed a third-party virtual firewall appliance from AWS Marketplace in an inspection VPC. The appliance is configured with an IP interface that can accept IP packets.
A solutions architect needs to integrate the web application with the appliance to inspect all traffic to the application before the traffic reaches the web server.
Which solution will meet these requirements with the LEAST operational overhead?
회사에 AWS에 배포된 3계층 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 이 회사는 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 검사 VPC에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다.
솔루션 설계자는 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사하기 위해 웹 애플리케이션을 어플라이언스와 통합해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Create a Network Load Balancer in the public subnet of the application's VPC to route the traffic to the appliance for packet inspection.
애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다.
B.
Create an Application Load Balancer in the public subnet of the application's VPC to route the traffic to the appliance for packet inspection.
애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다.
C.
Deploy a transit gateway in the inspection VPConfigure route tables to route the incoming packets through the transit gateway.
전송 게이트웨이를 통해 들어오는 패킷을 라우팅하도록 라우팅 테이블을 구성하는 검사 VPC에 전송 게이트웨이를 배포합니다.
D.
Deploy a Gateway Load Balancer in the inspection VPC. Create a Gateway Load Balancer endpoint to receive the incoming packets and forward the packets to the appliance.
검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 게이트웨이 로드 밸런서 엔드포인트를 생성하여 수신 패킷을 수신하고 패킷을 어플라이언스로 전달합니다.
⭕ 정답: D
📝 해설
📍 Gateway Load Balancer
네트워크 트래픽을 검사하고 라우팅하는 데 사용됩니다. 주요 기능은 다음과 같습니다:
- 트래픽 검사: 모든 트래픽을 검사할 수 있으며, 보안 어플라이언스와 통합하여 웹 애플리케이션에 도달하기 전에 트래픽을 분석하고 필터링할 수 있습니다.
- 투명한 인라인 배포: 트래픽을 어플라이언스로 라우팅하여 보안 및 모니터링을 수행하면서도 애플리케이션에 투명하게 배포할 수 있습니다.
- 확장성: 수평 확장을 통해 높은 트래픽을 처리할 수 있습니다.
웹 애플리케이션과 어플라이언스를 통합할 때 Gateway Load Balancer를 사용하는 이유는 트래픽을 효과적으로 검사하고 보안 위협을 방지하기 위함입니다.
📍 OSI 7 레이어 모델
네트워크 통신을 7개의 계층으로 나눈 모델입니다:
- 물리 계층 (Physical Layer): 물리적 매체를 통해 비트 스트림을 전송합니다.
- 데이터 링크 계층 (Data Link Layer): 프레임을 전송하며, 오류 검출 및 수정 기능을 제공합니다.
- 네트워크 계층 (Network Layer): 데이터 패킷을 목적지까지 라우팅합니다.
- 전송 계층 (Transport Layer): 신뢰성 있는 데이터 전송을 보장합니다 (예: TCP, UDP).
- 세션 계층 (Session Layer): 통신 세션을 설정하고 관리합니다.
- 표현 계층 (Presentation Layer): 데이터 형식을 변환하고 암호화합니다.
- 응용 계층 (Application Layer): 사용자와 직접 상호작용하는 응용 프로그램을 제공합니다 (예: HTTP, FTP).
✅ 문제20
A company wants to improve its ability to clone large amounts of production data into a test environment in the same AWS Region. The data is stored in Amazon EC2 instances on Amazon Elastic Block Store (Amazon EBS) volumes. Modifications to the cloned data must not affect the production environment. The software that accesses this data requires consistently high I/O performance.
A solutions architect needs to minimize the time that is required to clone the production data into the test environment.
Which solution will meet these requirements?
회사에서 동일한 AWS 리전의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선하려고 합니다. 데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장됩니다. 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주지 않아야 합니다. 이 데이터에 액세스하는 소프트웨어는 일관되게 높은 I/O 성능을 요구합니다.
솔루션 설계자는 프로덕션 데이터를 테스트 환경에 복제하는 데 필요한 시간을 최소화해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Take EBS snapshots of the production EBS volumes. Restore the snapshots onto EC2 instance store volumes in the test environment.
프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스 스토어 볼륨에 스냅샷을 복원합니다.
B.
Configure the production EBS volumes to use the EBS Multi-Attach feature. Take EBS snapshots of the production EBS volumes. Attach the production EBS volumes to the EC2 instances in the test environment.
EBS 다중 연결 기능을 사용하도록 프로덕션 EBS 볼륨을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스에 프로덕션 EBS 볼륨을 연결합니다.
C.
Take EBS snapshots of the production EBS volumes. Create and initialize new EBS volumes. Attach the new EBS volumes to EC2 instances in the test environment before restoring the volumes from the production EBS snapshots.
프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 새 EBS 볼륨을 생성하고 초기화합니다. 프로덕션 EBS 스냅샷에서 볼륨을 복원하기 전에 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
D.
Take EBS snapshots of the production EBS volumes. Turn on the EBS fast snapshot restore feature on the EBS snapshots. Restore the snapshots into new EBS volumes. Attach the new EBS volumes to EC2 instances in the test environment.
프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 켭니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
⭕ 정답: D
📝 해설
📍 프로덕션 데이터를 테스트 환경에 복제
프로덕션 데이터를 테스트 환경에 효율적으로 복제하기 위한 솔루션은 다음과 같습니다:
- EBS 스냅샷 사용: 프로덕션 EBS 볼륨의 스냅샷을 생성합니다.
- EBS 볼륨 복제: 생성된 스냅샷을 사용하여 테스트 환경에 새로운 EBS 볼륨을 생성합니다.
- 스냅샷 공유: 프로덕션과 테스트 환경 간에 스냅샷을 공유하여 데이터 전송을 최소화합니다.
- FSR 사용: Amazon EBS Fast Snapshot Restore를 사용하여 스냅샷에서 복원된 볼륨을 즉시 사용할 수 있도록 합니다.
이 솔루션은 데이터 복제 시간을 최소화하고, 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주지 않습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (41 - 60) (0) | 2024.05.17 |
---|---|
[AWS SAA-C03] Examtopics Dump (21 - 40) (0) | 2024.05.17 |
[AWS SAA-C03] EC2 기초 (0) | 2024.05.14 |
[AWS SAA-C03] IAM (0) | 2024.05.14 |
[AWS SAA-C03] AWS 기초 (0) | 2024.05.05 |
✅ 문제1
A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection.
The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must minimize operational complexity.
Which solution meets these requirements?
회사는 여러 대륙에 걸쳐 도시의 온도, 습도 및 대기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 데이터의 평균 볼륨은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.
이 회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하려고 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다. 어떤 솔루션이 요구 사항을 충족합니까?
A.
Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.
대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
B.
Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.
각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
C.
Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.
AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
D.
Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket. Restore the EBS volume in that Region.
각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
⭕ 정답 : A
📝 해설
📍Amazon S3 Transfer Acceleration(전송 가속화)
Amazon S3에 데이터를 업로드할 때 속도를 높이는 기능입니다. 이 기능은 사용자와 Amazon S3 버킷 간의 거리가 멀거나, 전 세계적으로 대량의 데이터를 빠르게 전송해야 할 때 유용합니다. AWS의 글로벌 엣지 로케이션 네트워크를 이용해 사용자 데이터를 가장 가까운 엣지 로케이션으로 먼저 전송하고, 그 다음 Amazon의 내부 네트워크를 통해 해당 S3 버킷으로 데이터를 빠르게 전달합니다.
주로 국제적인 데이터 전송, 대용량 미디어 파일 전송, 전 세계 사용자에게 콘텐츠를 제공할 때 유용합니다.
📍 Amazon S3 Transfer Acceleration 특징
- 속도 향상: 네트워크 지연 시간과 속도 제한을 줄여 데이터 전송 속도를 최대 300%까지 향상시킬 수 있습니다.
- 간편한 사용: S3 버킷 설정에서 Transfer Acceleration을 활성화하기만 하면 됩니다. 별도의 코드 변경이나 복잡한 설정이 필요하지 않습니다.
- 비용: 이 기능은 일반적인 S3 데이터 전송보다 비용이 더 들 수 있으므로, 큰 파일을 자주 옮기는 경우에 비용 대비 효과를 고려해야 합니다.
- 실시간 모니터링: AWS Management Console을 통해 Transfer Acceleration의 효과를 확인하고, 속도 향상을 실시간으로 모니터링할 수 있습니다.
📍 멀티파트 업로드
큰 파일을 여러 파트로 나누어 병렬로 업로드할 수 있게 해주는 기능입니다. 이 기능은 특히 큰 파일(최대 5TB)을 효율적으로 업로드하고, 네트워크 문제나 업로드 실패에 대응하기 위해 사용됩니다. 또한, 대용량 데이터 전송, 대역폭 최적화, 높은 신뢰성이 요구되는 업로드 상황에서 특히 중요합니다.
✅ 문제2
A company needs the ability to analyze the log files of its proprietary application. The logs are stored in JSON format in an Amazon S3 bucket. Queries will be simple and will run on-demand. A solutions architect needs to perform the analysis with minimal changes to the existing architecture.
What should the solutions architect do to meet these requirements with the LEAST amount of operational overhead?
회사는 독점 애플리케이션의 로그 파일을 분석할 수 있는 능력이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하고 주문형으로 실행됩니다. 솔루션 설계자는 기존 아키텍처에 대한 최소한의 변경으로 분석을 수행해야 합니다.
솔루션 설계자는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Use Amazon Redshift to load all the content into one place and run the SQL queries as needed.
Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행합니다.
B.
Use Amazon CloudWatch Logs to store the logs. Run SQL queries as needed from the Amazon CloudWatch console.
Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를
실행합니다.
C.
Use Amazon Athena directly with Amazon S3 to run the queries as needed.
Amazon S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행합니다.
D.
Use AWS Glue to catalog the logs. Use a transient Apache Spark cluster on Amazon EMR to run the SQL queries as needed.
AWS Glue를 사용하여 로그를 분류합니다. Amazon EMR에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다.
⭕ 정답 : C
📝 해설
📍 Amazon Athena
Amazon Athena는 AWS에서 제공하는 서버리스 쿼리 서비스로, Amazon S3에 저장된 데이터를 SQL을 사용하여 직접 쿼리할 수 있습니다. 이 서비스는 사용자가 별도의 인프라를 관리할 필요 없이 대규모 데이터셋을 빠르고 효율적으로 분석할 수 있도록 설계되었습니다.
본 문제에서는 JSON 포맷의 로그 데이터를 S3에 저장하고, 필요에 따라 즉시 Athena를 사용하여 쿼리를 실행할 수 있기 때문에, 복잡한 ETL 작업이나 데이터 파이프라인 구축 없이도 분석 요구 사항을 충족할 수 있습니다.
- 서버리스: Athena는 서버리스 아키텍처를 사용하여, 사용자는 서버를 설정하거나 관리할 필요 없이 데이터에 대한 쿼리를 실행할 수 있습니다. 이는 운영 오버헤드를 최소화하고 빠르게 분석 작업을 시작할 수 있게 해줍니다.
- SQL 기반: Athena는 ANSI SQL을 사용하여 쿼리를 작성하고 실행합니다. 이는 데이터베이스 관리자나 개발자가 이미 익숙한 언어를 통해 복잡한 분석 작업을 수행할 수 있게 해줍니다.
- 다양한 데이터 포맷 지원: Athena는 JSON, CSV, Parquet, ORC 등 다양한 데이터 포맷을 지원합니다. 이는 다양한 소스에서 수집된 데이터를 별도의 변환 없이 바로 분석할 수 있음을 의미합니다.
- 직접적인 S3 통합: Athena는 Amazon S3에 저장된 데이터를 직접 쿼리합니다. 별도의 데이터 이동이나 복사 과정 없이, S3에 저장된 원본 데이터를 바로 분석할 수 있습니다.
- 비용 효율적: Athena는 쿼리 실행 시 실제로 스캔한 데이터 양에 따라 요금이 부과됩니다. 이는 큰 데이터셋에서 작은 부분만을 쿼리할 경우 비용을 크게 절감할 수 있습니다.
- 통합 및 확장성: Athena는 AWS Glue와 통합되어 데이터 카탈로그 기능을 제공하며, QuickSight와 같은 다른 AWS 서비스와도 연동되어 데이터 시각화 및 대시보드 구성이 가능합니다.
✅ 문제3
A company uses AWS Organizations to manage multiple AWS accounts for different departments. The management account has an Amazon S3 bucket that contains project reports. The company wants to limit access to this S3 bucket to only users of accounts within the organization in AWS Organizations.
Which solution meets these requirements with the LEAST amount of operational overhead?
회사는 AWS Organizations를 사용하여 여러 부서의 여러 AWS 계정을 관리합니다. 관리 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations의 조직 내 계정 사용자로만 제한하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Add the aws PrincipalOrgID global condition key with a reference to the organization ID to the S3 bucket policy.
조직 ID에 대한 참조와 함께 aws PrincipalOrgID 글로벌 조건 키를 S3 버킷 정책에 추가합니다.
B.
Create an organizational unit (OU) for each department. Add the aws:PrincipalOrgPaths global condition key to the S3 bucket policy.
각 부서에 대한 조직 단위(OU)를 만듭니다. aws:PrincipalOrgPaths 전역 조건 키를 S3 버킷 정책에 추가합니다.
C.
Use AWS CloudTrail to monitor the CreateAccount, InviteAccountToOrganization, LeaveOrganization, and RemoveAccountFromOrganization events. Update the S3 bucket policy accordingly.
AWS CloudTrail을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization 및 RemoveAccountFromOrganization 이벤트를 모니터링합니다. 그에 따라 S3 버킷 정책을 업데이트합니다.
D.
Tag each user that needs access to the S3 bucket. Add the aws:PrincipalTag global condition key to the S3 bucket policy.
S3 버킷에 액세스해야 하는 각 사용자에 태그를 지정합니다. aws:PrincipalTag 전역 조건 키를 S3 버킷 정책에 추가합니다.
⭕ 정답 : A
📝 해설
📍 AWS Organization
AWS 계정을 중앙에서 관리하도록 도와주는 서비스로, 여러 계정을 조직으로 묶어 정책을 통해 접근 및 보안을 관리할 수 있습니다. 이를 통해 계정 간 리소스 공유, 비용 관리, 보안 정책 설정 등을 효율적으로 수행할 수 있습니다.
📍 aws:PrincipalOrgID 글로벌 조건 키
IAM 정책 또는 S3 버킷 정책에서 사용할 수 있는 조건 키로, 특정 AWS Organizations의 조직 ID와 연결된 AWS 계정의 사용자만 리소스에 접근할 수 있도록 제한하는 데 사용됩니다. 이 조건 키를 사용함으로써, 복잡한 사용자 관리나 접근 제어 리스트(ACL)를 별도로 설정하지 않고도 조직 내의 계정에 속한 사용자에게만 접근을 허용하는 정책을 손쉽게 구현할 수 있습니다.
📍 대표적인 조건 키
- 서비스별 조건 키: 각 AWS 서비스는 자체적인 조건 키를 제공합니다. 예를 들어, S3는 s3:prefix와 s3:max-keys 같은 조건 키를 제공하며, EC2는 ec2:InstanceType이나 ec2:Region 같은 키를 제공합니다.
- 공통 조건 키: 모든 AWS 서비스에서 공통적으로 사용할 수 있는 조건 키입니다. 예를 들어, aws:CurrentTime은 현재 시간을 기준으로 접근을 제어할 때 사용되며, aws:SourceIp는 요청의 IP 주소를 기준으로 접근을 제어하는 데 사용됩니다.
- 태그 기반 조건 키: AWS 리소스에 설정된 태그를 기반으로 접근 제어를 할 수 있는 조건 키입니다. 예를 들어, aws:RequestTag/tag-key를 사용하여 특정 태그가 있는 요청만을 허용하거나, aws:ResourceTag/tag-key를 사용하여 특정 태그가 붙은 리소스에 대한 접근을 제어할 수 있습니다.
✅ 문제4
An application runs on an Amazon EC2 instance in a VPC. The application processes logs that are stored in an Amazon S3 bucket. The EC2 instance needs to access the S3 bucket without connectivity to the internet.
Which solution will provide private network connectivity to Amazon S3?
애플리케이션은 VPC의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷 연결 없이 S3 버킷에 액세스해야 합니다.
Amazon S3에 대한 프라이빗 네트워크 연결을 제공하는 솔루션은 무엇입니까?
A.
Create a gateway VPC endpoint to the S3 bucket.
S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다.
B.
Stream the logs to Amazon CloudWatch Logs. Export the logs to the S3 bucket.
Amazon CloudWatch Logs로 로그를 스트리밍합니다. 로그를 S3 버킷으로 내보냅니다.
C.
Create an instance profile on Amazon EC2 to allow S3 access.
Amazon EC2에 인스턴스 프로파일을 생성하여 S3 액세스를 허용합니다.
*인스턴스 프로파일 : IAM 역할을 위한 컨테이너로서 인스턴스 시작 시 Amazon EC2 인스턴스에 역할 정보를 전달하는 데 사용됨.
D.
Create an Amazon API Gateway API with a private link to access the S3 endpoint.
S3 엔드포인트에 액세스하기 위한 프라이빗 링크가 있는 Amazon API Gateway API를 생성합니다.
⭕ 정답 : A
📝 해설
📍게이트웨이 VPC 엔드포인트
Amazon S3와 같은 AWS 서비스에 대한 프라이빗 네트워크 연결을 가능하게 하는 기능입니다. 이를 사용하면 VPC 내의 리소스가 인터넷을 거치지 않고 직접 AWS 서비스에 접근할 수 있습니다.
게이트웨이 VPC 엔드포인트는 VPC의 라우팅 테이블에 라우트를 추가하여 특정 IP 주소 범위로의 트래픽을 엔드포인트로 리디렉션합니다. 이렇게 하면 EC2 인스턴스 같은 VPC 내의 리소스가 S3와 같은 지원되는 서비스에 프라이빗하게 연결될 수 있습니다.
게이트웨이 엔드포인트를 사용하면 인터넷 게이트웨이, NAT 디바이스, VPN 연결 등의 별도 인프라 없이 AWS 서비스에 안전하고 효율적으로 접근할 수 있어, 비용과 관리 면에서 이점을 제공합니다.
- 프라이빗 연결: VPC와 S3 버킷 간의 트래픽이 AWS 네트워크 내부에서만 이루어지므로 보안이 강화됩니다.
- 간단한 설정: VPC 대시보드에서 엔드포인트를 생성하고, 필요한 라우트 테이블에 엔드포인트를 연결하기만 하면 됩니다.
- 비용 효율적: 추가 비용 없이 VPC 내에서 S3 서비스를 이용할 수 있으며, 인터넷 대역폭 비용이 절감됩니다.
- IAM 정책과의 통합: IAM 정책을 사용하여 엔드포인트에 대한 접근을 제어할 수 있습니다.
✅ 문제5
A company is hosting a web application on AWS using a single Amazon EC2 instance that stores user-uploaded documents in an Amazon EBS volume. For better scalability and availability, the company duplicated the architecture and created a second EC2 instance and EBS volume in another Availability Zone, placing both behind an Application Load Balancer. After completing this change, users reported that, each time they refreshed the website, they could see one subset of their documents or the other, but never all of the documents at the same time.
What should a solutions architect propose to ensure users see all of their documents at once?
회사는 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 더 나은 확장성과 가용성을 위해 이 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자는 웹 사이트를 새로 고칠 때마다 문서의 일부 또는 다른 하위 집합을 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했습니다.
솔루션 설계자는 사용자가 모든 문서를 한 번에 볼 수 있도록 무엇을 제안해야 합니까?
A.
Copy the data so both EBS volumes contain all the documents
두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다 .
B.
Configure the Application Load Balancer to direct a user to the server with the documents
사용자를 문서가 있는 서버로 안내하도록 Application Load Balancer 구성합니다.
C.
Copy the data from both EBS volumes to Amazon EFS. Modify the application to save new documents to Amazon EFS
두 EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. Amazon EFS에 새 문서를 저장하도록 애플리케이션을 수정합니다.
D.
Configure the Application Load Balancer to send the request to both servers. Return each document from the correct server
두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환합니다.
⭕ 정답 : C
📝 해설
📍 Amazon Elastic File System (EFS)
AWS에서 제공하는 관리형 파일 스토리지 서비스로, 여러 Amazon EC2 인스턴스에서 동시에 사용할 수 있는 고성능 파일 시스템을 제공합니다. EFS는 POSIX 호환 파일 시스템으로, 클라우드 환경에서 스케일 아웃이 가능해 대규모 병렬 액세스에 적합합니다.
- 확장성: 사용량에 따라 자동으로 확장되므로, 저장 공간을 미리 프로비저닝할 필요가 없습니다. 저장된 데이터와 I/O 요청이 증가함에 따라 성능이 동적으로 조절됩니다.
- 내구성 및 가용성: EFS는 여러 가용 영역(AZ)에 걸쳐 데이터를 저장하여 높은 내구성과 가용성을 제공합니다.
- 간편한 통합: Linux 기반의 EC2 인스턴스와 함께 NFS를 통해 손쉽게 마운트할 수 있으며, AWS Lambda와의 통합도 지원하여 서버리스 애플리케이션에서 파일 데이터에 접근할 수 있습니다.
- 성능 모드: 다양한 워크로드에 맞춰 '일반적인 성능 모드'와 '최대 I/O 성능 모드' 중 선택할 수 있어, 일반적인 엔터프라이즈 애플리케이션부터 높은 수준의 병렬 처리를 요구하는 애플리케이션까지 대응 가능합니다.
- 비용 효율적: 사용한 만큼만 요금을 지불하는 구조로, 용량을 미리 할당하고 비용을 지불할 필요가 없습니다.
✅ 문제6
A company uses NFS to store large video files in on-premises network attached storage. Each video file ranges in size from 1 MB to 500 GB. The total storage is 70 TB and is no longer growing. The company decides to migrate the video files to Amazon S3. The company must migrate the video files as soon as possible while using the least possible network bandwidth.
Which solution will meet these requirements?
회사는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기 범위는 1MB에서 500GB입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정합니다. 회사는 가능한 한 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Create an S3 bucket. Create an IAM role that has permissions to write to the S3 bucket. Use the AWS CLI to copy all files locally to the S3 bucket.
S3 버킷을 생성합니다. S3 버킷에 대한 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
B.
Create an AWS Snowball Edge job. Receive a Snowball Edge device on premises. Use the Snowball Edge client to transfer data to the device. Return the device so that AWS can import the data into Amazon S3.
AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 장치를 받습니다. Snowball Edge 클라이언트를 사용하여 장치로 데이터를 전송합니다. AWS가 데이터를 Amazon S3로 가져올 수 있도록 디바이스를 반환합니다.
C.
Deploy an S3 File Gateway on premises. Create a public service endpoint to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data
from the existing NFS file share to the S3 File Gateway.
온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 퍼블릭 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
D.
Set up an AWS Direct Connect connection between the on-premises network and AWS. Deploy an S3 File Gateway on premises. Create a public virtual interface (VIF) to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data from the existing NFS file share to the S3 File Gateway.
온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 공용 VIF(가상 인터페이스)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
⭕ 정답 : B
📝 해설
📍 AWS Snowball Edge
대용량의 데이터를 AWS 클라우드로 또는 클라우드에서 물리적으로 전송할 수 있도록 설계된 데이터 전송 서비스입니다. 이 서비스는 인터넷 연결이 느리거나 없는 환경에서도 대량의 데이터를 효과적으로 이동할 수 있게 해주며, 일부 컴퓨팅 기능도 제공합니다. 또한, 리모트 사이트의 대규모 데이터 수집, 장기간 오프라인 데이터 보관, 대규모 데이터 마이그레이션 등 다양하게 활용될 수 있습니다.
- 대용량 데이터 전송: Snowball Edge 장비는 수십 TB에서 수백 TB의 데이터를 저장할 수 있어, 네트워크를 통한 데이터 전송이 비효율적인 경우 유용합니다. Snowball Edge는 이러한 대용량 데이터를 물리적으로 운송하여 효율적으로 전송할 수 있게 해줍니다.
- 컴퓨팅 기능: 일부 Snowball Edge 장비는 AWS Lambda 함수를 로컬에서 실행할 수 있는 컴퓨팅 옵션을 제공하며, 데이터를 전송하는 동시에 간단한 처리 작업을 수행할 수 있습니다.
- 보안: 데이터는 AES-256 암호화로 보호되며, AWS Key Management Service(KMS)와 통합되어 안전한 데이터 관리가 가능합니다.
- 편리한 사용: AWS Management Console을 통해 Snowball Edge 장비를 요청하고, 장비가 도착하면 로컬 네트워크를 통해 데이터를 복사할 수 있습니다. 전송이 완료되면 장비를 AWS로 반송하면 AWS에서 데이터를 S3 버킷으로 자동으로 전송합니다.
- 네트워크 대역폭 최소화: 온프레미스 데이터 센터에서 AWS로 데이터를 마이그레이션하는 과정에서 발생할 수 있는 대역폭 문제를 피할 수 있습니다. Snowball Edge를 사용하면 네트워크 대역폭을 거의 사용하지 않고도 대용량 데이터를 AWS로 옮길 수 있습니다.
✅ 문제7
A company has an application that ingests incoming messages. Dozens of other applications and microservices then quickly consume these messages. The number of messages varies drastically and sometimes increases suddenly to 100,000 each second. The company wants to decouple the solution and increase scalability.
Which solution meets these requirements?
회사에 들어오는 메시지를 수집하는 응용 프로그램이 있습니다. 그러면 수십 개의 다른 애플리케이션과 마이크로서비스가 이러한 메시지를 빠르게 소비합니다. 메시지 수는 급격하게 변하며 때로는 초당 100,000개로 갑자기 증가하기도 합니다. 이 회사는 솔루션을 분리하고 확장성을 높이고자 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Persist the messages to Amazon Kinesis Data Analytics. Configure the consumer applications to read and process the messages.
Amazon Kinesis Data Analytics에 대한 메시지를 유지합니다. 메시지를 읽고 처리하도록 소비자 애플리케이션을 구성합니다.
B.
Deploy the ingestion application on Amazon EC2 instances in an Auto Scaling group to scale the number of EC2 instances based on CPU metrics.
Auto Scaling 그룹의 Amazon EC2 인스턴스에 수집 애플리케이션을 배포하여 CPU 지표를 기반으로 EC2 인스턴스 수를 확장합니다.
C.
Write the messages to Amazon Kinesis Data Streams with a single shard. Use an AWS Lambda function to preprocess messages and store them in Amazon DynamoDB. Configure the consumer applications to read from DynamoDB to process the messages.
단일 샤드를 사용하여 Amazon Kinesis Data Streams에 메시지를 씁니다. AWS Lambda 함수를 사용하여 메시지를 사전 처리하고 Amazon DynamoDB에 저장합니다. 메시지를 처리하기 위해 DynamoDB에서 읽도록 소비자 애플리케이션을 구성합니다.
D.
Publish the messages to an Amazon Simple Notification Service (Amazon SNS) topic with multiple Amazon Simple Queue Service (Amazon SOS) subscriptions. Configure the consumer applications to process the messages from the queues.
여러 Amazon Simple Queue Service(Amazon SQS) 구독이 있는 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. 대기열의 메시지를 처리하도록 소비자 애플리케이션을 구성합니다.
⭕ 정답 : D
📝 해설
📍 Amazon Simple Queue Service (Amazon SQS)
SQS는 완전 관리형 메시지 큐잉 서비스로, 서버나 클러스터를 관리할 필요 없이 메시지를 보내고 받을 수 있게 해줍니다. SQS는 분산 시스템에서 컴포넌트 간의 비동기 통신 및 분리를 가능하게 하며, 처리할 수 없는 메시지를 위한 대기열 관리 기능을 제공합니다.
📍 Amazon Simple Notification Service (Amazon SNS)
SNS는 완전 관리형 퍼블리싱/서브스크라이브 메시징 서비스로, 여러 서브스크라이버에게 메시지를 동시에 효율적으로 전달할 수 있습니다. 이는 이메일, SMS, HTTP 엔드포인트 및 AWS Lambda와 같은 서비스에 메시지를 보낼 수 있습니다.
==> SNS와 SQS를 결합하여 높은 처리량의 메시지를 다양한 소비자 애플리케이션에 분배하는 데 적합합니다. SNS는 여러 SQS 대기열로 메시지를 빠르게 라우팅하고, 각 SQS 대기열은 각 소비자 애플리케이션에 맞게 확장성 있게 구성할 수 있습니다. 이는 초당 100,000개의 메시지를 처리하고, 확장성과 분리를 동시에 달성할 수 있는 가장 적절한 선택입니다.
📍 Amazon Kinesis Data Analytics
실시간 데이터 스트림을 분석할 수 있는 완전 관리형 서비스입니다. Kinesis Data Analytics는 대규모 스트림 데이터를 처리하고, 사용자 정의 애플리케이션을 통해 실시간 분석을 수행할 수 있게 해줍니다. Kinesis Data Streams는 초당 수십만 개의 메시지를 처리할 수 있는 높은 처리량을 제공하며, 이는 급격한 트래픽 증가를 처리하는 데 적합합니다.
==> Kinesis Data Analytics는 실시간 스트림 데이터 분석에 초점을 맞춘 서비스로, 주로 분석 작업에 사용됩니다. 단순히 메시지를 유지하고 소비자 애플리케이션으로 전달하는 데에는 불필요한 복잡성과 비용을 추가할 수 있습니다.
✅ 문제8
A company is migrating a distributed application to AWS. The application serves variable workloads. The legacy platform consists of a primary server that coordinates jobs across multiple compute nodes. The company wants to modernize the application with a solution that maximizes resiliency and scalability.
How should a solutions architect design the architecture to meet these requirements?
회사에서 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. *레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?
* 레거시 : 프로그래밍 언어, 플랫폼 그리고 기술 등에 있어서 과거로부터 물려 내려온 것
A.
Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling to use scheduled scaling.
작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
B.
Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling based on the size of the queue.
작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
C.
Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure AWS CloudTrail as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the primary server.
Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 AWS CloudTrail을 구성합니다. 기본 서버의 부하를 기반으로 EC2 Auto Scaling을 구성합니다.
D.
Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure Amazon EventBridge (Amazon CloudWatch Events) as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the compute nodes.
Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. 컴퓨팅 노드의 부하를 기반으로 EC2 Auto Scaling을 구성합니다.
⭕ 정답 : B
📝 해설
- Amazon SQS (Simple Queue Service): 메시지 대기열 서비스로, 분산 시스템 간의 비동기 통신을 가능하게 하여 각 컴포넌트가 독립적으로 확장되고 관리될 수 있게 합니다.
- Amazon EC2 Auto Scaling: EC2 인스턴스를 그룹으로 관리하여 수요에 따라 자동으로 인스턴스 수를 조정합니다. 이는 워크로드의 변화에 따라 인프라를 탄력적으로 확장하거나 축소할 수 있게 해줍니다.
- Amazon Simple Queue Service (SQS) 대기열 크기 기반의 Auto Scaling: 대기열에 있는 작업의 수를 모니터링하여, 필요에 따라 컴퓨팅 리소스를 동적으로 조정합니다. 이는 처리해야 할 작업이 많을 때 자동으로 리소스를 추가하고, 작업량이 줄어들면 리소스를 줄여 비용을 절감할 수 있게 합니다.
==> Amazon SQS를 사용하여 작업을 관리하고 대기열의 크기에 따라 EC2 인스턴스의 수를 동적으로 조절함으로써, 예기치 않은 워크로드 증가에 빠르게 대응할 수 있으며, 확장성과 탄력성을 극대화할 수 있습니다.
📍 Amazon EventBridge (이전의 Amazon CloudWatch Events)
주로 이벤트 기반 아키텍처를 위해 설계된 서비스입니다. 이 서비스는 AWS 서비스, 사용자 애플리케이션, 외부 애플리케이션에서 발생하는 다양한 이벤트를 수집하여, 이를 기반으로 다른 서비스를 트리거하거나 특정 작업을 실행하는 데 사용됩니다.
여기서는 분산 애플리케이션을 AWS로 마이그레이션하고 있으며, 애플리케이션이 처리해야 하는 워크로드의 변화에 탄력적으로 대응할 수 있는 구조를 만들어야 합니다. 특히, 대규모로 동적으로 변하는 컴퓨팅 요구사항에 대응할 수 있는 방식이 필요합니다.
✅ 문제9
A company is running an SMB file server in its data center. The file server stores large files that are accessed frequently for the first few days after the files are created. After 7 days the files are rarely accessed.
The total data size is increasing and is close to the company's total storage capacity. A solutions architect must increase the company's available storage space without losing low-latency access to the most recently accessed files. The solutions architect must also provide file lifecycle management to avoid future storage issues.
Which solution will meet these requirements?
회사는 데이터 센터에서 SMB 파일 서버를 실행하고 있습니다. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스하는 대용량 파일을 저장합니다. 7일이 지나면 파일에 거의 액세스하지 않습니다.
총 데이터 크기가 증가하고 있으며 회사의 총 저장 용량에 가깝습니다. 솔루션 설계자는 가장 최근에 액세스한 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 솔루션 설계자는 향후 스토리지 문제를 방지하기 위해 파일 수명 주기 관리도 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use AWS DataSync to copy data that is older than 7 days from the SMB file server to AWS.
AWS DataSync를 사용하여 SMB 파일 서버에서 AWS로 7일이 지난 데이터를 복사합니다.
B.
Create an Amazon S3 File Gateway to extend the company's storage space. Create an S3 Lifecycle policy to transition the data to S3 Glacier Deep Archive after 7 days.
Amazon S3 파일 게이트웨이를 생성하여 회사의 스토리지 공간을 확장합니다. S3 수명 주기 정책을 생성하여 7일 후에 데이터를 S3 Glacier Deep Archive로 전환합니다.
C.
Create an Amazon FSx for Windows File Server file system to extend the company's storage space.
Windows 파일 서버용 Amazon FSx 파일 시스템을 생성하여 회사의 저장 공간을 확장합니다.
D.
Install a utility on each user's computer to access Amazon S3. Create an S3 Lifecycle policy to transition the data to S3 Glacier Flexible Retrieval after 7 days.
각 사용자의 컴퓨터에 유틸리티를 설치하여 Amazon S3에 액세스합니다. S3 수명 주기 정책을 생성하여 7일 후 데이터를 S3 Glacier Flexible Retrieval로 전환합니다.
⭕ 정답 : B
📝 해설
📍 AWS S3 File Gateway
Amazon S3 File Gateway는 AWS Storage Gateway 서비스의 일부로, 온프레미스 환경에서 클라우드 스토리지를 사용하여 파일 데이터를 저장할 수 있도록 해주는 하이브리드 스토리지 솔루션이며, 표준 파일 프로토콜인 NFS와 SMB를 지원합니다. 이 게이트웨이는 온프레미스 시스템에서 파일을 S3 버킷으로 직접 저장하고, 필요에 따라 클라우드로부터 데이터를 로컬로 캐시하여 저지연 액세스를 제공합니다. 이를 통해 사용자는 AWS 클라우드의 확장성과 내구성을 활용하면서 기존 애플리케이션과의 호환성을 유지할 수 있습니다.
==> SMB 프로토콜을 사용하여 온프레미스 파일 서버의 확장으로 작동하며, 클라우드에 파일을 투명하게 저장합니다. 이를 통해 회사는 기존 SMB 파일 서버 환경을 유지하면서 저장 공간을 확장할 수 있습니다. 또한, S3 Lifecycle 정책을 설정하여 7일이 지난 후에 사용 빈도가 낮은 파일을 자동으로 설정할 수 있습니다.
📍 AWS Strorage Gateway
온프레미스 환경과 AWS 클라우드 간의 데이터 이동을 용이하게 하는 하이브리드 클라우드 스토리지 서비스입니다. 이 서비스는 데이터를 AWS 클라우드로 안전하게 전송하고 관리하는 데 도움을 줍니다. Storage Gateway는 세 가지 주요 타입으로 구성됩니다: 파일 게이트웨이(S3 File Gateway), 볼륨 게이트웨이, 테이프 게이트웨이. 각 타입은 다른 유형의 데이터와 애플리케이션 요구 사항에 맞게 설계되었습니다. 예를 들어, 파일 게이트웨이는 파일 기반 데이터를 S3에 저장하고, 볼륨 게이트웨이는 iSCSI 기반 스토리지 볼륨을 제공하며, 테이프 게이트웨이는 가상 테이프 라이브러리를 통해 백업과 아카이빙을 지원합니다.
📍 S3 Glacier Deep Archive
Amazon S3의 스토리지 클래스 중 하나로, 데이터를 장기간 저장하기 위한 가장 비용 효율적인 옵션을 제공합니다. 이 스토리지 클래스는 매우 낮은 비용으로 데이터를 저장하며, 주로 접근 빈도가 매우 낮은 데이터를 대상으로 합니다. S3 Glacier Deep Archive는 회계 기록, 과학 데이터, 오래된 미디어 콘텐츠 등 접근이 필요하지 않거나 매우 드문 데이터를 위한 이상적인 솔루션입니다. 데이터는 몇 시간 내에 복구할 수 있으며, 이는 재해 복구 및 컴플라이언스 요구 사항을 충족하는 데 도움이 됩니다. 이 스토리지 클래스는 데이터를 보존하고, 장기적으로 비용을 절감하며, 필요할 때 안전하게 데이터에 접근할 수 있도록 설계되었습니다.
✅ 문제10
A company is building an ecommerce web application on AWS. The application sends information about new orders to an Amazon API Gateway REST API to process. The company wants to ensure that orders are processed in the order that they are received.
Which solution will meet these requirements?
회사는 AWS에서 전자 상거래 웹 애플리케이션을 구축하고 있습니다. 애플리케이션은 처리할 Amazon API Gateway REST API에 새 주문에 대한 정보를 보냅니다. 회사는 주문이 접수된 순서대로 처리되기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use an API Gateway integration to publish a message to an Amazon Simple Notification Service (Amazon SNS) topic when the application receives an order. Subscribe an AWS Lambda function to the topic to perform processing.
API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. AWS Lambda 함수를 주제에 구독하여 처리를 수행합니다.
B.
Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) FIFO queue when the application receives an order. Configure the SQS FIFO queue to invoke an AWS Lambda function for processing.
API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.
C.
Use an API Gateway authorizer to block any requests while the application processes an order.
API Gateway 권한 부여자를 사용하여 애플리케이션이 주문을 처리하는 동안 모든 요청을 차단합니다.
D.
Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) standard queue when the application receives an order. Configure the SQS standard queue to invoke an AWS Lambda function for processing.
API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다.
⭕ 정답 : B
📝 해설
📍 Amazon Simple Queue Service (Amazon SQS) FIFO 대기열
Amazon SQS의 FIFO (First-In-First-Out) 대기열은 메시지가 정확히 한 번 전송되고 순서대로 처리되도록 보장하는 큐 서비스입니다. 이는 메시지의 순서와 전달이 중요한 애플리케이션에 적합합니다. FIFO 대기열은 메시지의 중복 없이, 전송된 순서대로 메시지가 처리되도록 합니다. 이러한 특성 때문에 트랜잭션 처리, 순차적 이벤트 처리 등에 사용됩니다. FIFO 대기열은 초당 최대 3,000개의 메시지를 처리할 수 있는 고성능을 제공합니다.
📍 Amazon Simple Queue Service (Amazon SQS) 표준 대기열
Amazon SQS의 표준 대기열은 높은 처리량과 뛰어난 확장성을 제공하는 메시징 솔루션입니다. 표준 대기열은 메시지가 한 번 이상 전달될 수 있으며, 메시지가 항상 엄격한 순서대로 처리되는 것은 보장하지 않습니다. 하지만, 대부분의 애플리케이션에서 허용 가능한 수준의 순서와 전달 빈도를 제공합니다. 이는 대규모 분산 시스템에서의 태스크 분배, 로그 수집, 실시간 데이터 처리 등에 적합하며, 초당 수십만 개의 메시지를 처리할 수 있습니다.
✅ 문제11
A company has an application that runs on Amazon EC2 instances and uses an Amazon Aurora database. The EC2 instances connect to the database by using user names and passwords that are stored locally in a file. The company wants to minimize the operational overhead of credential management.
What should a solutions architect do to accomplish this goal?
회사에 Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있습니다. EC2 인스턴스는 파일에 로컬로 저장된 사용자 이름과 암호를 사용하여 데이터베이스에 연결합니다. 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 합니다.
솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까?
A.
Use AWS Secrets Manager. Turn on automatic rotation.
AWS Secrets Manager를 사용합니다. 자동 교체를 켭니다.
B.
Use AWS Systems Manager Parameter Store. Turn on automatic rotation.
AWS Systems Manager Parameter Store를 사용합니다. 자동 교체를 켭니다.
C.
Create an Amazon S3 bucket to store objects that are encrypted with an AWS Key Management Service (AWS KMS) encryption key. Migrate the credential file to the S3 bucket. Point the application to the S3 bucket.
AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장할 Amazon S3 버킷을 생성합니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션이 S3 버킷을 가리키도록 합니다.
D.
Create an encrypted Amazon Elastic Block Store (Amazon EBS) volume for each EC2 instance. Attach the new EBS volume to each EC2 instance. Migrate the credential file to the new EBS volume. Point the application to the new EBS volume.
각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 새 EBS 볼륨을 각 EC2 인스턴스에 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션이 새 EBS 볼륨을 가리키도록 합니다.
⭕ 정답: A
📝 해설
📍 AWS Secrets Manager
데이터베이스, 서비스, 다양한 애플리케이션에서 사용하는 비밀번호, 토큰, API 키, 기타 중요한 정보를 안전하게 저장하고 관리하는 서비스입니다. 이 서비스는 비밀을 중앙 집중화하여 관리하며, 액세스 제어, 암호화, 감사 추적 기능을 제공합니다. 자동 교체 기능은 특히 주목할 만합니다. 이 기능을 사용하면 사용자 지정 또는 자동화된 일정에 따라 보안 내용을 정기적으로 교체할 수 있습니다. 이는 보안 위험을 줄이고, 무단 액세스로부터 보호하는 데 도움이 됩니다. 예를 들어, RDS 데이터베이스 비밀번호를 자동으로 교체하도록 설정할 수 있으며, 이 과정은 완전히 자동화되어 운영 부담을 줄여줍니다.
- 보안 강화: 로컬 파일에 저장된 자격 증명은 노출 위험이 높고 보안 취약점을 유발할 수 있습니다. Secrets Manager를 사용하면 자격 증명이 중앙화되고 안전하게 암호화되어 저장됩니다. 또한, AWS Identity and Access Management (IAM)을 통해 세밀한 액세스 제어가 가능해져 비인가 액세스로부터 보호됩니다.
- 자동 자격 증명 교체: AWS Secrets Manager는 데이터베이스 자격 증명의 자동 교체를 지원합니다. 이를 통해 정기적으로 또는 필요에 따라 자동으로 데이터베이스 비밀번호를 교체할 수 있으며, 이 과정은 애플리케이션에 투명하게 진행됩니다. 이는 보안을 강화하고, 자격 증명 관리에 대한 수동 개입을 줄여 운영 오버헤드를 크게 감소시킵니다.
- 중앙화된 자격 증명 관리: 자격 증명을 중앙에서 관리함으로써 여러 애플리케이션과 서비스 간의 일관된 접근 방식을 제공합니다. 이는 자격 증명의 변경이나 업데이트가 필요할 때 모든 애플리케이션에 일관되게 적용될 수 있도록 하며, 관리 포인트를 단일화하여 오버헤드를 감소시킵니다.
- 감사 및 모니터링: Secrets Manager는 자격 증명의 사용과 접근을 추적하는 감사 로그를 제공합니다. 이를 통해 보안 감사와 문제 해결 과정에서 유용한 정보를 얻을 수 있으며, 비정상적인 접근 시도나 사용 패턴을 식별하여 즉각적으로 대응할 수 있습니다.
- 애플리케이션 코드의 간소화: Secrets Manager를 사용하면 애플리케이션 코드에서 자격 증명을 직접 관리하는 복잡성을 제거할 수 있습니다. SDK나 API를 통해 Secrets Manager로부터 자격 증명을 안전하게 조회하며, 이는 코드를 더욱 간결하고 유지 관리하기 쉽게 만듭니다.
📍 AWS Systems Manager Parameter Store
애플리케이션 구성 데이터와 중요한 운영 데이터를 안전하게 저장하고 관리하는 서비스입니다. 이 서비스는 텍스트 문자열 또는 암호화된 데이터 형태로 파라미터 값을 저장할 수 있으며, 이러한 파라미터는 구성 데이터, 데이터베이스 문자열, 비밀번호 등을 포함할 수 있습니다. Parameter Store는 AWS Identity and Access Management (IAM)을 사용하여 세밀한 접근 제어를 제공하고, AWS Key Management Service (KMS)를 사용하여 암호화된 데이터를 보호합니다. 이를 통해 애플리케이션의 설정을 중앙에서 관리할 수 있으며, 코드 내 하드코딩을 피하고 보안을 강화할 수 있습니다. Parameter Store는 비용 효율적이며, 간단한 설정에서 복잡한 애플리케이션 환경까지 지원합니다.
✅ 문제12
A global company hosts its web application on Amazon EC2 instances behind an Application Load Balancer (ALB). The web application has static data and dynamic data. The company stores its static data in an Amazon S3 bucket. The company wants to improve performance and reduce latency for the static data and dynamic data. The company is using its own domain name registered with Amazon Route 53.
What should a solutions architect do to meet these requirements?
글로벌 회사는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터 및 동적 데이터의 성능을 개선하고 대기 시간을 줄이기를 원합니다. 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Create an Amazon CloudFront distribution that has the S3 bucket and the ALB as origins. Configure Route 53 to route traffic to the CloudFront distribution.
S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53을 구성합니다.
B.
Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that has the S3 bucket as an endpoint Configure Route 53 to route traffic to the CloudFront distribution.
ALB가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53을 구성합니다.
C.
Create an Amazon CloudFront distribution that has the S3 bucket as an origin. Create an AWS Global Accelerator standard accelerator that has the ALB and the CloudFront distribution as endpoints. Create a custom domain name that points to the accelerator DNS name. Use the custom domain name as an endpoint for the web application.
S3 버킷을 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다.
D.
Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that has the S3 bucket as an endpoint. Create two domain names. Point one domain name to the CloudFront DNS name for dynamic content. Point the other domain name to the accelerator DNS name for static content. Use the domain names as endpoints for the web application.
ALB가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 하나의 도메인 이름이 동적 콘텐츠의 CloudFront DNS 이름을 가리키도록 합니다. 다른 도메인 이름이 정적 콘텐츠에 대한 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다.
⭕ 정답: A
📝 해설
- 통합된 캐싱 및 최적화: CloudFront는 글로벌 콘텐츠 전송 네트워크(CDN)로, 정적 및 동적 콘텐츠에 대한 접근 속도를 향상시키고 대기 시간을 줄입니다. CloudFront를 통해 S3 버킷에서 호스팅되는 정적 콘텐츠와 ALB를 통해 제공되는 동적 콘텐츠 모두에 대한 캐싱 및 최적화를 제공할 수 있습니다.
- 단일 도메인 사용: 이 구성을 통해 사용자는 하나의 CloudFront 배포를 사용하여 정적 및 동적 콘텐츠 모두에 접근할 수 있습니다. 이는 관리를 간소화하고 사용자 경험을 일관되게 유지하는 데 도움이 됩니다.
- 자동 확장 및 관리: CloudFront는 자동으로 확장되며, AWS의 전 세계 에지 로케이션을 활용하여 사용자에게 빠른 콘텐츠 전송을 제공합니다. 이는 특히 글로벌 사용자 기반을 가진 회사에 중요합니다.
- 보안 및 성능: CloudFront는 SSL/TLS를 사용하여 콘텐츠를 안전하게 전송하며, AWS WAF와 통합하여 보안을 강화할 수 있습니다. 또한, HTTP/2와 같은 최신 프로토콜을 지원하여 성능을 개선합니다.
다른 옵션들과 비교했을 때, A는 정적 및 동적 콘텐츠 모두에 대해 일관된 성능 향상과 운영 효율성을 제공하며, 추가적인 복잡성이나 관리 오버헤드를 최소화합니다. AWS Global Accelerator를 사용하는 다른 옵션들은 별도의 도메인 관리와 복잡한 라우팅 설정이 필요하며, CloudFront만큼 통합된 캐싱 및 최적화를 제공하지 않습니다. 따라서 A는 이 시나리오의 요구 사항을 충족하는 가장 간결하고 효과적인 솔루션입니다.
✅ 문제13
A company performs monthly maintenance on its AWS infrastructure. During these maintenance activities, the company needs to rotate the credentials for its Amazon RDS for MySQL databases across multiple AWS Regions.
Which solution will meet these requirements with the LEAST operational overhead?
회사는 AWS 인프라에 대한 월별 유지 관리를 수행합니다. 이러한 유지 관리 활동 중에 회사는 여러 AWS 리전에서 MySQL용 Amazon RDS 데이터베이스에 대한 자격 증명을 교체해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Store the credentials as secrets in AWS Secrets Manager. Use multi-Region secret replication for the required Regions. Configure Secrets Manager to rotate the secrets on a schedule.
자격 증명을 AWS Secrets Manager에 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 보안 암호를 교체하도록 Secrets Manager를 구성합니다.
B.
Store the credentials as secrets in AWS Systems Manager by creating a secure string parameter. Use multi-Region secret replication for the required Regions. Configure Systems Manager to rotate the secrets on a schedule.
보안 문자열 파라미터를 생성하여 AWS Systems Manager에 자격 증명을 보안 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 암호를 교체하도록 Systems Manager를 구성합니다.
C.
Store the credentials in an Amazon S3 bucket that has server-side encryption (SSE) enabled. Use Amazon EventBridge (Amazon CloudWatch Events) to invoke an AWS Lambda function to rotate the credentials.
서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 AWS Lambda 함수를 호출하여 자격 증명을 교체합니다.
D.
Encrypt the credentials as secrets by using AWS Key Management Service (AWS KMS) multi-Region customer managed keys. Store the secrets in an Amazon DynamoDB global table. Use an AWS Lambda function to retrieve the secrets from DynamoDB. Use the RDS API to rotate the secrets.
AWS Key Management Service(AWS KMS) 다중 리전 고객 관리형 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 전역 테이블에 암호를 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB에서 암호를 검색합니다. RDS API를 사용하여 비밀을 교체합니다.
⭕ 정답: A
📝 해설
- 자동 교체: AWS Secrets Manager는 RDS 데이터베이스의 자격 증명을 자동으로 교체할 수 있는 기능을 제공합니다. 이를 통해 수동으로 자격 증명을 업데이트할 필요가 없으며, 주기적으로 자동으로 안전하게 자격 증명을 갱신할 수 있습니다.
- 중앙화된 관리: Secrets Manager를 사용하면 여러 AWS 리전에 걸쳐 있는 RDS 인스턴스의 자격 증명을 중앙에서 관리할 수 있습니다. 이는 관리의 일관성을 보장하고 오류 가능성을 줄입니다.
- 보안 강화: 자격 증명을 자동으로 교체함으로써 보안 위험을 줄일 수 있습니다. 또한, Secrets Manager는 자격 증명을 암호화하여 저장하며, 엄격한 접근 정책을 통해 보안을 강화합니다.
- 운영 효율성: 이 방법은 유지 관리 기간 동안 수동 개입을 최소화하며, 정기적인 자격 증명 교체를 자동화하여 운영 오버헤드를 크게 줄입니다.
D
MySQL용 Amazon RDS 데이터베이스의 자격 증명 교체는 데이터베이스의 보안을 강화하고, 무단 액세스를 방지하기 위한 중요한 절차입니다. 일반적으로 과정은 다음과 같습니다:
- 새 자격 증명 생성: 새로운 사용자 이름과 비밀번호를 생성합니다.
- 데이터베이스 업데이트: RDS 데이터베이스의 사용자 계정 정보를 새 자격 증명으로 업데이트합니다. 이는 RDS 관리 콘솔, CLI 또는 API를 통해 수행될 수 있습니다.
- 애플리케이션 업데이트: 데이터베이스에 접근하는 애플리케이션의 구성을 업데이트하여 새 자격 증명을 사용하도록 합니다.
- 자동화: AWS Secrets Manager를 사용하면 이 과정을 자동화할 수 있으며, Secrets Manager는 RDS 데이터베이스의 자격 증명을 자동으로 교체하고 관련 애플리케이션의 구성을 업데이트합니다.
이 접근 방식은 수동 오류를 방지하고, 보안을 지속적으로 강화하는 데 도움이 됩니다. 또한, 이 과정을 통해 회사는 지속적으로 자격 증명을 갱신하며, 데이터베이스 보안을 유지할 수 있습니다.
✅ 문제14
A company runs an ecommerce application on Amazon EC2 instances behind an Application Load Balancer. The instances run in an Amazon EC2 Auto Scaling group across multiple Availability Zones. The Auto Scaling group scales based on CPU utilization metrics. The ecommerce application stores the transaction data in a MySQL 8.0 database that is hosted on a large EC2 instance.
The database's performance degrades quickly as application load increases. The application handles more read requests than write transactions. The company wants a solution that will automatically scale the database to meet the demand of unpredictable read workloads while maintaining high availability.
Which solution will meet these requirements?
회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 전자 상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 메트릭을 기반으로 확장됩니다. 전자 상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 트랜잭션 데이터를 저장합니다.
애플리케이션 로드가 증가하면 데이터베이스의 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 이 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 워크로드의 수요를 충족하도록 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use Amazon Redshift with a single node for leader and compute functionality.
리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
B.
Use Amazon RDS with a Single-AZ deployment Configure Amazon RDS to add reader instances in a different Availability Zone.
단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
C.
Use Amazon Aurora with a Multi-AZ deployment. Configure Aurora Auto Scaling with Aurora Replicas.
다중 AZ 배포와 함께 Amazon Aurora를 사용합니다. Aurora 복제본을 사용하여 Aurora Auto Scaling을 구성합니다.
D.
Use Amazon ElastiCache for Memcached with EC2 Spot Instances.
EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용합니다.
⭕ 정답: C
📝 해설
📍 Aurora Auto Scaling
Amazon Aurora 데이터베이스의 성능을 자동으로 조정하는 기능입니다. 이는 데이터베이스 클러스터에 읽기 전용 복제본을 추가하거나 제거하여 읽기 트래픽에 대한 수요 변화에 동적으로 대응할 수 있게 해줍니다. CPU 사용률 같은 지표를 기반으로 자동으로 확장을 조정합니다.
==> 전자 상거래 애플리케이션이 쓰기보다 읽기 요청이 많을 때, 읽기 요청의 부하를 분산시켜 데이터베이스 성능 저하를 방지할 수 있습니다. Auto Scaling을 통해 예측할 수 없는 읽기 워크로드 수요에 효과적으로 대응하며 고가용성을 유지할 수 있습니다.
✅ 문제15
A company recently migrated to AWS and wants to implement a solution to protect the traffic that flows in and out of the production VPC. The company had an inspection server in its on-premises data center. The inspection server performed specific operations such as traffic flow inspection and traffic filtering. The company wants to have the same functionalities in the AWS Cloud.
Which solution will meet these requirements?
최근에 AWS로 마이그레이션한 회사가 프로덕션 VPC로 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 사내 데이터 센터에 검사 서버를 가지고 있었습니다. 검사 서버는 트래픽 흐름 검사 및 트래픽 필터링과 같은 특정 작업을 수행했습니다. 회사는 AWS 클라우드에서 동일한 기능을 갖기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use Amazon GuardDuty for traffic inspection and traffic filtering in the production VPC.
프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링에 Amazon GuardDuty를 사용합니다.
B.
Use Traffic Mirroring to mirror traffic from the production VPC for traffic inspection and filtering.
트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
C.
Use AWS Network Firewall to create the required rules for traffic inspection and traffic filtering for the production VPC.
AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
D.
Use AWS Firewall Manager to create the required rules for traffic inspection and traffic filtering for the production VPC.
AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
⭕ 정답: C
📝 해설
📍 AWS 네트워크 방화벽
AWS 클라우드에서 VPC 트래픽을 검사하고 필터링하는 방화벽 서비스입니다. 이 서비스를 통해 사용자는 세밀한 액세스 제어 정책을 생성하여 트래픽을 모니터링하고, 원하지 않는 트래픽을 차단할 수 있습니다.
==> 회사는 사내 데이터 센터에서 트래픽 흐름 검사 및 필터링을 수행했으며, AWS 클라우드에서 동일한 기능을 원합니다. AWS 네트워크 방화벽을 사용하면, VPC로 들어오고 나가는 모든 트래픽에 대한 검사 및 필터링 규칙을 생성하여 보안을 강화할 수 있습니다. 이는 프로덕션 환경의 보안을 유지하며, 원활한 클라우드 전환을 지원합니다.
📍 VPC 트래픽 미러링 및 기능
Amazon Virtual Private Cloud(VPC)에서 네트워크 트래픽의 복사본을 캡처하여 분석 및 모니터링을 위한 도구로 전송하는 기능입니다. 주요 기능은 다음과 같습니다:
- 트래픽 캡처: 특정 Amazon Elastic Network Interface(ENI)에서 트래픽의 복사본을 만들어 이를 분석 도구로 전송할 수 있습니다.
- 필터링: 미러링할 트래픽의 소스 및 목적지 IP 주소, 포트, 프로토콜 등의 기준을 설정하여 필요한 트래픽만 캡처할 수 있습니다.
- 전송 대상: 트래픽 복사본은 다른 ENI나 Network Load Balancer, 게이트웨이 로드 밸런서 등으로 전송할 수 있습니다.
- 보안 및 모니터링: 보안 및 규정 준수를 위해 트래픽을 모니터링하거나 문제 해결 목적으로 사용할 수 있습니다.
✅ 문제16
A company hosts a data lake on AWS. The data lake consists of data in Amazon S3 and Amazon RDS for PostgreSQL. The company needs a reporting solution that provides data visualization and includes all the data sources within the data lake. Only the company's management team should have full access to all the visualizations. The rest of the company should have only limited access.
Which solution will meet these requirements?
회사는 AWS에서 데이터 레이크를 호스팅합니다. 데이터 레이크는 Amazon S3 및 PostgreSQL용 Amazon RDS의 데이터로 구성됩니다. 이 회사는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리 팀만 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 나머지 회사는 제한된 액세스 권한만 가져야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the data. Share the dashboards with the appropriate IAM roles.
Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
B.
Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the data. Share the dashboards with the appropriate users and groups.
Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
C.
Create an AWS Glue table and crawler for the data in Amazon S3. Create an AWS Glue extract, transform, and load (ETL) job to produce reports. Publish the reports to Amazon S3. Use S3 bucket policies to limit access to the reports.
Amazon S3의 데이터에 대한 AWS Glue 테이블 및 *크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
* 크롤러: Amazon S3 및 관계형 데이터베이스의 데이터를 스캔해 스키마를 추출하고 AWS Glue Data 카탈로그(여기에서 메타데이터를 최신 상태로 유지함)를 자동으로 채워 데이터 집합 검색을 간소화해주는 기능이다.
D.
Create an AWS Glue table and crawler for the data in Amazon S3. Use Amazon Athena Federated Query to access data within Amazon RDS for PostgreSQL. Generate reports by using Amazon Athena. Publish the reports to Amazon S3. Use S3 bucket policies to limit access to the reports.
Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena 연합 쿼리를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
⭕ 정답: B
📝 해설
📍 Amazon QuickSight
클라우드 기반의 비즈니스 인텔리전스(BI) 서비스로, 데이터를 시각화하고 대시보드를 생성하여 쉽게 인사이트를 얻을 수 있게 합니다.
- 데이터 소스 통합: 다양한 데이터 소스와 쉽게 통합할 수 있으며, 데이터 레이크, Amazon S3, RDS 등과 연동이 가능합니다.
- 대시보드 생성: 사용자 친화적인 인터페이스를 통해 대시보드 및 리포트를 생성할 수 있습니다.
- 자동 인사이트: 머신 러닝 기반으로 데이터에서 자동으로 인사이트를 도출합니다.
- 협업 기능: 사용자 및 그룹과 대시보드를 공유하고 협업할 수 있습니다.
📍 IAM 역할 및 대시보드 공유
- 관리 팀 전체 액세스: 관리 팀에게 전체 시각화에 대한 전체 액세스 권한을 부여하기 위해서는, 관리 팀 사용자에게 필요한 QuickSight 관리자 또는 작성자 권한을 IAM 역할로 할당합니다.
- 제한된 액세스: 나머지 회사 직원에게 제한된 액세스 권한을 부여하려면, QuickSight 뷰어 권한을 할당하고, 필요한 대시보드만 공유하여 제한된 데이터를 볼 수 있도록 설정합니다.
✅ 문제17
A company is implementing a new business application. The application runs on two Amazon EC2 instances and uses an Amazon S3 bucket for document storage. A solutions architect needs to ensure that the EC2 instances can access the S3 bucket.
What should the solutions architect do to meet this requirement?
회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 애플리케이션은 2개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 설계자는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다.
솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Create an IAM role that grants access to the S3 bucket. Attach the role to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. 역할을 EC2 인스턴스에 연결합니다.
B.
Create an IAM policy that grants access to the S3 bucket. Attach the policy to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. 정책을 EC2 인스턴스에 연결합니다.
C.
Create an IAM group that grants access to the S3 bucket. Attach the group to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
D.
Create an IAM user that grants access to the S3 bucket. Attach the user account to the EC2 instances.
S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.
⭕ 정답: A
📝 해설
📍 Amazon S3 버킷에 대한 액세스 권한을 Amazon EC2에 부여하는 방법
Amazon EC2 인스턴스가 Amazon S3 버킷에 액세스할 수 있도록 하기 위해서는 IAM 역할을 사용하는 것이 일반적입니다. 단계는 다음과 같습니다.
- IAM 역할 생성: IAM 콘솔에서 S3 액세스 권한을 가진 IAM 역할을 생성합니다.
- 정책 부여: S3 버킷에 대한 액세스 정책을 IAM 역할에 부여합니다. 예를 들어, S3FullAccess 정책을 사용할 수 있습니다.
- 역할 연결: 생성된 IAM 역할을 EC2 인스턴스에 연결합니다. EC2 콘솔에서 인스턴스를 선택하고, "작업" 메뉴에서 "IAM 역할 연결/교체"를 선택합니다.
- 권한 확인: EC2 인스턴스에서 AWS CLI를 사용하여 S3 버킷에 접근할 수 있는지 확인합니다.
✅ 문제18
An application development team is designing a microservice that will convert large images to smaller, compressed images. When a user uploads an image through the web interface, the microservice should store the image in an Amazon S3 bucket, process and compress the image with an AWS Lambda function, and store the image in its compressed form in a different S3 bucket.
A solutions architect needs to design a solution that uses durable, stateless components to process the images automatically.
Which combination of actions will meet these requirements? (Choose two.)
애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로 서비스는 이미지를 Amazon S3 버킷에 저장하고, AWS Lambda 함수로 이미지를 처리 및 압축하고, 다른 S3 버킷에 압축된 형태로 이미지를 저장해야 합니다.
솔루션 설계자는 내구성이 있는 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.)
A.
Create an Amazon Simple Queue Service (Amazon SQS) queue. Configure the S3 bucket to send a notification to the SQS queue when an image is uploaded to the S3 bucket.
Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
B.
Configure the Lambda function to use the Amazon Simple Queue Service (Amazon SQS) queue as the invocation source. When the SQS message is successfully processed, delete the message in the queue.
Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
C.
Configure the Lambda function to monitor the S3 bucket for new uploads. When an uploaded image is detected, write the file name to a text file in memory and use the text file to keep track of the images that were processed.
새 업로드에 대해 S3 버킷을 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
D.
Launch an Amazon EC2 instance to monitor an Amazon Simple Queue Service (Amazon SQS) queue. When items are added to the queue, log the file name in a text file on the EC2 instance and invoke the Lambda function.
Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
E.
Configure an Amazon EventBridge (Amazon CloudWatch Events) event to monitor the S3 bucket. When an image is uploaded, send an alert to an Amazon ample Notification Service (Amazon SNS) topic with the application owner's email address for further processing.
Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성하여 S3 버킷을 모니터링합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample Notification Service(Amazon SNS) 주제에 알림을 보냅니다.
⭕ 정답: A, B
📝 해설
- Amazon SQS 대기열을 생성하고, S3 버킷에 이미지가 업로드될 때 SQS 대기열에 알림을 보내도록 구성합니다. 이는 업로드된 이미지를 처리하는 데 필요한 트리거를 관리하는데 유용합니다.
- Lambda 함수를 SQS 대기열의 트리거로 구성하여 S3에 이미지가 업로드될 때 자동으로 호출되도록 합니다. Lambda 함수는 SQS 메시지를 처리한 후 대기열에서 메시지를 삭제합니다. 이는 이미지를 처리 및 압축하는 비동기 워크플로를 구성하는 데 적합합니다.
이 조합을 통해 내구성이 있는 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 구현할 수 있습니다. S3, SQS 및 Lambda의 조합은 확장 가능하고 유연하며 상태 비저장 기능을 제공합니다.
✅ 문제19
A company has a three-tier web application that is deployed on AWS. The web servers are deployed in a public subnet in a VPC. The application servers and database servers are deployed in private subnets in the same VPC. The company has deployed a third-party virtual firewall appliance from AWS Marketplace in an inspection VPC. The appliance is configured with an IP interface that can accept IP packets.
A solutions architect needs to integrate the web application with the appliance to inspect all traffic to the application before the traffic reaches the web server.
Which solution will meet these requirements with the LEAST operational overhead?
회사에 AWS에 배포된 3계층 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 이 회사는 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 검사 VPC에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다.
솔루션 설계자는 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사하기 위해 웹 애플리케이션을 어플라이언스와 통합해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Create a Network Load Balancer in the public subnet of the application's VPC to route the traffic to the appliance for packet inspection.
애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다.
B.
Create an Application Load Balancer in the public subnet of the application's VPC to route the traffic to the appliance for packet inspection.
애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다.
C.
Deploy a transit gateway in the inspection VPConfigure route tables to route the incoming packets through the transit gateway.
전송 게이트웨이를 통해 들어오는 패킷을 라우팅하도록 라우팅 테이블을 구성하는 검사 VPC에 전송 게이트웨이를 배포합니다.
D.
Deploy a Gateway Load Balancer in the inspection VPC. Create a Gateway Load Balancer endpoint to receive the incoming packets and forward the packets to the appliance.
검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 게이트웨이 로드 밸런서 엔드포인트를 생성하여 수신 패킷을 수신하고 패킷을 어플라이언스로 전달합니다.
⭕ 정답: D
📝 해설
📍 Gateway Load Balancer
네트워크 트래픽을 검사하고 라우팅하는 데 사용됩니다. 주요 기능은 다음과 같습니다:
- 트래픽 검사: 모든 트래픽을 검사할 수 있으며, 보안 어플라이언스와 통합하여 웹 애플리케이션에 도달하기 전에 트래픽을 분석하고 필터링할 수 있습니다.
- 투명한 인라인 배포: 트래픽을 어플라이언스로 라우팅하여 보안 및 모니터링을 수행하면서도 애플리케이션에 투명하게 배포할 수 있습니다.
- 확장성: 수평 확장을 통해 높은 트래픽을 처리할 수 있습니다.
웹 애플리케이션과 어플라이언스를 통합할 때 Gateway Load Balancer를 사용하는 이유는 트래픽을 효과적으로 검사하고 보안 위협을 방지하기 위함입니다.
📍 OSI 7 레이어 모델
네트워크 통신을 7개의 계층으로 나눈 모델입니다:
- 물리 계층 (Physical Layer): 물리적 매체를 통해 비트 스트림을 전송합니다.
- 데이터 링크 계층 (Data Link Layer): 프레임을 전송하며, 오류 검출 및 수정 기능을 제공합니다.
- 네트워크 계층 (Network Layer): 데이터 패킷을 목적지까지 라우팅합니다.
- 전송 계층 (Transport Layer): 신뢰성 있는 데이터 전송을 보장합니다 (예: TCP, UDP).
- 세션 계층 (Session Layer): 통신 세션을 설정하고 관리합니다.
- 표현 계층 (Presentation Layer): 데이터 형식을 변환하고 암호화합니다.
- 응용 계층 (Application Layer): 사용자와 직접 상호작용하는 응용 프로그램을 제공합니다 (예: HTTP, FTP).
✅ 문제20
A company wants to improve its ability to clone large amounts of production data into a test environment in the same AWS Region. The data is stored in Amazon EC2 instances on Amazon Elastic Block Store (Amazon EBS) volumes. Modifications to the cloned data must not affect the production environment. The software that accesses this data requires consistently high I/O performance.
A solutions architect needs to minimize the time that is required to clone the production data into the test environment.
Which solution will meet these requirements?
회사에서 동일한 AWS 리전의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선하려고 합니다. 데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장됩니다. 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주지 않아야 합니다. 이 데이터에 액세스하는 소프트웨어는 일관되게 높은 I/O 성능을 요구합니다.
솔루션 설계자는 프로덕션 데이터를 테스트 환경에 복제하는 데 필요한 시간을 최소화해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Take EBS snapshots of the production EBS volumes. Restore the snapshots onto EC2 instance store volumes in the test environment.
프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스 스토어 볼륨에 스냅샷을 복원합니다.
B.
Configure the production EBS volumes to use the EBS Multi-Attach feature. Take EBS snapshots of the production EBS volumes. Attach the production EBS volumes to the EC2 instances in the test environment.
EBS 다중 연결 기능을 사용하도록 프로덕션 EBS 볼륨을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스에 프로덕션 EBS 볼륨을 연결합니다.
C.
Take EBS snapshots of the production EBS volumes. Create and initialize new EBS volumes. Attach the new EBS volumes to EC2 instances in the test environment before restoring the volumes from the production EBS snapshots.
프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 새 EBS 볼륨을 생성하고 초기화합니다. 프로덕션 EBS 스냅샷에서 볼륨을 복원하기 전에 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
D.
Take EBS snapshots of the production EBS volumes. Turn on the EBS fast snapshot restore feature on the EBS snapshots. Restore the snapshots into new EBS volumes. Attach the new EBS volumes to EC2 instances in the test environment.
프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 켭니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
⭕ 정답: D
📝 해설
📍 프로덕션 데이터를 테스트 환경에 복제
프로덕션 데이터를 테스트 환경에 효율적으로 복제하기 위한 솔루션은 다음과 같습니다:
- EBS 스냅샷 사용: 프로덕션 EBS 볼륨의 스냅샷을 생성합니다.
- EBS 볼륨 복제: 생성된 스냅샷을 사용하여 테스트 환경에 새로운 EBS 볼륨을 생성합니다.
- 스냅샷 공유: 프로덕션과 테스트 환경 간에 스냅샷을 공유하여 데이터 전송을 최소화합니다.
- FSR 사용: Amazon EBS Fast Snapshot Restore를 사용하여 스냅샷에서 복원된 볼륨을 즉시 사용할 수 있도록 합니다.
이 솔루션은 데이터 복제 시간을 최소화하고, 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주지 않습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (41 - 60) (0) | 2024.05.17 |
---|---|
[AWS SAA-C03] Examtopics Dump (21 - 40) (0) | 2024.05.17 |
[AWS SAA-C03] EC2 기초 (0) | 2024.05.14 |
[AWS SAA-C03] IAM (0) | 2024.05.14 |
[AWS SAA-C03] AWS 기초 (0) | 2024.05.05 |