✅ 문제 121
A company is running an online transaction processing (OLTP) workload on AWS. This workload uses an unencrypted Amazon RDS DB instance in a Multi-AZ deployment. Daily database snapshots are taken from this instance.
What should a solutions architect do to ensure the database and snapshots are always encrypted moving forward?
회사는 AWS에서 OLTP(온라인 트랜잭션 처리) 워크로드를 실행하고 있습니다. 이 워크로드는 다중 AZ 배포에서 암호화되지 않은 Amazon RDS DB 인스턴스를 사용합니다. 일일 데이터베이스 스냅샷은 이 인스턴스에서 가져옵니다.
데이터베이스와 스냅샷이 앞으로 항상 암호화되도록 하려면 솔루션 설계자가 무엇을 해야 합니까?
A.
Encrypt a copy of the latest DB snapshot. Replace existing DB instance by restoring the encrypted snapshot.
최신 DB 스냅샷 사본을 암호화합니다. 암호화된 스냅샷을 복원하여 기존 DB 인스턴스를 교체합니다.
B.
Create a new encrypted Amazon Elastic Block Store (Amazon EBS) volume and copy the snapshots to it. Enable encryption on the DB instance.
새 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성하고 여기에 스냅샷을 복사합니다. DB 인스턴스에서 암호화를 활성화합니다.
C.
Copy the snapshots and enable encryption using AWS Key Management Service (AWS KMS) Restore encrypted snapshot to an existing DB instance.
AWS Key Management Service(AWS KMS)를 사용하여 스냅샷을 복사하고 암호화를 활성화합니다. 암호화된 스냅샷을 기존 DB 인스턴스로 복원합니다.
D.
Copy the snapshots to an Amazon S3 bucket that is encrypted using server-side encryption with AWS Key Management Service (AWS KMS) managed keys (SSE-KMS).
AWS Key Management Service(AWS KMS) 관리형 키(SSE-KMS)로 서버 측 암호화를 사용하여 암호화된 Amazon S3 버킷에 스냅샷을 복사합니다.
⭕ 정답: A
📝 해설
최신 DB 스냅샷의 사본을 암호화한 후, 암호화된 스냅샷을 복원하여 기존 DB 인스턴스를 교체합니다. 이렇게 하면 데이터베이스와 스냅샷이 항상 암호화된 상태로 유지됩니다.
개념 및 용어 설명:
- Amazon RDS (Relational Database Service): AWS에서 관리형 관계형 데이터베이스 서비스로, 데이터베이스의 설정, 운영, 확장 등을 자동화합니다.
- Multi-AZ Deployment: 고가용성과 데이터 무결성을 위해 여러 가용 영역에 걸쳐 데이터베이스 인스턴스를 배포하는 방법입니다.
- Snapshot: 데이터베이스의 특정 시점 복사본으로, 백업과 복원에 사용됩니다.
- Encryption: 데이터 보호를 위해 데이터를 암호화하여 무단 접근을 방지하는 기술입니다.
오답 분석:
- B: 새 암호화된 EBS 볼륨을 생성하고 스냅샷을 복사하는 방법은 RDS 인스턴스에 적합하지 않습니다.
- C: 스냅샷을 복사하고 KMS를 사용하여 암호화하는 방법은 복잡하며, 암호화된 스냅샷을 기존 인스턴스로 복원하는 것보다 효율적이지 않습니다.
- D: S3 버킷에 스냅샷을 복사하는 것은 백업용으로는 적합하지만, RDS 인스턴스를 암호화된 상태로 유지하기 위한 방법은 아닙니다.
✅ 문제 122
A company wants to build a scalable key management infrastructure to support developers who need to encrypt data in their applications.
What should a solutions architect do to reduce the operational burden?
회사는 응용 프로그램의 데이터를 암호화해야 하는 개발자를 지원하기 위해 확장 가능한 키 관리 인프라를 구축하려고 합니다. 솔루션 설계자는 운영 부담을 줄이기 위해 무엇을 해야 합니까?
A.
Use multi-factor authentication (MFA) to protect the encryption keys.
MFA(다단계 인증)를 사용하여 암호화 키를 보호합니다.
B.
Use AWS Key Management Service (AWS KMS) to protect the encryption keys.
AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다.
C.
Use AWS Certificate Manager (ACM) to create, store, and assign the encryption keys.
AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
D.
Use an IAM policy to limit the scope of users who have access permissions to protect the encryption keys.
IAM 정책을 사용하여 암호화 키를 보호할 수 있는 액세스 권한이 있는 사용자의 범위를 제한합니다.
⭕ 정답: B
📝 해설
AWS Key Management Service (KMS)를 사용하여 암호화 키를 보호합니다. AWS KMS는 키 생성, 저장, 관리, 회전 등을 자동화하여 운영 부담을 줄입니다.
개념 및 용어 설명:
- AWS Key Management Service (KMS): 암호화 키를 중앙에서 관리하고 제어할 수 있는 AWS 서비스로, 데이터 보호를 위한 키 관리 기능을 제공합니다.
오답 분석:
- A: MFA는 보안 수준을 높이지만 키 관리 자체의 운영 부담을 줄이지는 않습니다.
- C: AWS Certificate Manager (ACM)는 SSL/TLS 인증서 관리에 사용되며, 일반적인 데이터 암호화 키 관리에는 적합하지 않습니다.
- D: IAM 정책은 액세스 제어를 위한 것이며, 키 관리의 운영 부담을 줄이는 데 직접적인 도움이 되지 않습니다.
✅ 문제 123
A company has a dynamic web application hosted on two Amazon EC2 instances. The company has its own SSL certificate, which is on each instance to perform SSL termination.
There has been an increase in traffic recently, and the operations team determined that SSL encryption and decryption is causing the compute capacity of the web servers to reach their maximum limit.
What should a solutions architect do to increase the application's performance?
회사에 두 개의 Amazon EC2 인스턴스에서 호스팅되는 동적 웹 애플리케이션이 있습니다. 회사에는 SSL 종료를 수행하기 위해 각 인스턴스에 있는 자체 SSL 인증서가 있습니다. 최근 트래픽이 증가하고 있으며 운영팀은 SSL 암호화 및 복호화로 인해 웹 서버의 컴퓨팅 용량이 최대 한도에 도달했다고 판단했습니다.
솔루션 설계자는 애플리케이션의 성능을 향상시키기 위해 무엇을 해야 합니까?
A.
Create a new SSL certificate using AWS Certificate Manager (ACM). Install the ACM certificate on each instance.
AWS Certificate Manager(ACM)를 사용하여 새 SSL 인증서를 생성합니다. 각 인스턴스에 ACM 인증서를 설치합니다.
B.
Create an Amazon S3 bucket Migrate the SSL certificate to the S3 bucket. Configure the EC2 instances to reference the bucket for SSL termination.
Amazon S3 버킷 생성 SSL 인증서를 S3 버킷으로 마이그레이션합니다. SSL 종료를 위해 버킷을 참조하도록 EC2 인스턴스를 구성합니다.
C.
Create another EC2 instance as a proxy server. Migrate the SSL certificate to the new instance and configure it to direct connections to the existing EC2 instances.
다른 EC2 인스턴스를 프록시 서버로 생성합니다. SSL 인증서를 새 인스턴스로 마이그레이션하고 기존 EC2 인스턴스에 직접 연결하도록 구성합니다.
D.
Import the SSL certificate into AWS Certificate Manager (ACM). Create an Application Load Balancer with an HTTPS listener that uses the SSL certificate from ACM.
SSL 인증서를 AWS Certificate Manager(ACM)로 가져옵니다. ACM의 SSL 인증서를 사용하는 HTTPS 리스너로 Application Load Balancer를 생성합니다.
⭕ 정답: D
📝 해설
SSL 인증서를 AWS Certificate Manager (ACM)에 가져와 Application Load Balancer (ALB)에서 HTTPS 리스너를 사용하여 SSL 종료를 처리합니다. 이는 SSL 암호화 및 복호화 작업을 분산시켜 웹 서버의 부담을 줄이고 성능을 향상시킵니다.
개념 및 용어 설명:
- AWS Certificate Manager (ACM): SSL/TLS 인증서를 쉽게 관리할 수 있도록 지원하는 AWS 서비스입니다.
- Application Load Balancer (ALB): HTTP 및 HTTPS 트래픽을 처리하는 고성능 로드 밸런서로, 트래픽을 여러 인스턴스로 분산시킵니다.
- SSL Termination: SSL 암호화 및 복호화 작업을 특정 장치나 서비스에서 처리하는 것을 의미합니다.
오답 분석:
- A: ACM 인증서를 각 인스턴스에 설치하면 각 인스턴스에서 SSL 암호화 및 복호화 작업을 처리해야 하므로 성능 향상에 도움이 되지 않습니다.
- B: S3 버킷은 SSL 인증서 저장소로 적합하지 않으며, SSL 종료에 직접적인 도움을 주지 않습니다.
- C: 프록시 서버를 추가하면 복잡성이 증가하고, 최적화된 로드 밸런싱을 제공하지 않습니다.
✅ 문제 124
A company has a highly dynamic batch processing job that uses many Amazon EC2 instances to complete it. The job is stateless in nature, can be started and stopped at any given time with no negative impact, and typically takes upwards of 60 minutes total to complete. The company has asked a solutions architect to design a scalable and cost-effective solution that meets the requirements of the job. What should the solutions architect recommend?
회사에 많은 Amazon EC2 인스턴스를 사용하여 완료하는 매우 동적인 배치 처리 작업이 있습니다. 작업은 본질적으로 상태 비저장이며 부정적인 영향 없이 주어진 시간에 시작 및 중지할 수 있으며 일반적으로 완료하는 데 총 60분 이상이 걸립니다. 회사는 솔루션 설계자에게 작업 요구 사항을 충족하는 확장 가능하고 비용 효율적인 솔루션을 설계하도록 요청했습니다. 솔루션 설계자는 무엇을 권장해야 합니까?
A.
Implement EC2 Spot Instances.
EC2 스팟 인스턴스를 구현합니다.
B.
Purchase EC2 Reserved Instances.
EC2 예약 인스턴스를 구매합니다.
C.
Implement EC2 On-Demand Instances.
EC2 온디맨드 인스턴스를 구현합니다.
D.
Implement the processing on AWS Lambda.
AWS Lambda에서 처리를 구현합니다.
⭕ 정답: A
📝 해설
EC2 스팟 인스턴스를 사용하여 비용 효율적인 배치 처리 작업을 수행합니다. 스팟 인스턴스는 남는 EC2 용량을 저렴한 가격에 제공하며, 상태 비저장 작업에 적합합니다.
개념 및 용어 설명:
- EC2 Spot Instances: AWS에서 남는 컴퓨팅 용량을 저렴한 가격에 제공하는 인스턴스 유형으로, 일시적으로 중단될 수 있지만 비용 효율적입니다.
- Stateless: 상태를 유지하지 않는 작업으로, 중단 후 재시작해도 문제가 없는 작업을 의미합니다.
오답 분석:
- B: 예약 인스턴스는 장기적인 사용을 위한 것이며, 비용 효율성 면에서 스팟 인스턴스보다 적합하지 않습니다.
- C: 온디맨드 인스턴스는 필요할 때마다 사용할 수 있지만, 비용이 상대적으로 높습니다.
- D: AWS Lambda는 짧은 시간 동안 실행되는 작업에 적합하며, 60분 이상의 배치 작업에는 적합하지 않습니다.
✅ 문제 125
A company runs its two-tier ecommerce website on AWS. The web tier consists of a load balancer that sends traffic to Amazon EC2 instances. The database tier uses an Amazon RDS DB instance. The EC2 instances and the RDS DB instance should not be exposed to the public internet. The EC2 instances require internet access to complete payment processing of orders through a third-party web service. The application must be highly available.
Which combination of configuration options will meet these requirements? (Choose two.)
회사는 AWS에서 2계층 전자상거래 웹사이트를 운영합니다. 웹 계층은 트래픽을 Amazon EC2 인스턴스로 보내는 로드 밸런서로 구성됩니다. 데이터베이스 계층은 Amazon RDS DB 인스턴스를 사용합니다. EC2 인스턴스 및 RDS DB 인스턴스는 공용 인터넷에 노출되어서는 안 됩니다. EC2 인스턴스는 타사 웹 서비스를 통한 주문 결제 처리를 완료하기 위해 인터넷 액세스가 필요합니다. 애플리케이션은 고가용성이어야 합니다.
이러한 요구 사항을 충족하는 구성 옵션의 조합은 무엇입니까? (2개를 선택하세요.)
A.
Use an Auto Scaling group to launch the EC2 instances in private subnets. Deploy an RDS Multi-AZ DB instance in private subnets.
Auto Scaling 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
B.
Configure a VPC with two private subnets and two NAT gateways across two Availability Zones. Deploy an Application Load Balancer in the private subnets.
2개의 가용 영역에 걸쳐 2개의 프라이빗 서브넷과 2개의 NAT 게이트웨이가 있는 VPC를 구성합니다. 프라이빗 서브넷에 Application Load Balancer를 배포합니다.
C.
Use an Auto Scaling group to launch the EC2 instances in public subnets across two Availability Zones. Deploy an RDS Multi-AZ DB instance in private subnets.
Auto Scaling 그룹을 사용하여 2개의 가용 영역에 걸쳐 퍼블릭 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
D.
Configure a VPC with one public subnet, one private subnet, and two NAT gateways across two Availability Zones. Deploy an Application Load Balancer in the public subnet.
2개의 가용 영역에 걸쳐 1개의 퍼블릭 서브넷, 1개의 프라이빗 서브넷 및 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
E.
Configure a VPC with two public subnets, two private subnets, and two NAT gateways across two Availability Zones. Deploy an Application Load Balancer in the public subnets.
2개의 가용 영역에 걸쳐 2개의 퍼블릭 서브넷, 2개의 프라이빗 서브넷 및 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
⭕ 정답: A, E
📝 해설
Auto Scaling 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작하고, 다중 AZ에 걸쳐 RDS 다중 AZ DB 인스턴스를 배포합니다. 또한, 퍼블릭 서브넷과 프라이빗 서브넷, 2개의 NAT 게이트웨이를 구성하여 EC2 인스턴스가 인터넷에 접근할 수 있도록 합니다.
개념 및 용어 설명:
- Auto Scaling Group: 트래픽 수요에 따라 EC2 인스턴스를 자동으로 추가하거나 제거하여 애플리케이션의 가용성과 확장성을 보장하는 AWS 서비스입니다.
- NAT Gateway: 프라이빗 서브넷에 있는 인스턴스가 인터넷에 접속할 수 있도록 하는 네트워크 주소 변환 게이트웨이입니다.
- VPC (Virtual Private Cloud): AWS 클라우드에서 논리적으로 격리된 네트워크를 제공하는 서비스입니다.
오답 분석:
- B: 프라이빗 서브넷에 ALB를 배포하면 퍼블릭 트래픽을 처리할 수 없습니다.
- C: 퍼블릭 서브넷에 EC2 인스턴스를 배포하면 보안 요구 사항을 충족하지 못합니다.
- D: 단일 퍼블릭 서브넷과 단일 프라이빗 서브넷 구성은 고가용성을 보장하지 못합니다.
✅ 문제 126
A solutions architect needs to implement a solution to reduce a company's storage costs. All the company's data is in the Amazon S3 Standard storage class. The company must keep all data for at least 25 years. Data from the most recent 2 years must be highly available and immediately retrievable.
Which solution will meet these requirements?
솔루션 설계자는 회사의 스토리지 비용을 줄이기 위한 솔루션을 구현해야 합니다. 회사의 모든 데이터는 Amazon S3 Standard 스토리지 클래스에 있습니다. 회사는 모든 데이터를 최소 25년 동안 보관해야 합니다. 최근 2년 동안의 데이터는 가용성이 높고 즉시 검색할 수 있어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Set up an S3 Lifecycle policy to transition objects to S3 Glacier Deep Archive immediately.
객체를 즉시 S3 Glacier Deep Archive로 전환하도록 S3 수명 주기 정책을 설정합니다.
B.
Set up an S3 Lifecycle policy to transition objects to S3 Glacier Deep Archive after 2 years.
2년 후에 객체를 S3 Glacier Deep Archive로 전환하도록 S3 수명 주기 정책을 설정합니다.
C.
Use S3 Intelligent-Tiering. Activate the archiving option to ensure that data is archived in S3 Glacier Deep Archive.
S3 Intelligent-Tiering을 사용합니다. 데이터가 S3 Glacier Deep Archive에 보관되도록 보관 옵션을 활성화합니다.
D.
Set up an S3 Lifecycle policy to transition objects to S3 One Zone-Infrequent Access (S3 One Zone-IA) immediately and to S3 Glacier Deep Archive after 2 years.
S3 수명 주기 정책을 설정하여 객체를 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 즉시 전환하고 2년 후에는 S3 Glacier Deep Archive로 전환합니다.
⭕ 정답: B
📝 해설
2년 후에 객체를 S3 Glacier Deep Archive로 전환하도록 S3 수명 주기 정책을 설정합니다. 이렇게 하면 최근 2년 동안의 데이터는 S3 Standard 스토리지 클래스에 남아 즉시 검색할 수 있으며, 2년이 지난 데이터는 비용 효율적인 S3 Glacier Deep Archive로 이동됩니다.
개념 및 용어 설명:
- Amazon S3 Standard: 높은 내구성과 가용성을 제공하는 기본 스토리지 클래스입니다.
- S3 Glacier Deep Archive: 장기 보관용으로 설계된 저렴한 스토리지 클래스입니다.
- S3 수명 주기 정책: 객체의 수명 주기를 관리하여 자동으로 다른 스토리지 클래스로 전환할 수 있게 해주는 규칙입니다.
오답 분석:
- A: 객체를 즉시 S3 Glacier Deep Archive로 전환하면 최근 2년 동안의 데이터가 즉시 접근 가능하지 않습니다.
- C: S3 Intelligent-Tiering은 비용 절감을 위해 데이터를 자주 접근하지 않는 스토리지 클래스로 이동하지만, S3 Glacier Deep Archive에 비해 비용 절감 효과가 낮습니다.
- D: S3 One Zone-IA는 가용성이 낮아 데이터 보존 요구 사항에 맞지 않으며, 2년 후에 데이터를 S3 Glacier Deep Archive로 이동하는 것은 필요하지 않습니다.
✅ 문제 127
A media company is evaluating the possibility of moving its systems to the AWS Cloud. The company needs at least 10 TB of storage with the maximum possible I/O performance for video processing, 300 TB of very durable storage for storing media content, and 900 TB of storage to meet requirements for archival media that is not in use anymore.
Which set of services should a solutions architect recommend to meet these requirements?
한 미디어 회사가 시스템을 AWS 클라우드로 이전할 가능성을 평가하고 있습니다. 회사는 비디오 처리를 위한 가능한 최대 I/O 성능을 갖춘 최소 10TB의 스토리지, 미디어 콘텐츠를 저장하기 위한 300TB의 매우 내구성 있는 스토리지, 더 이상 사용하지 않는 아카이브 미디어에 대한 요구 사항을 충족하기 위해 900TB의 스토리지가 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 서비스 세트를 권장해야 합니까?
A.
Amazon EBS for maximum performance, Amazon S3 for durable data storage, and Amazon S3 Glacier for archival storage
최고의 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
B.
Amazon EBS for maximum performance, Amazon EFS for durable data storage, and Amazon S3 Glacier for archival storage
최고의 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3 Glacier
C.
Amazon EC2 instance store for maximum performance, Amazon EFS for durable data storage, and Amazon S3 for archival storage
최고의 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3
D.
Amazon EC2 instance store for maximum performance, Amazon S3 for durable data storage, and Amazon S3 Glacier for archival storage
최고의 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
⭕ 정답: D
📝 해설
최고의 성능을 위해 Amazon EC2 인스턴스 스토어를 사용하고, 내구성 있는 데이터 스토리지를 위해 Amazon S3를 사용하며, 아카이브 스토리지를 위해 Amazon S3 Glacier를 사용합니다. EC2 인스턴스 스토어는 높은 I/O 성능을 제공하며, S3는 내구성과 가용성이 뛰어난 스토리지를 제공합니다. S3 Glacier는 장기 보관용으로 적합합니다.
오답 분석:
- A: EBS는 높은 성능을 제공하지만, EC2 인스턴스 스토어보다 성능이 낮을 수 있습니다.
- B: EFS는 파일 스토리지로 내구성은 높지만, 비디오 처리와 같은 높은 I/O 작업에는 적합하지 않습니다.
- C: S3는 아카이브 스토리지로 사용하기에는 비용이 높습니다.
✅ 문제 128
A company wants to run applications in containers in the AWS Cloud. These applications are stateless and can tolerate disruptions within the underlying infrastructure. The company needs a solution that minimizes cost and operational overhead.
What should a solutions architect do to meet these requirements?
회사에서 AWS 클라우드의 컨테이너에서 애플리케이션을 실행하려고 합니다. 이러한 애플리케이션은 상태 비저장이며 기본 인프라 내에서 중단을 허용할 수 있습니다. 회사는 비용과 운영 오버헤드를 최소화하는 솔루션이 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Use Spot Instances in an Amazon EC2 Auto Scaling group to run the application containers.
Amazon EC2 Auto Scaling 그룹의 스팟 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
B.
Use Spot Instances in an Amazon Elastic Kubernetes Service (Amazon EKS) managed node group.
Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 스팟 인스턴스를 사용합니다.
C.
Use On-Demand Instances in an Amazon EC2 Auto Scaling group to run the application containers.
Amazon EC2 Auto Scaling 그룹의 온디맨드 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
D.
Use On-Demand Instances in an Amazon Elastic Kubernetes Service (Amazon EKS) managed node group.
Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 온디맨드 인스턴스를 사용합니다.
⭕ 정답: B
📝 해설
Amazon Elastic Kubernetes Service (EKS) 관리형 노드 그룹에서 스팟 인스턴스를 사용합니다. EKS는 컨테이너 오케스트레이션을 자동화하여 운영 오버헤드를 줄이고, 스팟 인스턴스를 사용하면 비용을 절감할 수 있습니다.
개념 및 용어 설명:
- Amazon Elastic Kubernetes Service (EKS): Kubernetes를 관리하고 컨테이너화된 애플리케이션을 쉽게 배포, 관리할 수 있도록 지원하는 AWS 서비스입니다.
- 스팟 인스턴스: 사용하지 않는 EC2 인스턴스를 저렴하게 제공하는 옵션으로, 중단될 수 있지만 비용 절감에 효과적입니다.
오답 분석:
- A: Auto Scaling 그룹의 스팟 인스턴스는 운영 오버헤드를 줄이지 않습니다.
- C: 온디맨드 인스턴스는 비용이 높으며, 비용 절감 효과가 적습니다.
- D: 온디맨드 인스턴스는 비용이 높으며, EKS를 사용하면 운영 오버헤드를 줄일 수 있습니다.
✅ 문제 129
A company is running a multi-tier web application on premises. The web application is containerized and runs on a number of Linux hosts connected to a PostgreSQL database that contains user records. The operational overhead of maintaining the infrastructure and capacity planning is limiting the company's growth. A solutions architect must improve the application's infrastructure.
Which combination of actions should the solutions architect take to accomplish this? (Choose two.)
회사에서 온프레미스에서 다중 계층 웹 애플리케이션을 실행하고 있습니다. 웹 애플리케이션은 컨테이너화되어 있으며 사용자 레코드가 포함된 PostgreSQL 데이터베이스에 연결된 여러 Linux 호스트에서 실행됩니다. 인프라 및 용량 계획을 유지 관리하는 운영 오버헤드가 회사의 성장을 제한하고 있습니다. 솔루션 설계자는 애플리케이션의 인프라를 개선해야 합니다.
솔루션 설계자는 이를 달성하기 위해 어떤 조합의 조치를 취해야 합니까? (2개를 선택하세요.)
A.
Migrate the PostgreSQL database to Amazon Aurora.
PostgreSQL 데이터베이스를 Amazon Aurora로 마이그레이션합니다.
B.
Migrate the web application to be hosted on Amazon EC2 instances.
Amazon EC2 인스턴스에서 호스팅할 웹 애플리케이션을 마이그레이션합니다.
C.
Set up an Amazon CloudFront distribution for the web application content.
웹 애플리케이션 콘텐츠에 대한 Amazon CloudFront 배포를 설정합니다.
D.
Set up Amazon ElastiCache between the web application and the PostgreSQL database.
웹 애플리케이션과 PostgreSQL 데이터베이스 간에 Amazon ElastiCache를 설정합니다.
E.
Migrate the web application to be hosted on AWS Fargate with Amazon Elastic Container Service (Amazon ECS).
Amazon Elastic Container Service(Amazon ECS)를 사용하여 AWS Fargate에서 호스팅할 웹 애플리케이션을 마이그레이션합니다.
⭕ 정답: A, E
📝 해설
PostgreSQL 데이터베이스를 Amazon Aurora로 마이그레이션하고, AWS Fargate에서 Amazon ECS를 사용하여 웹 애플리케이션을 호스팅합니다. Aurora는 높은 성능과 자동 복제를 제공하며, Fargate는 컨테이너 실행의 운영 오버헤드를 줄입니다.
개념 및 용어 설명:
- Amazon Aurora: MySQL 및 PostgreSQL 호환 완전 관리형 관계형 데이터베이스로, 높은 성능과 가용성을 제공합니다.
- AWS Fargate: 서버리스 컨테이너 실행 서비스로, 인프라 관리를 필요로 하지 않고 컨테이너 실행을 자동화합니다.
오답 분석:
- B: EC2 인스턴스는 인프라 관리 부담을 줄이지 않습니다.
- C: CloudFront는 콘텐츠 전송 네트워크로, 애플리케이션 인프라 개선과 직접적인 관련이 없습니다.
- D: ElastiCache는 데이터베이스 성능을 향상시킬 수 있지만, 운영 오버헤드를 줄이는 데 직접적인 도움이 되지 않습니다.
✅ 문제 130
An application runs on Amazon EC2 instances across multiple Availability Zonas. The instances run in an Amazon EC2 Auto Scaling group behind an Application Load Balancer. The application performs best when the CPU utilization of the EC2 instances is at or near 40%.
What should a solutions architect do to maintain the desired performance across all instances in the group?
애플리케이션은 여러 가용 영역의 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 Application Load Balancer 뒤의 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. 애플리케이션은 EC2 인스턴스의 CPU 사용률이 40% 또는 거의 40%일 때 가장 잘 수행됩니다.
솔루션 설계자는 그룹의 모든 인스턴스에서 원하는 성능을 유지하기 위해 무엇을 해야 합니까?
A.
Use a simple scaling policy to dynamically scale the Auto Scaling group.
Auto Scaling 그룹을 동적으로 확장하려면 간단한 확장 정책을 사용합니다.
B.
Use a target tracking policy to dynamically scale the Auto Scaling group.
대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장합니다.
C.
Use an AWS Lambda function ta update the desired Auto Scaling group capacity.
AWS Lambda 함수를 사용하여 원하는 Auto Scaling 그룹 용량을 업데이트합니다.
D.
Use scheduled scaling actions to scale up and scale down the Auto Scaling group.
예약된 조정 작업을 사용하여 Auto Scaling 그룹을 확장 및 축소합니다.
⭕ 정답: B
📝 해설
대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장합니다. 이는 특정 목표를 설정하고, 예를 들어 CPU 사용률이 40% 근처에서 유지되도록 인스턴스를 자동으로 추가하거나 제거합니다.
개념 및 용어 설명:
- Auto Scaling 그룹: 수요에 따라 자동으로 인스턴스를 추가하거나 제거하여 애플리케이션의 가용성과 성능을 유지합니다.
- 대상 추적 정책: 특정 지표를 기준으로 확장 작업을 자동으로 수행하는 정책입니다.
오답 분석:
- A: 간단한 확장 정책은 목표 지표를 기준으로 하지 않으며, 원하는 성능을 유지하기 어렵습니다.
- C: Lambda 함수를 사용하여 수동으로 용량을 조정하는 것은 자동화되지 않아서 효율적이지 않습니다.
- D: 예약된 조정 작업은 트래픽 패턴이 예측 가능할 때 적합하지만, 실시간으로 동적으로 조정할 수 없습니다.
✅ 문제 131
A company is developing a file-sharing application that will use an Amazon S3 bucket for storage. The company wants to serve all the files through an Amazon CloudFront distribution. The company does not want the files to be accessible through direct navigation to the S3 URL.
What should a solutions architect do to meet these requirements?
한 회사에서 Amazon S3 버킷을 스토리지로 사용할 파일 공유 애플리케이션을 개발 중입니다. 회사는 Amazon CloudFront 배포를 통해 모든 파일을 제공하려고 합니다. 회사는 S3 URL에 대한 직접 탐색을 통해 파일에 액세스하는 것을 원하지
않습니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Write individual policies for each S3 bucket to grant read permission for only CloudFront access.
각 S3 버킷에 대한 개별 정책을 작성하여 CloudFront 액세스에 대해서만 읽기 권한을 부여합니다.
B.
Create an IAM user. Grant the user read permission to objects in the S3 bucket. Assign the user to CloudFront.
IAM 사용자를 생성합니다. 사용자에게 S3 버킷의 객체에 대한 읽기 권한을 부여합니다. 사용자를 CloudFront에 할당합니다.
C.
Write an S3 bucket policy that assigns the CloudFront distribution ID as the Principal and assigns the target S3 bucket as the Amazon Resource Name (ARN).
CloudFront 배포 ID를 보안 주체로 할당하고 대상 S3 버킷을 Amazon 리소스 이름(ARN)으로 할당하는 S3 버킷 정책을
작성합니다.
D.
Create an origin access identity (OAI). Assign the OAI to the CloudFront distribution. Configure the S3 bucket permissions so that only the OAI has read permission.
원본 액세스 ID(OAI)를 생성합니다. CloudFront 배포에 OAI를 할당합니다. OAI만 읽기 권한을 갖도록 S3 버킷 권한을 구성합니다.
⭕ 정답: D
📝 해설
원본 액세스 ID(OAI)를 생성하고 CloudFront 배포에 OAI를 할당합니다. 그런 다음 S3 버킷 권한을 구성하여 OAI만 읽기 권한을 가지도록 설정합니다. 이렇게 하면 CloudFront를 통해서만 파일에 접근할 수 있으며, S3 URL을 통해 직접 접근할 수 없게 됩니다.
개념 및 용어 설명:
- Amazon CloudFront: 전 세계적으로 콘텐츠를 빠르게 배포할 수 있는 콘텐츠 전송 네트워크(CDN) 서비스입니다.
- Origin Access Identity (OAI): S3 버킷과 CloudFront 간의 보안 연결을 위해 사용되는 특별한 CloudFront 사용자입니다.
- S3 버킷 정책: S3 버킷에 접근할 수 있는 권한을 정의하는 정책입니다.
오답 분석:
- A: 각 S3 버킷에 대한 개별 정책을 작성하는 것은 관리가 복잡해질 수 있습니다.
- B: IAM 사용자를 통해 접근을 제한하는 것은 CloudFront와 S3 간의 보안을 강화하는 방법으로 적합하지 않습니다.
- C: S3 버킷 정책에서 CloudFront 배포 ID를 보안 주체로 지정하는 것은 효과적이지 않습니다.
✅ 문제 132
A company’s website provides users with downloadable historical performance reports. The website needs a solution that will scale to meet the company’s website demands globally. The solution should be cost-effective, limit the provisioning of infrastructure resources, and provide the fastest possible response time.
Which combination should a solutions architect recommend to meet these requirements?
회사의 웹사이트는 사용자에게 다운로드 가능한 과거 성과 보고서를 제공합니다. 웹 사이트에는 전 세계적으로 회사의 웹 사이트 요구 사항을 충족하도록 확장할 수 있는 솔루션이 필요합니다. 솔루션은 비용 효율적이어야 하고 인프라 리소스 프로비저닝을 제한하며 가능한 가장 빠른 응답 시간을 제공해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조합을 권장해야 합니까?
A.
Amazon CloudFront and Amazon S3
B.
AWS Lambda and Amazon DynamoDB
C.
Application Load Balancer with Amazon EC2 Auto Scaling
D.
Amazon Route 53 with internal Application Load Balancers
⭕ 정답: A
📝 해설
Amazon CloudFront와 Amazon S3를 사용하면 글로벌 확장성과 빠른 응답 시간을 제공하면서 비용 효율적인 솔루션을 구현할 수 있습니다. CloudFront는 전 세계에 분산된 엣지 로케이션을 통해 콘텐츠를 캐시하고, S3는 내구성과 가용성이 높은 스토리지를 제공합니다.
개념 및 용어 설명:
- Amazon CloudFront: 글로벌 콘텐츠 전송 네트워크(CDN)로, 웹사이트, 동영상, 애플리케이션 등을 전 세계적으로 빠르게 배포합니다.
- Amazon S3: 객체 스토리지 서비스로, 데이터를 안전하게 저장하고 액세스할 수 있습니다.
오답 분석:
- B: AWS Lambda와 DynamoDB는 서버리스 아키텍처로, 파일 다운로드를 위한 솔루션으로 적합하지 않습니다.
- C: Application Load Balancer와 EC2 Auto Scaling은 확장성이 있지만, 글로벌 요구 사항을 충족하는 데 적합하지 않습니다.
- D: Route 53과 내부 Application Load Balancer는 글로벌 확장성과 직접적인 관련이 없습니다.
✅ 문제 133
A company runs an Oracle database on premises. As part of the company’s migration to AWS, the company wants to upgrade the database to the most recent available version. The company also wants to set up disaster recovery (DR) for the database. The company needs to minimize the operational overhead for normal operations and DR setup. The company also needs to maintain access to the database's underlying operating system.
Which solution will meet these requirements?
회사는 온프레미스에서 Oracle 데이터베이스를 실행합니다. 회사는 AWS로 마이그레이션하는 과정에서 데이터베이스를 사용 가능한 최신 버전으로 업그레이드하려고 합니다. 회사는 또한 데이터베이스에 대한 재해 복구(DR)를 설정하려고 합니다. 회사는 정상 운영 및 DR 설정을 위한 운영 오버헤드를 최소화해야 합니다. 회사는 또한 데이터베이스의 기본 운영 체제에 대한 액세스를 유지 관리해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Migrate the Oracle database to an Amazon EC2 instance. Set up database replication to a different AWS Region.
Oracle 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. 다른 AWS 리전으로 데이터베이스 복제를 설정합니다.
B.
Migrate the Oracle database to Amazon RDS for Oracle. Activate Cross-Region automated backups to replicate the snapshots to another AWS Region.
Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 교차 리전 자동 백업을 활성화하여 다른 AWS 리전에 스냅샷을 복제합니다.
C.
Migrate the Oracle database to Amazon RDS Custom for Oracle. Create a read replica for the database in another AWS Region.
Oracle 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 다른 AWS 리전의 데이터베이스에 대한 읽기 전용 복제본을 생성합니다.
D.
Migrate the Oracle database to Amazon RDS for Oracle. Create a standby database in another Availability Zone.
Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 다른 가용 영역에 대기 데이터베이스를 생성합니다.
⭕ 정답: C
📝 해설
Oracle 데이터베이스를 Amazon RDS Custom for Oracle로 마이그레이션하고, 다른 AWS 리전에서 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. RDS Custom은 사용자 지정 가능한 RDS 환경을 제공하며, 기본 운영 체제에 대한 액세스를 유지할 수 있습니다. 또한, Cross-Region Read Replica를 통해 재해 복구를 설정할 수 있습니다.
개념 및 용어 설명:
- Amazon RDS Custom: 사용자가 데이터베이스와 운영 체제에 대한 더 많은 제어권을 가지는 RDS 서비스입니다.
- Cross-Region Read Replica: 다른 리전에 복제본을 생성하여 데이터베이스의 가용성과 재해 복구 기능을 강화합니다.
오답 분석:
- A: EC2 인스턴스에서 Oracle을 운영하는 것은 관리 오버헤드가 높습니다.
- B: RDS for Oracle은 기본 운영 체제에 대한 액세스를 제공하지 않습니다.
- D: Cross-Region Read Replica를 통해 리전 간의 재해 복구를 설정하는 것이 더 효과적입니다.
✅ 문제 134
A company wants to move its application to a serverless solution. The serverless solution needs to analyze existing and new data by using SQL. The company stores the data in an Amazon S3 bucket. The data requires encryption and must be replicated to a different AWS Region.
Which solution will meet these requirements with the LEAST operational overhead?
한 회사에서 애플리케이션을 서버리스 솔루션으로 이동하려고 합니다. 서버리스 솔루션은 SQL을 사용하여 기존 및 신규 데이터를 분석해야 합니다. 회사는 데이터를 Amazon S3 버킷에 저장합니다. 데이터는 암호화가 필요하며 다른 AWS 리전에 복제해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Create a new S3 bucket. Load the data into the new S3 bucket. Use S3 Cross-Region Replication (CRR) to replicate encrypted objects to an S3 bucket in another Region. Use server-side encryption with AWS KMS multi-Region kays (SSE-KMS). Use Amazon Athena to query the data.
새 S3 버킷을 생성합니다. 데이터를 새 S3 버킷에 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 kay(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
B.
Create a new S3 bucket. Load the data into the new S3 bucket. Use S3 Cross-Region Replication (CRR) to replicate encrypted objects to an S3 bucket in another Region. Use server-side encryption with AWS KMS multi-Region keys (SSE-KMS). Use Amazon RDS to query the data.
새 S3 버킷을 생성합니다. 데이터를 새 S3 버킷에 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
C.
Load the data into the existing S3 bucket. Use S3 Cross-Region Replication (CRR) to replicate encrypted objects to an S3 bucket in another Region. Use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Use Amazon Athena to query the data.
기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
D.
Load the data into the existing S3 bucket. Use S3 Cross-Region Replication (CRR) to replicate encrypted objects to an S3 bucket in another Region. Use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Use Amazon RDS to query the data.
기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
⭕ 정답: C
📝 해설
- S3 Cross-Region Replication (CRR): S3 버킷 간에 객체를 자동으로 복제하여 지리적 중복성을 제공합니다.
- Amazon Athena: S3에 저장된 데이터를 SQL로 쿼리할 수 있는 서버리스 분석 서비스입니다.
- SSE-S3: Amazon S3 관리형 키를 사용한 서버 측 암호화입니다.
오답 분석:
- A: 새로운 S3 버킷을 생성할 필요가 없으며, SSE-KMS는 추가 관리 오버헤드를 초래할 수 있습니다.
- B, D: Amazon RDS는 서버리스 솔루션이 아니며, S3와 Athena를 사용하는 것이 더 적합합니다.
✅ 문제 135
A company runs workloads on AWS. The company needs to connect to a service from an external provider. The service is hosted in the provider's VPC. According to the company’s security team, the connectivity must be private and must be restricted to the target service. The connection must be initiated only from the company’s VPC.
Which solution will mast these requirements?
회사는 AWS에서 워크로드를 실행합니다. 회사는 외부 공급자의 서비스에 연결해야 합니다. 서비스는 공급자의 VPC에서 호스팅됩니다. 회사 보안 팀에 따르면 연결은 비공개여야 하며 대상 서비스로 제한되어야 합니다. 연결은 회사의 VPC에서만 시작되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Create a VPC peering connection between the company's VPC and the provider's VPC. Update the route table to connect to the target service.
회사의 VPC와 공급자의 VPC 간에 VPC 피어링 연결을 생성합니다. 대상 서비스에 연결하도록 라우팅 테이블을
업데이트합니다.
B.
Ask the provider to create a virtual private gateway in its VPC. Use AWS PrivateLink to connect to the target service.
공급자에게 VPC에 가상 프라이빗 게이트웨이를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에
연결합니다.
C.
Create a NAT gateway in a public subnet of the company’s VPUpdate the route table to connect to the target service.
회사의 VPUpdate 라우팅 테이블의 퍼블릭 서브넷에 NAT 게이트웨이를 생성하여 대상 서비스에 연결합니다.
D.
Ask the provider to create a VPC endpoint for the target service. Use AWS PrivateLink to connect to the target service.
공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에
연결합니다.
⭕ 정답: D
📝 해설
PrivateLink는 VPC 간의 비공개 연결을 가능하게 하며, 특정 서비스에 대한 액세스를 제한할 수 있습니다.
개념 및 용어 설명:
- AWS PrivateLink: VPC 간에 비공개로 서비스를 연결할 수 있는 기술로, 보안과 연결성을 강화합니다.
- VPC 엔드포인트: 특정 서비스에 접근할 수 있는 VPC 내의 논리적 엔드포인트입니다.
오답 분석:
- A: VPC 피어링은 전용 연결을 설정하지만, 특정 서비스로의 제한된 접근을 보장하지 않습니다.
- B: 가상 프라이빗 게이트웨이는 비공개 연결을 제공하지만, PrivateLink만큼 세밀한 제어를 제공하지 않습니다.
- C: NAT 게이트웨이는 퍼블릭 인터넷을 통해 연결을 허용하기 때문에 요구 사항에 맞지 않습니다.
✅ 문제 136
A company is migrating its on-premises PostgreSQL database to Amazon Aurora PostgreSQL. The on-premises database must remain online and accessible during the migration. The Aurora database must remain synchronized with the on-premises database.
Which combination of actions must a solutions architect take to meet these requirements? (Choose two.)
회사는 온프레미스 PostgreSQL 데이터베이스를 Amazon Aurora PostgreSQL로 마이그레이션하고 있습니다. 온-프레미스 데이터베이스는 온라인 상태를 유지하고 마이그레이션 중에 액세스할 수 있어야 합니다. Aurora 데이터베이스는 온프레미스 데이터베이스와 동기화된 상태를 유지해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자가 취해야 하는 조치의 조합은 무엇입니까? (2개를 선택하세요.)
A.
Create an ongoing replication task.
지속적인 복제 작업을 만듭니다.
B.
Create a database backup of the on-premises database.
온프레미스 데이터베이스의 데이터베이스 백업을 생성합니다.
C.
Create an AWS Database Migration Service (AWS DMS) replication server.
AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다.
D.
Convert the database schema by using the AWS Schema Conversion Tool (AWS SCT).
AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
E.
Create an Amazon EventBridge (Amazon CloudWatch Events) rule to monitor the database synchronization.
데이터베이스 동기화를 모니터링하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
⭕ 정답: A, C
📝 해설
지속적인 복제 작업을 만들어 온프레미스 PostgreSQL 데이터베이스와 Amazon Aurora PostgreSQL 데이터베이스를 동기화 상태로 유지합니다. AWS Database Migration Service (DMS)를 사용하여 데이터베이스 복제를 설정하고 관리할 수 있습니다. DMS는 소스 데이터베이스와 타겟 데이터베이스 간의 지속적인 데이터 동기화를 지원합니다.
오답 분석:
- B: 데이터베이스 백업을 생성하는 것은 초기 데이터 전송에만 유용하며, 실시간 동기화를 제공하지 않습니다.
- D: 데이터베이스 스키마 변환은 스키마 호환성을 보장하지만 지속적인 데이터 동기화에는 도움이 되지 않습니다.
- E: 데이터베이스 동기화를 모니터링하는 것은 중요하지만, 실제 동기화를 설정하는 데 직접적인 도움은 되지 않습니다.
✅ 문제 137
A company uses AWS Organizations to create dedicated AWS accounts for each business unit to manage each business unit's account independently upon request. The root email recipient missed a notification that was sent to the root user email address of one account. The company wants to ensure that all future notifications are not missed. Future notifications must be limited to account administrators.
Which solution will meet these requirements?
회사는 AWS Organizations를 사용하여 각 사업부에 대한 전용 AWS 계정을 생성하여 요청 시 각 사업부의 계정을 독립적으로 관리합니다. 루트 이메일 수신자가 한 계정의 루트 사용자 이메일 주소로 전송된 알림을 놓쳤습니다. 회사는 향후 모든 알림을 놓치지 않기를 원합니다. 향후 알림은 계정 관리자로 제한되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Configure the company’s email server to forward notification email messages that are sent to the AWS account root user email address to all users in the organization.
AWS 계정 루트 사용자 이메일 주소로 전송되는 알림 이메일 메시지를 조직의 모든 사용자에게 전달하도록 회사 이메일 서버를 구성합니다.
B.
Configure all AWS account root user email addresses as distribution lists that go to a few administrators who can respond to alerts. Configure AWS account alternate contacts in the AWS Organizations console or programmatically.
모든 AWS 계정 루트 사용자 이메일 주소를 알림에 응답할 수 있는 소수의 관리자에게 전달되는 배포 목록으로 구성합니다. AWS Organizations 콘솔에서 또는 프로그래밍 방식으로 AWS 계정 대체 연락처를 구성합니다.
C.
Configure all AWS account root user email messages to be sent to one administrator who is responsible for monitoring alerts and forwarding those alerts to the appropriate groups.
경보를 모니터링하고 해당 경보를 적절한 그룹에 전달할 책임이 있는 한 명의 관리자에게 모든 AWS 계정 루트 사용자 이메일 메시지를 보내도록 구성합니다.
D.
Configure all existing AWS accounts and all newly created accounts to use the same root user email address. Configure AWS account alternate contacts in the AWS Organizations console or programmatically.
동일한 루트 사용자 이메일 주소를 사용하도록 기존의 모든 AWS 계정과 새로 생성된 모든 계정을 구성합니다. AWS Organizations 콘솔에서 또는 프로그래밍 방식으로 AWS 계정 대체 연락처를 구성합니다.
⭕ 정답: B
📝 해설
중요한 알림이 소수의 관리자에게 전달되어 누락되지 않도록 보장할 수 있습니다.
오답 분석:
- A: 모든 사용자에게 알림을 전달하면 불필요한 혼란을 초래할 수 있습니다.
- C: 단일 관리자가 모든 알림을 처리하는 것은 과부하가 발생할 수 있습니다.
- D: 모든 계정에 동일한 루트 이메일 주소를 사용하는 것은 보안상 위험할 수 있습니다.
✅ 문제 138
A company runs its ecommerce application on AWS. Every new order is published as a message in a RabbitMQ queue that runs on an Amazon EC2 instance in a single Availability Zone. These messages are processed by a different application that runs on a separate EC2 instance. This application stores the details in a PostgreSQL database on another EC2 instance. All the EC2 instances are in the same Availability Zone.
The company needs to redesign its architecture to provide the highest availability with the least operational overhead.
What should a solutions architect do to meet these requirements?
회사는 AWS에서 전자 상거래 애플리케이션을 실행합니다. 모든 새 주문은 단일 가용 영역의 Amazon EC2 인스턴스에서 실행되는 RabbitMQ 대기열에 message로 게시됩니다. 이러한 메시지는 별도의 EC2 인스턴스에서 실행되는 다른 애플리케이션에서 처리됩니다. 이 애플리케이션은 다른 EC2 인스턴스의 PostgreSQL 데이터베이스에 세부 정보를 저장합니다. 모든 EC2 인스턴스는 동일한 가용 영역에 있습니다.
회사는 최소한의 운영 오버헤드로 최고의 가용성을 제공하도록 아키텍처를 재설계해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Migrate the queue to a redundant pair (active/standby) of RabbitMQ instances on Amazon MQ. Create a Multi-AZ Auto Scaling group for EC2 instances that host the application. Create another Multi-AZ Auto Scaling group for EC2 instances that host the PostgreSQL database.
대기열을 Amazon MQ에서 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대해 다른 다중 AZ Auto Scaling 그룹을 생성합니다.
B.
Migrate the queue to a redundant pair (active/standby) of RabbitMQ instances on Amazon MQ. Create a Multi-AZ Auto Scaling group for EC2 instances that host the application. Migrate the database to run on a Multi-AZ deployment of Amazon RDS for PostgreSQL.
대기열을 Amazon MQ에서 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행하도록 데이터베이스를 마이그레이션합니다.
C.
Create a Multi-AZ Auto Scaling group for EC2 instances that host the RabbitMQ queue. Create another Multi-AZ Auto Scaling group for EC2 instances that host the application. Migrate the database to run on a Multi-AZ deployment of Amazon RDS for PostgreSQL.
RabbitMQ 대기열을 호스팅하는 EC2 인스턴스용 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대해 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행하도록 데이터베이스를 마이그레이션합니다.
D.
Create a Multi-AZ Auto Scaling group for EC2 instances that host the RabbitMQ queue. Create another Multi-AZ Auto Scaling group for EC2 instances that host the application. Create a third Multi-AZ Auto Scaling group for EC2 instances that host the PostgreSQL database
RabbitMQ 대기열을 호스팅하는 EC2 인스턴스용 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대해 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 세 번째 다중 AZ Auto Scaling 그룹을 생성합니다.
⭕ 정답: B
📝 해설
오답 분석:
- A: EC2 인스턴스를 사용하여 데이터베이스를 호스팅하면 관리 오버헤드가 증가할 수 있습니다.
- C: RabbitMQ 대기열을 EC2 인스턴스에 호스팅하는 것은 가용성이 떨어질 수 있습니다.
- D: 모든 계층에 대해 EC2 인스턴스를 사용하는 것은 높은 운영 오버헤드를 초래할 수 있습니다.
✅ 문제 139
A reporting team receives files each day in an Amazon S3 bucket. The reporting team manually reviews and copies the files from this initial S3 bucket to an analysis S3 bucket each day at the same time to use with Amazon QuickSight. Additional teams are starting to send more files in larger sizes to the initial S3 bucket.
The reporting team wants to move the files automatically analysis S3 bucket as the files enter the initial S3 bucket. The reporting team also wants to use AWS Lambda functions to run pattern-matching code on the copied data. In addition, the reporting team wants to send the data files to a pipeline in Amazon SageMaker Pipelines.
What should a solutions architect do to meet these requirements with the LEAST operational overhead?
보고 팀은 Amazon S3 버킷에서 매일 파일을 수신합니다. 보고 팀은 이 초기 S3 버킷의 파일을 수동으로 검토하고 Amazon QuickSight와 함께 사용하기 위해 매일 같은 시간에 분석 S3 버킷으로 복사합니다. 추가 팀이 초기 S3 버킷에 더 큰 크기의 더 많은 파일을 보내기 시작했습니다.
보고 팀은 파일이 초기 S3 버킷에 들어갈 때 자동으로 분석 S3 버킷을 이동하려고 합니다. 또한 보고 팀은 AWS Lambda 함수를 사용하여 복사된 데이터에서 패턴 일치 코드를 실행하려고 합니다. 또한 보고 팀은 데이터 파일을 Amazon SageMaker Pipelines의 파이프라인으로 보내려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A.
Create a Lambda function to copy the files to the analysis S3 bucket. Create an S3 event notification for the analysis S3 bucket. Configure Lambda and SageMaker Pipelines as destinations of the event notification. Configure s3:ObjectCreated:Put as the event type.
분석 S3 버킷에 파일을 복사하는 Lambda 함수를 생성합니다. 분석 S3 버킷에 대한 S3 이벤트 알림을 생성합니다. 이벤트 알림의 대상으로 Lambda 및 SageMaker 파이프라인을 구성합니다. s3:ObjectCreated:Put을 이벤트 유형으로 구성합니다.
B.
Create a Lambda function to copy the files to the analysis S3 bucket. Configure the analysis S3 bucket to send event notifications to Amazon EventBridge (Amazon CloudWatch Events). Configure an ObjectCreated rule in EventBridge (CloudWatch Events). Configure Lambda and SageMaker Pipelines as targets for the rule.
분석 S3 버킷에 파일을 복사하는 Lambda 함수를 생성합니다. Amazon EventBridge(Amazon CloudWatch Events)에 이벤트 알림을 보내도록 분석 S3 버킷을 구성합니다. EventBridge(CloudWatch 이벤트)에서 ObjectCreated 규칙을 구성합니다. 규칙의 대상으로 Lambda 및 SageMaker 파이프라인을 구성합니다.
C.
Configure S3 replication between the S3 buckets. Create an S3 event notification for the analysis S3 bucket. Configure Lambda and SageMaker Pipelines as destinations of the event notification. Configure s3:ObjectCreated:Put as the event type.
S3 버킷 간에 S3 복제를 구성합니다. 분석 S3 버킷에 대한 S3 이벤트 알림을 생성합니다. 이벤트 알림의 대상으로 Lambda 및 SageMaker 파이프라인을 구성합니다. s3:ObjectCreated:Put을 이벤트 유형으로 구성합니다.
D.
Configure S3 replication between the S3 buckets. Configure the analysis S3 bucket to send event notifications to Amazon EventBridge (Amazon CloudWatch Events). Configure an ObjectCreated rule in EventBridge (CloudWatch Events). Configure Lambda and SageMaker Pipelines as targets for the rule.
S3 버킷 간에 S3 복제를 구성합니다. Amazon EventBridge(Amazon CloudWatch Events)에 이벤트 알림을 보내도록 분석 S3 버킷을 구성합니다. EventBridge(CloudWatch 이벤트)에서 ObjectCreated 규칙을 구성합니다. 규칙의 대상으로 Lambda 및 SageMaker 파이프라인을 구성합니다.
⭕ 정답: D
📝 해설
- S3 복제 설정 (S3 Replication):
- D 옵션에서는 S3 복제를 설정하여 초기 S3 버킷에서 분석 S3 버킷으로 파일을 자동으로 복사합니다. S3 복제는 데이터의 자동 복사를 처리하여 운영 오버헤드를 최소화합니다.
- A와 B 옵션은 Lambda 함수를 사용하여 파일을 복사하므로 운영 오버헤드가 더 큽니다.
- 이벤트 알림 및 처리:
- D 옵션에서는 분석 S3 버킷에서 이벤트 알림을 Amazon EventBridge로 보내도록 구성합니다. EventBridge는 복잡한 이벤트 기반 워크플로우를 쉽게 관리할 수 있으며, 다양한 타겟(여기서는 Lambda 함수 및 SageMaker Pipelines)을 지원합니다.
- C 옵션은 S3 이벤트 알림을 직접 사용하지만, EventBridge를 사용하면 이벤트 처리 로직을 더 유연하고 확장 가능하게 만들 수 있습니다.
- EventBridge 규칙 구성:
- EventBridge에서 ObjectCreated 규칙을 구성하고, 이를 통해 Lambda 함수와 SageMaker Pipelines를 트리거합니다. EventBridge를 사용하면 이벤트를 효율적으로 관리하고 여러 타겟으로 이벤트를 전송할 수 있습니다.
이와 같이 D 옵션이 제공하는 솔루션이 가장 효율적이고 최소한의 운영 오버헤드로 문제의 요구 사항을 충족할 수 있습니다. S3 복제 및 EventBridge를 사용하여 파일 복사 및 이벤트 처리를 자동화하면 수동 작업을 줄이고, AWS 서비스의 장점을 최대한 활용할 수 있습니다.
✅ 문제 140
A solutions architect needs to help a company optimize the cost of running an application on AWS. The application will use Amazon EC2 instances, AWS Fargate, and AWS Lambda for compute within the architecture.
The EC2 instances will run the data ingestion layer of the application. EC2 usage will be sporadic and unpredictable. Workloads that run on EC2 instances can be interrupted at any time. The application front end will run on Fargate, and Lambda will serve the API layer. The front-end utilization and API layer utilization will be predictable over the course of the next year.
Which combination of purchasing options will provide the MOST cost-effective solution for hosting this application? (Choose two.)
솔루션 설계자는 회사가 AWS에서 애플리케이션을 실행하는 비용을 최적화할 수 있도록 도와야 합니다. 애플리케이션은 아키텍처 내 컴퓨팅을 위해 Amazon EC2 인스턴스, AWS Fargate 및 AWS Lambda를 사용합니다.
EC2 인스턴스는 애플리케이션의 데이터 수집 계층을 실행합니다. EC2 사용은 산발적이고 예측할 수 없습니다. EC2 인스턴스에서 실행되는 워크로드는 언제든지 중단될 수 있습니다. 애플리케이션 프런트 엔드는 Fargate에서 실행되고 Lambda는 API 계층을 제공합니다. 프론트엔드 활용도와 API 계층 활용도는 내년에 예측할 수 있습니다.
이 애플리케이션을 호스팅하는 데 가장 비용 효율적인 솔루션을 제공하는 구매 옵션 조합은 무엇입니까? (2개를 선택하세요.)
A.
Use Spot Instances for the data ingestion layer
데이터 수집 계층에 스팟 인스턴스 사용
B.
Use On-Demand Instances for the data ingestion layer
데이터 수집 계층에 온디맨드 인스턴스 사용
C.
Purchase a 1-year Compute Savings Plan for the front end and API layer.
프런트 엔드 및 API 계층에 대한 1년 Compute Savings Plan을 구매합니다.
D.
Purchase 1-year All Upfront Reserved instances for the data ingestion layer.
데이터 수집 계층에 대한 1년 전체 선결제 예약 인스턴스를 구매합니다.
E.
Purchase a 1-year EC2 instance Savings Plan for the front end and API layer.
프런트 엔드 및 API 계층을 위한 1년 EC2 인스턴스 Savings Plan을 구매합니다.
⭕ 정답: A, C
📝 해설
데이터 수집 계층에 스팟 인스턴스를 사용하여 비용을 절감하고, 프론트 엔드 및 API 계층에 대한 1년 Compute Savings Plan을 구매합니다. 스팟 인스턴스는 예측할 수 없는 사용 패턴에 대해 비용 효율적인 솔루션을 제공하며, Compute Savings Plan은 예측 가능한 사용량에 대해 비용을 절감할 수 있습니다.
오답 분석:
- B: 온디맨드 인스턴스는 비용이 높을 수 있습니다.
- D: 데이터 수집 계층에 대해 예약 인스턴스를 사용하는 것은 예측할 수 없는 사용 패턴에 적합하지 않습니다.
- E: EC2 인스턴스 Savings Plan은 Fargate와 Lambda에 적용되지 않습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (161 - 180) (0) | 2024.05.23 |
---|---|
[AWS SAA-C03] Examtopics Dump (141 - 160) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (101 - 120) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (81 - 100) (3) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (61 - 80) (0) | 2024.05.22 |