✅ 문제 101
A solutions architect is designing a VPC with public and private subnets. The VPC and subnets use IPv4 CIDR blocks. There is one public subnet and one private subnet in each of three Availability Zones (AZs) for high availability. An internet gateway is used to provide internet access for the public subnets. The private subnets require access to the internet to allow Amazon EC2 instances to download software updates.
What should the solutions architect do to enable Internet access for the private subnets?
솔루션 설계자는 퍼블릭 및 프라이빗 서브넷이 있는 VPC를 설계하고 있습니다. VPC와 서브넷은 IPv4 CIDR 블록을 사용합니다. 고가용성을 위해 세 개의 가용 영역(AZ) 각각에 하나의 퍼블릭 서브넷과 하나의 프라이빗 서브넷이 있습니다. 인터넷 게이트웨이는 퍼블릭 서브넷에 대한 인터넷 액세스를 제공하는 데 사용됩니다. 프라이빗 서브넷은 Amazon EC2 인스턴스가 소프트웨어 업데이트를 다운로드할 수 있도록 인터넷에 액세스할 수 있어야 합니다.
솔루션 설계자는 프라이빗 서브넷에 대한 인터넷 액세스를 활성화하기 위해 무엇을 해야 합니까?
A.
Create three NAT gateways, one for each public subnet in each AZ. Create a private route table for each AZ that forwards non-VPC traffic to the NAT gateway in its AZ.
각 AZ의 각 퍼블릭 서브넷에 대해 하나씩 3개의 NAT 게이트웨이를 생성합니다. 비 VPC 트래픽을 해당 AZ의 NAT 게이트웨이로 전달하는 각 AZ에 대한 프라이빗 라우팅 테이블을 생성합니다.
B.
Create three NAT instances, one for each private subnet in each AZ. Create a private route table for each AZ that forwards non-VPC traffic to the NAT instance in its AZ.
각 AZ의 프라이빗 서브넷마다 하나씩 3개의 NAT 인스턴스를 생성합니다. 비 VPC 트래픽을 해당 AZ의 NAT 인스턴스로 전달하는 각 AZ에 대한 프라이빗 라우팅 테이블을 생성합니다.
C.
Create a second internet gateway on one of the private subnets. Update the route table for the private subnets that forward non-VPC traffic to the private internet gateway.
프라이빗 서브넷 중 하나에 두 번째 인터넷 게이트웨이를 생성합니다. VPC가 아닌 트래픽을 프라이빗 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
D.
Create an egress-only internet gateway on one of the public subnets. Update the route table for the private subnets that forward non-VPC traffic to the egress-only Internet gateway.
퍼블릭 서브넷 중 하나에 송신 전용 인터넷 게이트웨이를 생성합니다. VPC가 아닌 트래픽을 외부 전용 인터넷 게이트웨이로 전달하는 프라이빗 서브넷에 대한 라우팅 테이블을 업데이트합니다.
⭕ 정답: A
📝 해설
각 가용 영역(AZ)에 NAT 게이트웨이를 배치하면 고가용성을 보장하고, 각 AZ의 프라이빗 라우팅 테이블을 사용해 인터넷으로의 아웃바운드 트래픽을 해당 AZ의 NAT 게이트웨이로 라우팅합니다. 이는 트래픽이 인터넷을 통해 라우팅되지만 NAT 게이트웨이를 통해서만 가능하도록 설정하여 보안을 유지합니다.
오답 분석:
- B: NAT 인스턴스는 NAT 게이트웨이보다 관리 오버헤드가 크며 고가용성을 제공하지 않습니다.
- C: 인터넷 게이트웨이는 퍼블릭 서브넷에만 사용할 수 있으며 프라이빗 서브넷에서 직접 사용할 수 없습니다.
- D: 송신 전용 인터넷 게이트웨이는 IPv6 트래픽에만 사용됩니다.
✅ 문제 102
A company wants to migrate an on-premises data center to AWS. The data center hosts an SFTP server that stores its data on an NFS-based file system. The server holds 200 GB of data that needs to be transferred. The server must be hosted on an Amazon EC2 instance that uses an Amazon Elastic File System (Amazon EFS) file system.
Which combination of steps should a solutions architect take to automate this task? (Choose two.)
회사에서 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 데이터 센터는 NFS 기반 파일 시스템에 데이터를 저장하는 SFTP 서버를 호스팅합니다. 서버에는 전송해야 하는 200GB의 데이터가 있습니다. 서버는 Amazon Elastic File System(Amazon EFS) 파일 시스템을 사용하는 Amazon EC2 인스턴스에서 호스팅되어야 합니다.
솔루션 설계자는 이 작업을 자동화하기 위해 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)
A.
Launch the EC2 instance into the same Availability Zone as the EFS file system.
EFS 파일 시스템과 동일한 가용 영역에서 EC2 인스턴스를 시작합니다.
B.
Install an AWS DataSync agent in the on-premises data center.
온프레미스 데이터 센터에 AWS DataSync 에이전트를 설치합니다.
C.
Create a secondary Amazon Elastic Block Store (Amazon EBS) volume on the EC2 instance for the data.
데이터에 대한 EC2 인스턴스에 보조 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다.
D.
Manually use an operating system copy command to push the data to the EC2 instance.
수동으로 운영 체제 복사 명령을 사용하여 데이터를 EC2 인스턴스로 푸시합니다.
E.
Use AWS DataSync to create a suitable location configuration for the on-premises SFTP server.
AWS DataSync를 사용하여 온프레미스 SFTP 서버에 적합한 위치 구성을 생성합니다.
⭕ 정답: A, B
📝 해설
DataSync는 온프레미스 데이터 센터와 AWS 간의 데이터 전송을 자동화하고 간소화하는 데 사용됩니다. EC2 인스턴스를 EFS와 동일한 가용 영역에 배치하면 네트워크 지연 시간이 최소화됩니다. DataSync 에이전트를 온프레미스 데이터 센터에 설치하면 안전하고 효율적으로 데이터를 전송할 수 있습니다.
오답 분석:
- C: 보조 EBS 볼륨은 데이터 전송 요구 사항을 충족하지 않습니다.
- D: 수동 데이터 전송은 자동화되지 않으며, 작업 부하가 많습니다.
- E: DataSync를 사용하여 적절한 위치 구성을 생성하는 것은 필수이지만 단독으로는 충분하지 않습니다.
✅ 문제 103
A company has an AWS Glue extract, transform, and load (ETL) job that runs every day at the same time. The job processes XML data that is in an Amazon S3 bucket. New data is added to the S3 bucket every day. A solutions architect notices that AWS Glue is processing all the data during each run.
What should the solutions architect do to prevent AWS Glue from reprocessing old data?
회사에 매일 같은 시간에 실행되는 AWS Glue 추출, 변환 및 로드(ETL) 작업이 있습니다. 작업은 Amazon S3 버킷에 있는 XML 데이터를 처리합니다. 매일 새로운 데이터가 S3 버킷에 추가됩니다. 솔루션 설계자는 AWS Glue가 각 실행 중에 모든 데이터를 처리하고 있음을 알아차렸습니다.
솔루션 아키텍트는 AWS Glue가 오래된 데이터를 재처리하지 못하도록 하려면 어떻게 해야 합니까?
A.
Edit the job to use job bookmarks.
작업 북마크를 사용하도록 작업을 편집합니다.
B.
Edit the job to delete data after the data is processed.
데이터가 처리된 후 데이터를 삭제하도록 작업을 편집합니다.
C.
Edit the job by setting the NumberOfWorkers field to 1.
NumberOfWorkers 필드를 1로 설정하여 작업을 편집합니다.
D.
Use a FindMatches machine learning (ML) transform.
FindMatches 기계 학습(ML) 변환을 사용합니다.
⭕ 정답: A
📝 해설
작업 북마크를 사용하면 AWS Glue가 이전에 처리된 데이터를 추적하여 중복 처리를 방지할 수 있습니다. 이는 새로 추가된 데이터만 처리하도록 설정하여 리소스 사용을 최적화하고 비용을 절감합니다.
오답 분석:
- B: 데이터를 삭제하면 향후 사용할 수 없습니다.
- C: NumberOfWorkers 필드를 1로 설정하는 것은 성능 문제를 야기할 수 있습니다.
- D: FindMatches ML 변환은 데이터 중복 제거를 위한 것이지, 이전 데이터를 추적하는 데 사용되지 않습니다.
✅ 문제 104
A solutions architect must design a highly available infrastructure for a website. The website is powered by Windows web servers that run on Amazon EC2 instances. The solutions architect must implement a solution that can mitigate a large-scale DDoS attack that originates from thousands of IP addresses. Downtime is not acceptable for the website.
Which actions should the solutions architect take to protect the website from such an attack? (Choose two.)
솔루션 설계자는 웹사이트를 위한 고가용성 인프라를 설계해야 합니다. 웹 사이트는 Amazon EC2 인스턴스에서 실행되는 Windows 웹 서버에 의해 구동됩니다. 솔루션 설계자는 수천 개의 IP 주소에서 시작되는 대규모 DDoS 공격을 완화할 수 있는 솔루션을 구현해야 합니다. 다운타임은 웹사이트에 허용되지 않습니다.
솔루션 설계자는 이러한 공격으로부터 웹사이트를 보호하기 위해 어떤 조치를 취해야 합니까? (2개를 선택하세요.)
A.
Use AWS Shield Advanced to stop the DDoS attack.
AWS Shield Advanced를 사용하여 DDoS 공격을 차단하십시오.
B.
Configure Amazon GuardDuty to automatically block the attackers.
공격자를 자동으로 차단하도록 Amazon GuardDuty를 구성합니다.
C.
Configure the website to use Amazon CloudFront for both static and dynamic content.
정적 및 동적 콘텐츠 모두에 Amazon CloudFront를 사용하도록 웹 사이트를 구성합니다.
D.
Use an AWS Lambda function to automatically add attacker IP addresses to VPC network ACLs.
AWS Lambda 함수를 사용하여 VPC 네트워크 ACL에 공격자 IP 주소를 자동으로 추가합니다.
E.
Use EC2 Spot Instances in an Auto Scaling group with a target tracking scaling policy that is set to 80% CPU utilization.
80% CPU 사용률로 설정된 대상 추적 조정 정책과 함께 Auto Scaling 그룹의 EC2 스팟 인스턴스를 사용합니다.
⭕ 정답: A, C
📝 해설
AWS Shield Advanced는 DDoS 공격으로부터 보호하며, Amazon CloudFront는 콘텐츠 전송 네트워크(CDN)로 트래픽을 분산시켜 대규모 공격을 완화할 수 있습니다. CloudFront는 DDoS 공격을 분산시키고, 오리진 서버에 대한 직접 공격을 방지합니다.
오답 분석:
- B: GuardDuty는 위협 탐지 서비스로, 자동으로 공격자를 차단하지 않습니다.
- D: Lambda 함수를 사용하여 공격자 IP를 차단하는 것은 실시간 대응이 어려울 수 있습니다.
- E: EC2 Spot Instances는 비용 절감에는 유리하지만, 고가용성 보장을 위해서는 적합하지 않습니다.
✅ 문제 105
A company is preparing to deploy a new serverless workload. A solutions architect must use the principle of least privilege to configure permissions that will be used to run an AWS Lambda function. An Amazon EventBridge (Amazon CloudWatch Events) rule will invoke the function.
Which solution meets these requirements?
회사에서 새로운 서버리스 워크로드를 배포할 준비를 하고 있습니다. 솔루션 설계자는 최소 권한 원칙을 사용하여 AWS Lambda 함수를 실행하는 데 사용할 권한을 구성해야 합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙이 함수를 호출합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Add an execution role to the function with lambda:InvokeFunction as the action and * as the principal.
lambda:InvokeFunction을 작업으로, *를 보안 주체로 사용하여 함수에 실행 역할을 추가합니다.
B.
Add an execution role to the function with lambda:InvokeFunction as the action and Service: lambda.amazonaws.com as the principal.
작업으로 lambda:InvokeFunction을 사용하고 보안 주체로 Service: lambda.amazonaws.com을 사용하여 함수에 실행
역할을 추가합니다.
C.
Add a resource-based policy to the function with lambda:* as the action and Service: events.amazonaws.com as the principal.
작업으로 lambda:*를 사용하고 보안 주체로 Service: events.amazonaws.com을 사용하여 리소스 기반 정책을 함수에
추가합니다.
D.
Add a resource-based policy to the function with lambda:InvokeFunction as the action and Service: events.amazonaws.com as the principal.
lambda:InvokeFunction을 작업으로, Service: events.amazonaws.com을 보안 주체로 사용하여 리소스 기반 정책을 함수에 추가합니다.
⭕ 정답: D
📝 해설
리소스 기반 정책을 사용하여 EventBridge 서비스가 Lambda 함수를 호출할 수 있도록 최소한의 권한을 부여합니다. 이는 최소 권한 원칙을 준수하여 보안을 강화합니다.
오답 분석:
- A: '*'는 모든 주체를 허용하므로 최소 권한 원칙에 어긋납니다.
- B: 'lambda.amazonaws.com'은 잘못된 주체입니다.
- C: 'lambda:*'는 모든 Lambda 작업을 허용하므로 최소 권한 원칙에 어긋납니다.
✅ 문제 106
A company is preparing to store confidential data in Amazon S3. For compliance reasons, the data must be encrypted at rest. Encryption key usage must be logged for auditing purposes. Keys must be rotated every year.
Which solution meets these requirements and is the MOST operationally efficient?
회사에서 Amazon S3에 기밀 데이터를 저장할 준비를 하고 있습니다. 규정 준수를 위해 미사용 데이터를 암호화해야 합니다. 암호화 키 사용은 감사 목적으로 기록되어야 합니다. 키는 매년 순환해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족하고 운영상 가장 효율적입니까?
A.
Server-side encryption with customer-provided keys (SSE-C)
고객 제공 키를 사용한 서버 측 암호화(SSE-C)
B.
Server-side encryption with Amazon S3 managed keys (SSE-S3)
Amazon S3 관리형 키를 사용한 서버 측 암호화(SSE-S3)
C.
Server-side encryption with AWS KMS keys (SSE-KMS) with manual rotation
수동 교체가 있는 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
D.
Server-side encryption with AWS KMS keys (SSE-KMS) with automatic rotation
자동 교체 기능이 있는 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
⭕ 정답: D
📝 해설
AWS KMS(Key Management Service)를 사용하여 암호화 키를 관리하는 SSE-KMS(Server-Side Encryption with AWS KMS keys)는 자동 키 순환을 지원하며, 암호화 키 사용을 AWS CloudTrail을 통해 감사할 수 있습니다. 이 방식은 AWS가 키를 자동으로 순환하고 관리하므로 운영 오버헤드를 최소화합니다.
오답 분석:
- A: SSE-C는 고객이 제공한 키를 사용하며, 키 관리 및 순환을 수동으로 처리해야 하므로 운영 오버헤드가 큽니다.
- B: SSE-S3는 Amazon S3가 키를 관리하지만, 키 순환 및 사용 기록에 대한 세부적인 제어가 부족합니다.
- C: 수동 키 순환은 운영 오버헤드가 크며, 키 사용 감사는 가능하지만 자동화된 방식보다는 비효율적입니다.
✅ 문제 107
A bicycle sharing company is developing a multi-tier architecture to track the location of its bicycles during peak operating hours. The company wants to use these data points in its existing analytics platform. A solutions architect must determine the most viable multi-tier option to support this architecture. The data points must be accessible from the REST API.
Which action meets these requirements for storing and retrieving location data?
자전거 공유 회사는 피크 운영 시간 동안 자전거의 위치를 추적하기 위해 다층 아키텍처를 개발하고 있습니다. 회사는 기존 분석 플랫폼에서 이러한 데이터 포인트를 사용하려고 합니다. 솔루션 설계자는 이 아키텍처를 지원하기 위해 가장 실행 가능한 다중 계층 옵션을 결정해야 합니다. 데이터 포인트는 REST API에서 액세스할 수 있어야 합니다.
위치 데이터 저장 및 검색에 대한 이러한 요구 사항을 충족하는 작업은 무엇입니까?
A.
Use Amazon Athena with Amazon S3.
Amazon S3와 함께 Amazon Athena를 사용합니다.
B.
Use Amazon API Gateway with AWS Lambda.
AWS Lambda와 함께 Amazon API Gateway를 사용합니다.
C.
Use Amazon QuickSight with Amazon Redshift.
Amazon Redshift와 함께 Amazon QuickSight를 사용합니다.
D.
Use Amazon API Gateway with Amazon Kinesis Data Analytics.
Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용합니다.
⭕ 정답: B
📝 해설
Amazon API Gateway와 AWS Lambda를 사용하면 데이터 처리를 서버리스로 수행할 수 있으며, Lambda 함수에서 위치 데이터를 저장 및 처리하여 REST API를 통해 접근할 수 있습니다. 이는 확장 가능하고 관리 오버헤드가 적습니다.
오답 분석:
- A: Amazon Athena는 대화형 쿼리를 지원하지만, REST API에서 직접 접근하기에는 적합하지 않습니다.
- C: Amazon QuickSight는 시각화 도구로, REST API를 통한 실시간 데이터 접근에 적합하지 않습니다.
- D: Amazon Kinesis Data Analytics는 실시간 데이터 분석에 적합하지만, REST API와 통합하는 데 추가적인 작업이 필요합니다.
✅ 문제 108
A company has an automobile sales website that stores its listings in a database on Amazon RDS. When an automobile is sold, the listing needs to be removed from the website and the data must be sent to multiple target systems.
Which design should a solutions architect recommend?
한 회사에 Amazon RDS의 데이터베이스에 목록을 저장하는 자동차 판매 웹사이트가 있습니다. 자동차가 판매되면 웹사이트에서 목록을 제거해야 하고 데이터를 여러 대상 시스템으로 보내야 합니다.
솔루션 아키텍트는 어떤 디자인을 추천해야 할까요?
A.
Create an AWS Lambda function triggered when the database on Amazon RDS is updated to send the information to an Amazon Simple Queue Service (Amazon SQS) queue for the targets to consume.
Amazon RDS의 데이터베이스가 업데이트되어 대상이 소비할 Amazon Simple Queue Service(Amazon SQS) 대기열로 정보를 보내도록 업데이트될 때 트리거되는 AWS Lambda 함수를 생성합니다.
B.
Create an AWS Lambda function triggered when the database on Amazon RDS is updated to send the information to an Amazon Simple Queue Service (Amazon SQS) FIFO queue for the targets to consume.
Amazon RDS의 데이터베이스가 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열로 정보를 보내도록 업데이트될 때 트리거되는 AWS Lambda 함수를 생성합니다.
C.
Subscribe to an RDS event notification and send an Amazon Simple Queue Service (Amazon SQS) queue fanned out to multiple Amazon Simple Notification Service (Amazon SNS) topics. Use AWS Lambda functions to update the targets.
RDS 이벤트 알림을 구독하고 여러 Amazon Simple Notification Service(Amazon SNS) 주제로 팬아웃된 Amazon Simple Queue Service(Amazon SQS) 대기열을 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
D.
Subscribe to an RDS event notification and send an Amazon Simple Notification Service (Amazon SNS) topic fanned out to multiple Amazon Simple Queue Service (Amazon SQS) queues. Use AWS Lambda functions to update the targets.
RDS 이벤트 알림을 구독하고 Amazon Simple Notification Service(Amazon SNS) 주제를 여러 Amazon Simple Queue Service(Amazon SQS) 대기열로 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
⭕ 정답: D
📝 해설
RDS 이벤트 알림을 구독하고, Amazon SNS 주제를 여러 SQS 대기열로 팬아웃하는 방식은 여러 대상 시스템으로 데이터를 효율적으로 분배할 수 있습니다. AWS Lambda 함수를 사용하여 SQS 대기열의 메시지를 처리하면 대상 시스템을 업데이트할 수 있습니다.
오답 분석:
- A: 단일 SQS 대기열로 정보를 보내는 것은 여러 대상 시스템으로 데이터를 분배하기에 적합하지 않습니다.
- B: FIFO 큐는 메시지 순서를 보장하지만, 다중 대상 시스템을 효율적으로 처리하기에는 부적합합니다.
- C: SQS에서 SNS로의 팬아웃은 적절하지 않으며, 반대로 SNS에서 SQS로 팬아웃하는 것이 더 효율적입니다.
✅ 문제 109
A company needs to store data in Amazon S3 and must prevent the data from being changed. The company wants new objects that are uploaded to Amazon S3 to remain unchangeable for a nonspecific amount of time until the company decides to modify the objects. Only specific users in the company's AWS account can have the ability 10 delete the objects.
What should a solutions architect do to meet these requirements?
회사는 Amazon S3에 데이터를 저장해야 하며 데이터가 변경되지 않도록 해야 합니다. 회사는 Amazon S3에 업로드된 새 객체가 회사가 객체를 수정하기로 결정할 때까지 일정하지 않은 시간 동안 변경할 수 없는 상태로 유지되기를 원합니다. 회사 AWS 계정의 특정 사용자만 객체를 삭제할 수 있습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Create an S3 Glacier vault. Apply a write-once, read-many (WORM) vault lock policy to the objects.
S3 Glacier 볼트를 생성합니다. WORM(Write-Once, Read-Many) 볼트 잠금 정책을 개체에 적용합니다.
B.
Create an S3 bucket with S3 Object Lock enabled. Enable versioning. Set a retention period of 100 years. Use governance mode as the S3 bucket’s default retention mode for new objects.
S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 보존 기간을 100년으로 설정합니다. 거버넌스 모드를 새 객체에 대한 S3 버킷의 기본 보존 모드로 사용합니다.
C.
Create an S3 bucket. Use AWS CloudTrail to track any S3 API events that modify the objects. Upon notification, restore the modified objects from any backup versions that the company has.
S3 버킷을 생성합니다. AWS CloudTrail을 사용하여 객체를 수정하는 모든 S3 API 이벤트를 추적합니다. 통지 시 회사가 보유한 모든 백업 버전에서 수정된 개체를 복원합니다.
D.
Create an S3 bucket with S3 Object Lock enabled. Enable versioning. Add a legal hold to the objects. Add the s3:PutObjectLegalHold permission to the IAM policies of users who need to delete the objects.
S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 개체에 법적 보존을 추가합니다. 객체를 삭제해야 하는 사용자의 IAM 정책에 s3:PutObjectLegalHold 권한을 추가합니다.
⭕ 정답: D
📝 해설
S3 Object Lock 기능을 사용하여 객체를 변경할 수 없도록 설정하고, 법적 보존(Legal Hold)을 추가하여 특정 사용자만 객체를 삭제할 수 있도록 제어합니다. 이 방법은 데이터의 무결성을 유지하고, 필요한 사용자에게만 삭제 권한을 부여합니다.
오답 분석:
- A: S3 Glacier는 아카이빙 솔루션으로, 즉각적인 데이터 접근을 요구하는 경우에는 부적합합니다.
- B: 100년의 보존 기간을 설정하는 것은 비현실적이며, 거버넌스 모드만으로는 법적 보존 기능이 필요합니다.
- C: CloudTrail을 사용하여 변경을 추적하는 것은 데이터 무결성을 실시간으로 보장하지 못합니다.
✅ 문제 110
A social media company allows users to upload images to its website. The website runs on Amazon EC2 instances. During upload requests, the website resizes the images to a standard size and stores the resized images in Amazon S3. Users are experiencing slow upload requests to the website.
The company needs to reduce coupling within the application and improve website performance. A solutions architect must design the most operationally efficient process for image uploads.
Which combination of actions should the solutions architect take to meet these requirements? (Choose two.)
소셜 미디어 회사는 사용자가 웹사이트에 이미지를 업로드할 수 있도록 합니다. 웹 사이트는 Amazon EC2 인스턴스에서 실행됩니다. 업로드 요청 중에 웹 사이트는 이미지의 크기를 표준 크기로 조정하고 크기가 조정된 이미지를 Amazon S3에 저장합니다. 사용자가 웹 사이트에 대한 느린 업로드 요청을 경험하고 있습니다.
회사는 애플리케이션 내 커플링을 줄이고 웹사이트 성능을 개선해야 합니다. 솔루션 설계자는 이미지 업로드를 위한 운영상 가장 효율적인 프로세스를 설계해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자가 취해야 하는 조치의 조합은 무엇입니까? (2개를 선택하세요.)
A.
Configure the application to upload images to S3 Glacier.
S3 Glacier에 이미지를 업로드하도록 애플리케이션을 구성합니다.
B.
Configure the web server to upload the original images to Amazon S3.
원본 이미지를 Amazon S3에 업로드하도록 웹 서버를 구성합니다.
C.
Configure the application to upload images directly from each user's browser to Amazon S3 through the use of a presigned URL.
미리 서명된 URL을 사용하여 각 사용자의 브라우저에서 Amazon S3로 이미지를 직접 업로드하도록 애플리케이션 구성합니다.
D.
Configure S3 Event Notifications to invoke an AWS Lambda function when an image is uploaded. Use the function to resize the image.
이미지가 업로드될 때 AWS Lambda 함수를 호출하도록 S3 이벤트 알림을 구성합니다. 기능을 사용하여 이미지 크기를 조정합니다.
E.
Create an Amazon EventBridge (Amazon CloudWatch Events) rule that invokes an AWS Lambda function on a schedule to resize uploaded images.
업로드된 이미지의 크기를 조정하기 위해 일정에 따라 AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
⭕ 정답: B, D
📝 해설
원본 이미지를 Amazon S3에 업로드하도록 웹 서버를 구성하고, S3 이벤트 알림을 설정하여 이미지 업로드 시 AWS Lambda 함수를 호출하여 이미지를 크기 조정하는 것이 최선의 방법입니다. 이러한 접근 방식은 애플리케이션의 커플링을 줄이고, 업로드 성능을 개선하며, 확장성이 뛰어난 이미징 워크플로를 보장합니다.
- Configure the web server to upload the original images to Amazon S3 (B): 이 방법은 애플리케이션이 직접 이미지를 처리하지 않고 Amazon S3에 업로드하도록 하여 웹 서버의 부하를 줄이고 성능을 개선할 수 있습니다.
- Configure S3 Event Notifications to invoke an AWS Lambda function when an image is uploaded (D): 이 방법은 S3에 이미지가 업로드되면 Lambda 함수를 호출하여 이미지를 처리하는 자동화된 방식을 제공합니다. 이로 인해 웹 서버와의 결합이 줄어들고, 서버리스 방식으로 이미지를 처리하여 운영 오버헤드를 줄일 수 있습니다.
주요 용어:
- Amazon S3: 확장 가능하고 내구성이 뛰어난 스토리지 서비스로, 대량의 데이터를 효율적으로 저장하고 액세스할 수 있습니다.
- AWS Lambda: 서버리스 컴퓨팅 서비스로, 이벤트에 따라 코드를 실행하며 서버를 관리할 필요가 없습니다.
- S3 Event Notifications: S3 버킷에 이벤트가 발생할 때 알림을 보내는 기능으로, Lambda 함수와 같은 서비스와 통합하여 이벤트 기반 처리를 할 수 있습니다.
오답 분석:
- A: S3 Glacier는 장기 보관용으로 설계되었으며, 빈번한 액세스나 실시간 처리에는 적합하지 않습니다.
- C: 미리 서명된 URL을 통해 브라우저에서 직접 S3로 업로드하는 것은 효율적일 수 있지만, 웹 서버를 통해 업로드하는 것이 업로드된 이미지를 제어하고 관리하는 데 더 유용할 수 있습니다.
- E: 일정에 따라 이미지를 처리하는 것은 실시간 처리 요구 사항을 충족하지 못합니다.
✅ 문제 111
A company recently migrated a message processing system to AWS. The system receives messages into an ActiveMQ queue running on an Amazon EC2 instance. Messages are processed by a consumer application running on Amazon EC2. The consumer application processes the messages and writes results to a MySQL database running on Amazon EC2. The company wants this application to be highly available with low operational complexity.
Which architecture offers the HIGHEST availability?
한 회사는 최근에 메시지 처리 시스템을 AWS로 마이그레이션했습니다. 시스템은 Amazon EC2 인스턴스에서 실행되는 ActiveMQ 대기열로 메시지를 수신합니다. 메시지는 Amazon EC2에서 실행되는 소비자 애플리케이션에 의해 처리됩니다. 소비자 애플리케이션은 메시지를 처리하고 결과를 Amazon EC2에서 실행되는 MySQL 데이터베이스에 씁니다. 회사는 이 애플리케이션이 낮은 운영 복잡성으로 고가용성을 갖기를 원합니다.
가장 높은 가용성을 제공하는 아키텍처는 무엇입니까?
A.
Add a second ActiveMQ server to another Availability Zone. Add an additional consumer EC2 instance in another Availability Zone. Replicate the MySQL database to another Availability Zone.
다른 가용 영역에 두 번째 ActiveMQ 서버를 추가합니다. 다른 가용 영역에 소비자 EC2 인스턴스를 추가합니다. MySQL 데이터베이스를 다른 가용 영역에 복제합니다.
B.
Use Amazon MQ with active/standby brokers configured across two Availability Zones. Add an additional consumer EC2 instance in another Availability Zone. Replicate the MySQL database to another Availability Zone.
두 가용 영역에 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 다른 가용 영역에 소비자 EC2 인스턴스를 추가합니다. MySQL 데이터베이스를 다른 가용 영역에 복제합니다.
C.
Use Amazon MQ with active/standby brokers configured across two Availability Zones. Add an additional consumer EC2 instance in another Availability Zone. Use Amazon RDS for MySQL with Multi-AZ enabled.
두 가용 영역에 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 다른 가용 영역에 소비자 EC2 인스턴스를 추가합니다. 다중 AZ가 활성화된 MySQL용 Amazon RDS를 사용합니다.
D.
Use Amazon MQ with active/standby brokers configured across two Availability Zones. Add an Auto Scaling group for the consumer EC2 instances across two Availability Zones. Use Amazon RDS for MySQL with Multi-AZ enabled.
두 가용 영역에 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 두 가용 영역에 걸쳐 소비자 EC2 인스턴스에 대한 Auto Scaling 그룹을 추가합니다. 다중 AZ가 활성화된 MySQL용 Amazon RDS를 사용합니다.
⭕ 정답: D
📝 해설
Amazon MQ를 사용하여 활성/대기 브로커를 두 개의 가용 영역에 구성하고, EC2 인스턴스를 위한 Auto Scaling 그룹을 추가하며, 다중 AZ가 활성화된 Amazon RDS를 사용하면 가장 높은 가용성을 제공합니다. 이 아키텍처는 각 구성 요소의 고가용성을 보장하고, 장애 발생 시 자동으로 복구할 수 있습니다.
오답 분석:
- A: ActiveMQ 서버를 수동으로 추가하고 데이터베이스를 복제하면 운영 복잡성이 증가합니다.
- B: EC2 인스턴스를 수동으로 관리하는 것은 Auto Scaling에 비해 덜 효율적입니다.
- C: Auto Scaling을 사용하지 않으면 EC2 인스턴스의 가용성이 낮아집니다.
✅ 문제 112
A company hosts a containerized web application on a fleet of on-premises servers that process incoming requests. The number of requests is growing quickly. The on-premises servers cannot handle the increased number of requests. The company wants to move the application to AWS with minimum code changes and minimum development effort.
Which solution will meet these requirements with the LEAST operational overhead?
회사는 들어오는 요청을 처리하는 온프레미스 서버 집합에서 컨테이너화된 웹 애플리케이션을 호스팅합니다. 요청 수가 빠르게 증가하고 있습니다. 온프레미스 서버는 증가된 요청 수를 처리할 수 없습니다. 회사는 최소한의 코드 변경과 최소한의 개발 노력으로 애플리케이션을 AWS로 옮기기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Use AWS Fargate on Amazon Elastic Container Service (Amazon ECS) to run the containerized web application with Service Auto Scaling. Use an Application Load Balancer to distribute the incoming requests.
Amazon Elastic Container Service(Amazon ECS)에서 AWS Fargate를 사용하여 Service Auto Scaling으로 컨테이너화된 웹 애플리케이션을 실행합니다. Application Load Balancer를 사용하여 수신 요청을 배포합니다.
B.
Use two Amazon EC2 instances to host the containerized web application. Use an Application Load Balancer to distribute the incoming requests.
두 개의 Amazon EC2 인스턴스를 사용하여 컨테이너화된 웹 애플리케이션을 호스팅합니다. Application Load Balancer를 사용하여 수신 요청을 배포합니다.
C.
Use AWS Lambda with a new code that uses one of the supported languages. Create multiple Lambda functions to support the load. Use Amazon API Gateway as an entry point to the Lambda functions.
지원되는 언어 중 하나를 사용하는 새 코드와 함께 AWS Lambda를 사용합니다. 로드를 지원하기 위해 여러 Lambda 함수를 생성합니다. Amazon API Gateway를 Lambda 함수에 대한 진입점으로 사용합니다.
D.
Use a high performance computing (HPC) solution such as AWS ParallelCluster to establish an HPC cluster that can process the incoming requests at the appropriate scale.
AWS ParallelCluster와 같은 고성능 컴퓨팅(HPC) 솔루션을 사용하여 적절한 규모로 들어오는 요청을 처리할 수 있는 HPC 클러스터를 설정합니다.
⭕ 정답: A
📝 해설
AWS Fargate와 Amazon ECS를 사용하면 서버를 프로비저닝하거나 관리할 필요 없이 컨테이너화된 애플리케이션을 실행할 수 있습니다. Service Auto Scaling을 통해 애플리케이션이 들어오는 요청 수에 따라 자동으로 확장되므로 운영 오버헤드를 최소화할 수 있습니다. 또한 Application Load Balancer를 사용하여 수신 요청을 자동으로 분산시킬 수 있습니다.
- AWS Fargate: 서버리스 컴퓨팅 엔진으로, 컨테이너를 직접 관리할 필요 없이 애플리케이션을 배포할 수 있습니다.
- Amazon ECS: 완전 관리형 컨테이너 오케스트레이션 서비스로, Fargate와 함께 사용하여 컨테이너를 쉽게 배포하고 관리할 수 있습니다.
- Application Load Balancer (ALB): 들어오는 트래픽을 여러 대상(예: Amazon EC2 인스턴스, 컨테이너 등)으로 분산시키는 기능을 제공하여 애플리케이션의 가용성과 확장성을 높입니다.
오답 분석:
- B: 두 개의 EC2 인스턴스를 사용하는 것은 컨테이너 관리와 확장을 직접 해야 하므로 운영 오버헤드가 높습니다.
- C: Lambda와 API Gateway를 사용하는 것은 코드 변경이 필요하며, 이로 인해 개발 노력이 증가합니다.
- D: HPC 클러스터는 일반적인 웹 애플리케이션에는 과도한 복잡성을 추가하며, 필요한 규모에 비해 과도한 솔루션입니다.
✅ 문제 113
A company uses 50 TB of data for reporting. The company wants to move this data from on premises to AWS. A custom application in the company’s data center runs a weekly data transformation job. The company plans to pause the application until the data transfer is complete and needs to begin the transfer process as soon as possible.
The data center does not have any available network bandwidth for additional workloads. A solutions architect must transfer the data and must configure the transformation job to continue to run in the AWS Cloud.
Which solution will meet these requirements with the LEAST operational overhead?
회사는 보고를 위해 50TB의 데이터를 사용합니다. 회사는 이 데이터를 온프레미스에서 AWS로 이동하려고 합니다. 회사 데이터 센터의 사용자 지정 응용 프로그램은 매주 데이터 변환 작업을 실행합니다. 회사는 데이터 이전이 완료되고 가능한 한 빨리 이전 프로세스를 시작해야 할 때까지 응용 프로그램을 일시 중지할 계획입니다.
데이터 센터에는 추가 워크로드에 사용할 수 있는 네트워크 대역폭이 없습니다. 솔루션 설계자는 데이터를 전송하고 AWS 클라우드에서 계속 실행되도록 변환 작업을 구성해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Use AWS DataSync to move the data. Create a custom transformation job by using AWS Glue.
AWS DataSync를 사용하여 데이터를 이동합니다. AWS Glue를 사용하여 사용자 지정 변환 작업을 생성합니다.
B.
Order an AWS Snowcone device to move the data. Deploy the transformation application to the device.
AWS Snowcone 디바이스에 데이터를 이동하도록 주문합니다. 장치에 변환 응용 프로그램을 배포합니다.
C.
Order an AWS Snowball Edge Storage Optimized device. Copy the data to the device. Create a custom transformation job by using AWS Glue.
AWS Snowball Edge Storage Optimized 디바이스를 주문합니다. 데이터를 장치에 복사합니다. AWS Glue를 사용하여 사용자 지정 변환 작업을 생성합니다
D.
Order an AWS Snowball Edge Storage Optimized device that includes Amazon EC2 compute. Copy the data to the device. Create a new EC2 instance on AWS to run the transformation application.
Amazon EC2 컴퓨팅이 포함된 AWS Snowball Edge Storage Optimized 디바이스를 주문합니다. 데이터를 장치에 복사합니다. AWS에서 새 EC2 인스턴스를 생성하여 변환 애플리케이션을 실행합니다.
⭕ 정답: C
📝 해설
AWS Snowball Edge Storage Optimized 디바이스를 사용하여 대량의 데이터를 물리적으로 전송할 수 있습니다. 이 디바이스는 데이터를 복사하는 데 최적화되어 있으며, AWS로 데이터를 빠르고 안전하게 이동할 수 있습니다. AWS로 데이터를 전송한 후 AWS Glue를 사용하여 사용자 지정 변환 작업을 자동화할 수 있습니다.
오답 분석:
- A: AWS DataSync는 네트워크 대역폭이 제한된 경우 적합하지 않습니다.
- B: AWS Snowcone는 데이터 크기가 50TB인 경우 적합하지 않습니다.
- D: EC2 인스턴스를 추가로 관리해야 하므로 운영 오버헤드가 증가합니다.
✅ 문제 114
A company has created an image analysis application in which users can upload photos and add photo frames to their images. The users upload images and metadata to indicate which photo frames they want to add to their images. The application uses a single Amazon EC2 instance and Amazon DynamoDB to store the metadata.
The application is becoming more popular, and the number of users is increasing. The company expects the number of concurrent users to vary significantly depending on the time of day and day of week. The company must ensure that the application can scale to meet the needs of the growing user base.
Which solution meats these requirements?
한 회사는 사용자가 사진을 업로드하고 이미지에 액자를 추가할 수 있는 이미지 분석 응용 프로그램을 만들었습니다. 사용자는 이미지와 메타데이터를 업로드하여 이미지에 추가할 사진 프레임을 나타냅니다. 애플리케이션은 단일 Amazon EC2 인스턴스와 Amazon DynamoDB를 사용하여 메타데이터를 저장합니다.
응용 프로그램이 대중화되고 사용자 수가 증가하고 있습니다. 회사는 동시 접속자 수가 시간과 요일에 따라 크게 달라질 것으로 예상하고 있습니다. 회사는 증가하는 사용자 기반의 요구 사항을 충족하도록 애플리케이션을 확장할 수 있는지 확인해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use AWS Lambda to process the photos. Store the photos and metadata in DynamoDB.
AWS Lambda를 사용하여 사진을 처리합니다. 사진과 메타데이터를 DynamoDB에 저장합니다.
B.
Use Amazon Kinesis Data Firehose to process the photos and to store the photos and metadata.
Amazon Kinesis Data Firehose를 사용하여 사진을 처리하고 사진과 메타데이터를 저장합니다.
C.
Use AWS Lambda to process the photos. Store the photos in Amazon S3. Retain DynamoDB to store the metadata.
AWS Lambda를 사용하여 사진을 처리합니다. Amazon S3에 사진을 저장합니다. DynamoDB를 유지하여 메타데이터를 저장합니다.
D.
Increase the number of EC2 instances to three. Use Provisioned IOPS SSD (io2) Amazon Elastic Block Store (Amazon EBS) volumes to store the photos and metadata.
EC2 인스턴스 수를 3개로 늘립니다. 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용하여 사진과 메타데이터를 저장합니다.
⭕ 정답: C
📝 해설
AWS Lambda를 사용하여 서버리스로 사진을 처리하고, Amazon S3에 사진을 저장하며, DynamoDB를 사용하여 메타데이터를 저장하면 높은 확장성과 가용성을 확보할 수 있습니다.
오답 분석:
- A: 메타데이터는 DynamoDB에 저장하더라도, 사진 데이터를 S3에 저장하는 것이 더 효율적입니다.
- B: Kinesis Data Firehose는 스트리밍 데이터 처리에 적합하지만, 이미지 처리에는 적합하지 않습니다.
- D: EC2 인스턴스를 늘리는 것은 관리 오버헤드가 증가하며, 자동 확장이 어렵습니다.
✅ 문제 115
A medical records company is hosting an application on Amazon EC2 instances. The application processes customer data files that are stored on Amazon S3. The EC2 instances are hosted in public subnets. The EC2 instances access Amazon S3 over the internet, but they do not require any other network access.
A new requirement mandates that the network traffic for file transfers take a private route and not be sent over the internet.
Which change to the network architecture should a solutions architect recommend to meet this requirement?
의료 기록 회사는 Amazon EC2 인스턴스에서 애플리케이션을 호스팅하고 있습니다. 애플리케이션은 Amazon S3에 저장된 고객 데이터 파일을 처리합니다. EC2 인스턴스는 퍼블릭 서브넷에서 호스팅됩니다. EC2 인스턴스는 인터넷을 통해 Amazon S3에 액세스하지만 다른 네트워크 액세스는 필요하지 않습니다.
새로운 요구 사항은 파일 전송을 위한 네트워크 트래픽이 인터넷을 통해 전송되지 않고 개인 경로를 사용하도록 규정하고 있습니다.
솔루션 설계자가 이 요구 사항을 충족하기 위해 권장해야 하는 네트워크 아키텍처 변경 사항은 무엇입니까?
A.
Create a NAT gateway. Configure the route table for the public subnets to send traffic to Amazon S3 through the NAT gateway.
NAT 게이트웨이를 생성합니다. NAT 게이트웨이를 통해 Amazon S3로 트래픽을 전송하도록 퍼블릭 서브넷에 대한 라우팅 테이블을 구성합니다.
B.
Configure the security group for the EC2 instances to restrict outbound traffic so that only traffic to the S3 prefix list is permitted.
S3 접두사 목록에 대한 트래픽만 허용되도록 아웃바운드 트래픽을 제한하도록 EC2 인스턴스에 대한 보안 그룹을
구성합니다.
C.
Move the EC2 instances to private subnets. Create a VPC endpoint for Amazon S3, and link the endpoint to the route table for the private subnets.
EC2 인스턴스를 프라이빗 서브넷으로 이동합니다. Amazon S3용 VPC 엔드포인트를 생성하고 엔드포인트를 프라이빗
서브넷의 라우팅 테이블에 연결합니다.
D.
Remove the internet gateway from the VPC. Set up an AWS Direct Connect connection, and route traffic to Amazon S3 over the Direct Connect connection.
VPC에서 인터넷 게이트웨이를 제거합니다. AWS Direct Connect 연결을 설정하고 Direct Connect 연결을 통해 Amazon S3로 트래픽을 라우팅합니다.
⭕ 정답: C
📝 해설
EC2 인스턴스를 프라이빗 서브넷으로 이동하고, Amazon S3에 대한 VPC 엔드포인트를 생성하여 트래픽이 인터넷을 거치지 않고 프라이빗 네트워크를 통해 전송되도록 합니다. 이를 통해 보안 요구 사항을 충족할 수 있습니다.
오답 분석:
- A: NAT 게이트웨이는 인터넷을 통해 트래픽을 전송하므로 요구 사항을 충족하지 않습니다.
- B: 보안 그룹을 설정하는 것만으로는 트래픽을 프라이빗 경로로 전환할 수 없습니다.
- D: Direct Connect는 비용이 많이 들며, 이 문제에 비해 과도한 솔루션입니다.
✅ 문제 116
A company uses a popular content management system (CMS) for its corporate website. However, the required patching and maintenance are burdensome. The company is redesigning its website and wants anew solution. The website will be updated four times a year and does not need to have any dynamic content available. The solution must provide high scalability and enhanced security.
Which combination of changes will meet these requirements with the LEAST operational overhead? (Choose two.)
회사는 회사 웹 사이트에 널리 사용되는 CMS(콘텐츠 관리 시스템)를 사용합니다. 그러나 필요한 패치 및 유지 보수가 부담됩니다. 회사는 웹사이트를 재설계하고 있으며 새로운 솔루션을 원합니다. 웹사이트는 1년에 4번 업데이트되며 사용 가능한 동적 콘텐츠가 필요하지 않습니다. 솔루션은 높은 확장성과 향상된 보안을 제공해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 변경 조합은 무엇입니까? (2개를 선택하세요.)
A.
Configure Amazon CloudFront in front of the website to use HTTPS functionality.
HTTPS 기능을 사용하도록 웹 사이트 앞에 Amazon CloudFront를 구성합니다.
B.
Deploy an AWS WAF web ACL in front of the website to provide HTTPS functionality.
웹 사이트 앞에 AWS WAF 웹 ACL을 배포하여 HTTPS 기능을 제공합니다.
C.
Create and deploy an AWS Lambda function to manage and serve the website content.
웹 사이트 콘텐츠를 관리하고 제공하기 위해 AWS Lambda 함수를 생성 및 배포합니다.
D.
Create the new website and an Amazon S3 bucket. Deploy the website on the S3 bucket with static website hosting enabled.
새 웹 사이트와 Amazon S3 버킷을 생성합니다. 정적 웹 사이트 호스팅이 활성화된 S3 버킷에 웹 사이트를 배포합니다.
E.
Create the new website. Deploy the website by using an Auto Scaling group of Amazon EC2 instances behind an Application Load Balancer.
새 웹사이트를 만듭니다. Application Load Balancer 뒤에서 Amazon EC2 인스턴스의 Auto Scaling 그룹을 사용하여 웹 사이트를 배포합니다.
⭕ 정답: A, D
📝 해설
Amazon S3와 CloudFront를 사용하여 정적 웹사이트를 호스팅하면 확장성, 보안, 운영 효율성을 모두 충족할 수 있습니다. S3는 정적 웹사이트 호스팅을 제공하고, CloudFront는 글로벌 콘텐츠 배포를 제공합니다. S3와 CloudFront는 설정이 간단하고 유지보수가 적으며, HTTPS를 통한 보안 연결을 쉽게 설정할 수 있습니다.
오답 분석:
- B: AWS WAF는 웹 애플리케이션 방화벽으로, HTTPS 기능을 제공하지 않습니다. 또한, 정적 콘텐츠를 제공하기 위한 최적의 솔루션이 아닙니다.
- C: Lambda는 서버리스로 웹사이트를 관리할 수 있지만, 정적 콘텐츠 제공에는 과도한 솔루션입니다. 운영 오버헤드가 더 큽니다.
- E: EC2와 Auto Scaling을 사용하면 관리 오버헤드가 증가하며, 단순 정적 웹사이트에는 필요하지 않습니다.
✅ 문제 117
A company stores its application logs in an Amazon CloudWatch Logs log group. A new policy requires the company to store all application logs in Amazon OpenSearch Service (Amazon Elasticsearch Service) in near-real time.
Which solution will meet this requirement with the LEAST operational overhead?
회사는 Amazon CloudWatch Logs 로그 그룹에 애플리케이션 로그를 저장합니다. 새로운 정책에 따라 회사는 모든 애플리케이션 로그를 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 거의 실시간으로 저장해야 합니다.
최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Configure a CloudWatch Logs subscription to stream the logs to Amazon OpenSearch Service (Amazon Elasticsearch Service).
Amazon OpenSearch Service(Amazon Elasticsearch Service)로 로그를 스트리밍하도록 CloudWatch Logs 구독을
구성합니다.
B.
Create an AWS Lambda function. Use the log group to invoke the function to write the logs to Amazon OpenSearch Service (Amazon Elasticsearch Service).
AWS Lambda 함수를 생성합니다. 로그 그룹을 사용하여 Amazon OpenSearch Service(Amazon Elasticsearch Service)에
로그를 작성하는 함수를 호출합니다.
C.
Create an Amazon Kinesis Data Firehose delivery stream. Configure the log group as the delivery streams sources. Configure Amazon OpenSearch Service (Amazon Elasticsearch Service) as the delivery stream's destination.
Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. 로그 그룹을 배달 스트림 소스로 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)를 전송 스트림의 대상으로 구성합니다.
D.
Install and configure Amazon Kinesis Agent on each application server to deliver the logs to Amazon Kinesis Data Streams. Configure Kinesis Data Streams to deliver the logs to Amazon OpenSearch Service (Amazon Elasticsearch Service).
각 애플리케이션 서버에 Amazon Kinesis 에이전트를 설치 및 구성하여 Amazon Kinesis Data Streams에 로그를 전달합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 전달하도록 Kinesis Data Streams를 구성합니다.
⭕ 정답: A
📝 해설
CloudWatch Logs 구독을 통해 로그를 Amazon OpenSearch Service로 스트리밍하면 실시간으로 로그 데이터를 분석할 수 있습니다. 이는 설정이 간단하고 추가적인 관리 작업이 필요 없으므로 운영 오버헤드가 적습니다.
오답 분석:
- B: Lambda 함수를 사용하는 것은 설정과 관리가 복잡해질 수 있습니다.
- C: Kinesis Data Firehose는 강력하지만, 설정이 복잡하며 추가 비용이 발생합니다.
- D: Kinesis Agent를 설치하고 구성하는 것은 각 애플리케이션 서버에 대한 추가 작업이 필요합니다.
✅ 문제 118
A company is building a web-based application running on Amazon EC2 instances in multiple Availability Zones. The web application will provide access to a repository of text documents totaling about 900 TB in size. The company anticipates that the web application will experience periods of high demand. A solutions architect must ensure that the storage component for the text documents can scale to meet the demand of the application at all times. The company is concerned about the overall cost of the solution.
Which storage solution meets these requirements MOST cost-effectively?
회사는 여러 가용 영역의 Amazon EC2 인스턴스에서 실행되는 웹 기반 애플리케이션을 구축하고 있습니다. 웹 애플리케이션은 약 900TB 크기의 텍스트 문서 저장소에 대한 액세스를 제공합니다. 회사는 웹 응용 프로그램이 수요가 많은 기간을 경험할 것으로 예상합니다. 솔루션 설계자는 텍스트 문서의 스토리지 구성 요소가 애플리케이션의 요구 사항을 항상 충족할 수 있도록 확장할 수 있는지 확인해야 합니다. 회사는 솔루션의 전체 비용에 대해 우려하고 있습니다.
어떤 스토리지 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Amazon Elastic Block Store (Amazon EBS)
B.
Amazon Elastic File System (Amazon EFS)
C.
Amazon OpenSearch Service (Amazon Elasticsearch Service)
D.
Amazon S3
⭕ 정답: D
📝 해설
Amazon S3는 대규모 데이터를 저장하는 데 가장 비용 효율적인 솔루션입니다. S3는 내구성과 확장성을 제공하며, 사용량에 따라 비용을 지불합니다. EC2 인스턴스와 결합하여 높은 트래픽을 처리할 수 있는 유연한 아키텍처를 제공합니다.
오답 분석:
- A: EBS는 블록 스토리지로, 대규모 정적 데이터 저장에 비효율적이며 비용이 더 높습니다.
- B: EFS는 파일 스토리지로, 비용이 더 높으며 대규모 정적 데이터에 적합하지 않습니다.
- C: OpenSearch Service는 데이터 검색 및 분석에 적합하지만 대규모 데이터 저장 비용이 높습니다.
✅ 문제 119
A global company is using Amazon API Gateway to design REST APIs for its loyalty club users in the us-east-1 Region and the ap-southeast-2 Region. A solutions architect must design a solution to protect these API Gateway managed REST APIs across multiple accounts from SQL injection and cross-site scripting attacks.
Which solution will meet these requirements with the LEAST amount of administrative effort?
글로벌 회사는 Amazon API Gateway를 사용하여 us-east-1 리전 및 ap-southeast-2 리전의 로열티 클럽 사용자를 위한 REST API를 설계하고 있습니다. 솔루션 설계자는 SQL 주입 및 교차 사이트 스크립팅 공격으로부터 여러 계정에서 이러한 API Gateway 관리 REST API를 보호하는 솔루션을 설계해야 합니다.
최소한의 관리 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Set up AWS WAF in both Regions. Associate Regional web ACLs with an API stage.
두 리전에 AWS WAF를 설정합니다. 리전 웹 ACL을 API 단계와 연결합니다.
B.
Set up AWS Firewall Manager in both Regions. Centrally configure AWS WAF rules.
두 리전에 AWS Firewall Manager를 설정합니다. AWS WAF 규칙을 중앙에서 구성합니다.
C.
Set up AWS Shield in bath Regions. Associate Regional web ACLs with an API stage.
bath Regions에서 AWS Shield를 설정합니다. 리전 웹 ACL을 API 단계와 연결합니다.
D.
Set up AWS Shield in one of the Regions. Associate Regional web ACLs with an API stage.
한 리전에서 AWS Shield를 설정합니다. 리전 웹 ACL을 API 단계와 연결합니다.
⭕ 정답: B
📝 해설
WS Firewall Manager를 사용하면 여러 계정과 여러 리전에 걸쳐 AWS WAF 규칙을 중앙에서 관리하고 구성할 수 있습니다. 이 솔루션은 SQL 주입 및 교차 사이트 스크립팅 공격으로부터 REST API를 보호하는 데 필요한 정책을 설정하는 데 가장 효율적이며, 관리 오버헤드를 최소화할 수 있습니다.
- AWS WAF: 웹 애플리케이션 방화벽으로, 웹 애플리케이션 및 API를 다양한 공격으로부터 보호합니다. SQL 주입 및 XSS 공격을 방어할 수 있습니다.
- AWS Firewall Manager: 여러 계정에 걸쳐 보안 규칙을 중앙에서 관리할 수 있도록 지원하며, AWS WAF와 통합되어 규칙을 쉽게 배포하고 관리할 수 있습니다.
오답 분석:
- A: 각 리전에서 WAF를 별도로 설정하면 관리 오버헤드가 증가합니다.
- C: AWS Shield는 DDoS 공격에 대한 보호를 제공하지만, SQL 주입 및 교차 사이트 스크립팅 공격에 대한 직접적인 방어는 아닙니다.
- D: 한 리전에서만 Shield를 설정하는 것은 다른 리전에 대한 보호를 제공하지 않습니다.
✅ 문제 120
A company has implemented a self-managed DNS solution on three Amazon EC2 instances behind a Network Load Balancer (NLB) in the us-west-2 Region. Most of the company's users are located in the United States and Europe. The company wants to improve the performance and availability of the solution. The company launches and configures three EC2 instances in the eu-west-1 Region and adds the EC2 instances as targets for a new NLB.
Which solution can the company use to route traffic to all the EC2 instances?
한 회사는 us-west-2 리전의 NLB(Network Load Balancer) 뒤에 있는 3개의 Amazon EC2 인스턴스에 자체 관리형 DNS 솔루션을 구현했습니다. 회사 사용자의 대부분은 미국과 유럽에 있습니다. 회사는 솔루션의 성능과 가용성을 개선하기를 원합니다. 회사는 eu-west-1 리전에서 3개의 EC2 인스턴스를 시작 및 구성하고 EC2 인스턴스를 새 NLB의 대상으로 추가합니다.
회사에서 트래픽을 모든 EC2 인스턴스로 라우팅하는 데 사용할 수 있는 솔루션은 무엇입니까?
A.
Create an Amazon Route 53 geolocation routing policy to route requests to one of the two NLBs. Create an Amazon CloudFront distribution. Use the Route 53 record as the distribution’s origin.
두 NLB 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포의 오리진으로 사용합니다.
B.
Create a standard accelerator in AWS Global Accelerator. Create endpoint groups in us-west-2 and eu-west-1. Add the two NLBs as endpoints for the endpoint groups.
AWS Global Accelerator에서 표준 액셀러레이터를 생성합니다. us-west-2 및 eu-west-1에서 엔드포인트 그룹을 생성합니다. 엔드포인트 그룹에 대한 엔드포인트로 두 개의 NLB를 추가하십시오.
C.
Attach Elastic IP addresses to the six EC2 instances. Create an Amazon Route 53 geolocation routing policy to route requests to one of the six EC2 instances. Create an Amazon CloudFront distribution. Use the Route 53 record as the distribution's origin.
탄력적 IP 주소를 6개의 EC2 인스턴스에 연결합니다. 6개의 EC2 인스턴스 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포의 오리진으로 사용합니다.
D.
Replace the two NLBs with two Application Load Balancers (ALBs). Create an Amazon Route 53 latency routing policy to route requests to one of the two ALBs. Create an Amazon CloudFront distribution. Use the Route 53 record as the distribution’s origin.
2개의 NLB를 2개의 ALB(Application Load Balancer)로 교체합니다. 두 ALB 중 하나로 요청을 라우팅하는 Amazon Route 53 지연 시간 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포의 오리진으로 사용합니다.
⭕ 정답: B
📝 해설
AWS Global Accelerator는 글로벌 사용자에 대한 트래픽을 가장 가까운 리전으로 지능적으로 라우팅하여 성능과 가용성을 향상시킵니다. 두 리전에 엔드포인트 그룹을 생성하고 각 그룹에 NLB를 추가하면 최적의 라우팅이 가능합니다.
오답 분석:
- A: Route 53과 CloudFront를 사용하는 것은 복잡하며 글로벌 성능 최적화가 어렵습니다.
- C: Elastic IP를 사용하는 것은 복잡하며, 가용성과 확장성에 제한이 있습니다.
- D: ALB를 사용하는 것은 비효율적이며, 추가적인 설정과 관리가 필요합니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (141 - 160) (0) | 2024.05.22 |
---|---|
[AWS SAA-C03] Examtopics Dump (121 - 140) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (81 - 100) (3) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (61 - 80) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (41 - 60) (0) | 2024.05.17 |