✅ 문제 161
A company has a small Python application that processes JSON documents and outputs the results to an on-premises SQL database. The application runs thousands of times each day. The company wants to move the application to the AWS Cloud. The company needs a highly available solution that maximizes scalability and minimizes operational overhead. Which solution will meet these requirements?
한 회사에는 JSON 문서를 처리하고 결과를 온프레미스 SQL 데이터베이스에 출력하는 작은 Python 애플리케이션이 있습니다. 애플리케이션은 매일 수천 번 실행됩니다. 회사는 애플리케이션을 AWS 클라우드로 이동하기를 원합니다. 회사는 확장성을 극대화하고 운영 오버헤드를 최소화하는 고가용성 솔루션이 필요합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Place the JSON documents in an Amazon S3 bucket. Run the Python code on multiple Amazon EC2 instances to process the documents. Store the results in an Amazon Aurora DB cluster.
JSON 문서를 Amazon S3 버킷에 저장합니다. 여러 Amazon EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. 결과를 Amazon Aurora DB 클러스터에 저장합니다.
B.
Place the JSON documents in an Amazon S3 bucket. Create an AWS Lambda function that runs the Python code to process the documents as they arrive in the S3 bucket. Store the results in an Amazon Aurora DB cluster.
JSON 문서를 Amazon S3 버킷에 저장합니다. S3 버킷에 문서가 도착하면 Python 코드를 실행하여 문서를 처리하는 AWS Lambda 함수를 만듭니다. 결과를 Amazon Aurora DB 클러스터에 저장합니다.
C.
Place the JSON documents in an Amazon Elastic Block Store (Amazon EBS) volume. Use the EBS Multi-Attach feature to attach the volume to multiple Amazon EC2 instances. Run the Python code on the EC2 instances to process the documents. Store the results on an Amazon RDS DB instance.
JSON 문서를 Amazon Elastic Block Store (Amazon EBS) 볼륨에 저장합니다. EBS 멀티 연결 기능을 사용하여 볼륨을 여러 Amazon EC2 인스턴스에 연결합니다. EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. 결과를 Amazon RDS DB 인스턴스에 저장합니다.
D.
Place the JSON documents in an Amazon Simple Queue Service (Amazon SQS) queue as messages. Deploy the Python code as a container on an Amazon Elastic Container Service (Amazon ECS) cluster that is configured with the Amazon EC2 launch type. Use the container to process the SQS messages. Store the results on an Amazon RDS DB instance.
JSON 문서를 Amazon Simple Queue Service (Amazon SQS) 대기열에 메시지로 저장합니다. Amazon EC2 시작 유형으로 구성된 Amazon Elastic Container Service (Amazon ECS) 클러스터에 Python 코드를 컨테이너로 배포합니다. 컨테이너를 사용하여 SQS 메시지를 처리합니다. 결과를 Amazon RDS DB 인스턴스에 저장합니다.
⭕ 정답: B
📝 해설
SON 문서를 Amazon S3 버킷에 저장하고, S3 버킷에 문서가 도착하면 Python 코드를 실행하여 문서를 처리하는 AWS Lambda 함수를 만듭니다. 결과를 Amazon Aurora DB 클러스터에 저장합니다. Lambda 함수는 이벤트 기반으로 동작하며, 서버 관리 없이 자동으로 확장될 수 있습니다. 이는 높은 가용성과 확장성을 제공하며, 운영 오버헤드를 최소화합니다.
오답 분석:
- A: EC2 인스턴스를 사용하는 것은 서버 관리를 필요로 하며, 운영 오버헤드가 증가할 수 있습니다.
- C: EBS 볼륨을 사용하는 것은 복잡성이 높고, 운영 오버헤드를 증가시킬 수 있습니다.
- D: ECS와 SQS를 사용하는 것은 더 복잡하며, 운영 오버헤드를 증가시킬 수 있습니다.
✅ 문제 162
A company wants to use high performance computing (HPC) infrastructure on AWS for financial risk modeling. The company’s HPC workloads run on Linux. Each HPC workflow runs on hundreds of Amazon EC2 Spot Instances, is short-lived, and generates thousands of output files that are ultimately stored in persistent storage for analytics and long-term future use. The company seeks a cloud storage solution that permits the copying of on-premises data to long-term persistent storage to make data available for processing by all EC2 instances. The solution should also be a high performance file system that is integrated with persistent storage to read and write datasets and output files. Which combination of AWS services meets these requirements?
한 회사는 금융 리스크 모델링을 위해 AWS에서 고성능 컴퓨팅(HPC) 인프라를 사용하려고 합니다. 회사의 HPC 작업은 Linux에서 실행됩니다. 각 HPC 워크플로우는 수백 개의 Amazon EC2 스팟 인스턴스에서 실행되며, 수명이 짧고 수천 개의 출력 파일을 생성하여 궁극적으로 분석 및 장기 사용을 위해 영구 스토리지에 저장됩니다. 회사는 온프레미스 데이터를 장기 영구 스토리지로 복사하여 모든 EC2 인스턴스에서 데이터를 처리할 수 있도록 하는 클라우드 스토리지 솔루션을 찾고 있습니다. 솔루션은 또한 데이터셋과 출력 파일을 읽고 쓸 수 있도록 영구 스토리지와 통합된 고성능 파일 시스템이어야 합니다. 어떤 AWS 서비스 조합이 이러한 요구 사항을 충족합니까?
A.
Amazon FSx for Lustre integrated with Amazon S3
Amazon S3와 통합된 Amazon FSx for Lustre
B.
Amazon FSx for Windows File Server integrated with Amazon S3
Amazon S3와 통합된 Amazon FSx for Windows File Server
C.
Amazon S3 Glacier integrated with Amazon Elastic Block Store (Amazon EBS)
Amazon S3 Glacier와 Amazon Elastic Block Store (Amazon EBS) 통합
D.
Amazon S3 bucket with a VPC endpoint integrated with an Amazon Elastic Block Store (Amazon EBS) General Purpose SSD (gp2) volume
VPC 엔드포인트와 통합된 Amazon S3 버킷 및 Amazon Elastic Block Store (Amazon EBS) 범용 SSD (gp2) 볼륨
⭕ 정답: A
📝 해설
Amazon FSx for Lustre와 Amazon S3를 통합하여 고성능 파일 시스템과 영구 스토리지를 제공합니다. FSx for Lustre는 고성능 컴퓨팅(HPC) 워크로드에 최적화된 파일 시스템으로, S3와 통합하여 데이터를 영구적으로 저장하고 분석할 수 있습니다. 이는 높은 성능과 확장성을 제공하며, 온프레미스 데이터도 S3로 쉽게 복사할 수 있습니다.
오답 분석:
- B: FSx for Windows File Server는 Windows 기반 애플리케이션에 적합하며, Linux 기반 HPC 워크로드에는 적합하지 않습니다.
- C: S3 Glacier는 장기 아카이브 스토리지로, 고성능 파일 시스템에는 적합하지 않습니다.
- D: S3와 EBS 통합은 복잡하며, 고성능 파일 시스템에는 적합하지 않습니다.
✅ 문제 163
A company is building a containerized application on premises and decides to move the application to AWS. The application will have thousands of users soon after it is deployed. The company is unsure how to manage the deployment of containers at scale. The company needs to deploy the containerized application in a highly available architecture that minimizes operational overhead. Which solution will meet these requirements?
한 회사가 온프레미스에서 컨테이너화된 애플리케이션을 구축하고 있으며 이 애플리케이션을 AWS로 이동하기로 결정했습니다. 애플리케이션은 배포 후 곧 수천 명의 사용자가 사용할 예정입니다. 회사는 대규모로 컨테이너 배포를 관리하는 방법을 잘 모릅니다. 회사는 운영 오버헤드를 최소화하면서 고가용성 아키텍처로 컨테이너화된 애플리케이션을 배포해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Store container images in an Amazon Elastic Container Registry (Amazon ECR) repository. Use an Amazon Elastic Container Service (Amazon ECS) cluster with the AWS Fargate launch type to run the containers. Use target tracking to scale automatically based on demand.
컨테이너 이미지를 Amazon Elastic Container Registry (Amazon ECR) 리포지토리에 저장합니다. AWS Fargate 시작 유형을 사용하여 컨테이너를 실행하는 Amazon Elastic Container Service (Amazon ECS) 클러스터를 사용합니다. 수요에 따라 자동으로 확장하기 위해 타겟 추적을 사용합니다.
B.
Store container images in an Amazon Elastic Container Registry (Amazon ECR) repository. Use an Amazon Elastic Container Service (Amazon ECS) cluster with the Amazon EC2 launch type to run the containers. Use target tracking to scale automatically based on demand.
컨테이너 이미지를 Amazon Elastic Container Registry (Amazon ECR) 리포지토리에 저장합니다. Amazon EC2 시작 유형을 사용하여 컨테이너를 실행하는 Amazon Elastic Container Service (Amazon ECS) 클러스터를 사용합니다. 수요에 따라 자동으로 확장하기 위해 타겟 추적을 사용합니다.
C.
Store container images in a repository that runs on an Amazon EC2 instance. Run the containers on EC2 instances that are spread across multiple Availability Zones. Monitor the average CPU utilization in Amazon CloudWatch. Launch new EC2 instances as needed.
컨테이너 이미지를 Amazon EC2 인스턴스에서 실행되는 리포지토리에 저장합니다. 여러 가용 영역에 걸쳐 있는 EC2 인스턴스에서 컨테이너를 실행합니다. Amazon CloudWatch에서 평균 CPU 사용률을 모니터링합니다. 필요에 따라 새로운 EC2 인스턴스를 시작합니다.
D.
Create an Amazon EC2 Amazon Machine Image (AMI) that contains the container image. Launch EC2 instances in an Auto Scaling group across multiple Availability Zones. Use an Amazon CloudWatch alarm to scale out EC2 instances when the average CPU utilization threshold is breached.
컨테이너 이미지를 포함하는 Amazon EC2 Amazon Machine Image (AMI)를 생성합니다. 여러 가용 영역에 걸쳐 있는 Auto Scaling 그룹에서 EC2 인스턴스를 시작합니다. 평균 CPU 사용률 임계값이 초과되면 Amazon CloudWatch 알람을 사용하여 EC2 인스턴스를 확장합니다.
⭕ 정답: A
📝 해설
컨테이너 이미지를 Amazon Elastic Container Registry (ECR) 리포지토리에 저장하고, AWS Fargate 시작 유형을 사용하여 컨테이너를 실행하는 Amazon Elastic Container Service (ECS) 클러스터를 사용합니다. Fargate는 서버리스 컨테이너 실행 환경을 제공하여 운영 오버헤드를 최소화합니다. 또한, 수요에 따라 자동으로 확장할 수 있습니다.
오답 분석:
- B: EC2 시작 유형을 사용하는 것은 서버 관리가 필요하며, 운영 오버헤드가 증가할 수 있습니다.
- C: EC2 인스턴스에서 리포지토리를 실행하는 것은 복잡하며, 운영 오버헤드가 높습니다.
- D: EC2 AMI를 사용하는 것은 관리와 확장이 어렵습니다.
✅ 문제 164
A company has two applications: a sender application that sends messages with payloads to be processed and a processing application intended to receive the messages with payloads. The company wants to implement an AWS service to handle messages between the two applications. The sender application can send about 1,000 messages each hour. The messages may take up to 2 days to be processed: If the messages fail to process, they must be retained so that they do not impact the processing of any remaining messages. Which solution meets these requirements and is the MOST operationally efficient?
한 회사에는 두 개의 애플리케이션이 있습니다: 페이로드를 처리할 메시지를 보내는 송신 애플리케이션과 페이로드가 포함된 메시지를 받기 위한 처리 애플리케이션입니다. 회사는 두 애플리케이션 간의 메시지를 처리하기 위해 AWS 서비스를 구현하려고 합니다. 송신 애플리케이션은 매시간 약 1,000개의 메시지를 보낼 수 있습니다. 메시지를 처리하는 데 최대 2일이 걸릴 수 있습니다. 메시지 처리가 실패할 경우 남은 메시지의 처리에 영향을 주지 않도록 메시지를 유지해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족하며 가장 운영 효율성이 높습니까?
A.
Set up an Amazon EC2 instance running a Redis database. Configure both applications to use the instance. Store, process, and delete the messages, respectively.
Redis 데이터베이스를 실행하는 Amazon EC2 인스턴스를 설정합니다. 두 애플리케이션이 인스턴스를 사용하도록 구성합니다. 메시지를 저장, 처리 및 삭제합니다.
B.
Use an Amazon Kinesis data stream to receive the messages from the sender application. Integrate the processing application with the Kinesis Client Library (KCL).
Amazon Kinesis 데이터 스트림을 사용하여 송신 애플리케이션에서 메시지를 수신합니다. 처리 애플리케이션을 Kinesis Client Library (KCL)와 통합합니다.
C.
Integrate the sender and processor applications with an Amazon Simple Queue Service (Amazon SQS) queue. Configure a dead-letter queue to collect the messages that failed to process.
송신 애플리케이션과 처리 애플리케이션을 Amazon Simple Queue Service (Amazon SQS) 대기열과 통합합니다. 처리에 실패한 메시지를 수집하기 위해 데드레터 큐를 구성합니다.
D.
Subscribe the processing application to an Amazon Simple Notification Service (Amazon SNS) topic to receive notifications to process. Integrate the sender application to write to the SNS topic.
처리 애플리케이션을 Amazon Simple Notification Service (Amazon SNS) 주제에 구독하여 처리할 알림을 수신합니다. 송신 애플리케이션을 통합하여 SNS 주제에 작성합니다.
⭕ 정답: C
📝 해설
통합하고, 처리에 실패한 메시지를 수집하기 위해 데드레터 큐를 구성합니다. SQS는 메시지의 신뢰성 있는 전달과 저장을 보장하며, 데드레터 큐는 실패한 메시지를 보존하여 나머지 메시지의 처리를 방해하지 않도록 합니다.
오답 분석:
- A: Redis 데이터베이스는 신뢰성 있는 메시지 전달을 보장하지 않으며, 운영 오버헤드가 높습니다.
- B: Kinesis 데이터 스트림은 실시간 스트리밍 데이터에 적합하며, 이 시나리오에는 적합하지 않습니다.
- D: SNS는 메시지의 순서를 보장하지 않으며, 데드레터 큐 기능이 없습니다.
✅ 문제 165
A solutions architect must design a solution that uses Amazon CloudFront with an Amazon S3 origin to store a static website. The company’s security policy requires that all website traffic be inspected by AWS WAF. How should the solutions architect comply with these requirements?
솔루션 설계자는 정적 웹사이트를 저장하기 위해 Amazon S3 오리진과 Amazon CloudFront를 사용하는 솔루션을 설계해야 합니다. 회사의 보안 정책은 모든 웹사이트 트래픽이 AWS WAF에 의해 검사되어야 한다고 요구합니다. 솔루션 설계자는 이러한 요구 사항을 어떻게 준수해야 합니까?
A.
Configure an S3 bucket policy to accept requests coming from the AWS WAF Amazon Resource Name (ARN) only.
S3 버킷 정책을 구성하여 AWS WAF Amazon Resource Name (ARN)에서 오는 요청만 수락하도록 합니다.
B.
Configure Amazon CloudFront to forward all incoming requests to AWS WAF before requesting content from the S3 origin.
Amazon CloudFront를 구성하여 S3 오리진에서 콘텐츠를 요청하기 전에 모든 수신 요청을 AWS WAF로 전달합니다.
C.
Configure a security group that allows Amazon CloudFront IP addresses to access Amazon S3 only. Associate AWS WAF to CloudFront.
Amazon CloudFront IP 주소가 Amazon S3에만 액세스할 수 있도록 보안 그룹을 구성합니다. AWS WAF를 CloudFront에 연결합니다.
D.
Configure Amazon CloudFront and Amazon S3 to use an origin access identity (OAI) to restrict access to the S3 bucket. Enable AWS WAF on the distribution.
Amazon CloudFront 및 Amazon S3를 구성하여 오리진 액세스 아이덴티티(OAI)를 사용하여 S3 버킷에 대한 액세스를 제한합니다. 배포에서 AWS WAF를 활성화합니다.
⭕ 정답: D?B?
✅ 문제 166
Organizers for a global event want to put daily reports online as static HTML pages. The pages are expected to generate millions of views from users around the world. The files are stored in an Amazon S3 bucket. A solutions architect has been asked to design an efficient and effective solution. Which action should the solutions architect take to accomplish this?
글로벌 이벤트 주최자는 일일 보고서를 정적 HTML 페이지로 온라인에 게시하려고 합니다. 이 페이지는 전 세계 사용자로부터 수백만 건의 조회수를 생성할 것으로 예상됩니다. 파일은 Amazon S3 버킷에 저장됩니다. 솔루션 설계자는 효율적이고 효과적인 솔루션을 설계하라는 요청을 받았습니다. 이 작업을 완료하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까?
A.
Generate presigned URLs for the files.
파일에 대한 서명된 URL을 생성합니다.
B.
Use cross-Region replication to all Regions.
모든 리전에 대한 교차 리전 복제를 사용합니다.
C.
Use the geoproximity feature of Amazon Route 53.
Amazon Route 53의 지리적 근접성 기능을 사용합니다.
D.
Use Amazon CloudFront with the S3 bucket as its origin.
S3 버킷을 오리진으로 사용하여 Amazon CloudFront를 사용합니다.
⭕ 정답: D
📝 해설
Amazon CloudFront를 사용하여 S3 버킷을 오리진으로 설정합니다. CloudFront는 전 세계에 분산된 엣지 로케이션을 통해 콘텐츠를 캐시하고 사용자에게 빠르게 제공할 수 있어, 수백만 건의 조회수에도 대기 시간을 최소화할 수 있습니다. 이는 효율적이고 효과적인 솔루션입니다.
오답 분석:
- A: 서명된 URL은 인증된 사용자에게만 접근을 허용하는 데 사용되며, 대규모 트래픽 처리에는 적합하지 않습니다.
- B: 교차 리전 복제는 데이터를 여러 리전에 복제하지만, 콘텐츠 제공 속도 향상에는 적합하지 않습니다.
- C: Route 53의 지리적 근접성 기능은 주로 DNS 라우팅에 사용되며, 콘텐츠 캐싱에는 적합하지 않습니다.
✅ 문제 167
A company runs a production application on a fleet of Amazon EC2 instances. The application reads the data from an Amazon SQS queue and processes the messages in parallel. The message volume is unpredictable and often has intermittent traffic. This application should continually process messages without any downtime. Which solution meets these requirements MOST cost-effectively?
한 회사는 Amazon EC2 인스턴스 플릿에서 프로덕션 애플리케이션을 실행합니다. 애플리케이션은 Amazon SQS 대기열에서 데이터를 읽고 메시지를 병렬로 처리합니다. 메시지 볼륨은 예측할 수 없으며 종종 간헐적인 트래픽이 발생합니다. 이 애플리케이션은 다운타임 없이 지속적으로 메시지를 처리해야 합니다. 어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Use Spot Instances exclusively to handle the maximum capacity required.
필요한 최대 용량을 처리하기 위해 Spot 인스턴스를 독점적으로 사용합니다.
B.
Use Reserved Instances exclusively to handle the maximum capacity required.
필요한 최대 용량을 처리하기 위해 예약 인스턴스를 독점적으로 사용합니다.
C.
Use Reserved Instances for the baseline capacity and use Spot Instances to handle additional capacity.
기본 용량에 예약 인스턴스를 사용하고 추가 용량을 처리하기 위해 Spot 인스턴스를 사용합니다.
D.
Use Reserved Instances for the baseline capacity and use On-Demand Instances to handle additional capacity.
기본 용량에 예약 인스턴스를 사용하고 추가 용량을 처리하기 위해 온디맨드 인스턴스를 사용합니다.
⭕ 정답: D? C?
📝 해설
난 C라고 생각함. 기본 용량에 예약 인스턴스를 사용하고 추가 용량을 처리하기 위해 Spot 인스턴스를 사용합니다. 예약 인스턴스는 지속적으로 사용되는 기본 용량을 저렴하게 제공하며, Spot 인스턴스는 비용 효율적으로 추가 용량을 제공하여 예측할 수 없는 트래픽 변동을 처리할 수 있습니다.
오답 분석:
- A: Spot 인스턴스만 사용하는 것은 비용 효율적일 수 있지만, 가용성이 낮아질 수 있습니다.
- B: 예약 인스턴스만 사용하는 것은 비용이 높아질 수 있습니다.
- D: 온디맨드 인스턴스를 사용하는 것은 Spot 인스턴스를 사용하는 것보다 비용 효율성이 낮습니다.
✅ 문제 168
A security team wants to limit access to specific services or actions in all of the team’s AWS accounts. All accounts belong to a large organization in AWS Organizations. The solution must be scalable and there must be a single point where permissions can be maintained. What should a solutions architect do to accomplish this?
보안 팀은 팀의 모든 AWS 계정에서 특정 서비스 또는 작업에 대한 액세스를 제한하려고 합니다. 모든 계정은 AWS Organizations의 대규모 조직에 속해 있습니다. 솔루션은 확장 가능해야 하며 권한을 유지할 수 있는 단일 지점이 있어야 합니다. 솔루션 설계자는 이를 달성하기 위해 무엇을 해야 합니까?
A.
Create an ACL to provide access to the services or actions.
서비스 또는 작업에 대한 액세스를 제공하기 위해 ACL을 만듭니다.
B.
Create a security group to allow accounts and attach it to user groups.
계정을 허용하는 보안 그룹을 만들고 사용자 그룹에 연결합니다.
C.
Create cross-account roles in each account to deny access to the services or actions.
각 계정에 교차 계정 역할을 만들어 서비스 또는 작업에 대한 액세스를 거부합니다.
D.
Create a service control policy in the root organizational unit to deny access to the services or actions.
루트 조직 단위에 서비스 제어 정책을 만들어 서비스 또는 작업에 대한 액세스를 거부합니다.
⭕ 정답: D
📝 해설
루트 조직 단위에 서비스 제어 정책(SCP)을 만들어 서비스 또는 작업에 대한 액세스를 거부합니다. SCP는 AWS Organizations 내의 모든 계정에 적용되며, 중앙에서 권한을 관리할 수 있어 확장성과 일관성을 제공합니다.
오답 분석:
- A: ACL은 네트워크 레벨에서 액세스를 제어하며, 서비스 또는 작업에 대한 제한에는 적합하지 않습니다.
- B: 보안 그룹은 인스턴스 레벨에서 네트워크 트래픽을 제어하며, 서비스 또는 작업에 대한 제한에는 적합하지 않습니다.
- C: 교차 계정 역할을 사용하는 것은 관리 오버헤드가 크며, 일관성 유지가 어렵습니다.
✅ 문제 169
A company is concerned about the security of its public web application due to recent web attacks. The application uses an Application Load Balancer (ALB). A solutions architect must reduce the risk of DDoS attacks against the application. What should the solutions architect do to meet this requirement?
한 회사는 최근 웹 공격으로 인해 퍼블릭 웹 애플리케이션의 보안에 대해 우려하고 있습니다. 애플리케이션은 Application Load Balancer (ALB)를 사용합니다. 솔루션 설계자는 애플리케이션에 대한 DDoS 공격의 위험을 줄여야 합니다. 이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A.
Add an Amazon Inspector agent to the ALB.
ALB에 Amazon Inspector 에이전트를 추가합니다.
B.
Configure Amazon Macie to prevent attacks.
Amazon Macie를 구성하여 공격을 방지합니다.
C.
Enable AWS Shield Advanced to prevent attacks.
AWS Shield Advanced를 활성화하여 공격을 방지합니다.
D.
Configure Amazon GuardDuty to monitor the ALB.
Amazon GuardDuty를 구성하여 ALB를 모니터링합니다.
⭕ 정답: C
📝 해설
AWS Shield Advanced를 활성화하여 애플리케이션에 대한 DDoS 공격을 방지합니다. Shield Advanced는 자동으로 DDoS 공격을 감지하고 완화하며, 추가적인 보호 기능을 제공하여 애플리케이션의 가용성을 유지합니다.
오답 분석:
- A: Amazon Inspector는 애플리케이션의 보안 취약점을 검사하는 도구로, DDoS 방지와는 관련이 없습니다.
- B: Amazon Macie는 데이터 보안 및 개인정보 보호를 위한 도구로, DDoS 방지와는 관련이 없습니다.
- D: Amazon GuardDuty는 AWS 환경의 위협을 모니터링하는 서비스로, DDoS 방지에는 직접적인 역할을 하지 않습니다.
✅ 문제 170
A company’s web application is running on Amazon EC2 instances behind an Application Load Balancer. The company recently changed its policy, which now requires the application to be accessed from one specific country only. Which configuration will meet this requirement?
한 회사의 웹 애플리케이션이 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행되고 있습니다. 회사는 최근 정책을 변경하여 이제 애플리케이션에 특정 국가에서만 액세스해야 합니다. 이 요구 사항을 충족하는 구성은 무엇입니까?
A.
Configure the security group for the EC2 instances.
EC2 인스턴스에 대한 보안 그룹을 구성합니다.
B.
Configure the security group on the Application Load Balancer.
Application Load Balancer에 보안 그룹을 구성합니다.
C.
Configure AWS WAF on the Application Load Balancer in a VPC.
VPC 내의 Application Load Balancer에서 AWS WAF를 구성합니다.
D.
Configure the network ACL for the subnet that contains the EC2 instances.
EC2 인스턴스가 포함된 서브넷에 대한 네트워크 ACL을 구성합니다.
⭕ 정답: C
📝 해설
VPC 내의 Application Load Balancer에서 AWS WAF를 구성합니다. AWS WAF를 사용하여 특정 국가에서만 애플리케이션에 접근할 수 있도록 허용하는 규칙을 설정할 수 있습니다. 이는 IP 기반 필터링을 통해 지정된 국가에서만 접근을 허용하는 방법입니다.
오답 분석:
- A: 보안 그룹은 IP 주소를 기반으로 트래픽을 제어할 수 있지만, 국가 기반 필터링에는 적합하지 않습니다.
- B: Application Load Balancer에 보안 그룹을 구성하는 것은 국가 기반 필터링에 적합하지 않습니다.
- D: 네트워크 ACL은 서브넷 레벨에서 트래픽을 제어하며, 국가 기반 필터링에는 적합하지 않습니다.
✅ 문제 171
A company provides an API to its users that automates inquiries for tax computations based on item prices. The company experiences a larger number of inquiries during the holiday season only that cause slower response times. A solutions architect needs to design a solution that is scalable and elastic. What should the solutions architect do to accomplish this?
한 회사는 사용자에게 항목 가격을 기반으로 세금 계산을 자동화하는 API를 제공합니다. 회사는 휴가철에만 더 많은 문의를 받아 응답 시간이 느려집니다. 솔루션 설계자는 확장 가능하고 탄력적인 솔루션을 설계해야 합니다. 이를 달성하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A.
Provide an API hosted on an Amazon EC2 instance. The EC2 instance performs the required computations when the API request is made.
Amazon EC2 인스턴스에 호스팅된 API를 제공합니다. API 요청이 있을 때 EC2 인스턴스가 필요한 계산을 수행합니다.
B.
Design a REST API using Amazon API Gateway that accepts the item names. API Gateway passes item names to AWS Lambda for tax computations.
항목 이름을 수락하는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 항목 이름을 AWS Lambda로 전달하여 세금을 계산합니다.
C.
Create an Application Load Balancer that has two Amazon EC2 instances behind it. The EC2 instances will compute the tax on the received item names.
두 개의 Amazon EC2 인스턴스가 있는 Application Load Balancer를 생성합니다. EC2 인스턴스는 수신된 항목 이름에 대해 세금을 계산합니다.
D.
Design a REST API using Amazon API Gateway that connects with an API hosted on an Amazon EC2 instance. API Gateway accepts and passes the item names to the EC2 instance for tax computations.
Amazon EC2 인스턴스에 호스팅된 API와 연결되는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 항목 이름을 수락하고 EC2 인스턴스에 전달하여 세금을 계산합니다.
⭕ 정답: B
📝 해설
Amazon API Gateway를 사용하여 REST API를 설계하고, AWS Lambda를 사용하여 세금 계산을 수행합니다. API Gateway는 API 요청을 처리하고, Lambda 함수는 요청이 있을 때 자동으로 확장되어 계산 작업을 수행합니다. 이 접근 방식은 서버리스 구조로 운영 오버헤드를 최소화하며, 요청 수에 따라 자동으로 확장되어 고가용성과 탄력성을 제공합니다.
오답 분석:
- A: 단일 EC2 인스턴스는 확장성이 부족하며, 고가용성을 제공하지 않습니다.
- C: 두 개의 EC2 인스턴스는 기본적인 확장성을 제공할 수 있지만, 탄력성과 자동 확장이 부족합니다.
- D: EC2 인스턴스를 사용하는 경우 관리 오버헤드가 증가하며, 서버리스 솔루션보다 확장성이 떨어집니다.
✅ 문제 172
A solutions architect is creating a new Amazon CloudFront distribution for an application. Some of the information submitted by users is sensitive. The application uses HTTPS but needs another layer of security. The sensitive information should be protected throughout the entire application stack, and access to the information should be restricted to certain applications. Which action should the solutions architect take?
솔루션 설계자는 애플리케이션을 위한 새로운 Amazon CloudFront 배포를 생성하고 있습니다. 사용자가 제출한 일부 정보는 민감합니다. 애플리케이션은 HTTPS를 사용하지만 추가 보안 계층이 필요합니다. 민감한 정보는 전체 애플리케이션 스택에서 보호되어야 하며 정보에 대한 액세스는 특정 애플리케이션으로 제한되어야 합니다. 솔루션 설계자는 어떤 조치를 취해야 합니까?
A.
Configure a CloudFront signed URL.
CloudFront 서명된 URL을 구성합니다.
B.
Configure a CloudFront signed cookie.
CloudFront 서명된 쿠키를 구성합니다.
C.
Configure a CloudFront field-level encryption profile.
CloudFront 필드 수준 암호화 프로필을 구성합니다.
D.
Configure CloudFront and set the Origin Protocol Policy setting to HTTPS Only for the Viewer Protocol Policy.
CloudFront를 구성하고 Origin Protocol Policy 설정을 Viewer Protocol Policy에 대해 HTTPS 전용으로 설정합니다.
⭕ 정답: C
📝 해설
CloudFront 필드 수준 암호화(Field-Level Encryption)를 구성하여 민감한 정보를 보호합니다. 필드 수준 암호화는 특정 필드 데이터를 암호화하여 추가적인 보안 계층을 제공하며, 정보를 안전하게 유지합니다. 이는 전체 애플리케이션 스택에서 데이터를 보호하고 특정 애플리케이션만 데이터에 접근할 수 있도록 합니다.
오답 분석:
- A: 서명된 URL은 접근을 제어하는 데 사용되며, 데이터 암호화를 제공하지 않습니다.
- B: 서명된 쿠키는 접근을 제어하는 데 사용되며, 데이터 암호화를 제공하지 않습니다.
- D: HTTPS만 사용하는 것은 전송 중 데이터 보안을 강화하지만, 필드 수준 암호화는 제공하지 않습니다.
✅ 문제 173
A gaming company hosts a browser-based application on AWS. The users of the application consume a large number of videos and images that are stored in Amazon S3. This content is the same for all users. The application has increased in popularity, and millions of users worldwide accessing these media files. The company wants to provide the files to the users while reducing the load on the origin. Which solution meets these requirements MOST cost-effectively?
한 게임 회사는 AWS에서 브라우저 기반 애플리케이션을 호스팅하고 있습니다. 애플리케이션 사용자들은 Amazon S3에 저장된 대량의 비디오와 이미지를 소비합니다. 이 콘텐츠는 모든 사용자에게 동일합니다. 애플리케이션의 인기가 높아져 전 세계 수백만 명의 사용자가 이러한 미디어 파일에 액세스하고 있습니다. 회사는 오리진의 부하를 줄이면서 사용자에게 파일을 제공하고자 합니다. 어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Deploy an AWS Global Accelerator accelerator in front of the web servers.
웹 서버 앞에 AWS Global Accelerator 가속기를 배포합니다.
B.
Deploy an Amazon CloudFront web distribution in front of the S3 bucket.
S3 버킷 앞에 Amazon CloudFront 웹 배포를 배포합니다.
C.
Deploy an Amazon ElastiCache for Redis instance in front of the web servers.
웹 서버 앞에 Amazon ElastiCache for Redis 인스턴스를 배포합니다.
D.
Deploy an Amazon ElastiCache for Memcached instance in front of the web servers.
웹 서버 앞에 Amazon ElastiCache for Memcached 인스턴스를 배포합니다.
⭕ 정답: B
📝 해설
Amazon CloudFront를 S3 버킷 앞에 배포하여 콘텐츠를 캐시하고, 전 세계 사용자에게 빠르게 제공할 수 있습니다. CloudFront는 CDN 역할을 하여 S3 버킷의 콘텐츠를 엣지 로케이션에 캐시하고, 사용자 요청을 로드 분산하여 오리진의 부하를 줄입니다. 이는 비용 효율적이며, 성능을 최적화합니다.
오답 분석:
- A: Global Accelerator는 네트워크 성능을 향상시키지만, 콘텐츠 캐싱에는 적합하지 않습니다.
- C, D: ElastiCache for Redis와 Memcached는 데이터베이스 캐싱에 적합하며, 대규모 정적 콘텐츠 캐싱에는 적합하지 않습니다.
✅ 문제 174
A company has a multi-tier application that runs six front-end web servers in an Amazon EC2 Auto Scaling group in a single Availability Zone behind an Application Load Balancer (ALB). A solutions architect needs to modify the infrastructure to be highly available without modifying the application. Which architecture should the solutions architect choose that provides high availability?
한 회사는 단일 가용 영역의 Application Load Balancer (ALB) 뒤에 있는 Amazon EC2 Auto Scaling 그룹에서 여섯 개의 프런트엔드 웹 서버를 실행하는 다중 계층 애플리케이션을 보유하고 있습니다. 솔루션 설계자는 애플리케이션을 수정하지 않고 인프라를 고가용성으로 변경해야 합니다. 솔루션 설계자는 고가용성을 제공하는 어떤 아키텍처를 선택해야 합니까?
A.
Create an Auto Scaling group that uses three instances across each of two Regions.
두 개의 리전에 걸쳐 각각 세 개의 인스턴스를 사용하는 Auto Scaling 그룹을 생성합니다.
B.
Modify the Auto Scaling group to use three instances across each of two Availability Zones.
Auto Scaling 그룹을 수정하여 두 개의 가용 영역에 각각 세 개의 인스턴스를 사용합니다.
C.
Create an Auto Scaling template that can be used to quickly create more instances in another Region.
다른 리전에 더 많은 인스턴스를 빠르게 생성할 수 있는 Auto Scaling 템플릿을 생성합니다.
D.
Change the ALB in front of the Amazon EC2 instances in a round-robin configuration to balance traffic to the web tier.
웹 계층의 트래픽을 분산하기 위해 라운드 로빈 구성의 Amazon EC2 인스턴스 앞에 있는 ALB를 변경합니다.
⭕ 정답: B
📝 해설
Auto Scaling 그룹을 수정하여 두 개의 가용 영역에 각각 세 개의 인스턴스를 사용합니다. 이는 고가용성을 제공하며, 단일 가용 영역 장애 시에도 애플리케이션을 계속 사용할 수 있게 합니다. 이는 애플리케이션을 수정하지 않고 인프라를 개선하는 효과적인 방법입니다.
오답 분석:
- A: 두 개의 리전에 걸쳐 인스턴스를 사용하는 것은 복잡성을 증가시키고, 고가용성은 제공하지만 관리가 어렵습니다.
- C: Auto Scaling 템플릿은 고가용성을 제공하지 않으며, 인스턴스 생성 시간 동안 중단이 발생할 수 있습니다.
- D: ALB의 라운드 로빈 구성은 트래픽 분산을 도와주지만, 고가용성을 보장하지는 않습니다.
✅ 문제 175
An ecommerce company has an order-processing application that uses Amazon API Gateway and an AWS Lambda function. The application stores data in an Amazon Aurora PostgreSQL database. During a recent sales event, a sudden surge in customer orders occurred. Some customers experienced timeouts, and the application did not process the orders of those customers. A solutions architect determined that the CPU utilization and memory utilization were high on the database because of a large number of open connections. The solutions architect needs to prevent the timeout errors while making the least possible changes to the application. Which solution will meet these requirements?
한 전자상거래 회사는 Amazon API Gateway와 AWS Lambda 함수를 사용하는 주문 처리 애플리케이션을 보유하고 있습니다. 애플리케이션은 데이터를 Amazon Aurora PostgreSQL 데이터베이스에 저장합니다. 최근 판매 이벤트 동안 고객 주문이 갑자기 급증했습니다. 일부 고객은 타임아웃을 경험했으며 애플리케이션은 해당 고객의 주문을 처리하지 못했습니다. 솔루션 설계자는 많은 수의 열린 연결로 인해 데이터베이스의 CPU 사용률과 메모리 사용률이 높다는 것을 확인했습니다. 솔루션 설계자는 애플리케이션에 최소한의 변경을 가하면서 타임아웃 오류를 방지해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Configure provisioned concurrency for the Lambda function. Modify the database to be a global database in multiple AWS Regions.
Lambda 함수에 대해 프로비저닝된 동시성을 구성합니다. 데이터베이스를 여러 AWS 리전의 글로벌 데이터베이스로 수정합니다.
B.
Use Amazon RDS Proxy to create a proxy for the database. Modify the Lambda function to use the RDS Proxy endpoint instead of the database endpoint.
Amazon RDS Proxy를 사용하여 데이터베이스에 대한 프록시를 생성합니다. Lambda 함수를 수정하여 데이터베이스 엔드포인트 대신 RDS Proxy 엔드포인트를 사용합니다.
C.
Create a read replica for the database in a different AWS Region. Use query string parameters in API Gateway to route traffic to the read replica.
다른 AWS 리전에 데이터베이스에 대한 읽기 복제본을 생성합니다. API Gateway에서 쿼리 문자열 매개변수를 사용하여 트래픽을 읽기 복제본으로 라우팅합니다.
D.
Migrate the data from Aurora PostgreSQL to Amazon DynamoDB by using AWS Database Migration Service (AWS DMS). Modify the Lambda function to use the DynamoDB table.
AWS Database Migration Service (AWS DMS)를 사용하여 Aurora PostgreSQL의 데이터를 Amazon DynamoDB로 마이그레이션합니다. Lambda 함수를 수정하여 DynamoDB 테이블을 사용합니다.
⭕ 정답: B
📝 해설
Amazon RDS Proxy를 사용하여 데이터베이스에 대한 프록시를 생성하고, Lambda 함수가 RDS Proxy 엔드포인트를 사용하도록 수정합니다. RDS Proxy는 데이터베이스 연결을 효율적으로 관리하여 연결 수를 줄이고, 데이터베이스의 CPU 및 메모리 사용을 최적화합니다. 이는 애플리케이션을 최소한으로 변경하면서 타임아웃 오류를 방지하는 데 효과적입니다.
오답 분석:
- A: 프로비저닝된 동시성을 구성하고 글로벌 데이터베이스로 수정하는 것은 복잡성과 비용이 증가합니다.
- C: 읽기 복제본을 사용하는 것은 읽기 작업에는 도움이 되지만, 쓰기 작업에는 적합하지 않습니다.
- D: DynamoDB로 마이그레이션하는 것은 데이터베이스 기술을 변경해야 하므로 애플리케이션에 큰 변경이 필요합니다.
✅ 문제 176
An application runs on Amazon EC2 instances in private subnets. The application needs to access an Amazon DynamoDB table. What is the MOST secure way to access the table while ensuring that the traffic does not leave the AWS network?
애플리케이션이 프라이빗 서브넷의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon DynamoDB 테이블에 접근해야 합니다. 트래픽이 AWS 네트워크를 벗어나지 않도록 하면서 테이블에 접근하는 가장 안전한 방법은 무엇입니까?
A.
Use a VPC endpoint for DynamoDB.
DynamoDB용 VPC 엔드포인트를 사용합니다.
B.
Use a NAT gateway in a public subnet.
퍼블릭 서브넷에 NAT 게이트웨이를 사용합니다.
C.
Use a NAT instance in a private subnet.
프라이빗 서브넷에 NAT 인스턴스를 사용합니다.
D.
Use the internet gateway attached to the VPC.
VPC에 연결된 인터넷 게이트웨이를 사용합니다.
⭕ 정답: A
📝 해설
가장 안전한 방법은 VPC 엔드포인트를 사용하는 것입니다. VPC 엔드포인트를 통해 EC2 인스턴스가 DynamoDB와 통신할 수 있으며, 이 트래픽은 AWS 네트워크를 벗어나지 않습니다. NAT 게이트웨이 또는 NAT 인스턴스를 사용하는 경우 트래픽이 AWS 네트워크를 벗어나야 할 수도 있으며, 인터넷 게이트웨이를 사용하면 보안이 떨어집니다.
오답 분석:
- B: NAT 게이트웨이는 트래픽을 인터넷으로 보내기 때문에 트래픽이 AWS 네트워크를 벗어날 수 있습니다.
- C: NAT 인스턴스는 NAT 게이트웨이와 유사하게 트래픽을 인터넷으로 보내기 때문에 적합하지 않습니다.
- D: 인터넷 게이트웨이는 트래픽을 인터넷으로 보내므로 보안에 적합하지 않습니다.
✅ 문제 177
An entertainment company is using Amazon DynamoDB to store media metadata. The application is read intensive and experiencing delays. The company does not have staff to handle additional operational overhead and needs to improve the performance efficiency of DynamoDB without reconfiguring the application. What should a solutions architect recommend to meet this requirement?
엔터테인먼트 회사는 미디어 메타데이터를 저장하기 위해 Amazon DynamoDB를 사용하고 있습니다. 애플리케이션은 읽기 작업이 많아 지연이 발생하고 있습니다. 회사는 추가 운영 오버헤드를 처리할 인력이 없으며 애플리케이션을 재구성하지 않고 DynamoDB의 성능 효율성을 향상시켜야 합니다. 솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 추천해야 합니까?
A.
Use Amazon ElastiCache for Redis.
Amazon ElastiCache for Redis를 사용합니다.
B.
Use Amazon DynamoDB Accelerator (DAX).
Amazon DynamoDB Accelerator (DAX)를 사용합니다.
C.
Replicate data by using DynamoDB global tables.
DynamoDB 글로벌 테이블을 사용하여 데이터를 복제합니다.
D.
Use Amazon ElastiCache for Memcached with Auto Discovery enabled.
Auto Discovery가 활성화된 Amazon ElastiCache for Memcached를 사용합니다.
⭕ 정답: B
📝 해설
Amazon DynamoDB Accelerator (DAX)는 DynamoDB 테이블에 대한 캐시 레이어를 추가하여 읽기 성능을 크게 향상시킵니다. DAX는 애플리케이션을 재구성할 필요 없이 DynamoDB 읽기 작업의 지연 시간을 줄일 수 있는 가장 효율적인 솔루션입니다.
오답 분석:
- A: ElastiCache for Redis는 캐시를 제공하지만 DynamoDB와의 직접적인 통합을 제공하지 않습니다.
- C: 글로벌 테이블은 데이터 복제와 관련이 있으며, 읽기 성능 향상과 직접적인 관련이 없습니다.
- D: ElastiCache for Memcached는 Redis와 마찬가지로 DynamoDB와의 직접적인 통합을 제공하지 않습니다.
✅ 문제 178
A company’s infrastructure consists of Amazon EC2 instances and an Amazon RDS DB instance in a single AWS Region. The company wants to back up its data in a separate Region. Which solution will meet these requirements with the LEAST operational overhead?
회사의 인프라는 단일 AWS 리전에 있는 Amazon EC2 인스턴스와 Amazon RDS DB 인스턴스로 구성됩니다. 회사는 별도의 리전에 데이터를 백업하기를 원합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Use AWS Backup to copy EC2 backups and RDS backups to the separate Region.
AWS Backup을 사용하여 EC2 백업 및 RDS 백업을 별도의 리전으로 복사합니다.
B.
Use Amazon Data Lifecycle Manager (Amazon DLM) to copy EC2 backups and RDS backups to the separate Region.
Amazon Data Lifecycle Manager (Amazon DLM)을 사용하여 EC2 백업 및 RDS 백업을 별도의 리전으로 복사합니다.
C.
Create Amazon Machine Images (AMIs) of the EC2 instances. Copy the AMIs to the separate Region. Create a read replica for the RDS DB instance in the separate Region.
EC2 인스턴스의 Amazon Machine Images (AMIs)를 생성합니다. AMIs를 별도의 리전으로 복사합니다. 별도의 리전에 RDS DB 인스턴스에 대한 읽기 복제본을 생성합니다.
D.
Create Amazon Elastic Block Store (Amazon EBS) snapshots. Copy the EBS snapshots to the separate Region. Create RDS snapshots. Export the RDS snapshots to Amazon S3. Configure S3 Cross-Region Replication (CRR) to the separate Region.
Amazon Elastic Block Store (Amazon EBS) 스냅샷을 생성합니다. EBS 스냅샷을 별도의 리전으로 복사합니다. RDS 스냅샷을 생성합니다. RDS 스냅샷을 Amazon S3로 내보냅니다. S3 교차 리전 복제(CRR)를 별도의 리전으로 구성합니다.
⭕ 정답: A
📝 해설
AWS Backup은 여러 AWS 서비스의 백업을 중앙에서 관리할 수 있는 서비스입니다. EC2 인스턴스와 RDS 인스턴스의 백업을 다른 리전으로 복사하는 기능을 제공하며, 운영 오버헤드를 최소화할 수 있습니다.
오답 분석:
- B: Amazon DLM은 EBS 스냅샷 관리를 위한 것이며, RDS 백업 관리는 포함되지 않습니다.
- C: AMI를 생성하고 복사하는 것은 EC2 인스턴스에 대해서만 적용 가능하며, RDS 백업 관리가 포함되지 않습니다.
- D: EBS 스냅샷과 RDS 스냅샷을 별도로 관리하는 것은 운영 오버헤드가 증가할 수 있습니다.
✅ 문제 179
A solutions architect needs to securely store a database user name and password that an application uses to access an Amazon RDS DB instance. The application that accesses the database runs on an Amazon EC2 instance. The solutions architect wants to create a secure parameter in AWS Systems Manager Parameter Store. What should the solutions architect do to meet this requirement?
솔루션 설계자는 애플리케이션이 Amazon RDS DB 인스턴스에 액세스하는 데 사용하는 데이터베이스 사용자 이름과 암호를 안전하게 저장해야 합니다. 데이터베이스에 액세스하는 애플리케이션은 Amazon EC2 인스턴스에서 실행됩니다. 솔루션 설계자는 AWS Systems Manager Parameter Store에 보안 매개변수를 생성하려고 합니다. 이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A.
Create an IAM role that has read access to the Parameter Store parameter. Allow Decrypt access to an AWS Key Management Service (AWS KMS) key that is used to encrypt the parameter. Assign this IAM role to the EC2 instance.
Parameter Store 매개변수에 대한 읽기 액세스 권한이 있는 IAM 역할을 생성합니다. 매개변수를 암호화하는 데 사용되는 AWS Key Management Service (AWS KMS) 키에 대한 해독 액세스를 허용합니다. 이 IAM 역할을 EC2 인스턴스에 할당합니다.
B.
Create an IAM policy that allows read access to the Parameter Store parameter. Allow Decrypt access to an AWS Key Management Service (AWS KMS) key that is used to encrypt the parameter. Assign this IAM policy to the EC2 instance.
Parameter Store 매개변수에 대한 읽기 액세스를 허용하는 IAM 정책을 생성합니다. 매개변수를 암호화하는 데 사용되는 AWS Key Management Service (AWS KMS) 키에 대한 해독 액세스를 허용합니다. 이 IAM 정책을 EC2 인스턴스에 할당합니다.
C.
Create an IAM trust relationship between the Parameter Store parameter and the EC2 instance. Specify Amazon RDS as a principal in the trust policy.
Parameter Store 매개변수와 EC2 인스턴스 간의 IAM 신뢰 관계를 생성합니다. 신뢰 정책에 Amazon RDS를 주체로 지정합니다.
D.
Create an IAM trust relationship between the DB instance and the EC2 instance. Specify Systems Manager as a principal in the trust policy.
DB 인스턴스와 EC2 인스턴스 간의 IAM 신뢰 관계를 생성합니다. 신뢰 정책에 Systems Manager를 주체로 지정합니다.
⭕ 정답: A
📝 해설
IAM 역할을 생성하여 Parameter Store 매개변수에 대한 읽기 액세스를 부여하고, 매개변수를 암호화하는 데 사용된 KMS 키에 대한 해독 액세스를 허용해야 합니다. 이 IAM 역할을 EC2 인스턴스에 할당하면 보안이 유지됩니다.
오답 분석:
- B: IAM 정책은 역할보다 덜 안전하며, 역할을 사용하는 것이 더 적절합니다.
- C: Parameter Store와 EC2 인스턴스 간의 신뢰 관계는 필요하지 않습니다.
- D: DB 인스턴스와 EC2 인스턴스 간의 신뢰 관계는 필요하지 않습니다.
✅ 문제 180
A company is designing a cloud communications platform that is driven by APIs. The application is hosted on Amazon EC2 instances behind a Network Load Balancer (NLB). The company uses Amazon API Gateway to provide external users with access to the application through APIs. The company wants to protect the platform against web exploits like SQL injection and also wants to detect and mitigate large, sophisticated DDoS attacks. Which combination of solutions provides the MOST protection? (Choose two.)
한 회사가 API에 의해 구동되는 클라우드 통신 플랫폼을 설계하고 있습니다. 애플리케이션은 Network Load Balancer (NLB) 뒤의 Amazon EC2 인스턴스에서 호스팅됩니다. 회사는 Amazon API Gateway를 사용하여 외부 사용자가 API를 통해 애플리케이션에 액세스할 수 있도록 합니다. 회사는 SQL 인젝션과 같은 웹 익스플로잇으로부터 플랫폼을 보호하고 대규모의 정교한 DDoS 공격을 탐지 및 완화하기를 원합니다. 어떤 솔루션 조합이 가장 많은 보호를 제공합니까? (두 개 선택)
A.
Use AWS WAF to protect the NLB.
NLB를 보호하기 위해 AWS WAF를 사용합니다.
B.
Use AWS Shield Advanced with the NLB.
NLB와 함께 AWS Shield Advanced를 사용합니다.
C.
Use AWS WAF to protect Amazon API Gateway.
Amazon API Gateway를 보호하기 위해 AWS WAF를 사용합니다.
D.
Use Amazon GuardDuty with AWS Shield Standard.
Amazon GuardDuty를 AWS Shield Standard와 함께 사용합니다.
E.
Use AWS Shield Standard with Amazon API Gateway.
Amazon API Gateway와 함께 AWS Shield Standard를 사용합니다.
⭕ 정답: B, C
📝 해설
AWS Shield Advanced는 NLB를 포함한 여러 AWS 서비스에 대한 DDoS 보호를 제공합니다. AWS WAF는 API Gateway와 같은 웹 애플리케이션을 보호하며, SQL 인젝션과 같은 웹 익스플로잇을 방지할 수 있습니다. 이 두 가지 솔루션을 함께 사용하면 가장 강력한 보호를 제공합니다.
오답 분석:
- A: AWS WAF는 NLB를 직접 보호하지 않습니다.
- D: GuardDuty는 위협 감지 서비스로, DDoS 공격을 직접 방지하지 않습니다.
- E: AWS Shield Standard는 기본 DDoS 보호를 제공하지만, Advanced 버전만큼 강력하지 않습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (181 - 200) (0) | 2024.05.23 |
---|---|
[AWS SAA-C03] Examtopics Dump (141 - 160) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (121 - 140) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (101 - 120) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (81 - 100) (3) | 2024.05.22 |