✅ 문제 141
A company runs a web-based portal that provides users with global breaking news, local alerts, and weather updates. The portal delivers each user a personalized view by using mixture of static and dynamic content. Content is served over HTTPS through an API server running on an Amazon EC2 instance behind an Application Load Balancer (ALB). The company wants the portal to provide this content to its users across the world as quickly as possible.
How should a solutions architect design the application to ensure the LEAST amount of latency for all users?
한 회사는 사용자에게 글로벌 속보, 지역 경보 및 날씨 업데이트를 제공하는 웹 기반 포털을 운영합니다. 포털은 정적 콘텐츠와 동적 콘텐츠를 혼합하여 각 사용자에게 개인화된 보기를 제공합니다. 콘텐츠는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 실행되는 API 서버를 통해 HTTPS를 통해 제공됩니다. 회사는 포털이 이 콘텐츠를 가능한 한 빨리 전 세계 사용자에게 제공하기를 원합니다.
솔루션 설계자는 모든 사용자의 대기 시간을 최소화하도록 애플리케이션을 어떻게 설계해야 합니까?
A.
Deploy the application stack in a single AWS Region. Use Amazon CloudFront to serve all static and dynamic content by specifying the ALB as an origin.
단일 AWS 리전에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하여 ALB를 오리진으로 지정하여 모든 정적 및 동적 콘텐츠를 제공합니다.
B.
Deploy the application stack in two AWS Regions. Use an Amazon Route 53 latency routing policy to serve all content from the ALB in the closest Region.
두 AWS 리전에 애플리케이션 스택을 배포합니다. Amazon Route 53 지연 시간 라우팅 정책을 사용하여 가장 가까운 리전의 ALB에서 모든 콘텐츠를 제공합니다.
C.
Deploy the application stack in a single AWS Region. Use Amazon CloudFront to serve the static content. Serve the dynamic content directly from the ALB.
단일 AWS 리전에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하여 정적 콘텐츠를 제공합니다. ALB에서 직접 동적 콘텐츠를 제공합니다.
D.
Deploy the application stack in two AWS Regions. Use an Amazon Route 53 geolocation routing policy to serve all content from the ALB in the closest Region.
두 AWS 리전에 애플리케이션 스택을 배포합니다. Amazon Route 53 지리적 위치 라우팅 정책을 사용하여 가장 가까운 리전에서 ALB의 모든 콘텐츠를 제공합니다.
⭕ 정답: A
📝 해설
단일 AWS 리전에 애플리케이션 스택을 배포하고, Amazon CloudFront를 사용하여 ALB를 오리진으로 지정하여 모든 정적 및 동적 콘텐츠를 제공합니다. CloudFront는 전 세계적으로 분산된 엣지 로케이션을 통해 콘텐츠를 캐시하여 사용자에게 빠르게 제공할 수 있습니다. 이는 대기 시간을 최소화하고 글로벌 사용자에게 콘텐츠를 신속하게 전달하는 데 효과적입니다.
오답 분석:
- B: 두 리전에 애플리케이션을 배포하고 Route 53의 지연 시간 라우팅 정책을 사용하는 것은 좋은 접근 방식이지만, CloudFront를 사용한 전역 캐싱이 더 효율적입니다.
- C: CloudFront를 사용하여 정적 콘텐츠를 제공하고 동적 콘텐츠를 ALB에서 직접 제공하는 것은 대기 시간을 줄이는 데 비효율적일 수 있습니다.
- D: 지리적 위치 라우팅 정책을 사용하는 것도 좋은 접근 방식이지만, CloudFront의 전역 캐싱을 사용하는 것이 더 효과적입니다.
✅ 문제 142
A gaming company is designing a highly available architecture. The application runs on a modified Linux kernel and supports only UDP-based traffic. The company needs the front-end tier to provide the best possible user experience. That tier must have low latency, route traffic to the nearest edge location, and provide static IP addresses for entry into the application endpoints.
What should a solutions architect do to meet these requirements?
게임 회사는 고가용성 아키텍처를 설계하고 있습니다. 애플리케이션은 수정된 Linux 커널에서 실행되며 UDP 기반 트래픽만 지원합니다. 회사는 최상의 사용자 경험을 제공하기 위해 프런트 엔드 계층이 필요합니다. 해당 계층은 대기 시간이 짧고 가장 가까운 엣지 로케이션으로 트래픽을 라우팅하고 애플리케이션 엔드포인트에 진입하기 위한 고정 IP 주소를 제공해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Configure Amazon Route 53 to forward requests to an Application Load Balancer. Use AWS Lambda for the application in AWS Application Auto Scaling.
요청을 Application Load Balancer로 전달하도록 Amazon Route 53을 구성합니다. AWS Application Auto Scaling의 애플리케이션에 AWS Lambda를 사용합니다.
B.
Configure Amazon CloudFront to forward requests to a Network Load Balancer. Use AWS Lambda for the application in an AWS Application Auto Scaling group.
요청을 Network Load Balancer로 전달하도록 Amazon CloudFront를 구성합니다. AWS Application Auto Scaling 그룹의 애플리케이션에 AWS Lambda를 사용합니다.
C.
Configure AWS Global Accelerator to forward requests to a Network Load Balancer. Use Amazon EC2 instances for the application in an EC2 Auto Scaling group.
요청을 Network Load Balancer로 전달하도록 AWS Global Accelerator를 구성합니다. EC2 Auto Scaling 그룹의 애플리케이션에 Amazon EC2 인스턴스를 사용합니다.
D.
Configure Amazon API Gateway to forward requests to an Application Load Balancer. Use Amazon EC2 instances for the application in an EC2 Auto Scaling group.
요청을 Application Load Balancer로 전달하도록 Amazon API Gateway를 구성합니다. EC2 Auto Scaling 그룹의 애플리케이션에 Amazon EC2 인스턴스를 사용합니다.
⭕ 정답: C
📝 해설
AWS Global Accelerator를 구성하여 요청을 Network Load Balancer(NLB)로 전달하고, EC2 Auto Scaling 그룹 내의 EC2 인스턴스를 애플리케이션에 사용합니다. Global Accelerator는 전 세계적으로 분산된 엣지 로케이션을 통해 사용자와 가장 가까운 네트워크 경로를 제공하여 낮은 지연 시간을 보장합니다. 또한 고정 IP 주소를 제공하여 애플리케이션 엔드포인트에 쉽게 접근할 수 있도록 합니다.
오답 분석:
- A: Application Load Balancer는 TCP 및 HTTP(S) 트래픽에 적합하며, UDP 트래픽에는 NLB가 더 적합합니다.
- B: CloudFront는 CDN 역할을 하지만, UDP 트래픽 처리를 위한 NLB와 결합되지 않습니다.
- D: API Gateway는 HTTP 기반 요청에 적합하며, UDP 트래픽에는 적합하지 않습니다.
✅ 문제 143
A company wants to migrate its existing on-premises monolithic application to AWS. The company wants to keep as much of the front-end code and the backend code as possible. However, the company wants to break the application into smaller applications. A different team will manage each application. The company needs a highly scalable solution that minimizes operational overhead.
Which solution will meet these requirements?
회사에서 기존 온프레미스 모놀리식 애플리케이션을 AWS로 마이그레이션하려고 합니다. 회사는 프론트엔드 코드와 백엔드 코드를 최대한 많이 유지하려고 합니다. 그러나 회사는 응용 프로그램을 더 작은 응용 프로그램으로 나누기를 원합니다. 다른 팀에서 각 애플리케이션을 관리합니다. 회사는 운영 오버헤드를 최소화하는 확장성이 뛰어난 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Host the application on AWS Lambda. Integrate the application with Amazon API Gateway.
AWS Lambda에서 애플리케이션을 호스팅합니다. 애플리케이션을 Amazon API Gateway와 통합합니다.
B.
Host the application with AWS Amplify. Connect the application to an Amazon API Gateway API that is integrated with AWS Lambda.
AWS Amplify를 사용하여 애플리케이션을 호스팅합니다. AWS Lambda와 통합된 Amazon API Gateway API에 애플리케이션을 연결합니다.
C.
Host the application on Amazon EC2 instances. Set up an Application Load Balancer with EC2 instances in an Auto Scaling group as targets.
Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. Auto Scaling 그룹의 EC2 인스턴스를 대상으로 하여 Application Load Balancer를 설정합니다.
D.
Host the application on Amazon Elastic Container Service (Amazon ECS). Set up an Application Load Balancer with Amazon ECS as the target.
Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS를 대상으로 하여 Application Load Balancer를 설정합니다.
⭕ 정답: D
📝 해설
애플리케이션을 Amazon Elastic Container Service (ECS)에서 호스팅하고, Application Load Balancer(ALB)를 타겟으로 설정합니다. ECS는 컨테이너 기반 마이크로서비스 아키텍처를 지원하며, 팀별로 각 애플리케이션을 독립적으로 관리할 수 있습니다. ALB는 ECS 서비스와 원활하게 통합되어 자동 확장 및 로드 밸런싱을 제공합니다.
오답 분석:
- A: Lambda는 서버리스 아키텍처로, 기존 모놀리식 애플리케이션을 호스팅하는 데 적합하지 않습니다.
- B: AWS Amplify는 프론트엔드 애플리케이션을 위한 서비스로, 백엔드 코드를 호스팅하기에는 적합하지 않습니다.
- C: EC2 인스턴스를 사용하는 것은 운영 오버헤드가 높고, 관리가 복잡할 수 있습니다.
📍 모놀리식 애플리케이션
애플리케이션의 모든 기능이 하나의 코드베이스와 배포 단위로 구성된 구조. 즉, 사용자 인터페이스, 비즈니스 로직, 데이터 액세스 레이어 등이 하나의 애플리케이션에 통합되어 있습니다.
✅ 문제 144
A company recently started using Amazon Aurora as the data store for its global ecommerce application. When large reports are run, developers report that the ecommerce application is performing poorly. After reviewing metrics in Amazon CloudWatch, a solutions architect finds that the ReadIOPS and CPUUtilizalion metrics are spiking when monthly reports run.
What is the MOST cost-effective solution?
한 회사는 최근 글로벌 전자 상거래 애플리케이션의 데이터 저장소로 Amazon Aurora를 사용하기 시작했습니다. 대규모 보고서가 실행되면 개발자는 전자상거래 애플리케이션의 성능이 좋지 않다고 보고합니다. Amazon CloudWatch의 지표를 검토한 후 솔루션 설계자는 월별 보고서가 실행될 때 ReadIOPS 및 CPUUtilizalion 지표가 급증하고 있음을 발견했습니다.
가장 비용 효율적인 솔루션은 무엇입니까?
A.
Migrate the monthly reporting to Amazon Redshift.
월별 보고를 Amazon Redshift로 마이그레이션합니다.
B.
Migrate the monthly reporting to an Aurora Replica.
월별 보고를 Aurora 복제본으로 마이그레이션합니다.
C.
Migrate the Aurora database to a larger instance class.
Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션합니다.
D.
Increase the Provisioned IOPS on the Aurora instance.
Aurora 인스턴스에서 프로비저닝된 *IOPS를 늘립니다.
** IOPS(Input/Output Operations Per Second, IOPS) : HDD, SDD 또는 NVMe등 저장장치의 속도를 나타내는데 사용되는 측정단위
⭕ 정답: B
📝 해설
월별 보고서를 Aurora 복제본으로 마이그레이션합니다. Aurora 복제본은 읽기 전용 복제본으로, 보고서 작업을 분산시켜 메인 데이터베이스의 부담을 줄일 수 있습니다. 이는 비용 효율적인 방법으로, 기존 인프라를 활용하면서도 성능 문제를 해결할 수 있습니다.
오답 분석:
- A: Redshift로 마이그레이션하는 것은 과도한 비용과 복잡성을 초래할 수 있습니다.
- C: 더 큰 인스턴스로 마이그레이션하는 것은 비용이 증가할 수 있습니다.
- D: 프로비저닝된 IOPS를 늘리는 것은 비용 효율적인 해결책이 아닐 수 있습니다.
✅ 문제 145
A company hosts a website analytics application on a single Amazon EC2 On-Demand Instance. The analytics software is written in PHP and uses a MySQL database. The analytics software, the web server that provides PHP, and the database server are all hosted on the EC2 instance. The application is showing signs of performance degradation during busy times and is presenting 5xx errors. The company needs to make the application scale seamlessly.
Which solution will meet these requirements MOST cost-effectively?
회사는 단일 Amazon EC2 온디맨드 인스턴스에서 웹 사이트 분석 애플리케이션을 호스팅합니다. 분석 소프트웨어는 PHP로 작성되었으며 MySQL 데이터베이스를 사용합니다. 분석 소프트웨어, PHP를 제공하는 웹 서버 및 데이터베이스 서버는 모두 EC2 인스턴스에서 호스팅됩니다. 응용 프로그램은 바쁜 시간 동안 성능 저하 징후를 보이고 5xx 오류를 표시합니다. 회사는 애플리케이션을 원활하게 확장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Migrate the database to an Amazon RDS for MySQL DB instance. Create an AMI of the web application. Use the AMI to launch a second EC2 On-Demand Instance. Use an Application Load Balancer to distribute the load to each EC2 instance.
데이터베이스를 Amazon RDS for MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 생성합니다. AMI를 사용하여 두 번째 EC2 온디맨드 인스턴스를 시작합니다. Application Load Balancer를 사용하여 각 EC2 인스턴스에 로드를 분산합니다.
B.
Migrate the database to an Amazon RDS for MySQL DB instance. Create an AMI of the web application. Use the AMI to launch a second EC2 On-Demand Instance. Use Amazon Route 53 weighted routing to distribute the load across the two EC2 instances.
데이터베이스를 Amazon RDS for MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 생성합니다. AMI를 사용하여 두 번째 EC2 온디맨드 인스턴스를 시작합니다. Amazon Route 53 가중 라우팅을 사용하여 두 EC2 인스턴스에 로드를 분산합니다.
C.
Migrate the database to an Amazon Aurora MySQL DB instance. Create an AWS Lambda function to stop the EC2 instance and change the instance type. Create an Amazon CloudWatch alarm to invoke the Lambda function when CPU utilization surpasses 75%.
데이터베이스를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션합니다. AWS Lambda 함수를 생성하여 EC2 인스턴스를 중지하고 인스턴스 유형을 변경합니다. CPU 사용률이 75%를 초과할 때 Lambda 함수를 호출하는 Amazon CloudWatch 경보를 생성합니다.
D.
Migrate the database to an Amazon Aurora MySQL DB instance. Create an AMI of the web application. Apply the AMI to a launch template. Create an Auto Scaling group with the launch template Configure the launch template to use a Spot Fleet. Attach an Application Load Balancer to the Auto Scaling group.
데이터베이스를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 생성합니다. 시작 템플릿에 AMI를 적용합니다. 시작 템플릿으로 Auto Scaling 그룹 생성 스팟 집합을 사용하도록 시작 템플릿을 구성합니다. Auto Scaling 그룹에 Application Load Balancer를 연결합니다.
⭕ 정답: D
📝 해설
📍 Spot Fleet
스팟 + 온디맨드 인스턴스로, 사용자가 지정한 기준에 따라 시작되는 스팟 인스턴스의 집합이며 선택적으로 온디맨드 인스턴스 집합입니다. 스팟 플릿은 사용자의 요구 사항을 충족하는 스팟 용량 풀을 선택하고 플릿에 대한 목표 용량을 충족하는 스팟 인스턴스를 시작합니다. 기본적으로 스팟 집합은 플릿에서 스팟 인스턴스가 종료된 후 교체 인스턴스를 시작하여 목표 용량을 유지하도록 설정되어 있습니다. 스팟 플릿을 인스턴스가 종료된 후에는 유지되지 않는 일회성 요청으로 제출할 수도 있습니다. 스팟 플릿 요청에 온디맨드 인스턴스 요청을 포함할 수 있습니다.
✅ 문제 146
A company runs a stateless web application in production on a group of Amazon EC2 On-Demand Instances behind an Application Load Balancer. The application experiences heavy usage during an 8-hour period each business day. Application usage is moderate and steady overnight. Application usage is low during weekends.
The company wants to minimize its EC2 costs without affecting the availability of the application.
Which solution will meet these requirements?
회사는 Application Load Balancer 뒤의 Amazon EC2 온디맨드 인스턴스 그룹에서 프로덕션 환경에서 상태 비저장 웹 애플리케이션을 실행합니다. 매일 8시간 동안 애플리케이션 사용량이 많습니다. 응용 프로그램 사용량은 보통이고 밤새 안정적입니다. 주말에는 애플리케이션 사용량이 적습니다.
이 회사는 애플리케이션의 가용성에 영향을 주지 않으면서 EC2 비용을 최소화하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use Spot Instances for the entire workload.
전체 워크로드에 대해 스팟 인스턴스를 사용합니다.
B.
Use Reserved Instances for the baseline level of usage. Use Spot instances for any additional capacity that the application needs.
기본 사용량 수준에 대해 예약 인스턴스를 사용합니다. 애플리케이션에 필요한 추가 용량에 대해 스팟 인스턴스를
사용합니다.
C.
Use On-Demand Instances for the baseline level of usage. Use Spot Instances for any additional capacity that the application needs.
기준 사용 수준에 대해 온디맨드 인스턴스를 사용합니다. 애플리케이션에 필요한 추가 용량에 대해 스팟 인스턴스를
사용합니다.
D.
Use Dedicated Instances for the baseline level of usage. Use On-Demand Instances for any additional capacity that the application needs.
기본 사용량 수준에 대해 전용 인스턴스를 사용합니다. 애플리케이션에 필요한 추가 용량에 대해 온디맨드 인스턴스를 사용합니다.
⭕ 정답: B
📝 해설
기본 사용량 수준에 대해 예약 인스턴스를 사용하고, 애플리케이션에 필요한 추가 용량에 대해 스팟 인스턴스를 사용합니다. 예약 인스턴스는 기본 사용량을 커버하여 비용을 절감할 수 있으며, 스팟 인스턴스는 추가 용량을 저렴하게 제공하여 사용량 변동에 대응할 수 있습니다. 이렇게 하면 비용을 최소화하면서도 애플리케이션의 가용성을 유지할 수 있습니다.
오답 분석:
- A: 전체 워크로드에 대해 스팟 인스턴스를 사용하는 것은 안정성을 보장하지 못합니다.
- C: 온디맨드 인스턴스를 사용하는 것은 비용이 높아질 수 있습니다.
- D: 전용 인스턴스를 사용하는 것은 비용이 매우 높아질 수 있습니다.
✅ 문제 147
A company needs to retain application log files for a critical application for 10 years. The application team regularly accesses logs from the past month for troubleshooting, but logs older than 1 month are rarely accessed. The application generates more than 10 TB of logs per month.
Which storage option meets these requirements MOST cost-effectively?
회사는 중요한 애플리케이션에 대한 애플리케이션 로그 파일을 10년 동안 보관해야 합니다. 애플리케이션 팀은 문제 해결을 위해 지난 달의 로그에 정기적으로 액세스하지만 1개월 이상 된 로그는 거의 액세스하지 않습니다. 애플리케이션은 매월 10TB 이상의 로그를 생성합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 옵션은 무엇입니까?
A.
Store the logs in Amazon S3. Use AWS Backup to move logs more than 1 month old to S3 Glacier Deep Archive.
Amazon S3에 로그를 저장합니다. AWS Backup을 사용하여 1개월 이상 된 로그를 S3 Glacier Deep Archive로 이동합니다.
B.
Store the logs in Amazon S3. Use S3 Lifecycle policies to move logs more than 1 month old to S3 Glacier Deep Archive.
Amazon S3에 로그를 저장합니다. S3 수명 주기 정책을 사용하여 1개월 이상 된 로그를 S3 Glacier Deep Archive로
이동합니다.
C.
Store the logs in Amazon CloudWatch Logs. Use AWS Backup to move logs more than 1 month old to S3 Glacier Deep Archive.
Amazon CloudWatch Logs에 로그를 저장합니다. AWS Backup을 사용하여 1개월 이상 된 로그를 S3 Glacier Deep Archive로 이동합니다.
D.
Store the logs in Amazon CloudWatch Logs. Use Amazon S3 Lifecycle policies to move logs more than 1 month old to S3 Glacier Deep Archive.
Amazon CloudWatch Logs에 로그를 저장합니다. Amazon S3 수명 주기 정책을 사용하여 1개월 이상 된 로그를 S3 Glacier Deep Archive로 이동합니다.
⭕ 정답: B
📝 해설
Amazon S3에 로그를 저장하고 S3 수명 주기 정책을 사용하여 1개월 이상 된 로그를 S3 Glacier Deep Archive로 이동합니다. 이는 비용 효율적인 스토리지 솔루션으로, 최근 1개월 내의 로그는 S3에 저장하여 빠르게 접근할 수 있게 하고, 오래된 로그는 저비용의 Glacier Deep Archive로 이동하여 장기 보관을 유지합니다.
오답 분석:
- A: AWS Backup을 사용하는 것은 추가적인 비용과 관리 오버헤드를 초래할 수 있습니다.
- C, D: CloudWatch Logs를 사용하는 것은 장기 보관에 비효율적이며 비용이 더 많이 들 수 있습니다.
✅ 문제 148
A company has a data ingestion workflow that includes the following components:
An Amazon Simple Notification Service (Amazon SNS) topic that receives notifications about new data deliveries
An AWS Lambda function that processes and stores the data. The ingestion workflow occasionally fails because of network connectivity issues. When failure occurs, the corresponding data is not ingested unless the company manually reruns the job. What should a solutions architect do to ensure that all notifications are eventually processed?
회사에 다음 구성 요소가 포함된 데이터 수집 워크플로가 있습니다.
새 데이터 전송에 대한 알림을 수신하는 Amazon Simple Notification Service(Amazon SNS) 주제 데이터를 처리하고 저장하는 AWS Lambda 함수는 네트워크 연결 문제로 인해 때때로 수집 워크플로가 실패합니다. 장애가 발생하면 회사에서 수동으로 작업을 재실행하지 않는 한 해당 데이터를 수집하지 않습니다.
모든 알림이 최종적으로 처리되도록 솔루션 설계자는 무엇을 해야 합니까?
A.
Configure the Lambda function for deployment across multiple Availability Zones.
여러 가용 영역에 배포하기 위해 Lambda 함수를 구성합니다.
B.
Modify the Lambda function's configuration to increase the CPU and memory allocations for the function.
Lambda 함수의 구성을 수정하여 함수에 대한 CPU 및 메모리 할당을 늘립니다.
C.
Configure the SNS topic’s retry strategy to increase both the number of retries and the wait time between retries.
재시도 횟수와 재시도 간 대기 시간을 모두 늘리도록 SNS 주제의 재시도 전략을 구성합니다.
D.
Configure an Amazon Simple Queue Service (Amazon SQS) queue as the on-failure destination. Modify the Lambda function to process messages in the queue.
Amazon Simple Queue Service(Amazon SQS) 대기열을 장애 발생 대상으로 구성합니다. 대기열의 메시지를 처리하도록 Lambda 함수를 수정합니다.
⭕ 정답: D
📝 해설
Amazon Simple Queue Service (SQS) 대기열을 장애 발생 대상으로 구성하고, 대기열의 메시지를 처리하도록 Lambda 함수를 수정합니다. 이는 워크플로가 실패할 경우 데이터를 손실하지 않고 안전하게 저장하며, 나중에 대기열에서 처리할 수 있게 합니다. SQS는 내구성과 확장성이 뛰어나며, Lambda와 결합하여 신뢰성 높은 데이터 처리 워크플로를 구현할 수 있습니다.
오답 분석:
- A: Lambda 함수를 여러 가용 영역에 배포하는 것은 네트워크 문제를 해결하지 못합니다.
- B: CPU 및 메모리 할당을 늘리는 것은 네트워크 문제를 해결하지 못합니다.
- C: SNS의 재시도 전략을 구성하는 것은 네트워크 문제 해결에 충분하지 않을 수 있습니다.
✅ 문제 149
A company has a service that produces event data. The company wants to use AWS to process the event data as it is received. The data is written in a specific order that must be maintained throughout processing. The company wants to implement a solution that minimizes operational overhead.
How should a solutions architect accomplish this?
회사에 이벤트 데이터를 생성하는 서비스가 있습니다. 회사는 AWS를 사용하여 이벤트 데이터를 수신하는 대로 처리하려고 합니다. 데이터는 처리 전반에 걸쳐 유지되어야 하는 특정 순서로 작성됩니다. 회사는 운영 오버헤드를 최소화하는 솔루션을 구현하려고 합니다.
솔루션 설계자는 이를 어떻게 달성해야 합니까?
A.
Create an Amazon Simple Queue Service (Amazon SQS) FIFO queue to hold messages. Set up an AWS Lambda function to process messages from the queue.
메시지를 보관할 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 생성합니다. 대기열의 메시지를 처리하도록 AWS Lambda 함수를 설정합니다.
B.
Create an Amazon Simple Notification Service (Amazon SNS) topic to deliver notifications containing payloads to process. Configure an AWS Lambda function as a subscriber.
처리할 페이로드가 포함된 알림을 전달하기 위해 Amazon Simple Notification Service(Amazon SNS) 주제를 생성합니다. AWS Lambda 함수를 구독자로 구성합니다.
C.
Create an Amazon Simple Queue Service (Amazon SQS) standard queue to hold messages. Set up an AWS Lambda function to process messages from the queue independently.
메시지를 보관할 Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 생성합니다. 대기열의 메시지를 독립적으로 처리하도록 AWS Lambda 함수를 설정합니다.
D.
Create an Amazon Simple Notification Service (Amazon SNS) topic to deliver notifications containing payloads to process. Configure an Amazon Simple Queue Service (Amazon SQS) queue as a subscriber.
처리할 페이로드가 포함된 알림을 전달하기 위해 Amazon Simple Notification Service(Amazon SNS) 주제를 생성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 구독자로 구성합니다.
⭕ 정답: A
📝 해설
Amazon Simple Queue Service (SQS) FIFO 대기열을 생성하여 메시지를 보관하고, AWS Lambda 함수를 설정하여 대기열의 메시지를 처리합니다. FIFO 대기열은 메시지 순서를 보장하므로 데이터의 순서를 유지하면서 처리가 가능합니다. 이는 운영 오버헤드를 최소화하면서 데이터의 순서를 유지하는 데 효과적입니다.
오답 분석:
- B: SNS는 순서 보장을 제공하지 않습니다.
- C: SQS 표준 대기열은 순서 보장을 제공하지 않습니다.
- D: SNS와 SQS의 조합은 순서 보장에 적합하지 않습니다.
✅ 문제 150
A company is migrating an application from on-premises servers to Amazon EC2 instances. As part of the migration design requirements, a solutions architect must implement infrastructure metric alarms. The company does not need to take action if CPU utilization increases to more than 50% for a short burst of time. However, if the CPU utilization increases to more than 50% and read IOPS on the disk are high at the same time, the company needs to act as soon as possible. The solutions architect also must reduce false alarms.
What should the solutions architect do to meet these requirements?
회사는 온프레미스 서버에서 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션하고 있습니다. 마이그레이션 설계 요구 사항의 일부로 솔루션 설계자는 인프라 메트릭 경보를 구현해야 합니다. CPU 사용률이 단기간에 50% 이상으로 증가하는 경우 회사는 조치를 취할 필요가 없습니다. 하지만 CPU 사용률이 50% 이상으로 증가하고 디스크의 읽기 IOPS가 동시에 높다면 회사에서 최대한 빨리 조치를 취해야 합니다. 솔루션 설계자는 또한 오경보를 줄여야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Create Amazon CloudWatch composite alarms where possible.
가능한 경우 Amazon CloudWatch 복합 경보를 생성합니다.
B.
Create Amazon CloudWatch dashboards to visualize the metrics and react to issues quickly.
Amazon CloudWatch 대시보드를 생성하여 지표를 시각화하고 문제에 신속하게 대응합니다.
C.
Create Amazon CloudWatch Synthetics canaries to monitor the application and raise an alarm.
Amazon CloudWatch Synthetics 카나리아를 생성하여 애플리케이션을 모니터링하고 경보를 발생시킵니다.
D.
Create single Amazon CloudWatch metric alarms with multiple metric thresholds where possible.
가능한 경우 여러 지표 임계값으로 단일 Amazon CloudWatch 지표 경보를 생성합니다.
⭕ 정답: A
📝 해설
Amazon CloudWatch 복합 경보를 생성하여 CPU 사용률이 50% 이상이고 동시에 디스크의 읽기 IOPS가 높을 때만 경보를 발생시킵니다. 복합 경보는 여러 지표를 결합하여 보다 정확한 경보를 제공하고, 불필요한 오경보를 줄일 수 있습니다. 이를 통해 회사는 신속하고 정확하게 문제를 파악하고 대응할 수 있습니다.
오답 분석:
- B: 대시보드는 시각화에 유용하지만 자동 경보 및 대응에는 적합하지 않습니다.
- C: CloudWatch Synthetics 카나리아는 애플리케이션 모니터링에 적합하지만, 인프라 지표와는 관련이 없습니다.
- D: 단일 지표 경보는 여러 지표를 결합한 복합 경보보다 덜 정확할 수 있습니다.
✅ 문제 151
A company wants to migrate its on-premises data center to AWS. According to the company's compliance requirements, the company can use only the ap-northeast-3 Region. Company administrators are not permitted to connect VPCs to the internet. Which solutions will meet these requirements? (Choose two.)
회사에서 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 회사의 규정 준수 요구 사항에 따라 회사는 ap-northeast-3 지역만 사용할 수 있습니다. 회사 관리자는 VPC를 인터넷에 연결할 수 없습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)
A.
Use AWS Control Tower to implement data residency guardrails to deny internet access and deny access to all AWS Regions except ap-northeast-3.
AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하여 인터넷 액세스를 거부하고 ap-northeast-3를 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
B.
Use rules in AWS WAF to prevent internet access. Deny access to all AWS Regions except ap-northeast-3 in the AWS account settings.
AWS WAF의 규칙을 사용하여 인터넷 액세스를 방지합니다. AWS 계정 설정에서 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
C.
Use AWS Organizations to configure service control policies (SCPS) that prevent VPCs from gaining internet access. Deny access to all AWS Regions except ap-northeast-3.
AWS Organizations를 사용하여 VPC가 인터넷에 액세스하지 못하도록 하는 서비스 제어 정책(SCPS)을 구성합니다. ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
D.
Create an outbound rule for the network ACL in each VPC to deny all traffic from 0.0.0.0/0. Create an IAM policy for each user to prevent the use of any AWS Region other than ap-northeast-3.
각 VPC의 네트워크 ACL에 대한 아웃바운드 규칙을 생성하여 0.0.0.0/0의 모든 트래픽을 거부합니다. ap-northeast-3 이외의 AWS 리전을 사용하지 못하도록 각 사용자에 대한 IAM 정책을 생성합니다.
E.
Use AWS Config to activate managed rules to detect and alert for internet gateways and to detect and alert for new resources deployed outside of ap-northeast-3.
AWS Config를 사용하여 관리형 규칙을 활성화하여 인터넷 게이트웨이를 감지 및 경고하고 ap-northeast-3 외부에 배포된 새 리소스를 감지 및 경고합니다.
⭕ 정답: A, C
📝 해설
AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하면 ap-northeast-3 리전을 제외한 다른 모든 리전에 대한 접근을 제한하고, 인터넷 액세스를 차단할 수 있습니다. AWS Organizations를 통해 서비스 제어 정책(SCP)을 설정하여 VPC가 인터넷에 연결되지 않도록 하고, 지정된 리전 외의 리전에 대한 접근을 차단할 수 있습니다. 이 두 가지 방법을 통해 회사의 규정 준수 요구 사항을 충족할 수 있습니다.
오답 분석:
- B: AWS WAF는 주로 웹 애플리케이션 보안을 위한 것이며, VPC의 인터넷 액세스를 차단하는 데 적합하지 않습니다.
- D: 네트워크 ACL을 통해 아웃바운드 트래픽을 차단할 수 있지만, 모든 사용자에 대해 IAM 정책을 생성하는 것은 복잡하고 관리가 어렵습니다.
- E: AWS Config는 리소스를 모니터링하고 경고를 제공하지만, 직접적인 접근 차단 기능을 제공하지 않습니다.
✅ 문제 152
A company uses a three-tier web application to provide training to new employees. The application is accessed for only 12 hours every day. The company is using an Amazon RDS for MySQL DB instance to store information and wants to minimize costs.
What should a solutions architect do to meet these requirements?
회사에서 3계층 웹 응용 프로그램을 사용하여 신입 직원에게 교육을 제공합니다. 애플리케이션은 매일 12시간 동안만 액세스됩니다. 회사는 Amazon RDS for MySQL DB 인스턴스를 사용하여 정보를 저장하고 비용을 최소화하려고 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Configure an IAM policy for AWS Systems Manager Session Manager. Create an IAM role for the policy. Update the trust relationship of the role. Set up automatic start and stop for the DB instance.
AWS Systems Manager Session Manager에 대한 IAM 정책을 구성합니다. 정책에 대한 IAM 역할을 생성합니다. 역할의 신뢰 관계를 업데이트하십시오. DB 인스턴스에 대한 자동 시작 및 중지를 설정합니다.
B.
Create an Amazon ElastiCache for Redis cache cluster that gives users the ability to access the data from the cache when the DB instance is stopped. Invalidate the cache after the DB instance is started.
DB 인스턴스가 중지될 때 사용자가 캐시의 데이터에 액세스할 수 있는 기능을 제공하는 Redis용 Amazon ElastiCache 캐시 클러스터를 생성합니다. DB 인스턴스가 시작된 후 캐시를 무효화합니다.
C.
Launch an Amazon EC2 instance. Create an IAM role that grants access to Amazon RDS. Attach the role to the EC2 instance. Configure a cron job to start and stop the EC2 instance on the desired schedule.
Amazon EC2 인스턴스를 시작합니다. Amazon RDS에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. 역할을 EC2 인스턴스에 연결합니다. 원하는 일정에 따라 EC2 인스턴스를 시작 및 중지하도록 크론 작업을 구성합니다.
D.
Create AWS Lambda functions to start and stop the DB instance. Create Amazon EventBridge (Amazon CloudWatch Events) scheduled rules to invoke the Lambda functions. Configure the Lambda functions as event targets for the rules.
AWS Lambda 함수를 생성하여 DB 인스턴스를 시작 및 중지합니다. Amazon EventBridge(Amazon CloudWatch Events) 예약 규칙을 생성하여 Lambda 함수를 호출합니다. 규칙에 대한 이벤트 대상으로 Lambda 함수를 구성합니다.
⭕ 정답: D
📝 해설
AWS Lambda 함수를 생성하여 DB 인스턴스를 시작 및 중지하고, Amazon EventBridge(Amazon CloudWatch Events) 예약 규칙을 생성하여 Lambda 함수를 호출합니다. 이를 통해 데이터베이스 인스턴스를 필요할 때만 실행하여 비용을 절감할 수 있습니다. Lambda와 EventBridge를 사용하면 자동화된 방식으로 비용 절감을 실현할 수 있습니다.
오답 분석:
- A: IAM 정책과 역할을 설정하는 것은 복잡하며, 자동화된 시작/중지 기능을 직접 제공하지 않습니다.
- B: ElastiCache를 사용하면 캐싱이 가능하지만, DB 인스턴스를 완전히 중지하는 데 도움이 되지 않습니다.
- C: EC2 인스턴스를 사용하여 스케줄링하는 것은 Lambda를 사용하는 것보다 비용 효율성이 낮을 수 있습니다.
✅ 문제 153
A company sells ringtones created from clips of popular songs. The files containing the ringtones are stored in Amazon S3 Standard and are at least 128 KB in size. The company has millions of files, but downloads are infrequent for ringtones older than 90 days. The company needs to save money on storage while keeping the most accessed files readily available for its users.
Which action should the company take to meet these requirements MOST cost-effectively?
회사에서 인기 있는 노래 클립으로 만든 벨소리를 판매합니다. 벨소리가 포함된 파일은 Amazon S3 Standard에 저장되며 크기는 최소 128KB입니다. 이 회사에는 수백만 개의 파일이 있지만 90일보다 오래된 벨소리의 경우 다운로드가 드뭅니다. 회사는 가장 많이 액세스하는 파일을 사용자가 쉽게 사용할 수 있도록 유지하면서 스토리지 비용을 절약해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하기 위해 회사는 어떤 조치를 취해야 합니까?
A.
Configure S3 Standard-Infrequent Access (S3 Standard-IA) storage for the initial storage tier of the objects.
객체의 초기 스토리지 계층에 대해 S3 Standard-Infrequent Access(S3 Standard-IA) 스토리지를 구성합니다.
B.
Move the files to S3 Intelligent-Tiering and configure it to move objects to a less expensive storage tier after 90 days.
파일을 S3 Intelligent-Tiering으로 이동하고 90일 후에 객체를 더 저렴한 스토리지 계층으로 이동하도록 구성합니다.
C.
Configure S3 inventory to manage objects and move them to S3 Standard-Infrequent Access (S3 Standard-1A) after 90 days.
객체를 관리하도록 S3 인벤토리를 구성하고 90일 후에 객체를 S3 Standard-Infrequent Access(S3 Standard-1A)로 이동합니다.
D.
Implement an S3 Lifecycle policy that moves the objects from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-1A) after 90 days.
90일 후에 객체를 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-1A)로 이동하는 S3 수명 주기 정책을 구현합니다.
⭕ 정답: D
📝 해설
S3 수명 주기 정책을 사용하여 객체를 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 90일 후에 이동하는 것은 가장 비용 효율적인 솔루션입니다. S3 Standard-IA는 자주 액세스되지 않는 데이터를 저장하는 데 적합하며, 비용을 절감할 수 있습니다. 이는 저장 비용을 줄이면서도 자주 액세스되는 데이터를 빠르게 제공할 수 있는 방법입니다.
오답 분석:
- A: 처음부터 S3 Standard-IA를 사용하는 것은 자주 액세스되는 데이터를 저장하는 데 비효율적입니다.
- B: S3 Intelligent-Tiering은 비용 절감 효과가 낮을 수 있습니다.
- C: S3 인벤토리를 사용하여 객체를 관리하는 것은 수명 주기 정책보다 복잡할 수 있습니다.
✅ 문제 154
A company needs to save the results from a medical trial to an Amazon S3 repository. The repository must allow a few scientists to add new files and must restrict all other users to read-only access. No users can have the ability to modify or delete any files in the repository. The company must keep every file in the repository for a minimum of 1 year after its creation date.
Which solution will meet these requirements?
회사는 의료 시험의 결과를 Amazon S3 리포지토리에 저장해야 합니다. 리포지토리는 일부 과학자가 새 파일을 추가할 수 있도록 허용해야 하고 다른 모든 사용자는 읽기 전용 액세스로 제한해야 합니다. 어떤 사용자도 저장소의 파일을 수정하거나 삭제할 수 없습니다. 회사는 모든 파일을 생성일로부터 최소 1년 동안 저장소에 보관해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use S3 Object Lock in governance mode with a legal hold of 1 year.
거버넌스 모드에서 1년의 법적 보유 기간으로 S3 Object Lock을 사용하십시오.
B.
Use S3 Object Lock in compliance mode with a retention period of 365 days.
보존 기간이 365일인 규정 준수 모드에서 S3 Object Lock을 사용합니다.
C.
Use an IAM role to restrict all users from deleting or changing objects in the S3 bucket. Use an S3 bucket policy to only allow the IAM role.
IAM 역할을 사용하여 모든 사용자가 S3 버킷의 객체를 삭제하거나 변경하지 못하도록 제한합니다. S3 버킷 정책을 사용하여 IAM 역할만 허용합니다.
D.
Configure the S3 bucket to invoke an AWS Lambda function every time an object is added. Configure the function to track the hash of the saved object so that modified objects can be marked accordingly.
객체가 추가될 때마다 AWS Lambda 함수를 호출하도록 S3 버킷을 구성합니다. 수정된 개체가 그에 따라 표시될 수 있도록 저장된 개체의 해시를 추적하는 기능을 구성합니다.
⭕ 정답: B
📝 해설
S3 Object Lock을 규정 준수 모드로 설정하고 보존 기간을 365일로 지정합니다. 이는 모든 파일을 최소 1년 동안 변경하거나 삭제하지 못하도록 보장합니다. 규정 준수 모드는 누구도 파일을 변경하거나 삭제할 수 없도록 엄격하게 적용되므로, 데이터의 무결성을 유지할 수 있습니다.
오답 분석:
- A: 거버넌스 모드는 관리자에 의해 해제가 가능하므로 보안 요구 사항을 완전히 충족하지 못할 수 있습니다.
- C: IAM 역할과 버킷 정책만으로는 데이터 보존 요구 사항을 완전히 충족하지 못할 수 있습니다.
- D: Lambda 함수를 사용하여 파일의 해시를 추적하는 것은 복잡하고, 데이터 보존 요구 사항을 완전히 충족하지 못할 수 있습니다.
✅ 문제 155
A large media company hosts a web application on AWS. The company wants to start caching confidential media files so that users around the world will have reliable access to the files. The content is stored in Amazon S3 buckets. The company must deliver the content quickly, regardless of where the requests originate geographically.
Which solution will meet these requirements?
대규모 미디어 회사는 AWS에서 웹 애플리케이션을 호스팅합니다. 이 회사는 전 세계 사용자가 파일에 안정적으로 액세스할 수 있도록 기밀 미디어 파일 캐싱을 시작하려고 합니다. 콘텐츠는 Amazon S3 버킷에 저장됩니다. 회사는 요청의 지리적 위치에 관계없이 콘텐츠를 신속하게 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Use AWS DataSync to connect the S3 buckets to the web application.
AWS DataSync를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다.
B.
Deploy AWS Global Accelerator to connect the S3 buckets to the web application.
AWS Global Accelerator를 배포하여 S3 버킷을 웹 애플리케이션에 연결합니다.
C.
Deploy Amazon CloudFront to connect the S3 buckets to CloudFront edge servers.
Amazon CloudFront를 배포하여 S3 버킷을 CloudFront 엣지 서버에 연결합니다.
D.
Use Amazon Simple Queue Service (Amazon SQS) to connect the S3 buckets to the web application.
Amazon Simple Queue Service(Amazon SQS)를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다.
⭕ 정답: C
📝 해설
Amazon CloudFront를 사용하여 S3 버킷의 콘텐츠를 CloudFront 엣지 서버에 연결합니다. CloudFront는 전 세계적으로 분산된 엣지 로케이션을 통해 콘텐츠를 캐시하고 제공하여 지리적 위치에 관계없이 빠른 콘텐츠 제공을 보장합니다. 이는 사용자가 기밀 미디어 파일에 빠르게 접근할 수 있도록 합니다.
오답 분석:
- A: DataSync는 주로 데이터 동기화 및 전송을 위한 것이며, 전 세계적인 콘텐츠 캐싱에는 적합하지 않습니다.
- B: Global Accelerator는 전 세계적인 네트워크 성능을 향상시키지만, 콘텐츠 캐싱 기능은 제공하지 않습니다.
- D: SQS는 메시지 큐 서비스로, 콘텐츠 캐싱 및 빠른 콘텐츠 제공에는 적합하지 않습니다.
✅ 문제 156
A company produces batch data that comes from different databases. The company also produces live stream data from network sensors and application APIs. The company needs to consolidate all the data into one place for business analytics. The company needs to process the incoming data and then stage the data in different Amazon S3 buckets. Teams will later run one-time queries and import the data into a business intelligence tool to show key performance indicators (KPIs).
Which combination of steps will meet these requirements with the LEAST operational overhead? (Choose two.)
회사는 다른 데이터베이스에서 가져온 배치 데이터를 생성합니다. 이 회사는 또한 네트워크 센서 및 애플리케이션 API에서 라이브 스트림 데이터를 생성합니다. 회사는 비즈니스 분석을 위해 모든 데이터를 한 곳으로 통합해야 합니다. 회사는 수신 데이터를 처리한 다음 다른 Amazon S3 버킷에 데이터를 준비해야 합니다. 팀은 나중에 일회성 쿼리를 실행하고 데이터를 비즈니스 인텔리전스 도구로 가져와 핵심 성과 지표(KPI)를 표시합니다.
가장 적은 운영 오버헤드로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)
A.
Use Amazon Athena for one-time queries. Use Amazon QuickSight to create dashboards for KPIs.
일회성 쿼리에는 Amazon Athena를 사용하십시오. Amazon QuickSight를 사용하여 KPI용 대시보드를 생성합니다.
B.
Use Amazon Kinesis Data Analytics for one-time queries. Use Amazon QuickSight to create dashboards for KPIs.
일회성 쿼리에 Amazon Kinesis Data Analytics를 사용합니다. Amazon QuickSight를 사용하여 KPI용 대시보드를 생성합니다.
C.
Create custom AWS Lambda functions to move the individual records from the databases to an Amazon Redshift cluster.
개별 레코드를 데이터베이스에서 Amazon Redshift 클러스터로 이동하는 사용자 지정 AWS Lambda 함수를 생성합니다.
D.
Use an AWS Glue extract, transform, and load (ETL) job to convert the data into JSON format. Load the data into multiple Amazon OpenSearch Service (Amazon Elasticsearch Service) clusters.
AWS Glue 추출, 변환 및 로드(ETL) 작업을 사용하여 데이터를 JSON 형식으로 변환합니다. 여러 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 데이터를 로드합니다.
E.
Use blueprints in AWS Lake Formation to identify the data that can be ingested into a data lake. Use AWS Glue to crawl the source, extract the data, and load the data into Amazon S3 in Apache Parquet format.
AWS Lake Formation의 블루 프린트를 사용하여 데이터 레이크에 수집할 수 있는 데이터를 식별합니다. AWS Glue를 사용하여 소스를 크롤링하고, 데이터를 추출하고, 데이터를 Apache Parquet 형식으로 Amazon S3에 로드합니다.
* 블루 프린트 : 데이터 레이크에 데이터를 손쉽게 입수할 수 있도록 도와주는 데이터 관리 템플릿.
⭕ 정답: A, E
📝 해설
Amazon Athena를 사용하여 일회성 쿼리를 실행하고, Amazon QuickSight를 사용하여 KPI 대시보드를 생성합니다. Athena는 서버리스 쿼리 서비스로 S3에 저장된 데이터를 SQL로 분석할 수 있습니다. AWS Lake Formation의 블루프린트를 사용하여 데이터 레이크에 수집할 수 있는 데이터를 식별하고, AWS Glue를 사용하여 소스를 크롤링하고 데이터를 추출하여 Apache Parquet 형식으로 Amazon S3에 로드합니다. 이는 운영 오버헤드를 최소화하면서 데이터 통합 및 분석을 효율적으로 수행할 수 있는 방법입니다.
오답 분석:
- B: Kinesis Data Analytics는 실시간 데이터 스트리밍 분석에 적합하며, 일회성 쿼리에는 적합하지 않습니다.
- C: 사용자 지정 Lambda 함수를 생성하여 데이터를 이동하는 것은 복잡성과 운영 오버헤드를 증가시킵니다.
- D: OpenSearch Service는 로그 분석 및 검색에 적합하며, 이 시나리오에는 적합하지 않습니다.
✅ 문제 157
A company stores data in an Amazon Aurora PostgreSQL DB cluster. The company must store all the data for 5 years and must delete all the data after 5 years. The company also must indefinitely keep audit logs of actions that are performed within the database. Currently, the company has automated backups configured for Aurora. Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)
A사는 Amazon Aurora Postgre SQL DB 클러스터에 데이터를 저장합니다. 회사는 5년 동안 모든 데이터를 저장하고 5년 후에는 모든 데이터를 삭제해야 합니다. 회사는 또한 데이터베이스 내에서 수행되는 작업의 감사 로그를 무기한으로 보관해야 합니다. 현재 이 회사는 Aurora용으로 자동 백업을 구성하고 있습니다.
이러한 요구사항을 충족하기 위해 솔루션 설계자가 취해야 할 단계의 조합은 무엇입니까? (두 개를 선택하십시오.)
A.
Take a manual snapshot of the DB cluster.
DB 클러스터의 수동 스냅샷을 생성합니다.
B.
Create a lifecycle policy for the automated backups.
자동 백업에 대한 수명 주기 정책을 생성합니다.
C.
Configure automated backup retention for 5 years.
5년 동안 자동 백업 보존을 구성합니다.
D.
Configure an Amazon CloudWatch Logs export for the DB cluster.
DB 클러스터에 대한 Amazon CloudWatch 로그 내보내기를 구성합니다.
E.
Use AWS Backup to take the backups and to keep the backups for 5 years.
AWS Backup을 사용하여 백업을 수행하고 5년 동안 백업을 보관합니다.
⭕ 정답: D, E
📝 해설
Amazon CloudWatch Logs 내보내기를 구성하여 DB 클러스터의 감사 로그를 무기한으로 보관합니다. AWS Backup을 사용하여 백업을 수행하고 5년 동안 백업을 보관합니다. AWS Backup은 백업 정책을 설정하여 데이터를 지정된 기간 동안 보관할 수 있도록 관리합니다. 이는 데이터 보존 요구 사항을 충족하면서도 자동화된 방식으로 운영 오버헤드를 줄이는 방법입니다.
오답 분석:
- A: 수동 스냅샷은 자동화되지 않으며, 5년 동안 데이터 보존을 보장하지 않습니다.
- B: 자동 백업에 대한 수명 주기 정책은 AWS Backup을 사용하는 것보다 유연성이 낮습니다.
- C: 자동 백업 보존 기간을 5년으로 설정하는 것은 AWS Backup을 사용하는 것보다 효율적이지 않을 수 있습니다.
✅ 문제 158
A solutions architect is optimizing a website for an upcoming musical event. Videos of the performances will be streamed in real time and then will be available on demand. The event is expected to attract a global online audience. Which service will improve the performance of both the real-time and on-demand streaming?
한 솔루션 설계자가 다가오는 음악 이벤트를 위해 웹 사이트를 최적화하고 있습니다. 공연의 비디오는 실시간으로 스트리밍될 것이고 그 후에 필요에 따라 이용할 수 있을 것입니다. 이 행사는 전 세계 온라인 관객들을 끌어들일 것으로 기대됩니다. 실시간 스트리밍과 주문형 스트리밍의 성능을 모두 향상시키는 서비스는 무엇입니까?
A. Amazon CloudFront
B. AWS Global Accelerator
C. Amazon Route 53
D. Amazon S3 Transfer Acceleration
⭕ 정답: A
📝 해설
Amazon CloudFront는 전 세계에 분산된 엣지 로케이션을 통해 실시간 스트리밍 및 주문형 스트리밍의 성능을 모두 향상시킬 수 있습니다. CloudFront는 콘텐츠 전송 네트워크(CDN)로, 사용자와 가까운 위치에서 콘텐츠를 제공하여 대기 시간을 최소화합니다. 이는 글로벌 온라인 관객에게 최적의 스트리밍 경험을 제공합니다.
오답 분석:
- B: AWS Global Accelerator는 네트워크 성능을 최적화하지만, 실시간 및 주문형 스트리밍에는 CloudFront가 더 적합합니다.
- C: Route 53은 DNS 라우팅 서비스로, 콘텐츠 전송을 최적화하는 데 적합하지 않습니다.
- D: S3 Transfer Acceleration은 S3에 데이터를 업로드하는 데 적합하지만, 스트리밍 성능 향상에는 적합하지 않습니다.
✅ 문제 159
A company is running a publicly accessible serverless application that uses Amazon API Gateway and AWS Lambda. The application’s traffic recently spiked due to fraudulent requests from botnets.
Which steps should a solutions architect take to block requests from unauthorized users? (Choose two.)
A사는 Amazon API Gateway와 AWS Lambda를 사용하는 공개적으로 액세스할 수 있는 서버리스 애플리케이션을 실행하고 있습니다. 그 애플리케이션의 트래픽은 최근 봇넷의 부정한 요청으로 인해 급증했습니다.
인증되지 않은 사용자의 요청을 차단하기 위해 솔루션 설계자가 취해야 할 단계는 무엇입니까? (두 개를 선택하십시오.)
A.
Create a usage plan with an API key that is shared with genuine users only.
정품 사용자와만 공유하는 API 키로 사용 계획을 작성합니다.
B.
Integrate logic within the Lambda function to ignore the requests from fraudulent IP addresses.
람다 함수 내에 논리를 통합하여 부정한 IP 주소의 요청을 무시합니다.
C.
Implement an AWS WAF rule to target malicious requests and trigger actions to filter them out.
AWS WAF 규칙을 구현하여 악의적인 요청을 대상으로 하고 작업을 트리거하여 해당 요청을 필터링합니다.
D.
Convert the existing public API to a private API. Update the DNS records to redirect users to the new API endpoint.
기존 공용 API를 개인 API로 변환합니다. DNS 레코드를 업데이트하여 사용자를 새 API 끝점으로 리디렉션합니다.
E.
Create an IAM role for each user attempting to access the API. A user will assume the role when making the API call.
API에 액세스하려는 각 사용자에 대해 IAM 역할을 만듭니다. 사용자는 API 호출을 할 때 그 역할을 맡을 것입니다.
⭕ 정답: A, C
📝 해설
정품 사용자와만 공유하는 API 키로 사용 계획을 작성하고, AWS WAF 규칙을 구현하여 악의적인 요청을 필터링합니다. API 키를 사용하면 인증된 사용자만 API에 접근할 수 있게 하여 부정한 요청을 차단할 수 있습니다. AWS WAF는 웹 애플리케이션 방화벽으로, 악의적인 트래픽을 식별하고 차단하여 보안을 강화합니다.
오답 분석:
- B: Lambda 함수 내에서 부정한 요청을 무시하는 것은 비효율적이며, 시스템 자원을 낭비할 수 있습니다.
- D: 공용 API를 개인 API로 변환하는 것은 접근성을 크게 제한할 수 있습니다.
- E: 각 사용자에 대해 IAM 역할을 생성하는 것은 관리 오버헤드가 증가할 수 있습니다.
✅ 문제 160
An ecommerce company hosts its analytics application in the AWS Cloud. The application generates about 300 MB of data each month. The data is stored in JSON format. The company is evaluating a disaster recovery solution to back up the data. The data must be accessible in milliseconds if it is needed, and the data must be kept for 30 days. Which solution meets these requirements MOST cost-effectively?
한 전자상거래 회사는 AWS 클라우드에서 분석 애플리케이션을 호스팅합니다. 그 애플리케이션은 매달 약 300MB의 데이터를 생성한다. 데이터는 JSON 형식으로 저장됩니다. 이 회사는 데이터를 백업하기 위해 재해 복구 솔루션을 평가하고 있습니다. 데이터는 필요한 경우 밀리초 이내에 액세스할 수 있어야 하며, 30일 동안 데이터를 보관해야 합니다.
이러한 요구사항을 가장 경제적으로 충족하는 솔루션은 무엇입니까?
A. Amazon OpenSearch Service (Amazon Elasticsearch Service)
B. Amazon S3 Glacier
C. Amazon S3 Standard
D. Amazon RDS for PostgreSQL
⭕ 정답: C
📝 해설
Amazon S3 Standard는 데이터를 밀리초 이내에 접근할 수 있으며, 30일 동안 데이터를 보관하는 데 적합합니다. JSON 형식의 데이터를 저장하는 데 비용 효율적이며, 필요할 때 빠르게 접근할 수 있는 장점을 제공합니다.
오답 분석:
- A: OpenSearch Service는 주로 검색 및 분석을 위한 서비스로, 이 시나리오에는 적합하지 않습니다.
- B: S3 Glacier는 데이터 접근 속도가 느려 실시간 접근이 필요한 경우 적합하지 않습니다.
- D: RDS는 관계형 데이터베이스로, 이 시나리오에 비해 과도한 비용이 들 수 있습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (181 - 200) (0) | 2024.05.23 |
---|---|
[AWS SAA-C03] Examtopics Dump (161 - 180) (1) | 2024.05.23 |
[AWS SAA-C03] Examtopics Dump (121 - 140) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (101 - 120) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (81 - 100) (3) | 2024.05.22 |