✅ 문제 21
An ecommerce company wants to launch a one-deal-a-day website on AWS. Each day will feature exactly one product on sale for a period of 24 hours. The company wants to be able to handle millions of requests each hour with millisecond latency during peak hours.
Which solution will meet these requirements with the LEAST operational overhead?
전자 상거래 회사는 AWS에서 하루 1회 웹 사이트를 시작하려고 합니다. 매일 24시간 동안 정확히 하나의 제품을 판매합니다. 회사는 피크 시간 동안 밀리초 지연 시간으로 시간당 수백만 개의 요청을 처리할 수 있기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Use Amazon S3 to host the full website in different S3 buckets. Add Amazon CloudFront distributions. Set the S3 buckets as origins for the distributions. Store the order data in Amazon S3.
Amazon S3를 사용하여 다른 S3 버킷에 전체 웹 사이트를 호스팅합니다. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포의 오리진으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
B.
Deploy the full website on Amazon EC2 instances that run in Auto Scaling groups across multiple Availability Zones. Add an Application Load Balancer (ALB) to distribute the website traffic. Add another ALB for the backend APIs. Store the data in Amazon RDS for MySQL.
여러 가용 영역의 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. ALB(Application Load Balancer)를 추가하여 웹 사이트 트래픽을 분산합니다. 백엔드 API에 대해 다른 ALB를 추가하십시오. MySQL용 Amazon RDS에 데이터를 저장합니다.
C.
Migrate the full application to run in containers. Host the containers on Amazon Elastic Kubernetes Service (Amazon EKS). Use the Kubernetes Cluster Autoscaler to increase and decrease the number of pods to process bursts in traffic. Store the data in Amazon RDS for MySQL.
컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes 클러스터 자동 확장 처리를 사용하여 트래픽 버스트를 처리할 포드 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
D.
Use an Amazon S3 bucket to host the website's static content. Deploy an Amazon CloudFront distribution. Set the S3 bucket as the origin. Use Amazon API Gateway and AWS Lambda functions for the backend APIs. Store the data in Amazon DynamoDB.
Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 오리진으로 설정합니다. 백엔드 API에 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다. Amazon DynamoDB에 데이터를 저장합니다.
⭕ 정답: D
📝 해설
📍 Amazon CloudFront
AWS의 콘텐츠 전송 네트워크(CDN) 서비스입니다. CloudFront는 전 세계에 분산된 엣지 로케이션을 통해 데이터를 캐싱하고, 사용자에게 더 가까운 위치에서 콘텐츠를 제공함으로써 지연 시간을 최소화합니다. 이를 통해 빠르고 안정적인 콘텐츠 전송을 보장하며, 다음과 같은 기능을 제공합니다.
- 저지연 및 고성능: 사용자와 가까운 엣지 로케이션에서 콘텐츠를 제공하여 로드 시간을 단축합니다.
- 보안: AWS Shield, AWS WAF와 통합하여 DDoS 공격 방어 및 애플리케이션 계층 보안을 강화합니다.
- 통합: Amazon S3, EC2, Elastic Load Balancing과 쉽게 통합되어 원활한 운영이 가능합니다.
✅ 문제 22
A solutions architect is using Amazon S3 to design the storage architecture of a new digital media application. The media files must be resilient to the loss of an Availability Zone. Some files are accessed frequently while other files are rarely accessed in an unpredictable pattern. The solutions architect must minimize the costs of storing and retrieving the media files.
Which storage option meets these requirements?
솔루션 설계자는 Amazon S3를 사용하여 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계하고 있습니다. 미디어 파일은 가용 영역 손실에 대한 복원력이 있어야 합니다. 일부 파일은 자주 액세스되는 반면 다른 파일은 예측할 수 없는 패턴으로 거의 액세스되지 않습니다. 솔루션 설계자는 미디어 파일을 저장하고 검색하는 비용을 최소화해야 합니다.
이러한 요구 사항을 충족하는 스토리지 옵션은 무엇입니까?
A. S3 Standard
B.S3 Intelligent-Tiering
C.S3 Standard-Infrequent Access (S3 Standard-IA)
D.S3 One Zone-Infrequent Access (S3 One Zone-IA)
⭕ 정답: B
📝 해설
📍 Amazon S3 데이터 보호
미션 크리티컬 및 기본 데이터 스토리지에 적합하게 설계된, 내구성이 뛰어난 스토리지 인프라를 제공한다.
S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive는 AWS 리전의 최소 3개 가용 영역에 걸쳐 여러 디바이스에 객체를 중복 저장한다.
📍 S3 Standard
자주 접근하는 데이터를 저장하는 데 적합한 저장 클래스입니다. 높은 가용성과 성능을 제공하며, 다양한 애플리케이션 시나리오에 사용될 수 있습니다.
- 사용 사례: 자주 접근하거나 실시간으로 처리해야 하는 데이터, 모바일 및 웹 애플리케이션, 빅 데이터 분석.
- 특징: 높은 내구성과 가용성(99.99%), 지연 시간이 짧고 빠른 데이터 접근 속도.
📍 S3 Intelligent-Tiering
데이터 접근 패턴이 변동되는 데이터를 자동으로 두 개의 액세스 티어(Standard 및 Infrequent Access)로 이동시켜 비용을 절감할 수 있도록 설계되었습니다.
- 사용 사례: 접근 패턴을 예측할 수 없는 데이터, 저장 비용을 최적화하려는 경우.
- 특징: 자동 계층화로 액세스 패턴에 따라 데이터를 이동, 액세스 빈도에 따른 추가 비용 없음, 소액의 월간 모니터링 및 자동화 비용 발생.
📍 S3 Standard-Infrequent Access (S3 Standard-IA)
자주 접근하지 않지만 필요할 때 빠르게 접근해야 하는 데이터를 위한 저렴한 저장 클래스입니다.
- 사용 사례: 자주 접근하지 않는 데이터, 장기 보관하지만 즉시 접근이 필요한 데이터.
- 특징: 낮은 저장 비용, 높은 내구성과 가용성, 데이터 접근 시 추가 비용 발생.
📍 S3 One Zone-Infrequent Access (S3 One Zone-IA)
단일 가용 영역에 데이터를 저장하며, 자주 접근하지 않는 데이터를 위한 저렴한 옵션입니다. S3 Standard-IA와 유사하지만 데이터가 한 개의 가용 영역에만 저장됩니다.
- 사용 사례: 재해 복구 데이터, 복제 가능한 데이터, 단일 AZ에서 데이터 손실에 민감하지 않은 데이터.
- 특징: 가장 저렴한 비용, 낮은 저장 비용, 단일 가용 영역 내에서의 데이터 저장, 데이터 접근 시 추가 비용 발생.
✅ 문제 23
A company is storing backup files by using Amazon S3 Standard storage. The files are accessed frequently for 1 month. However, the files are not accessed after 1 month. The company must keep the files indefinitely.
Which storage solution will meet these requirements MOST cost-effectively?
회사에서 Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장하고 있습니다. 1개월 동안 파일에 자주 액세스합니다. 단, 1개월 이후에는 파일에 접근하지 않습니다. 회사는 파일을 무기한 보관해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까?
A.
Configure S3 Intelligent-Tiering to automatically migrate objects.
객체를 자동으로 마이그레이션하도록 S3 Intelligent-Tiering을 구성합니다.
B.
Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Glacier Deep Archive after 1 month.
S3 수명 주기 구성을 생성하여 1개월 후에 S3 Standard에서 S3 Glacier Deep Archive로 객체를 전환합니다.
C.
Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) after 1 month.
S3 수명 주기 구성을 생성하여 1개월 후에 객체를 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
D.
Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) after 1 month.
S3 수명 주기 구성을 생성하여 1개월 후에 객체를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다.
⭕ 정답: B
📝 해설
📍 S3 Glacier Deep Archive
장기적으로 자주 접근되지 않는 데이터를 무기한 보관하는 데 가장 비용 효율적인 저장 클래스이며, 데이터를 장기간 저장하기 위한 가장 비용 효율적인 옵션을 제공합니다. 이 스토리지 클래스는 매우 낮은 비용으로 데이터를 저장하며, 주로 접근 빈도가 매우 낮은 데이터를 대상으로 합니다. S3 Glacier Deep Archive는 회계 기록, 과학 데이터, 오래된 미디어 콘텐츠 등 접근이 필요하지 않거나 매우 드문 데이터를 위한 이상적인 솔루션입니다. 데이터는 몇 시간 내에 복구할 수 있으며, 이는 재해 복구 및 컴플라이언스 요구 사항을 충족하는 데 도움이 됩니다. 이 스토리지 클래스는 데이터를 보존하고, 장기적으로 비용을 절감하며, 필요할 때 안전하게 데이터에 접근할 수 있도록 설계되었습니다.
✅ 문제 24
A company observes an increase in Amazon EC2 costs in its most recent bill. The billing team notices unwanted vertical scaling of instance types for a couple of EC2 instances. A solutions architect needs to create a graph comparing the last 2 months of EC2 costs and perform an in-depth analysis to identify the root cause of the vertical scaling.
How should the solutions architect generate the information with the LEAST operational overhead?
회사는 가장 최근 청구서에서 Amazon EC2 비용 증가를 관찰했습니다. 청구 팀은 몇 개의 EC2 인스턴스에 대한 인스턴스 유형의 원치 않는 수직적 확장을 발견했습니다. 솔루션 설계자는 지난 2개월간의 EC2 비용을 비교하는 그래프를 생성하고 심층 분석을 수행하여 수직적 확장의 근본 원인을 식별해야 합니다.
솔루션 설계자는 운영 오버헤드가 가장 적은 정보를 어떻게 생성해야 합니까?
A.
Use AWS Budgets to create a budget report and compare EC2 costs based on instance types.
AWS 예산을 사용하여 예산 보고서를 생성하고 인스턴스 유형에 따라 EC2 비용을 비교합니다.
B.
Use Cost Explorer's granular filtering feature to perform an in-depth analysis of EC2 costs based on instance types.
Cost Explorer의 세분화된 필터링 기능을 사용하여 인스턴스 유형을 기반으로 EC2 비용에 대한 심층 분석을 수행합니다.
C.
Use graphs from the AWS Billing and Cost Management dashboard to compare EC2 costs based on instance types for the last 2 months.
AWS Billing and Cost Management 대시보드의 그래프를 사용하여 지난 2개월 동안의 인스턴스 유형을 기준으로 EC2 비용을 비교합니다.
D.
Use AWS Cost and Usage Reports to create a report and send it to an Amazon S3 bucket. Use Amazon QuickSight with Amazon S3 as a source to generate an interactive graph based on instance types.
AWS 비용 및 사용 보고서를 사용하여 보고서를 생성하고 Amazon S3 버킷으로 보냅니다. Amazon S3와 함께 Amazon QuickSight를 소스로 사용하여 인스턴스 유형을 기반으로 대화형 그래프를 생성합니다.
⭕ 정답: B
📝 해설
📍 AWS Cost Explorer
AWS 비용과 사용량을 분석하고 시각화하는 도구입니다. Cost Explorer를 사용하면 다음과 같은 기능을 활용하여 운영 오버헤드를 최소화하면서 문제를 해결할 수 있습니다:
- 세분화된 필터링: 인스턴스 유형, 서비스, 리전 등 다양한 기준으로 비용을 필터링할 수 있습니다.
- 시각화: 비용 변동을 그래프로 시각화하여 쉽게 이해할 수 있습니다.
- 트렌드 분석: 특정 기간 동안의 비용 변화를 분석하고, 이상 비용 발생 원인을 파악할 수 있습니다.
Cost Explorer는 사용하기 쉽고 AWS 콘솔에서 바로 접근할 수 있어 추가적인 설정이나 구성이 필요 없으므로, 운영 오버헤드를 최소화할 수 있습니다.
📍 AWS Billing and Cost Management Dashboard
- 설명: AWS Billing and Cost Management 대시보드는 AWS 계정의 청구 및 비용 정보를 제공하며, 간단한 비용 그래프와 보고서를 생성할 수 있습니다.
- 사용 사례: 전반적인 비용 개요 확인, 청구서 검토.
📍 AWS Cost and Usage Reports (CUR) & Amazon QuickSight
- 설명: CUR는 AWS 리소스 사용량과 비용에 대한 자세한 보고서를 제공합니다. Amazon S3에 저장된 CUR 데이터를 QuickSight를 통해 시각화할 수 있습니다.
- 사용 사례: 복잡한 비용 분석, 사용자 정의 보고서 생성, 대화형 데이터 시각화.
✅ 문제 25
A company is designing an application. The application uses an AWS Lambda function to receive information through Amazon API Gateway and to store the information in an Amazon Aurora PostgreSQL database.
During the proof-of-concept stage, the company has to increase the Lambda quotas significantly to handle the high volumes of data that the company needs to load into the database. A solutions architect must recommend a new design to improve scalability and minimize the configuration effort.
Which solution will meet these requirements?
회사에서 응용 프로그램을 설계하고 있습니다. 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway를 통해 정보를 수신하고 Amazon Aurora PostgreSQL 데이터베이스에 정보를 저장합니다.
개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 대용량 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 설계자는 확장성을 개선하고 구성 노력을 최소화하기 위해 새로운 설계를 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Refactor the Lambda function code to Apache Tomcat code that runs on Amazon EC2 instances. Connect the database by using native Java Database Connectivity (JDBC) drivers.
Lambda 함수 코드를 Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 *리팩터링합니다. 네이티브 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
* 리팩토링 : 이미 작성한 소스코드에서 구현된 일련의 행위들을 변경없이, 코드의 가독성과 유지보수성을 높이기 위해 내부구조를 변경하는 것.
B.
Change the platform from Aurora to Amazon DynamoDProvision a DynamoDB Accelerator (DAX) cluster. Use the DAX client SDK to point the existing DynamoDB API calls at the DAX cluster.
플랫폼을 Aurora에서 Amazon DynamoDProvision a DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
C.
Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information into the database. Integrate the Lambda functions by using Amazon Simple Notification Service (Amazon SNS).
두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
D.
Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information into the database. Integrate the Lambda functions by using an Amazon Simple Queue Service (Amazon SQS) queue.
두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다.
⭕ 정답: D
📝 해설
두 개의 Lambda 함수를 사용하고, Amazon SQS를 통해 이들을 통합하는 것은 확장성을 개선하고 구성 노력을 최소화하는 데 도움이 됩니다.
- Lambda 함수 분리: 하나의 함수는 정보를 수신하고, 다른 함수는 데이터를 데이터베이스에 로드합니다. 이렇게 하면 각 함수가 독립적으로 확장할 수 있습니다.
- SQS 사용: SQS 대기열을 사용하여 두 함수 간의 비동기 통신을 구현합니다. 이는 높은 트래픽에도 안정적으로 처리할 수 있도록 도와줍니다.
- 구성 노력 최소화: SQS와 Lambda는 모두 관리형 서비스로, 별도의 서버 관리 없이 쉽게 설정할 수 있습니다.
이 접근 방식은 데이터 수신과 처리를 분리하여 각 프로세스의 확장성을 높이고, 시스템의 안정성을 개선할 수 있습니다. 또한, SQS는 메시지의 내구성을 보장하여 데이터 손실을 방지합니다.
✅ 문제 26
A company needs to review its AWS Cloud deployment to ensure that its Amazon S3 buckets do not have unauthorized configuration changes.
What should a solutions architect do to accomplish this goal?
회사는 AWS 클라우드 배포를 검토하여 Amazon S3 버킷에 무단 구성 변경이 없는지 확인해야 합니다.
솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까?
A.
Turn on AWS Config with the appropriate rules.
적절한 규칙으로 AWS Config를 켭니다.
B.
Turn on AWS Trusted Advisor with the appropriate checks.
적절한 검사를 통해 AWS Trusted Advisor를 켭니다.
C.
Turn on Amazon Inspector with the appropriate assessment template.
적절한 평가 템플릿으로 Amazon Inspector를 켭니다.
D.
Turn on Amazon S3 server access logging. Configure Amazon EventBridge (Amazon Cloud Watch Events).
Amazon S3 서버 액세스 로깅을 켭니다. Amazon EventBridge(Amazon Cloud Watch Events)를 구성합니다.
⭕ 정답: A
📝 해설
📍 AWS Config
AWS 리소스의 구성 상태를 평가, 감사, 평가할 수 있게 하는 서비스입니다. AWS Config를 사용하면 리소스의 구성을 지속적으로 모니터링하고 변경 사항을 기록하며, 규칙을 설정하여 리소스가 규정 준수 상태를 유지하도록 할 수 있습니다. 이를 통해 S3 버킷의 무단 구성 변경을 탐지하고 알림을 받을 수 있습니다.
- 구성 변경 기록: S3 버킷의 모든 구성 변경 사항을 자동으로 기록하고, 변경 이력을 유지합니다.
- 규칙 설정: 특정 규칙을 설정하여 S3 버킷의 구성 변경이 규정에 맞는지 평가합니다.
- 알림: 무단 변경이 발생하면 SNS, CloudWatch Alarms 등을 통해 알림을 받을 수 있습니다.
다른 옵션과 비교했을 때, AWS Config는 S3 버킷의 구성을 지속적으로 모니터링하고 변경 사항을 추적하는 데 가장 적합한 도구입니다.
✅ 문제 27
A company is launching a new application and will display application metrics on an Amazon CloudWatch dashboard. The company's product manager needs to access this dashboard periodically. The product manager does not have an AWS account. A solutions architect must provide access to the product manager by following the principle of least privilege.
Which solution will meet these requirements?
회사에서 새 애플리케이션을 시작하고 Amazon CloudWatch 대시보드에 애플리케이션 지표를 표시합니다. 회사의 제품 관리자는 이 대시보드에 주기적으로 액세스해야 합니다. 제품 관리자에게 AWS 계정이 없습니다. 솔루션 설계자는 최소 권한 원칙에 따라 제품 관리자에 대한 액세스를 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Share the dashboard from the CloudWatch console. Enter the product manager's email address, and complete the sharing steps. Provide a shareable link for the dashboard to the product manager.
CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료합니다. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공하십시오.
B.
Create an IAM user specifically for the product manager. Attach the CloudWatchReadOnlyAccess AWS managed policy to the user. Share the new login credentials with the product manager. Share the browser URL of the correct dashboard with the product manager.
특히 제품 관리자를 위한 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하십시오.
C.
Create an IAM user for the company's employees. Attach the ViewOnlyAccess AWS managed policy to the IAM user. Share the new login credentials with the product manager. Ask the product manager to navigate to the CloudWatch console and locate the dashboard by name in the Dashboards section.
회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청합니다.
D.
Deploy a bastion server in a public subnet. When the product manager requires access to the dashboard, start the server and share the RDP credentials. On the bastion server, ensure that the browser is configured to open the dashboard URL with cached AWS credentials that have appropriate permissions to view the dashboard.
퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유합니다. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명으로 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.
⭕ 정답: A
📝 해설
CloudWatch 대시보드 공유 기능을 사용하면 AWS 계정이 없는 사용자와도 대시보드를 공유할 수 있습니다. 이는 최소 권한 원칙에 따라 필요한 권한만을 부여하는 데 도움이 됩니다.
- 대시보드 공유: CloudWatch 대시보드를 공유 설정하여 특정 이메일 주소와 링크를 통해 접근 권한을 부여할 수 있습니다.
- 제한된 접근: 제품 관리자는 공유된 대시보드만 접근할 수 있으며, AWS 계정이 없기 때문에 다른 리소스에 대한 접근 권한이 없습니다.
이 방법은 최소 권한 원칙을 준수하면서 제품 관리자에게 필요한 대시보드 접근 권한을 제공하는 데 가장 적합합니다.
✅ 문제 28
A company is migrating applications to AWS. The applications are deployed in different accounts. The company manages the accounts centrally by using AWS Organizations. The company's security team needs a single sign-on (SSO) solution across all the company's accounts. The company must continue managing the users and groups in its on-premises self-managed Microsoft Active Directory.
Which solution will meet these requirements?
회사에서 애플리케이션을 AWS로 마이그레이션하고 있습니다. 응용 프로그램은 다른 계정에 배포됩니다. 회사는 AWS Organizations를 사용하여 중앙에서 계정을 관리합니다. 회사의 보안 팀은 회사의 모든 계정에 SSO(Single Sign-On) 솔루션이 필요합니다. 회사는 사내 자체 관리 Microsoft Active Directory에서 사용자 및 그룹을 계속 관리해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a one-way forest trust or a one-way domain trust to connect the company's self-managed Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.
AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. 단방향 포리스트 트러스트 또는 단방향 도메인 트러스트를 생성하여 Microsoft Active Directory용 AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결합니다.
B.
Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a two-way forest trust to connect the company's self-managed Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.
AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory용 AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결하는 양방향 포리스트 트러스트를 생성합니다.
C.
Use AWS Directory Service. Create a two-way trust relationship with the company's self-managed Microsoft Active Directory.
AWS 디렉터리 서비스를 사용합니다. 회사의 자체 관리 Microsoft Active Directory와 양방향 신뢰 관계를 만드십시오.
D.
Deploy an identity provider (IdP) on premises. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console.
온프레미스에 ID 공급자(IdP)를 배포합니다. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다.
⭕ 정답: A
📝 해설
📍 AWS SSO
AWS Single Sign-On (AWS SSO)는 AWS 계정과 여러 클라우드 애플리케이션에 대한 중앙 집중식 액세스를 제공하는 서비스입니다. AWS SSO를 통해 사용자는 하나의 로그인으로 여러 AWS 계정과 애플리케이션에 접근할 수 있습니다. AWS SSO는 Microsoft Active Directory(AD)와 통합되어 기존의 사용자와 그룹 관리를 온프레미스에서 계속할 수 있도록 지원합니다.
- AWS SSO 활성화:
- AWS 관리 콘솔에서 AWS SSO를 활성화합니다. AWS SSO는 여러 AWS 계정 및 클라우드 애플리케이션에 대한 중앙 집중식 액세스를 제공합니다.
- AWS Directory Service for Microsoft Active Directory 설정:
- AWS Directory Service for Microsoft Active Directory(일명 AWS Managed Microsoft AD)를 설정합니다. 이는 AWS 클라우드에서 호스팅되는 관리형 Active Directory로, 온프레미스 AD와 원활하게 통합될 수 있습니다.
- 단방향 트러스트 설정:
- AWS Managed Microsoft AD와 온프레미스 AD 간에 단방향 트러스트를 설정합니다. 단방향 트러스트는 AWS Managed Microsoft AD가 온프레미스 AD의 사용자 및 그룹 정보를 신뢰할 수 있게 합니다.
- 이를 통해 온프레미스 AD에서 관리하는 사용자 및 그룹이 AWS SSO를 통해 AWS 리소스에 접근할 수 있습니다.
- AWS SSO와 AD 통합:
- AWS SSO 콘솔에서 ‘AWS SSO 설정’을 선택한 후, 디렉터리로 AWS Managed Microsoft AD를 선택합니다.
- 온프레미스 AD와의 트러스트 관계가 설정된 AWS Managed Microsoft AD를 사용하여 SSO를 구성합니다.
- AWS SSO는 온프레미스 AD의 사용자 및 그룹 정보를 동기화하여 관리합니다.
- 사용자 및 그룹 접근 권한 설정:
- AWS SSO에서 온프레미스 AD의 사용자와 그룹에 대한 접근 권한을 설정합니다. 이 설정은 사용자 및 그룹이 접근할 수 있는 AWS 계정과 애플리케이션을 정의합니다.
- 최소 권한 원칙을 준수하여 사용자에게 필요한 접근 권한만 부여합니다.
✅ 문제 29
A company provides a Voice over Internet Protocol (VoIP) service that uses UDP connections. The service consists of Amazon EC2 instances that run in an Auto Scaling group. The company has deployments across multiple AWS Regions.
The company needs to route users to the Region with the lowest latency. The company also needs automated failover between Regions.
Which solution will meet these requirements?
회사는 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 회사는 여러 AWS 리전에 배포하고 있습니다.
회사는 지연 시간이 가장 짧은 리전으로 사용자를 라우팅해야 합니다. 이 회사는 또한 지역 간 자동 장애 조치가 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Use the NLB as an AWS Global Accelerator endpoint in each Region.
NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
B.
Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group. Use the ALB as an AWS Global Accelerator endpoint in each Region.
ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
C.
Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Create an Amazon Route 53 latency record that points to aliases for each NLB. Create an Amazon CloudFront distribution that uses the latency record as an origin.
NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
D.
Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group. Create an Amazon Route 53 weighted record that points to aliases for each ALB. Deploy an Amazon CloudFront distribution that uses the weighted record as an origin.
ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 레코드를 생성합니다. 가중 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.
⭕ 정답: A
📝 해설
📍 AWS Global Accelerator
세계적으로 최적의 경로를 통해 트래픽을 라우팅하여 지연 시간을 줄이는 데 도움이 됩니다. 또한, 자동으로 리전에 장애가 발생할 경우 트래픽을 다른 리전으로 전환할 수 있습니다. 이 솔루션은 다음과 같은 이유로 요구 사항을 충족합니다:
- 최소 지연 시간: AWS Global Accelerator는 전 세계의 여러 AWS 리전에 배포된 애플리케이션에 대해 전송 경로를 최적화하여 지연 시간을 줄입니다.
- 자동 장애 조치: 특정 리전의 장애 발생 시 자동으로 트래픽을 다른 리전으로 라우팅하여 고가용성을 보장합니다.
- UDP 지원: NLB는 UDP 트래픽을 지원하므로 VoIP 서비스에 적합합니다.
- 고성능: NLB와 Global Accelerator의 조합을 통해 높은 성능과 신뢰성을 제공합니다.
📍 NLB와 ALB의 차이점
Network Load Balancer (NLB)와 Application Load Balancer (ALB)는 AWS에서 제공하는 두 가지 주요 로드 밸런서 유형으로, 각기 다른 요구 사항과 사용 사례에 맞게 설계되었습니다. 여기서는 NLB와 ALB의 주요 차이점에 대해 설명합니다.
1. 프로토콜 지원
- NLB:
- Layer 4 (전송 계층) 로드 밸런서로, TCP, UDP 및 TLS(Transport Layer Security) 프로토콜을 지원합니다.
- 클라이언트와 서버 간의 직접적인 연결을 제공합니다.
- 초당 수백만 요청을 처리할 수 있으며, 매우 낮은 지연 시간을 보장합니다.
- 주로 실시간 데이터 스트리밍, VoIP 애플리케이션, 게임 서버 등과 같은 고성능 및 저지연이 중요한 애플리케이션에 사용됩니다.
- ALB:
- Layer 7 (애플리케이션 계층) 로드 밸런서로, HTTP, HTTPS 및 WebSocket 프로토콜을 지원합니다.
- 애플리케이션 수준에서 트래픽을 라우팅하고, URL 기반 라우팅, 호스트 기반 라우팅, HTTP 헤더 기반 라우팅 등의 기능을 제공합니다.
- 주로 웹 애플리케이션, 마이크로서비스 아키텍처, RESTful API 등을 처리하는 데 사용됩니다.
2. 라우팅 기능
- NLB:
- 단순하고 빠른 트래픽 전달을 목적으로 합니다.
- 정적 IP 주소를 제공하며, Elastic IP와 통합할 수 있습니다.
- 고정된 포트에서 작동하며, 특정 IP와 포트로 트래픽을 분산합니다.
- SSL/TLS 종료를 지원하여 트래픽 암호화를 처리할 수 있습니다.
- ALB:
- 다양한 라우팅 기능을 제공합니다. 예를 들어, URL 경로 기반 라우팅, 호스트 기반 라우팅, HTTP 헤더 및 메서드 기반 라우팅 등이 있습니다.
- 각기 다른 대상 그룹(Target Groups)을 설정하여 트래픽을 다양한 백엔드 서비스로 분배할 수 있습니다.
- SSL/TLS 종료 및 HTTPS 리디렉션 기능을 지원합니다.
- Web Application Firewall(WAF)와 통합하여 애플리케이션 보안을 강화할 수 있습니다.
3. 성능 및 확장성
- NLB:
- 매우 높은 성능과 확장성을 제공합니다.
- 초당 수백만 요청을 처리할 수 있으며, 지연 시간이 매우 낮습니다.
- 자동으로 트래픽 패턴에 맞게 확장할 수 있습니다.
- 주로 높은 네트워크 성능과 대규모 트래픽 처리가 필요한 경우에 적합합니다.
- ALB:
- 애플리케이션 계층에서의 복잡한 라우팅 및 처리 기능을 제공합니다.
- 트래픽 패턴에 따라 자동으로 확장 및 축소할 수 있습니다.
- 다양한 라우팅 규칙을 통해 복잡한 애플리케이션 트래픽 관리가 가능합니다.
4. 사용 사례
- NLB:
- 실시간 데이터 스트리밍 애플리케이션
- VoIP 서비스
- 게임 서버
- 고성능 및 저지연이 요구되는 애플리케이션
- ALB:
- 웹 애플리케이션 및 웹사이트
- 마이크로서비스 아키텍처
- RESTful API
- HTTP/HTTPS 기반 트래픽 관리가 필요한 애플리케이션
✅ 문제 30
A development team runs monthly resource-intensive tests on its general purpose Amazon RDS for MySQL DB instance with Performance Insights enabled. The testing lasts for 48 hours once a month and is the only process that uses the database. The team wants to reduce the cost of running the tests without reducing the compute and memory attributes of the DB instance.
Which solution meets these requirements MOST cost-effectively?
개발 팀은 성능 개선 도우미가 활성화된 MySQL DB 인스턴스용 범용 Amazon RDS에서 매월 리소스 집약적 테스트를 실행합니다. 테스트는 한 달에 한 번 48시간 동안 지속되며 데이터베이스를 사용하는 유일한 프로세스입니다. 팀은 DB 인스턴스의 컴퓨팅 및 메모리 속성을 줄이지 않고 테스트 실행 비용을 줄이려고 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Stop the DB instance when tests are completed. Restart the DB instance when required.
테스트가 완료되면 DB 인스턴스를 중지합니다. 필요한 경우 DB 인스턴스를 다시 시작합니다.
B.
Use an Auto Scaling policy with the DB instance to automatically scale when tests are completed.
DB 인스턴스와 함께 Auto Scaling 정책을 사용하여 테스트가 완료되면 자동으로 확장합니다.
C.
Create a snapshot when tests are completed. Terminate the DB instance and restore the snapshot when required.
테스트가 완료되면 스냅샷을 만듭니다. DB 인스턴스를 종료하고 필요한 경우 스냅샷을 복원합니다.
D.
Modify the DB instance to a low-capacity instance when tests are completed. Modify the DB instance again when required.
테스트가 완료되면 DB 인스턴스를 저용량 인스턴스로 수정합니다. 필요한 경우 DB 인스턴스를 다시 수정합니다.
⭕ 정답: C
📝 해설
스냅샷 생성 및 인스턴스 종료는 테스트가 완료되었을 때 DB 인스턴스를 종료하고 스냅샷을 생성하여 비용을 절감하는 방법입니다. 테스트가 필요할 때 스냅샷에서 인스턴스를 복원하여 필요한 컴퓨팅 및 메모리 속성을 유지할 수 있습니다. 이 방법은 다음과 같은 이유로 비용 효율적입니다:
- 비용 절감: 사용하지 않을 때 인스턴스를 종료함으로써 비용을 절감할 수 있습니다.
- 데이터 보존: 스냅샷을 통해 데이터가 안전하게 보존됩니다.
- 빠른 복원: 스냅샷에서 인스턴스를 복원하는 데 시간이 많이 걸리지 않으므로 테스트가 필요할 때 신속하게 사용할 수 있습니다.
✅ 문제 31
A company that hosts its web application on AWS wants to ensure all Amazon EC2 instances. Amazon RDS DB instances. and Amazon Redshift clusters are configured with tags. The company wants to minimize the effort of configuring and operating this check.
What should a solutions architect do to accomplish this?
AWS에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스를 보장하기를 원합니다. Amazon RDS DB 인스턴스, Amazon Redshift 클러스터는 태그로 구성됩니다. 회사는 이 검사를 구성하고 운영하는 노력을 최소화하기를 원합니다.
솔루션 설계자는 이를 달성하기 위해 무엇을 해야 합니까?
A.
Use AWS Config rules to define and detect resources that are not properly tagged.
AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지합니다.
B.
Use Cost Explorer to display resources that are not properly tagged. Tag those resources manually.
비용 탐색기를 사용하여 제대로 태그가 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정합니다.
C.
Write API calls to check all resources for proper tag allocation. Periodically run the code on an EC2 instance.
적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 주기적으로 코드를 실행합니다.
D.
Write API calls to check all resources for proper tag allocation. Schedule an AWS Lambda function through Amazon CloudWatch to periodically run the code.
적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다.
⭕ 정답: A
📝 해설
📍 AWS Config
AWS 리소스의 구성을 지속적으로 평가, 감사 및 기록하는 서비스로, 특정 구성 규칙을 설정하여 리소스가 준수해야 할 정책을 정의할 수 있습니다. 이를 통해 리소스에 적절한 태그가 적용되었는지 모니터링하고, 규칙 위반 시 알림을 받을 수 있습니다.
- 구성 규칙 설정: 특정 태그를 요구하는 규칙을 설정하여 모든 리소스가 해당 태그를 가지도록 강제할 수 있습니다.
- 자동 검출: 규칙을 통해 태그가 누락된 리소스를 자동으로 감지하고, 필요한 경우 수정 작업을 수행할 수 있습니다.
- 운영 오버헤드 최소화: AWS Config는 자동으로 리소스 상태를 모니터링하고 보고서를 제공하므로, 수동 검사가 필요 없습니다.
이 방법은 회사가 최소한의 노력으로 리소스 태그를 관리하고, 모든 리소스가 적절하게 태그 지정되도록 보장하는 데 가장 효과적입니다.
✅ 문제 32
A development team needs to host a website that will be accessed by other teams. The website contents consist of HTML, CSS, client-side JavaScript, and images.
Which method is the MOST cost-effective for hosting the website?
개발 팀은 다른 팀이 액세스할 웹사이트를 호스팅해야 합니다. 웹사이트 콘텐츠는 HTML, CSS, 클라이언트 측 JavaScript 및 이미지로 구성됩니다.
웹 사이트 호스팅에 가장 비용 효율적인 방법은 무엇입니까?
A.
Containerize the website and host it in AWS Fargate.
웹 사이트를 컨테이너화하고 AWS Fargate에서 호스팅합니다.
B.
Create an Amazon S3 bucket and host the website there.
Amazon S3 버킷을 생성하고 거기에서 웹 사이트를 호스팅합니다.
C.
Deploy a web server on an Amazon EC2 instance to host the website.
Amazon EC2 인스턴스에 웹 서버를 배포하여 웹 사이트를 호스팅합니다.
D.
Configure an Application Load Balancer with an AWS Lambda target that uses the Express.js framework.
Express.js 프레임워크를 사용하는 AWS Lambda 대상으로 Application Load Balancer를 구성합니다.
⭕ 정답: B
📝 해설
Amazon S3는 정적 웹사이트 호스팅을 위한 매우 비용 효율적이고 간단한 솔루션입니다. S3 버킷에 HTML, CSS, JavaScript, 이미지 파일을 업로드하여 정적 웹사이트를 쉽게 호스팅할 수 있습니다. S3를 사용한 정적 웹사이트 호스팅은 다음과 같은 장점이 있습니다:
- 비용 효율성: S3는 사용한 만큼만 비용을 지불하는 방식으로 매우 저렴합니다. EC2 인스턴스나 Fargate와 같은 서버 기반 솔루션보다 비용이 훨씬 낮습니다.
- 간편한 설정: S3 버킷을 생성하고 파일을 업로드한 후, S3의 정적 웹 호스팅 기능을 활성화하면 웹사이트가 곧바로 서비스될 수 있습니다.
- 확장성: S3는 기본적으로 매우 높은 내구성과 확장성을 제공하므로, 트래픽이 급증하더라도 별도의 설정 없이 이를 처리할 수 있습니다.
- 관리 오버헤드 최소화: 서버를 관리할 필요가 없으므로, 운영 및 유지 보수에 대한 부담이 줄어듭니다.
✅ 문제 33
A company runs an online marketplace web application on AWS. The application serves hundreds of thousands of users during peak hours. The company needs a scalable, near-real-time solution to share the details of millions of financial transactions with several other internal applications. Transactions also need to be processed to remove sensitive data before being stored in a document database for low-latency retrieval.
What should a solutions architect recommend to meet these requirements?
회사는 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행합니다. 이 애플리케이션은 피크 시간에 수십만 명의 사용자에게 서비스를 제공합니다. 이 회사는 수백만 건의 금융 거래 세부 정보를 다른 여러 내부 애플리케이션과 공유할 수 있는 확장 가능한 거의 실시간 솔루션이 필요합니다. 또한 지연 시간이 짧은 검색을 위해 문서 데이터베이스에 저장하기 전에 민감한 데이터를 제거하기 위해 트랜잭션을 처리해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
A.
Store the transactions data into Amazon DynamoDB. Set up a rule in DynamoDB to remove sensitive data from every transaction upon write. Use DynamoDB Streams to share the transactions data with other applications.
트랜잭션 데이터를 Amazon DynamoDB에 저장합니다. 쓰기 시 모든 트랜잭션에서 민감한 데이터를 제거하도록 DynamoDB에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다.
B.
Stream the transactions data into Amazon Kinesis Data Firehose to store data in Amazon DynamoDB and Amazon S3. Use AWS Lambda integration with Kinesis Data Firehose to remove sensitive data. Other applications can consume the data stored in Amazon S3.
트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
C.
Stream the transactions data into Amazon Kinesis Data Streams. Use AWS Lambda integration to remove sensitive data from every transaction and then store the transactions data in Amazon DynamoDB. Other applications can consume the transactions data off the Kinesis data stream.
트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 민감한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림의 트랜잭션 데이터를 사용할 수 있습니다.
D.
Store the batched transactions data in Amazon S3 as files. Use AWS Lambda to process every file and remove sensitive data before updating the files in Amazon S3. The Lambda function then stores the data in Amazon DynamoDB. Other applications can consume transaction files stored in Amazon S3.
일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그러면 Lambda 함수가 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.
⭕ 정답: C
📝 해설
Amazon Kinesis Data Streams와 AWS Lambda의 조합은 거의 실시간 데이터 처리와 민감한 데이터 제거를 위한 확장 가능한 솔루션을 제공합니다:
- Kinesis Data Streams: 실시간으로 대량의 데이터를 스트리밍하여 처리할 수 있습니다. 이는 트랜잭션 데이터를 거의 실시간으로 스트리밍하여 처리하는 데 적합합니다.
- AWS Lambda: Kinesis 스트림에서 데이터를 가져와 민감한 데이터를 제거하는 데 사용됩니다. 서버를 관리할 필요 없이 코드 실행을 자동으로 확장할 수 있습니다.
- Amazon DynamoDB: 처리된 데이터를 저장하여 빠르고 저지연 검색을 제공합니다. DynamoDB는 NoSQL 데이터베이스로서, 대량의 데이터를 효율적으로 저장하고 검색할 수 있습니다.
이 솔루션은 실시간 데이터 처리와 안전한 데이터 저장을 모두 충족하며, 다른 애플리케이션은 Kinesis 스트림에서 데이터를 소비하거나 DynamoDB에서 직접 데이터를 조회할 수 있습니다.
✅ 문제 34
A company hosts its multi-tier applications on AWS. For compliance, governance, auditing, and security, the company must track configuration changes on its AWS resources and record a history of API calls made to these resources.
What should a solutions architect do to meet these requirements?
회사는 AWS에서 다중 계층 애플리케이션을 호스팅합니다. 규정 준수, 거버넌스, 감사 및 보안을 위해 회사는 AWS 리소스의 구성 변경 사항을 추적하고 이러한 리소스에 대한 API 호출 기록을 기록해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Use AWS CloudTrail to track configuration changes and AWS Config to record API calls.
AWS CloudTrail을 사용하여 구성 변경을 추적하고 AWS Config를 사용하여 API 호출을 기록하십시오.
B.
Use AWS Config to track configuration changes and AWS CloudTrail to record API calls.
AWS Config를 사용하여 구성 변경을 추적하고 AWS CloudTrail을 사용하여 API 호출을 기록합니다.
C.
Use AWS Config to track configuration changes and Amazon CloudWatch to record API calls.
AWS Config를 사용하여 구성 변경을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
D.
Use AWS CloudTrail to track configuration changes and Amazon CloudWatch to record API calls.
AWS CloudTrail을 사용하여 구성 변경을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
⭕ 정답: B
📝 해설
AWS Config와 AWS CloudTrail은 AWS 리소스의 구성 변경과 API 호출을 모니터링하고 기록하는 데 이상적인 도구입니다:
- AWS Config: AWS 리소스의 구성을 지속적으로 평가, 감사 및 기록합니다. 리소스의 구성 변경을 자동으로 기록하여 규정 준수를 보장할 수 있습니다.
- AWS CloudTrail: AWS 계정의 모든 API 호출을 기록하여 보안 분석, 변경 추적, 규정 준수를 지원합니다. 이는 누가 언제 어떤 API를 호출했는지에 대한 정보를 제공합니다.
이 조합은 리소스 구성 변경과 API 호출을 모두 추적하여 감사 및 규정 준수를 보장하는 데 효과적입니다.
✅ 문제 35
A company is preparing to launch a public-facing web application in the AWS Cloud. The architecture consists of Amazon EC2 instances within a VPC behind an Elastic Load Balancer (ELB). A third-party service is used for the DNS. The company's solutions architect must recommend a solution to detect and protect against large-scale DDoS attacks.
Which solution meets these requirements?
한 회사가 AWS 클라우드에서 공개 웹 애플리케이션 출시를 준비하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내 Amazon EC2 인스턴스로 구성됩니다. DNS에는 타사 서비스가 사용됩니다. 회사의 솔루션 설계자는 대규모 DDoS 공격을 감지하고 보호하기 위한 솔루션을 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Enable Amazon GuardDuty on the account.
계정에서 Amazon GuardDuty를 활성화합니다.
B.
Enable Amazon Inspector on the EC2 instances.
EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
C.
Enable AWS Shield and assign Amazon Route 53 to it.
AWS Shield를 활성화하고 여기에 Amazon Route 53을 할당합니다.
D.
Enable AWS Shield Advanced and assign the ELB to it.
AWS Shield Advanced를 활성화하고 ELB를 할당합니다.
⭕ 정답: D
📝 해설
📍 AWS Shield Advanced
AWS의 관리형 DDoS 방어 서비스로, 다음과 같은 이유로 대규모 DDoS 공격에 대한 강력한 보호를 제공합니다:
- 종합적인 보호: 네트워크 및 애플리케이션 계층에서 발생하는 DDoS 공격을 감지하고 완화합니다.
- 실시간 공격 탐지: 실시간 모니터링과 자동 완화 기능을 통해 공격을 신속히 탐지하고 대응합니다.
- 비용 보호: DDoS 공격으로 인한 예기치 않은 비용 증가를 방지하는 보호 기능을 제공합니다.
- 24/7 액세스: AWS DDoS Response Team(DRT)의 지원을 받아 공격 대응 및 복구를 도울 수 있습니다.
AWS Shield Advanced는 ELB와 같은 AWS 리소스에 쉽게 할당할 수 있으며, AWS 환경 내에서 강력한 DDoS 방어 솔루션을 제공합니다.
✅ 문제 36
A company is building an application in the AWS Cloud. The application will store data in Amazon S3 buckets in two AWS Regions. The company must use an AWS Key Management Service (AWS KMS) customer managed key to encrypt all data that is stored in the S3 buckets. The data in both S3 buckets must be encrypted and decrypted with the same KMS key. The data and the key must be stored in each of the two Regions.
Which solution will meet these requirements with the LEAST operational overhead?
회사는 AWS 클라우드에서 애플리케이션을 구축하고 있습니다. 애플리케이션은 두 AWS 리전의 Amazon S3 버킷에 데이터를 저장합니다. 회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키로 암호화 및 복호화해야 합니다. 데이터와 키는 두 지역 각각에 저장되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Create an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Configure replication between the S3 buckets.
각 리전에서 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
B.
Create a customer managed multi-Region KMS key. Create an S3 bucket in each Region. Configure replication between the S3 buckets. Configure the application to use the KMS key with client-side encryption.
고객 관리형 다중 리전 KMS 키를 생성합니다. 각 리전에서 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
C.
Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Configure replication between the S3 buckets.
각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
D.
Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with AWS KMS keys (SSE-KMS). Configure replication between the S3 buckets.
각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
⭕ 정답: B
📝 해설
📍 AWS KMS 다중 리전 키(Multi-Region Keys)
여러 리전에 걸쳐 데이터 암호화 및 복호화를 일관되게 수행할 수 있는 솔루션을 제공합니다.
- 고객 관리형 다중 리전 KMS 키 생성:
- AWS KMS를 사용하여 다중 리전 KMS 키를 생성합니다. 이 키는 여러 리전에 걸쳐 데이터 암호화 및 복호화를 동일한 키로 수행할 수 있게 해줍니다.
- S3 버킷 생성 및 복제 설정:
- 두 리전 각각에 S3 버킷을 생성합니다.
- S3 버킷 간의 복제를 설정하여 데이터를 두 리전에 자동으로 동기화합니다.
- 클라이언트 측 암호화 구성:
- 애플리케이션에서 클라이언트 측 암호화를 사용하여 데이터를 암호화한 후 S3 버킷에 저장합니다.
- 클라이언트 측 암호화는 데이터가 전송되기 전에 데이터를 암호화하고, 수신한 후에 데이터를 복호화하는 방식입니다.
- 이렇게 하면 동일한 KMS 키를 사용하여 두 리전에서 데이터를 암호화 및 복호화할 수 있습니다.
📍 AWS KMS(Key Management Service)
암호화 키를 생성하고 제어할 수 있는 AWS의 관리형 서비스입니다. 이 서비스를 사용하면 AWS 클라우드 내에서 데이터를 보호하기 위한 암호화 및 키 관리 작업을 손쉽게 수행할 수 있습니다. 주요 기능 및 특징은 다음과 같습니다.
- 키 생성 및 관리: AWS KMS를 통해 대칭 및 비대칭 키를 생성하고 관리할 수 있습니다. 대칭 키는 동일한 키로 암호화 및 복호화를 수행하며, 비대칭 키는 공개 키로 암호화하고 개인 키로 복호화하는 방식입니다.
- 키 사용 제어: IAM 정책을 통해 누가 어떤 키를 사용할 수 있는지 제어할 수 있습니다. 이를 통해 키에 대한 접근을 세밀하게 관리할 수 있습니다.
- 통합: AWS KMS는 Amazon S3, Amazon EBS, Amazon RDS, DynamoDB 등 다양한 AWS 서비스와 통합되어 사용됩니다. 이러한 통합을 통해 데이터를 쉽게 암호화하고 관리할 수 있습니다.
- 내구성 및 가용성: AWS KMS는 높은 내구성과 가용성을 제공하는 AWS의 인프라를 기반으로 하며, 안전하고 신뢰성 있는 키 관리를 보장합니다.
- 암호화 연산: AWS KMS는 클라이언트 애플리케이션을 대신하여 암호화 및 복호화 연산을 수행할 수 있습니다. 이를 통해 키의 노출을 최소화하고 보안을 강화할 수 있습니다.
📍 AWS KMS 종류
1. 고객 관리형 키 (Customer Managed Keys, CMKs) : 사용자가 직접 생성하고 관리하는 KMS 키로, AWS KMS의 다양한 기능을 통해 사용자 지정 설정을 적용할 수 있습니다.
- 고객 관리형 대칭 CMKs: 고객이 생성하고 관리하는 대칭 암호화 키입니다. 이 키는 암호화 및 복호화에 동일한 키를 사용합니다.
- 사용 사례: S3 버킷, EBS 볼륨, RDS 인스턴스 등에서 데이터 암호화.
- 특징: 키 정책을 통해 세부적으로 접근 제어 가능, 로테이션 설정 가능.
- 고객 관리형 비대칭 CMKs: 공개 키 암호화 방식으로, 공개 키와 개인 키 쌍을 포함합니다. 공개 키는 암호화에 사용되고, 개인 키는 복호화에 사용됩니다.
- 사용 사례: 디지털 서명, 데이터 암호화 등.
- 특징: RSA 및 ECC 알고리즘 지원, 키 페어 관리 가능.
2. AWS 관리형 키 (AWS Managed Keys, AMKs)
- AWS 서비스에서 관리하는 키로, 특정 AWS 서비스에 의해 자동으로 생성되고 관리됩니다.
- 사용 사례: S3, EBS, RDS 등 다양한 AWS 서비스에서 기본 암호화 옵션으로 사용.
- 특징: 고객이 키를 직접 관리하지 않으며, AWS가 키의 생명 주기를 관리합니다.
3. AWS 소유 키 (AWS Owned Keys)
- AWS가 소유하고 관리하는 키로, 여러 AWS 계정에서 사용될 수 있는 키입니다.
- 사용 사례: 특정 서비스에서 AWS가 내부적으로 사용하는 암호화 작업.
- 특징: 고객이 직접 접근하거나 관리할 수 없습니다.
4. 대칭 및 비대칭 키
- 대칭 키: 암호화 및 복호화에 동일한 키를 사용하는 방식.
- 사용 사례: 일반 데이터 암호화.
- 특징: 성능이 우수하고, 키 관리가 상대적으로 간단.
- 비대칭 키: 공개 키와 개인 키 쌍을 사용하는 방식.
- 사용 사례: 디지털 서명, 인증서 발급, 데이터 암호화 등.
- 특징: 보안 수준이 높고, 키 분배 문제를 해결.
5. 다중 리전 키 (Multi-Region Keys)
- 다중 리전 지원 CMKs: 여러 리전에 걸쳐 동일한 키를 사용할 수 있도록 설계된 키입니다.
- 사용 사례: 리전 간 데이터 복제 및 동기화.
- 특징: 여러 리전에서 키의 일관성을 유지하며 암호화 및 복호화를 수행할 수 있습니다.
✅ 문제 37
A company recently launched a variety of new workloads on Amazon EC2 instances in its AWS account. The company needs to create a strategy to access and administer the instances remotely and securely. The company needs to implement a repeatable process that works with native AWS services and follows the AWS Well-Architected Framework.
Which solution will meet these requirements with the LEAST operational overhead?
한 회사는 최근 AWS 계정의 Amazon EC2 인스턴스에서 다양한 새로운 워크로드를 출시했습니다. 회사는 인스턴스에 원격으로 안전하게 액세스하고 관리하는 전략을 수립해야 합니다. 회사는 기본 AWS 서비스와 함께 작동하고 AWS Well-Architected 프레임워크를 따르는 반복 가능한 프로세스를 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Use the EC2 serial console to directly access the terminal interface of each instance for administration.
EC2 직렬 콘솔을 사용하여 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스합니다.
B.
Attach the appropriate IAM role to each existing instance and new instance. Use AWS Systems Manager Session Manager to establish a remote SSH session.
각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS Systems Manager Session Manager를 사용하여 원격 SSH 세션을 설정합니다.
C.
Create an administrative SSH key pair. Load the public key into each EC2 instance. Deploy a *bastion host in a public subnet to provide a tunnel for administration of each instance.
관리 SSH 키 쌍을 만듭니다. 공개 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 *배스천 호스트를 배포하여 각 인스턴스의 관리를 위한 터널을 제공합니다.
D.
Establish an AWS Site-to-Site VPN connection. Instruct administrators to use their local on-premises machines to connect directly to the instances by using SSH keys across the VPN tunnel.
AWS Site-to-Site VPN 연결을 설정합니다. 관리자에게 로컬 온프레미스 머신을 사용하여 VPN 터널에서 SSH 키를 사용하여 인스턴스에 직접 연결하도록 지시합니다.
⭕ 정답: B
📝 해설
📍 AWS Systems Manager Session Manager
EC2 인스턴스에 대한 안전한 원격 액세스를 제공하는 서비스입니다.
- IAM 역할 연결:
- 각 EC2 인스턴스에 적절한 IAM 역할을 연결합니다. 이 역할에는 Systems Manager에 필요한 권한이 포함되어야 합니다.
- Session Manager 사용:
- Systems Manager Session Manager를 사용하여 인스턴스에 원격으로 접속합니다.
- SSH 키를 사용하지 않고도 안전한 세션을 설정할 수 있으며, 관리 오버헤드를 줄입니다.
- Session Manager는 AWS Identity and Access Management(IAM)과 통합되어 보안 및 감사 기능을 제공합니다.
이 방법은 AWS Well-Architected Framework를 따르는 반복 가능한 프로세스를 제공하며, 운영 오버헤드를 최소화하면서 안전하게 인스턴스를 관리할 수 있게 합니다.
✅ 문제 38
A company is hosting a static website on Amazon S3 and is using Amazon Route 53 for DNS. The website is experiencing increased demand from around the world. The company must decrease latency for users who access the website.
Which solution meets these requirements MOST cost-effectively?
회사는 Amazon S3에서 정적 웹 사이트를 호스팅하고 DNS에 Amazon Route 53을 사용하고 있습니다. 웹 사이트는 전 세계적으로 수요가 증가하고 있습니다. 회사는 웹 사이트에 액세스하는 사용자의 대기 시간을 줄여야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Replicate the S3 bucket that contains the website to all AWS Regions. Add Route 53 geolocation routing entries.
웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
B.
Provision accelerators in AWS Global Accelerator. Associate the supplied IP addresses with the S3 bucket. Edit the Route 53 entries to point to the IP addresses of the accelerators.
AWS Global Accelerator에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다.
C.
Add an Amazon CloudFront distribution in front of the S3 bucket. Edit the Route 53 entries to point to the CloudFront distribution.
S3 버킷 앞에 Amazon CloudFront 배포를 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다.
D.
Enable S3 Transfer Acceleration on the bucket. Edit the Route 53 entries to point to the new endpoint.
버킷에서 S3 Transfer Acceleration을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다.
⭕ 정답: C
📝 해설
📍 Amazon CloudFront
콘텐츠 전송 네트워크(CDN) 서비스로, 전 세계적으로 콘텐츠를 캐싱하여 사용자에게 더 가까운 위치에서 콘텐츠를 제공합니다.
- CloudFront 배포 추가:
- S3 버킷 앞에 CloudFront 배포를 설정합니다.
- CloudFront는 정적 콘텐츠를 엣지 로케이션에 캐싱하여 사용자에게 더 빠르게 제공할 수 있습니다.
- Route 53 항목 편집:
- Route 53에서 CloudFront 배포를 가리키도록 DNS 항목을 설정합니다.
- 이렇게 하면 사용자가 CloudFront를 통해 콘텐츠에 접근할 수 있습니다.
CloudFront는 글로벌 네트워크를 통해 콘텐츠를 캐싱하고 제공하므로, 전 세계적으로 사용자 대기 시간을 최소화하면서 비용 효율적인 솔루션을 제공합니다.
✅ 문제 39
A company maintains a searchable repository of items on its website. The data is stored in an Amazon RDS for MySQL database table that contains more than 10 million rows. The database has 2 TB of General Purpose SSD storage. There are millions of updates against this data every day through the company's website.
The company has noticed that some insert operations are taking 10 seconds or longer. The company has determined that the database storage performance is the problem.
Which solution addresses this performance issue?
회사는 웹 사이트에서 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 천만 개 이상의 행이 포함된 Amazon RDS for MySQL 데이터베이스 테이블에 저장됩니다. 데이터베이스에는 2TB의 범용 SSD 스토리지가 있습니다. 회사 웹 사이트를 통해 이 데이터에 대한 수백만 건의 업데이트가 매일 있습니다. 이 회사는 일부 삽입 작업이 10초 이상 걸리는 것을 확인했습니다. 회사는 데이터베이스 스토리지 성능이 문제라고 판단했습니다.
이 성능 문제를 해결하는 솔루션은 무엇입니까?
A.
Change the storage type to Provisioned IOPS SSD.
스토리지 유형을 프로비저닝된 IOPS SSD로 변경합니다.
B.
Change the DB instance to a memory optimized instance class.
DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다.
C.
Change the DB instance to a burstable performance instance class.
DB 인스턴스를 버스트 가능한 성능 인스턴스 클래스로 변경합니다.
D.
Enable Multi-AZ RDS read replicas with MySQL native asynchronous replication.
MySQL 기본 비동기 복제로 다중 AZ RDS 읽기 전용 복제본을 활성화합니다.
⭕ 정답: A
📝 해설
📍 Provisioned IOPS SSD
고성능 I/O 작업을 처리하도록 설계된 스토리지 유형입니다. 높은 IOPS(초당 입출력 작업 수)를 제공하여 데이터베이스 작업의 성능을 향상시킵니다. 특히, 빈번한 읽기/쓰기 작업이 많은 워크로드에 적합합니다.
📍 Amazon RDS 종류
1. 범용 SSD (General Purpose SSD, gp2)
- 성능: 일반적인 워크로드에 적합한 성능을 제공하며, 기본 IOPS(초당 입출력 작업 수)를 필요에 따라 자동으로 조정합니다.
- IOPS: 기본적으로 GB당 3 IOPS를 제공하며, 최대 16,000 IOPS까지 지원합니다.
- 용량: 20GB에서 64TB까지 확장할 수 있습니다.
- 사용 사례: 소규모 데이터베이스, 개발 및 테스트 환경, 트랜잭션이 적은 애플리케이션.
2. 프로비저닝된 IOPS SSD (Provisioned IOPS SSD, io1/io2)
- 성능: 고성능 워크로드에 적합한 스토리지로, IOPS를 사용자 정의하여 일관된 성능을 보장합니다.
- IOPS: 최대 256,000 IOPS까지 지원하며, IOPS와 스토리지 용량을 독립적으로 설정할 수 있습니다.
- 용량: io1은 20GB에서 16TB까지, io2는 4GB에서 64TB까지 지원합니다.
- 사용 사례: I/O 집약적인 애플리케이션, 대규모 데이터베이스, 성능에 민감한 OLTP(온라인 트랜잭션 처리) 워크로
- 일관된 고성능 제공.
- 높은 I/O 처리 능력으로 짧은 지연 시간 보장.
3. 마그네틱 스토리지 (Magnetic)
- 성능: 과거의 표준 스토리지로, 현재는 주로 레거시 시스템이나 저비용이 중요한 워크로드에 사용됩니다.
- IOPS: 상대적으로 낮은 IOPS를 제공.
- 용량: 20GB에서 3TB까지 확장 가능.
- 사용 사례: 데이터 백업, 아카이빙, I/O 요구 사항이 낮은 애플리케이션
- 저비용 스토리지 옵션
- 비용이 중요한 워크로드에 적합.
4. 범용 SSD (gp3)
- 성능: gp2와 유사하지만, 비용 대비 성능이 개선됨.
- IOPS: 3,000 IOPS 기본 제공, 최대 16,000 IOPS까지 확장 가능.
- 용량: 20GB에서 64TB까지 지원.
- 사용 사례: 중간 크기의 데이터베이스 워크로드, 웹 애플리케이션, 비즈니스 애플리케이션.
- gp2보다 비용 효율적.
- 유연한 성능 및 용량 확장.
5. 선택 가이드
- 범용 SSD (gp2/gp3): 일반적인 데이터베이스 워크로드와 비용 효율성을 고려한 경우 적합.
- 프로비저닝된 IOPS SSD (io1/io2): 높은 I/O 성능과 낮은 지연 시간이 중요한 고성능 애플리케이션에 적합.
- 마그네틱 스토리지: 비용을 최우선으로 고려하고, 성능 요구 사항이 낮은 경우 적합.
✅ 문제 40
A company has thousands of edge devices that collectively generate 1 TB of status alerts each day. Each alert is approximately 2 KB in size. A solutions architect needs to implement a solution to ingest and store the alerts for future analysis.
The company wants a highly available solution. However, the company needs to minimize costs and does not want to manage additional infrastructure. Additionally, the company wants to keep 14 days of data available for immediate analysis and archive any data older than 14 days.
What is the MOST operationally efficient solution that meets these requirements?
회사에는 매일 1TB의 상태 알림을 집합적으로 생성하는 수천 개의 에지 장치가 있습니다. 각 경고의 크기는 약 2KB입니다. 솔루션 설계자는 향후 분석을 위해 경고를 수집하고 저장하는 솔루션을 구현해야 합니다.
회사는 고가용성 솔루션을 원합니다. 그러나 회사는 비용을 최소화해야 하며 추가 인프라 관리를 원하지 않습니다. 또한 회사는 즉각적인 분석을 위해 14일 동안의 데이터를 유지하고 14일이 지난 데이터를 보관하기를 원합니다.
이러한 요구 사항을 충족하는 가장 운영 효율성이 높은 솔루션은 무엇입니까?
A.
Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the alerts to an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition data to Amazon S3 Glacier after 14 days.
Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon S3 버킷에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
B.
Launch Amazon EC2 instances across two Availability Zones and place them behind an Elastic Load Balancer to ingest the alerts. Create a script on the EC2 instances that will store the alerts in an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition data to Amazon S3 Glacier after 14 days.
두 가용 영역에서 Amazon EC2 인스턴스를 시작하고 Elastic Load Balancer 뒤에 배치하여 알림을 수집합니다. Amazon S3 버킷에 경고를 저장할 EC2 인스턴스에 대한 스크립트를 생성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
C.
Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the alerts to an Amazon OpenSearch Service (Amazon Elasticsearch Service) cluster. Set up the Amazon OpenSearch Service (Amazon Elasticsearch Service) cluster to take manual snapshots every day and delete data from the cluster that is older than 14 days.
Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터를 설정하여 매일 수동 스냅샷을 만들고 클러스터에서 14일이 지난 데이터를 삭제합니다.
D.
Create an Amazon Simple Queue Service (Amazon SQS) standard queue to ingest the alerts, and set the message retention period to 14 days. Configure consumers to poll the SQS queue, check the age of the message, and analyze the message data as needed. If the message is 14 days old, the consumer should copy the message to an Amazon S3 bucket and delete the message from the SQS queue.
Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 생성하여 알림을 수집하고 메시지 보존 기간을 14일로 설정합니다. SQS 대기열을 폴링하고, 메시지의 수명을 확인하고, 필요에 따라 메시지 데이터를 분석하도록 소비자를 구성합니다. 메시지가 14일이 지난 경우 소비자는 메시지를 Amazon S3 버킷에 복사하고 SQS 대기열에서 메시지를 삭제해야 합니다.
⭕ 정답: A
📝 해설
- Kinesis Data Firehose 설정:
- Kinesis Data Firehose 전송 스트림을 생성하여 에지 장치에서 생성된 알림을 수집합니다.
- Firehose는 데이터를 실시간으로 S3 버킷에 전달합니다.
- S3 수명 주기 구성:
- 14일 후 데이터를 S3 Glacier로 전환하도록 S3 수명 주기 정책을 설정합니다.
- 이렇게 하면 데이터를 비용 효율적으로 장기 보관할 수 있습니다.
이 솔루션은 고가용성과 비용 효율성을 동시에 제공하며, 추가 인프라 관리를 최소화할 수 있습니다.
📍 Amazon Kinesis Data Firehose
실시간 데이터를 손쉽게 수집, 변환 및 로드할 수 있는 완전 관리형 서비스입니다. 다양한 데이터 스트림을 실시간으로 수집하여 Amazon S3, Amazon Redshift, Amazon OpenSearch Service (이전의 Amazon Elasticsearch Service), Splunk와 같은 데이터 저장소로 전송할 수 있습니다. 다음은 Kinesis Data Firehose의 주요 기능과 작동 방식을 더 자세히 설명합니다.
- 실시간 데이터 수집:
- 데이터 스트림 수집: Firehose는 수백만 개의 데이터 레코드를 실시간으로 수집할 수 있습니다. 이는 IoT 센서 데이터, 애플리케이션 로그, 클릭스트림 데이터와 같은 다양한 소스에서 데이터를 수집하는 데 유용합니다.
- 무한 확장성: 데이터 수집량이 증가함에 따라 자동으로 확장되므로 데이터의 양에 관계없이 안정적인 데이터 수집이 가능합니다.
- 데이터 변환:
- 데이터 포맷 변환: AWS Lambda 함수를 사용하여 수집된 데이터를 JSON, CSV, Parquet 등의 형식으로 변환할 수 있습니다. 데이터 변환 작업은 Firehose 스트림 내에서 실시간으로 수행됩니다.
- 데이터 압축: 수집된 데이터를 gzip, ZIP, Snappy와 같은 형식으로 압축하여 저장 공간을 절약하고 전송 속도를 향상시킬 수 있습니다.
- 데이터 로드:
- Amazon S3: 수집된 데이터를 Amazon S3 버킷에 저장할 수 있습니다. S3 버킷에 데이터를 저장하면 다른 AWS 서비스와의 통합이 용이해집니다.
- Amazon Redshift: 데이터 웨어하우스로 데이터를 로드하여 분석 작업을 수행할 수 있습니다. Firehose는 자동으로 데이터를 Redshift로 로드하고, 데이터 로드 중단 시 자동으로 재시도합니다.
- Amazon OpenSearch Service: 실시간 로그 분석 및 검색을 위해 데이터를 OpenSearch 클러스터로 전송할 수 있습니다.
- Splunk: Firehose는 데이터를 Splunk로 전송하여 실시간 로그 분석 및 모니터링을 수행할 수 있습니다.
- 자동 배치:
- 배치 크기 및 시간 설정: Firehose는 데이터를 배치로 묶어 전송합니다. 사용자는 배치 크기와 배치 시간을 설정할 수 있으며, 이 설정은 전송 효율성을 최적화하는 데 도움이 됩니다.
- 모니터링 및 관리:
- Amazon CloudWatch 통합: Firehose 스트림의 상태를 모니터링하고, 데이터 전송 실패, 전송 지연 등의 문제를 감지할 수 있습니다.
- 자동 재시도: 데이터 전송이 실패하면 자동으로 재시도하여 데이터 손실을 최소화합니다.
- 사용사례
- 실시간 로그 및 이벤트 데이터 수집: 애플리케이션 로그, 시스템 로그, 클릭스트림 데이터와 같은 실시간 데이터를 수집하고 변환하여 Amazon S3나 OpenSearch Service로 전송하여 분석할 수 있습니다.
- 데이터 웨어하우징: 대규모 데이터 세트를 실시간으로 수집하고 변환하여 Amazon Redshift로 전송함으로써 데이터 웨어하우징 솔루션을 구축할 수 있습니다.
- 보안 및 모니터링: 실시간 보안 로그와 이벤트 데이터를 수집하여 Splunk로 전송함으로써 보안 모니터링과 분석을 수행할 수 있습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (61 - 80) (0) | 2024.05.22 |
---|---|
[AWS SAA-C03] Examtopics Dump (41 - 60) (0) | 2024.05.17 |
[AWS SAA-C03] Examtopics Dump (1 - 20) (1) | 2024.05.14 |
[AWS SAA-C03] EC2 기초 (0) | 2024.05.14 |
[AWS SAA-C03] IAM (0) | 2024.05.14 |
✅ 문제 21
An ecommerce company wants to launch a one-deal-a-day website on AWS. Each day will feature exactly one product on sale for a period of 24 hours. The company wants to be able to handle millions of requests each hour with millisecond latency during peak hours.
Which solution will meet these requirements with the LEAST operational overhead?
전자 상거래 회사는 AWS에서 하루 1회 웹 사이트를 시작하려고 합니다. 매일 24시간 동안 정확히 하나의 제품을 판매합니다. 회사는 피크 시간 동안 밀리초 지연 시간으로 시간당 수백만 개의 요청을 처리할 수 있기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Use Amazon S3 to host the full website in different S3 buckets. Add Amazon CloudFront distributions. Set the S3 buckets as origins for the distributions. Store the order data in Amazon S3.
Amazon S3를 사용하여 다른 S3 버킷에 전체 웹 사이트를 호스팅합니다. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포의 오리진으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
B.
Deploy the full website on Amazon EC2 instances that run in Auto Scaling groups across multiple Availability Zones. Add an Application Load Balancer (ALB) to distribute the website traffic. Add another ALB for the backend APIs. Store the data in Amazon RDS for MySQL.
여러 가용 영역의 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. ALB(Application Load Balancer)를 추가하여 웹 사이트 트래픽을 분산합니다. 백엔드 API에 대해 다른 ALB를 추가하십시오. MySQL용 Amazon RDS에 데이터를 저장합니다.
C.
Migrate the full application to run in containers. Host the containers on Amazon Elastic Kubernetes Service (Amazon EKS). Use the Kubernetes Cluster Autoscaler to increase and decrease the number of pods to process bursts in traffic. Store the data in Amazon RDS for MySQL.
컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes 클러스터 자동 확장 처리를 사용하여 트래픽 버스트를 처리할 포드 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
D.
Use an Amazon S3 bucket to host the website's static content. Deploy an Amazon CloudFront distribution. Set the S3 bucket as the origin. Use Amazon API Gateway and AWS Lambda functions for the backend APIs. Store the data in Amazon DynamoDB.
Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 오리진으로 설정합니다. 백엔드 API에 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다. Amazon DynamoDB에 데이터를 저장합니다.
⭕ 정답: D
📝 해설
📍 Amazon CloudFront
AWS의 콘텐츠 전송 네트워크(CDN) 서비스입니다. CloudFront는 전 세계에 분산된 엣지 로케이션을 통해 데이터를 캐싱하고, 사용자에게 더 가까운 위치에서 콘텐츠를 제공함으로써 지연 시간을 최소화합니다. 이를 통해 빠르고 안정적인 콘텐츠 전송을 보장하며, 다음과 같은 기능을 제공합니다.
- 저지연 및 고성능: 사용자와 가까운 엣지 로케이션에서 콘텐츠를 제공하여 로드 시간을 단축합니다.
- 보안: AWS Shield, AWS WAF와 통합하여 DDoS 공격 방어 및 애플리케이션 계층 보안을 강화합니다.
- 통합: Amazon S3, EC2, Elastic Load Balancing과 쉽게 통합되어 원활한 운영이 가능합니다.
✅ 문제 22
A solutions architect is using Amazon S3 to design the storage architecture of a new digital media application. The media files must be resilient to the loss of an Availability Zone. Some files are accessed frequently while other files are rarely accessed in an unpredictable pattern. The solutions architect must minimize the costs of storing and retrieving the media files.
Which storage option meets these requirements?
솔루션 설계자는 Amazon S3를 사용하여 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계하고 있습니다. 미디어 파일은 가용 영역 손실에 대한 복원력이 있어야 합니다. 일부 파일은 자주 액세스되는 반면 다른 파일은 예측할 수 없는 패턴으로 거의 액세스되지 않습니다. 솔루션 설계자는 미디어 파일을 저장하고 검색하는 비용을 최소화해야 합니다.
이러한 요구 사항을 충족하는 스토리지 옵션은 무엇입니까?
A. S3 Standard
B.S3 Intelligent-Tiering
C.S3 Standard-Infrequent Access (S3 Standard-IA)
D.S3 One Zone-Infrequent Access (S3 One Zone-IA)
⭕ 정답: B
📝 해설
📍 Amazon S3 데이터 보호
미션 크리티컬 및 기본 데이터 스토리지에 적합하게 설계된, 내구성이 뛰어난 스토리지 인프라를 제공한다.
S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval 및 S3 Glacier Deep Archive는 AWS 리전의 최소 3개 가용 영역에 걸쳐 여러 디바이스에 객체를 중복 저장한다.
📍 S3 Standard
자주 접근하는 데이터를 저장하는 데 적합한 저장 클래스입니다. 높은 가용성과 성능을 제공하며, 다양한 애플리케이션 시나리오에 사용될 수 있습니다.
- 사용 사례: 자주 접근하거나 실시간으로 처리해야 하는 데이터, 모바일 및 웹 애플리케이션, 빅 데이터 분석.
- 특징: 높은 내구성과 가용성(99.99%), 지연 시간이 짧고 빠른 데이터 접근 속도.
📍 S3 Intelligent-Tiering
데이터 접근 패턴이 변동되는 데이터를 자동으로 두 개의 액세스 티어(Standard 및 Infrequent Access)로 이동시켜 비용을 절감할 수 있도록 설계되었습니다.
- 사용 사례: 접근 패턴을 예측할 수 없는 데이터, 저장 비용을 최적화하려는 경우.
- 특징: 자동 계층화로 액세스 패턴에 따라 데이터를 이동, 액세스 빈도에 따른 추가 비용 없음, 소액의 월간 모니터링 및 자동화 비용 발생.
📍 S3 Standard-Infrequent Access (S3 Standard-IA)
자주 접근하지 않지만 필요할 때 빠르게 접근해야 하는 데이터를 위한 저렴한 저장 클래스입니다.
- 사용 사례: 자주 접근하지 않는 데이터, 장기 보관하지만 즉시 접근이 필요한 데이터.
- 특징: 낮은 저장 비용, 높은 내구성과 가용성, 데이터 접근 시 추가 비용 발생.
📍 S3 One Zone-Infrequent Access (S3 One Zone-IA)
단일 가용 영역에 데이터를 저장하며, 자주 접근하지 않는 데이터를 위한 저렴한 옵션입니다. S3 Standard-IA와 유사하지만 데이터가 한 개의 가용 영역에만 저장됩니다.
- 사용 사례: 재해 복구 데이터, 복제 가능한 데이터, 단일 AZ에서 데이터 손실에 민감하지 않은 데이터.
- 특징: 가장 저렴한 비용, 낮은 저장 비용, 단일 가용 영역 내에서의 데이터 저장, 데이터 접근 시 추가 비용 발생.
✅ 문제 23
A company is storing backup files by using Amazon S3 Standard storage. The files are accessed frequently for 1 month. However, the files are not accessed after 1 month. The company must keep the files indefinitely.
Which storage solution will meet these requirements MOST cost-effectively?
회사에서 Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장하고 있습니다. 1개월 동안 파일에 자주 액세스합니다. 단, 1개월 이후에는 파일에 접근하지 않습니다. 회사는 파일을 무기한 보관해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까?
A.
Configure S3 Intelligent-Tiering to automatically migrate objects.
객체를 자동으로 마이그레이션하도록 S3 Intelligent-Tiering을 구성합니다.
B.
Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Glacier Deep Archive after 1 month.
S3 수명 주기 구성을 생성하여 1개월 후에 S3 Standard에서 S3 Glacier Deep Archive로 객체를 전환합니다.
C.
Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) after 1 month.
S3 수명 주기 구성을 생성하여 1개월 후에 객체를 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
D.
Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) after 1 month.
S3 수명 주기 구성을 생성하여 1개월 후에 객체를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다.
⭕ 정답: B
📝 해설
📍 S3 Glacier Deep Archive
장기적으로 자주 접근되지 않는 데이터를 무기한 보관하는 데 가장 비용 효율적인 저장 클래스이며, 데이터를 장기간 저장하기 위한 가장 비용 효율적인 옵션을 제공합니다. 이 스토리지 클래스는 매우 낮은 비용으로 데이터를 저장하며, 주로 접근 빈도가 매우 낮은 데이터를 대상으로 합니다. S3 Glacier Deep Archive는 회계 기록, 과학 데이터, 오래된 미디어 콘텐츠 등 접근이 필요하지 않거나 매우 드문 데이터를 위한 이상적인 솔루션입니다. 데이터는 몇 시간 내에 복구할 수 있으며, 이는 재해 복구 및 컴플라이언스 요구 사항을 충족하는 데 도움이 됩니다. 이 스토리지 클래스는 데이터를 보존하고, 장기적으로 비용을 절감하며, 필요할 때 안전하게 데이터에 접근할 수 있도록 설계되었습니다.
✅ 문제 24
A company observes an increase in Amazon EC2 costs in its most recent bill. The billing team notices unwanted vertical scaling of instance types for a couple of EC2 instances. A solutions architect needs to create a graph comparing the last 2 months of EC2 costs and perform an in-depth analysis to identify the root cause of the vertical scaling.
How should the solutions architect generate the information with the LEAST operational overhead?
회사는 가장 최근 청구서에서 Amazon EC2 비용 증가를 관찰했습니다. 청구 팀은 몇 개의 EC2 인스턴스에 대한 인스턴스 유형의 원치 않는 수직적 확장을 발견했습니다. 솔루션 설계자는 지난 2개월간의 EC2 비용을 비교하는 그래프를 생성하고 심층 분석을 수행하여 수직적 확장의 근본 원인을 식별해야 합니다.
솔루션 설계자는 운영 오버헤드가 가장 적은 정보를 어떻게 생성해야 합니까?
A.
Use AWS Budgets to create a budget report and compare EC2 costs based on instance types.
AWS 예산을 사용하여 예산 보고서를 생성하고 인스턴스 유형에 따라 EC2 비용을 비교합니다.
B.
Use Cost Explorer's granular filtering feature to perform an in-depth analysis of EC2 costs based on instance types.
Cost Explorer의 세분화된 필터링 기능을 사용하여 인스턴스 유형을 기반으로 EC2 비용에 대한 심층 분석을 수행합니다.
C.
Use graphs from the AWS Billing and Cost Management dashboard to compare EC2 costs based on instance types for the last 2 months.
AWS Billing and Cost Management 대시보드의 그래프를 사용하여 지난 2개월 동안의 인스턴스 유형을 기준으로 EC2 비용을 비교합니다.
D.
Use AWS Cost and Usage Reports to create a report and send it to an Amazon S3 bucket. Use Amazon QuickSight with Amazon S3 as a source to generate an interactive graph based on instance types.
AWS 비용 및 사용 보고서를 사용하여 보고서를 생성하고 Amazon S3 버킷으로 보냅니다. Amazon S3와 함께 Amazon QuickSight를 소스로 사용하여 인스턴스 유형을 기반으로 대화형 그래프를 생성합니다.
⭕ 정답: B
📝 해설
📍 AWS Cost Explorer
AWS 비용과 사용량을 분석하고 시각화하는 도구입니다. Cost Explorer를 사용하면 다음과 같은 기능을 활용하여 운영 오버헤드를 최소화하면서 문제를 해결할 수 있습니다:
- 세분화된 필터링: 인스턴스 유형, 서비스, 리전 등 다양한 기준으로 비용을 필터링할 수 있습니다.
- 시각화: 비용 변동을 그래프로 시각화하여 쉽게 이해할 수 있습니다.
- 트렌드 분석: 특정 기간 동안의 비용 변화를 분석하고, 이상 비용 발생 원인을 파악할 수 있습니다.
Cost Explorer는 사용하기 쉽고 AWS 콘솔에서 바로 접근할 수 있어 추가적인 설정이나 구성이 필요 없으므로, 운영 오버헤드를 최소화할 수 있습니다.
📍 AWS Billing and Cost Management Dashboard
- 설명: AWS Billing and Cost Management 대시보드는 AWS 계정의 청구 및 비용 정보를 제공하며, 간단한 비용 그래프와 보고서를 생성할 수 있습니다.
- 사용 사례: 전반적인 비용 개요 확인, 청구서 검토.
📍 AWS Cost and Usage Reports (CUR) & Amazon QuickSight
- 설명: CUR는 AWS 리소스 사용량과 비용에 대한 자세한 보고서를 제공합니다. Amazon S3에 저장된 CUR 데이터를 QuickSight를 통해 시각화할 수 있습니다.
- 사용 사례: 복잡한 비용 분석, 사용자 정의 보고서 생성, 대화형 데이터 시각화.
✅ 문제 25
A company is designing an application. The application uses an AWS Lambda function to receive information through Amazon API Gateway and to store the information in an Amazon Aurora PostgreSQL database.
During the proof-of-concept stage, the company has to increase the Lambda quotas significantly to handle the high volumes of data that the company needs to load into the database. A solutions architect must recommend a new design to improve scalability and minimize the configuration effort.
Which solution will meet these requirements?
회사에서 응용 프로그램을 설계하고 있습니다. 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway를 통해 정보를 수신하고 Amazon Aurora PostgreSQL 데이터베이스에 정보를 저장합니다.
개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 대용량 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 설계자는 확장성을 개선하고 구성 노력을 최소화하기 위해 새로운 설계를 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Refactor the Lambda function code to Apache Tomcat code that runs on Amazon EC2 instances. Connect the database by using native Java Database Connectivity (JDBC) drivers.
Lambda 함수 코드를 Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 *리팩터링합니다. 네이티브 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
* 리팩토링 : 이미 작성한 소스코드에서 구현된 일련의 행위들을 변경없이, 코드의 가독성과 유지보수성을 높이기 위해 내부구조를 변경하는 것.
B.
Change the platform from Aurora to Amazon DynamoDProvision a DynamoDB Accelerator (DAX) cluster. Use the DAX client SDK to point the existing DynamoDB API calls at the DAX cluster.
플랫폼을 Aurora에서 Amazon DynamoDProvision a DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
C.
Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information into the database. Integrate the Lambda functions by using Amazon Simple Notification Service (Amazon SNS).
두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
D.
Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information into the database. Integrate the Lambda functions by using an Amazon Simple Queue Service (Amazon SQS) queue.
두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다.
⭕ 정답: D
📝 해설
두 개의 Lambda 함수를 사용하고, Amazon SQS를 통해 이들을 통합하는 것은 확장성을 개선하고 구성 노력을 최소화하는 데 도움이 됩니다.
- Lambda 함수 분리: 하나의 함수는 정보를 수신하고, 다른 함수는 데이터를 데이터베이스에 로드합니다. 이렇게 하면 각 함수가 독립적으로 확장할 수 있습니다.
- SQS 사용: SQS 대기열을 사용하여 두 함수 간의 비동기 통신을 구현합니다. 이는 높은 트래픽에도 안정적으로 처리할 수 있도록 도와줍니다.
- 구성 노력 최소화: SQS와 Lambda는 모두 관리형 서비스로, 별도의 서버 관리 없이 쉽게 설정할 수 있습니다.
이 접근 방식은 데이터 수신과 처리를 분리하여 각 프로세스의 확장성을 높이고, 시스템의 안정성을 개선할 수 있습니다. 또한, SQS는 메시지의 내구성을 보장하여 데이터 손실을 방지합니다.
✅ 문제 26
A company needs to review its AWS Cloud deployment to ensure that its Amazon S3 buckets do not have unauthorized configuration changes.
What should a solutions architect do to accomplish this goal?
회사는 AWS 클라우드 배포를 검토하여 Amazon S3 버킷에 무단 구성 변경이 없는지 확인해야 합니다.
솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까?
A.
Turn on AWS Config with the appropriate rules.
적절한 규칙으로 AWS Config를 켭니다.
B.
Turn on AWS Trusted Advisor with the appropriate checks.
적절한 검사를 통해 AWS Trusted Advisor를 켭니다.
C.
Turn on Amazon Inspector with the appropriate assessment template.
적절한 평가 템플릿으로 Amazon Inspector를 켭니다.
D.
Turn on Amazon S3 server access logging. Configure Amazon EventBridge (Amazon Cloud Watch Events).
Amazon S3 서버 액세스 로깅을 켭니다. Amazon EventBridge(Amazon Cloud Watch Events)를 구성합니다.
⭕ 정답: A
📝 해설
📍 AWS Config
AWS 리소스의 구성 상태를 평가, 감사, 평가할 수 있게 하는 서비스입니다. AWS Config를 사용하면 리소스의 구성을 지속적으로 모니터링하고 변경 사항을 기록하며, 규칙을 설정하여 리소스가 규정 준수 상태를 유지하도록 할 수 있습니다. 이를 통해 S3 버킷의 무단 구성 변경을 탐지하고 알림을 받을 수 있습니다.
- 구성 변경 기록: S3 버킷의 모든 구성 변경 사항을 자동으로 기록하고, 변경 이력을 유지합니다.
- 규칙 설정: 특정 규칙을 설정하여 S3 버킷의 구성 변경이 규정에 맞는지 평가합니다.
- 알림: 무단 변경이 발생하면 SNS, CloudWatch Alarms 등을 통해 알림을 받을 수 있습니다.
다른 옵션과 비교했을 때, AWS Config는 S3 버킷의 구성을 지속적으로 모니터링하고 변경 사항을 추적하는 데 가장 적합한 도구입니다.
✅ 문제 27
A company is launching a new application and will display application metrics on an Amazon CloudWatch dashboard. The company's product manager needs to access this dashboard periodically. The product manager does not have an AWS account. A solutions architect must provide access to the product manager by following the principle of least privilege.
Which solution will meet these requirements?
회사에서 새 애플리케이션을 시작하고 Amazon CloudWatch 대시보드에 애플리케이션 지표를 표시합니다. 회사의 제품 관리자는 이 대시보드에 주기적으로 액세스해야 합니다. 제품 관리자에게 AWS 계정이 없습니다. 솔루션 설계자는 최소 권한 원칙에 따라 제품 관리자에 대한 액세스를 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Share the dashboard from the CloudWatch console. Enter the product manager's email address, and complete the sharing steps. Provide a shareable link for the dashboard to the product manager.
CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료합니다. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공하십시오.
B.
Create an IAM user specifically for the product manager. Attach the CloudWatchReadOnlyAccess AWS managed policy to the user. Share the new login credentials with the product manager. Share the browser URL of the correct dashboard with the product manager.
특히 제품 관리자를 위한 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하십시오.
C.
Create an IAM user for the company's employees. Attach the ViewOnlyAccess AWS managed policy to the IAM user. Share the new login credentials with the product manager. Ask the product manager to navigate to the CloudWatch console and locate the dashboard by name in the Dashboards section.
회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청합니다.
D.
Deploy a bastion server in a public subnet. When the product manager requires access to the dashboard, start the server and share the RDP credentials. On the bastion server, ensure that the browser is configured to open the dashboard URL with cached AWS credentials that have appropriate permissions to view the dashboard.
퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유합니다. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명으로 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.
⭕ 정답: A
📝 해설
CloudWatch 대시보드 공유 기능을 사용하면 AWS 계정이 없는 사용자와도 대시보드를 공유할 수 있습니다. 이는 최소 권한 원칙에 따라 필요한 권한만을 부여하는 데 도움이 됩니다.
- 대시보드 공유: CloudWatch 대시보드를 공유 설정하여 특정 이메일 주소와 링크를 통해 접근 권한을 부여할 수 있습니다.
- 제한된 접근: 제품 관리자는 공유된 대시보드만 접근할 수 있으며, AWS 계정이 없기 때문에 다른 리소스에 대한 접근 권한이 없습니다.
이 방법은 최소 권한 원칙을 준수하면서 제품 관리자에게 필요한 대시보드 접근 권한을 제공하는 데 가장 적합합니다.
✅ 문제 28
A company is migrating applications to AWS. The applications are deployed in different accounts. The company manages the accounts centrally by using AWS Organizations. The company's security team needs a single sign-on (SSO) solution across all the company's accounts. The company must continue managing the users and groups in its on-premises self-managed Microsoft Active Directory.
Which solution will meet these requirements?
회사에서 애플리케이션을 AWS로 마이그레이션하고 있습니다. 응용 프로그램은 다른 계정에 배포됩니다. 회사는 AWS Organizations를 사용하여 중앙에서 계정을 관리합니다. 회사의 보안 팀은 회사의 모든 계정에 SSO(Single Sign-On) 솔루션이 필요합니다. 회사는 사내 자체 관리 Microsoft Active Directory에서 사용자 및 그룹을 계속 관리해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a one-way forest trust or a one-way domain trust to connect the company's self-managed Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.
AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. 단방향 포리스트 트러스트 또는 단방향 도메인 트러스트를 생성하여 Microsoft Active Directory용 AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결합니다.
B.
Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a two-way forest trust to connect the company's self-managed Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.
AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory용 AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결하는 양방향 포리스트 트러스트를 생성합니다.
C.
Use AWS Directory Service. Create a two-way trust relationship with the company's self-managed Microsoft Active Directory.
AWS 디렉터리 서비스를 사용합니다. 회사의 자체 관리 Microsoft Active Directory와 양방향 신뢰 관계를 만드십시오.
D.
Deploy an identity provider (IdP) on premises. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console.
온프레미스에 ID 공급자(IdP)를 배포합니다. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다.
⭕ 정답: A
📝 해설
📍 AWS SSO
AWS Single Sign-On (AWS SSO)는 AWS 계정과 여러 클라우드 애플리케이션에 대한 중앙 집중식 액세스를 제공하는 서비스입니다. AWS SSO를 통해 사용자는 하나의 로그인으로 여러 AWS 계정과 애플리케이션에 접근할 수 있습니다. AWS SSO는 Microsoft Active Directory(AD)와 통합되어 기존의 사용자와 그룹 관리를 온프레미스에서 계속할 수 있도록 지원합니다.
- AWS SSO 활성화:
- AWS 관리 콘솔에서 AWS SSO를 활성화합니다. AWS SSO는 여러 AWS 계정 및 클라우드 애플리케이션에 대한 중앙 집중식 액세스를 제공합니다.
- AWS Directory Service for Microsoft Active Directory 설정:
- AWS Directory Service for Microsoft Active Directory(일명 AWS Managed Microsoft AD)를 설정합니다. 이는 AWS 클라우드에서 호스팅되는 관리형 Active Directory로, 온프레미스 AD와 원활하게 통합될 수 있습니다.
- 단방향 트러스트 설정:
- AWS Managed Microsoft AD와 온프레미스 AD 간에 단방향 트러스트를 설정합니다. 단방향 트러스트는 AWS Managed Microsoft AD가 온프레미스 AD의 사용자 및 그룹 정보를 신뢰할 수 있게 합니다.
- 이를 통해 온프레미스 AD에서 관리하는 사용자 및 그룹이 AWS SSO를 통해 AWS 리소스에 접근할 수 있습니다.
- AWS SSO와 AD 통합:
- AWS SSO 콘솔에서 ‘AWS SSO 설정’을 선택한 후, 디렉터리로 AWS Managed Microsoft AD를 선택합니다.
- 온프레미스 AD와의 트러스트 관계가 설정된 AWS Managed Microsoft AD를 사용하여 SSO를 구성합니다.
- AWS SSO는 온프레미스 AD의 사용자 및 그룹 정보를 동기화하여 관리합니다.
- 사용자 및 그룹 접근 권한 설정:
- AWS SSO에서 온프레미스 AD의 사용자와 그룹에 대한 접근 권한을 설정합니다. 이 설정은 사용자 및 그룹이 접근할 수 있는 AWS 계정과 애플리케이션을 정의합니다.
- 최소 권한 원칙을 준수하여 사용자에게 필요한 접근 권한만 부여합니다.
✅ 문제 29
A company provides a Voice over Internet Protocol (VoIP) service that uses UDP connections. The service consists of Amazon EC2 instances that run in an Auto Scaling group. The company has deployments across multiple AWS Regions.
The company needs to route users to the Region with the lowest latency. The company also needs automated failover between Regions.
Which solution will meet these requirements?
회사는 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 회사는 여러 AWS 리전에 배포하고 있습니다.
회사는 지연 시간이 가장 짧은 리전으로 사용자를 라우팅해야 합니다. 이 회사는 또한 지역 간 자동 장애 조치가 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Use the NLB as an AWS Global Accelerator endpoint in each Region.
NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
B.
Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group. Use the ALB as an AWS Global Accelerator endpoint in each Region.
ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
C.
Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Create an Amazon Route 53 latency record that points to aliases for each NLB. Create an Amazon CloudFront distribution that uses the latency record as an origin.
NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
D.
Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group. Create an Amazon Route 53 weighted record that points to aliases for each ALB. Deploy an Amazon CloudFront distribution that uses the weighted record as an origin.
ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 레코드를 생성합니다. 가중 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.
⭕ 정답: A
📝 해설
📍 AWS Global Accelerator
세계적으로 최적의 경로를 통해 트래픽을 라우팅하여 지연 시간을 줄이는 데 도움이 됩니다. 또한, 자동으로 리전에 장애가 발생할 경우 트래픽을 다른 리전으로 전환할 수 있습니다. 이 솔루션은 다음과 같은 이유로 요구 사항을 충족합니다:
- 최소 지연 시간: AWS Global Accelerator는 전 세계의 여러 AWS 리전에 배포된 애플리케이션에 대해 전송 경로를 최적화하여 지연 시간을 줄입니다.
- 자동 장애 조치: 특정 리전의 장애 발생 시 자동으로 트래픽을 다른 리전으로 라우팅하여 고가용성을 보장합니다.
- UDP 지원: NLB는 UDP 트래픽을 지원하므로 VoIP 서비스에 적합합니다.
- 고성능: NLB와 Global Accelerator의 조합을 통해 높은 성능과 신뢰성을 제공합니다.
📍 NLB와 ALB의 차이점
Network Load Balancer (NLB)와 Application Load Balancer (ALB)는 AWS에서 제공하는 두 가지 주요 로드 밸런서 유형으로, 각기 다른 요구 사항과 사용 사례에 맞게 설계되었습니다. 여기서는 NLB와 ALB의 주요 차이점에 대해 설명합니다.
1. 프로토콜 지원
- NLB:
- Layer 4 (전송 계층) 로드 밸런서로, TCP, UDP 및 TLS(Transport Layer Security) 프로토콜을 지원합니다.
- 클라이언트와 서버 간의 직접적인 연결을 제공합니다.
- 초당 수백만 요청을 처리할 수 있으며, 매우 낮은 지연 시간을 보장합니다.
- 주로 실시간 데이터 스트리밍, VoIP 애플리케이션, 게임 서버 등과 같은 고성능 및 저지연이 중요한 애플리케이션에 사용됩니다.
- ALB:
- Layer 7 (애플리케이션 계층) 로드 밸런서로, HTTP, HTTPS 및 WebSocket 프로토콜을 지원합니다.
- 애플리케이션 수준에서 트래픽을 라우팅하고, URL 기반 라우팅, 호스트 기반 라우팅, HTTP 헤더 기반 라우팅 등의 기능을 제공합니다.
- 주로 웹 애플리케이션, 마이크로서비스 아키텍처, RESTful API 등을 처리하는 데 사용됩니다.
2. 라우팅 기능
- NLB:
- 단순하고 빠른 트래픽 전달을 목적으로 합니다.
- 정적 IP 주소를 제공하며, Elastic IP와 통합할 수 있습니다.
- 고정된 포트에서 작동하며, 특정 IP와 포트로 트래픽을 분산합니다.
- SSL/TLS 종료를 지원하여 트래픽 암호화를 처리할 수 있습니다.
- ALB:
- 다양한 라우팅 기능을 제공합니다. 예를 들어, URL 경로 기반 라우팅, 호스트 기반 라우팅, HTTP 헤더 및 메서드 기반 라우팅 등이 있습니다.
- 각기 다른 대상 그룹(Target Groups)을 설정하여 트래픽을 다양한 백엔드 서비스로 분배할 수 있습니다.
- SSL/TLS 종료 및 HTTPS 리디렉션 기능을 지원합니다.
- Web Application Firewall(WAF)와 통합하여 애플리케이션 보안을 강화할 수 있습니다.
3. 성능 및 확장성
- NLB:
- 매우 높은 성능과 확장성을 제공합니다.
- 초당 수백만 요청을 처리할 수 있으며, 지연 시간이 매우 낮습니다.
- 자동으로 트래픽 패턴에 맞게 확장할 수 있습니다.
- 주로 높은 네트워크 성능과 대규모 트래픽 처리가 필요한 경우에 적합합니다.
- ALB:
- 애플리케이션 계층에서의 복잡한 라우팅 및 처리 기능을 제공합니다.
- 트래픽 패턴에 따라 자동으로 확장 및 축소할 수 있습니다.
- 다양한 라우팅 규칙을 통해 복잡한 애플리케이션 트래픽 관리가 가능합니다.
4. 사용 사례
- NLB:
- 실시간 데이터 스트리밍 애플리케이션
- VoIP 서비스
- 게임 서버
- 고성능 및 저지연이 요구되는 애플리케이션
- ALB:
- 웹 애플리케이션 및 웹사이트
- 마이크로서비스 아키텍처
- RESTful API
- HTTP/HTTPS 기반 트래픽 관리가 필요한 애플리케이션
✅ 문제 30
A development team runs monthly resource-intensive tests on its general purpose Amazon RDS for MySQL DB instance with Performance Insights enabled. The testing lasts for 48 hours once a month and is the only process that uses the database. The team wants to reduce the cost of running the tests without reducing the compute and memory attributes of the DB instance.
Which solution meets these requirements MOST cost-effectively?
개발 팀은 성능 개선 도우미가 활성화된 MySQL DB 인스턴스용 범용 Amazon RDS에서 매월 리소스 집약적 테스트를 실행합니다. 테스트는 한 달에 한 번 48시간 동안 지속되며 데이터베이스를 사용하는 유일한 프로세스입니다. 팀은 DB 인스턴스의 컴퓨팅 및 메모리 속성을 줄이지 않고 테스트 실행 비용을 줄이려고 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Stop the DB instance when tests are completed. Restart the DB instance when required.
테스트가 완료되면 DB 인스턴스를 중지합니다. 필요한 경우 DB 인스턴스를 다시 시작합니다.
B.
Use an Auto Scaling policy with the DB instance to automatically scale when tests are completed.
DB 인스턴스와 함께 Auto Scaling 정책을 사용하여 테스트가 완료되면 자동으로 확장합니다.
C.
Create a snapshot when tests are completed. Terminate the DB instance and restore the snapshot when required.
테스트가 완료되면 스냅샷을 만듭니다. DB 인스턴스를 종료하고 필요한 경우 스냅샷을 복원합니다.
D.
Modify the DB instance to a low-capacity instance when tests are completed. Modify the DB instance again when required.
테스트가 완료되면 DB 인스턴스를 저용량 인스턴스로 수정합니다. 필요한 경우 DB 인스턴스를 다시 수정합니다.
⭕ 정답: C
📝 해설
스냅샷 생성 및 인스턴스 종료는 테스트가 완료되었을 때 DB 인스턴스를 종료하고 스냅샷을 생성하여 비용을 절감하는 방법입니다. 테스트가 필요할 때 스냅샷에서 인스턴스를 복원하여 필요한 컴퓨팅 및 메모리 속성을 유지할 수 있습니다. 이 방법은 다음과 같은 이유로 비용 효율적입니다:
- 비용 절감: 사용하지 않을 때 인스턴스를 종료함으로써 비용을 절감할 수 있습니다.
- 데이터 보존: 스냅샷을 통해 데이터가 안전하게 보존됩니다.
- 빠른 복원: 스냅샷에서 인스턴스를 복원하는 데 시간이 많이 걸리지 않으므로 테스트가 필요할 때 신속하게 사용할 수 있습니다.
✅ 문제 31
A company that hosts its web application on AWS wants to ensure all Amazon EC2 instances. Amazon RDS DB instances. and Amazon Redshift clusters are configured with tags. The company wants to minimize the effort of configuring and operating this check.
What should a solutions architect do to accomplish this?
AWS에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스를 보장하기를 원합니다. Amazon RDS DB 인스턴스, Amazon Redshift 클러스터는 태그로 구성됩니다. 회사는 이 검사를 구성하고 운영하는 노력을 최소화하기를 원합니다.
솔루션 설계자는 이를 달성하기 위해 무엇을 해야 합니까?
A.
Use AWS Config rules to define and detect resources that are not properly tagged.
AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지합니다.
B.
Use Cost Explorer to display resources that are not properly tagged. Tag those resources manually.
비용 탐색기를 사용하여 제대로 태그가 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정합니다.
C.
Write API calls to check all resources for proper tag allocation. Periodically run the code on an EC2 instance.
적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 주기적으로 코드를 실행합니다.
D.
Write API calls to check all resources for proper tag allocation. Schedule an AWS Lambda function through Amazon CloudWatch to periodically run the code.
적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다.
⭕ 정답: A
📝 해설
📍 AWS Config
AWS 리소스의 구성을 지속적으로 평가, 감사 및 기록하는 서비스로, 특정 구성 규칙을 설정하여 리소스가 준수해야 할 정책을 정의할 수 있습니다. 이를 통해 리소스에 적절한 태그가 적용되었는지 모니터링하고, 규칙 위반 시 알림을 받을 수 있습니다.
- 구성 규칙 설정: 특정 태그를 요구하는 규칙을 설정하여 모든 리소스가 해당 태그를 가지도록 강제할 수 있습니다.
- 자동 검출: 규칙을 통해 태그가 누락된 리소스를 자동으로 감지하고, 필요한 경우 수정 작업을 수행할 수 있습니다.
- 운영 오버헤드 최소화: AWS Config는 자동으로 리소스 상태를 모니터링하고 보고서를 제공하므로, 수동 검사가 필요 없습니다.
이 방법은 회사가 최소한의 노력으로 리소스 태그를 관리하고, 모든 리소스가 적절하게 태그 지정되도록 보장하는 데 가장 효과적입니다.
✅ 문제 32
A development team needs to host a website that will be accessed by other teams. The website contents consist of HTML, CSS, client-side JavaScript, and images.
Which method is the MOST cost-effective for hosting the website?
개발 팀은 다른 팀이 액세스할 웹사이트를 호스팅해야 합니다. 웹사이트 콘텐츠는 HTML, CSS, 클라이언트 측 JavaScript 및 이미지로 구성됩니다.
웹 사이트 호스팅에 가장 비용 효율적인 방법은 무엇입니까?
A.
Containerize the website and host it in AWS Fargate.
웹 사이트를 컨테이너화하고 AWS Fargate에서 호스팅합니다.
B.
Create an Amazon S3 bucket and host the website there.
Amazon S3 버킷을 생성하고 거기에서 웹 사이트를 호스팅합니다.
C.
Deploy a web server on an Amazon EC2 instance to host the website.
Amazon EC2 인스턴스에 웹 서버를 배포하여 웹 사이트를 호스팅합니다.
D.
Configure an Application Load Balancer with an AWS Lambda target that uses the Express.js framework.
Express.js 프레임워크를 사용하는 AWS Lambda 대상으로 Application Load Balancer를 구성합니다.
⭕ 정답: B
📝 해설
Amazon S3는 정적 웹사이트 호스팅을 위한 매우 비용 효율적이고 간단한 솔루션입니다. S3 버킷에 HTML, CSS, JavaScript, 이미지 파일을 업로드하여 정적 웹사이트를 쉽게 호스팅할 수 있습니다. S3를 사용한 정적 웹사이트 호스팅은 다음과 같은 장점이 있습니다:
- 비용 효율성: S3는 사용한 만큼만 비용을 지불하는 방식으로 매우 저렴합니다. EC2 인스턴스나 Fargate와 같은 서버 기반 솔루션보다 비용이 훨씬 낮습니다.
- 간편한 설정: S3 버킷을 생성하고 파일을 업로드한 후, S3의 정적 웹 호스팅 기능을 활성화하면 웹사이트가 곧바로 서비스될 수 있습니다.
- 확장성: S3는 기본적으로 매우 높은 내구성과 확장성을 제공하므로, 트래픽이 급증하더라도 별도의 설정 없이 이를 처리할 수 있습니다.
- 관리 오버헤드 최소화: 서버를 관리할 필요가 없으므로, 운영 및 유지 보수에 대한 부담이 줄어듭니다.
✅ 문제 33
A company runs an online marketplace web application on AWS. The application serves hundreds of thousands of users during peak hours. The company needs a scalable, near-real-time solution to share the details of millions of financial transactions with several other internal applications. Transactions also need to be processed to remove sensitive data before being stored in a document database for low-latency retrieval.
What should a solutions architect recommend to meet these requirements?
회사는 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행합니다. 이 애플리케이션은 피크 시간에 수십만 명의 사용자에게 서비스를 제공합니다. 이 회사는 수백만 건의 금융 거래 세부 정보를 다른 여러 내부 애플리케이션과 공유할 수 있는 확장 가능한 거의 실시간 솔루션이 필요합니다. 또한 지연 시간이 짧은 검색을 위해 문서 데이터베이스에 저장하기 전에 민감한 데이터를 제거하기 위해 트랜잭션을 처리해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
A.
Store the transactions data into Amazon DynamoDB. Set up a rule in DynamoDB to remove sensitive data from every transaction upon write. Use DynamoDB Streams to share the transactions data with other applications.
트랜잭션 데이터를 Amazon DynamoDB에 저장합니다. 쓰기 시 모든 트랜잭션에서 민감한 데이터를 제거하도록 DynamoDB에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다.
B.
Stream the transactions data into Amazon Kinesis Data Firehose to store data in Amazon DynamoDB and Amazon S3. Use AWS Lambda integration with Kinesis Data Firehose to remove sensitive data. Other applications can consume the data stored in Amazon S3.
트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
C.
Stream the transactions data into Amazon Kinesis Data Streams. Use AWS Lambda integration to remove sensitive data from every transaction and then store the transactions data in Amazon DynamoDB. Other applications can consume the transactions data off the Kinesis data stream.
트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 민감한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림의 트랜잭션 데이터를 사용할 수 있습니다.
D.
Store the batched transactions data in Amazon S3 as files. Use AWS Lambda to process every file and remove sensitive data before updating the files in Amazon S3. The Lambda function then stores the data in Amazon DynamoDB. Other applications can consume transaction files stored in Amazon S3.
일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그러면 Lambda 함수가 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.
⭕ 정답: C
📝 해설
Amazon Kinesis Data Streams와 AWS Lambda의 조합은 거의 실시간 데이터 처리와 민감한 데이터 제거를 위한 확장 가능한 솔루션을 제공합니다:
- Kinesis Data Streams: 실시간으로 대량의 데이터를 스트리밍하여 처리할 수 있습니다. 이는 트랜잭션 데이터를 거의 실시간으로 스트리밍하여 처리하는 데 적합합니다.
- AWS Lambda: Kinesis 스트림에서 데이터를 가져와 민감한 데이터를 제거하는 데 사용됩니다. 서버를 관리할 필요 없이 코드 실행을 자동으로 확장할 수 있습니다.
- Amazon DynamoDB: 처리된 데이터를 저장하여 빠르고 저지연 검색을 제공합니다. DynamoDB는 NoSQL 데이터베이스로서, 대량의 데이터를 효율적으로 저장하고 검색할 수 있습니다.
이 솔루션은 실시간 데이터 처리와 안전한 데이터 저장을 모두 충족하며, 다른 애플리케이션은 Kinesis 스트림에서 데이터를 소비하거나 DynamoDB에서 직접 데이터를 조회할 수 있습니다.
✅ 문제 34
A company hosts its multi-tier applications on AWS. For compliance, governance, auditing, and security, the company must track configuration changes on its AWS resources and record a history of API calls made to these resources.
What should a solutions architect do to meet these requirements?
회사는 AWS에서 다중 계층 애플리케이션을 호스팅합니다. 규정 준수, 거버넌스, 감사 및 보안을 위해 회사는 AWS 리소스의 구성 변경 사항을 추적하고 이러한 리소스에 대한 API 호출 기록을 기록해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Use AWS CloudTrail to track configuration changes and AWS Config to record API calls.
AWS CloudTrail을 사용하여 구성 변경을 추적하고 AWS Config를 사용하여 API 호출을 기록하십시오.
B.
Use AWS Config to track configuration changes and AWS CloudTrail to record API calls.
AWS Config를 사용하여 구성 변경을 추적하고 AWS CloudTrail을 사용하여 API 호출을 기록합니다.
C.
Use AWS Config to track configuration changes and Amazon CloudWatch to record API calls.
AWS Config를 사용하여 구성 변경을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
D.
Use AWS CloudTrail to track configuration changes and Amazon CloudWatch to record API calls.
AWS CloudTrail을 사용하여 구성 변경을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
⭕ 정답: B
📝 해설
AWS Config와 AWS CloudTrail은 AWS 리소스의 구성 변경과 API 호출을 모니터링하고 기록하는 데 이상적인 도구입니다:
- AWS Config: AWS 리소스의 구성을 지속적으로 평가, 감사 및 기록합니다. 리소스의 구성 변경을 자동으로 기록하여 규정 준수를 보장할 수 있습니다.
- AWS CloudTrail: AWS 계정의 모든 API 호출을 기록하여 보안 분석, 변경 추적, 규정 준수를 지원합니다. 이는 누가 언제 어떤 API를 호출했는지에 대한 정보를 제공합니다.
이 조합은 리소스 구성 변경과 API 호출을 모두 추적하여 감사 및 규정 준수를 보장하는 데 효과적입니다.
✅ 문제 35
A company is preparing to launch a public-facing web application in the AWS Cloud. The architecture consists of Amazon EC2 instances within a VPC behind an Elastic Load Balancer (ELB). A third-party service is used for the DNS. The company's solutions architect must recommend a solution to detect and protect against large-scale DDoS attacks.
Which solution meets these requirements?
한 회사가 AWS 클라우드에서 공개 웹 애플리케이션 출시를 준비하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내 Amazon EC2 인스턴스로 구성됩니다. DNS에는 타사 서비스가 사용됩니다. 회사의 솔루션 설계자는 대규모 DDoS 공격을 감지하고 보호하기 위한 솔루션을 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Enable Amazon GuardDuty on the account.
계정에서 Amazon GuardDuty를 활성화합니다.
B.
Enable Amazon Inspector on the EC2 instances.
EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
C.
Enable AWS Shield and assign Amazon Route 53 to it.
AWS Shield를 활성화하고 여기에 Amazon Route 53을 할당합니다.
D.
Enable AWS Shield Advanced and assign the ELB to it.
AWS Shield Advanced를 활성화하고 ELB를 할당합니다.
⭕ 정답: D
📝 해설
📍 AWS Shield Advanced
AWS의 관리형 DDoS 방어 서비스로, 다음과 같은 이유로 대규모 DDoS 공격에 대한 강력한 보호를 제공합니다:
- 종합적인 보호: 네트워크 및 애플리케이션 계층에서 발생하는 DDoS 공격을 감지하고 완화합니다.
- 실시간 공격 탐지: 실시간 모니터링과 자동 완화 기능을 통해 공격을 신속히 탐지하고 대응합니다.
- 비용 보호: DDoS 공격으로 인한 예기치 않은 비용 증가를 방지하는 보호 기능을 제공합니다.
- 24/7 액세스: AWS DDoS Response Team(DRT)의 지원을 받아 공격 대응 및 복구를 도울 수 있습니다.
AWS Shield Advanced는 ELB와 같은 AWS 리소스에 쉽게 할당할 수 있으며, AWS 환경 내에서 강력한 DDoS 방어 솔루션을 제공합니다.
✅ 문제 36
A company is building an application in the AWS Cloud. The application will store data in Amazon S3 buckets in two AWS Regions. The company must use an AWS Key Management Service (AWS KMS) customer managed key to encrypt all data that is stored in the S3 buckets. The data in both S3 buckets must be encrypted and decrypted with the same KMS key. The data and the key must be stored in each of the two Regions.
Which solution will meet these requirements with the LEAST operational overhead?
회사는 AWS 클라우드에서 애플리케이션을 구축하고 있습니다. 애플리케이션은 두 AWS 리전의 Amazon S3 버킷에 데이터를 저장합니다. 회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키로 암호화 및 복호화해야 합니다. 데이터와 키는 두 지역 각각에 저장되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Create an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Configure replication between the S3 buckets.
각 리전에서 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
B.
Create a customer managed multi-Region KMS key. Create an S3 bucket in each Region. Configure replication between the S3 buckets. Configure the application to use the KMS key with client-side encryption.
고객 관리형 다중 리전 KMS 키를 생성합니다. 각 리전에서 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
C.
Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Configure replication between the S3 buckets.
각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
D.
Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with AWS KMS keys (SSE-KMS). Configure replication between the S3 buckets.
각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
⭕ 정답: B
📝 해설
📍 AWS KMS 다중 리전 키(Multi-Region Keys)
여러 리전에 걸쳐 데이터 암호화 및 복호화를 일관되게 수행할 수 있는 솔루션을 제공합니다.
- 고객 관리형 다중 리전 KMS 키 생성:
- AWS KMS를 사용하여 다중 리전 KMS 키를 생성합니다. 이 키는 여러 리전에 걸쳐 데이터 암호화 및 복호화를 동일한 키로 수행할 수 있게 해줍니다.
- S3 버킷 생성 및 복제 설정:
- 두 리전 각각에 S3 버킷을 생성합니다.
- S3 버킷 간의 복제를 설정하여 데이터를 두 리전에 자동으로 동기화합니다.
- 클라이언트 측 암호화 구성:
- 애플리케이션에서 클라이언트 측 암호화를 사용하여 데이터를 암호화한 후 S3 버킷에 저장합니다.
- 클라이언트 측 암호화는 데이터가 전송되기 전에 데이터를 암호화하고, 수신한 후에 데이터를 복호화하는 방식입니다.
- 이렇게 하면 동일한 KMS 키를 사용하여 두 리전에서 데이터를 암호화 및 복호화할 수 있습니다.
📍 AWS KMS(Key Management Service)
암호화 키를 생성하고 제어할 수 있는 AWS의 관리형 서비스입니다. 이 서비스를 사용하면 AWS 클라우드 내에서 데이터를 보호하기 위한 암호화 및 키 관리 작업을 손쉽게 수행할 수 있습니다. 주요 기능 및 특징은 다음과 같습니다.
- 키 생성 및 관리: AWS KMS를 통해 대칭 및 비대칭 키를 생성하고 관리할 수 있습니다. 대칭 키는 동일한 키로 암호화 및 복호화를 수행하며, 비대칭 키는 공개 키로 암호화하고 개인 키로 복호화하는 방식입니다.
- 키 사용 제어: IAM 정책을 통해 누가 어떤 키를 사용할 수 있는지 제어할 수 있습니다. 이를 통해 키에 대한 접근을 세밀하게 관리할 수 있습니다.
- 통합: AWS KMS는 Amazon S3, Amazon EBS, Amazon RDS, DynamoDB 등 다양한 AWS 서비스와 통합되어 사용됩니다. 이러한 통합을 통해 데이터를 쉽게 암호화하고 관리할 수 있습니다.
- 내구성 및 가용성: AWS KMS는 높은 내구성과 가용성을 제공하는 AWS의 인프라를 기반으로 하며, 안전하고 신뢰성 있는 키 관리를 보장합니다.
- 암호화 연산: AWS KMS는 클라이언트 애플리케이션을 대신하여 암호화 및 복호화 연산을 수행할 수 있습니다. 이를 통해 키의 노출을 최소화하고 보안을 강화할 수 있습니다.
📍 AWS KMS 종류
1. 고객 관리형 키 (Customer Managed Keys, CMKs) : 사용자가 직접 생성하고 관리하는 KMS 키로, AWS KMS의 다양한 기능을 통해 사용자 지정 설정을 적용할 수 있습니다.
- 고객 관리형 대칭 CMKs: 고객이 생성하고 관리하는 대칭 암호화 키입니다. 이 키는 암호화 및 복호화에 동일한 키를 사용합니다.
- 사용 사례: S3 버킷, EBS 볼륨, RDS 인스턴스 등에서 데이터 암호화.
- 특징: 키 정책을 통해 세부적으로 접근 제어 가능, 로테이션 설정 가능.
- 고객 관리형 비대칭 CMKs: 공개 키 암호화 방식으로, 공개 키와 개인 키 쌍을 포함합니다. 공개 키는 암호화에 사용되고, 개인 키는 복호화에 사용됩니다.
- 사용 사례: 디지털 서명, 데이터 암호화 등.
- 특징: RSA 및 ECC 알고리즘 지원, 키 페어 관리 가능.
2. AWS 관리형 키 (AWS Managed Keys, AMKs)
- AWS 서비스에서 관리하는 키로, 특정 AWS 서비스에 의해 자동으로 생성되고 관리됩니다.
- 사용 사례: S3, EBS, RDS 등 다양한 AWS 서비스에서 기본 암호화 옵션으로 사용.
- 특징: 고객이 키를 직접 관리하지 않으며, AWS가 키의 생명 주기를 관리합니다.
3. AWS 소유 키 (AWS Owned Keys)
- AWS가 소유하고 관리하는 키로, 여러 AWS 계정에서 사용될 수 있는 키입니다.
- 사용 사례: 특정 서비스에서 AWS가 내부적으로 사용하는 암호화 작업.
- 특징: 고객이 직접 접근하거나 관리할 수 없습니다.
4. 대칭 및 비대칭 키
- 대칭 키: 암호화 및 복호화에 동일한 키를 사용하는 방식.
- 사용 사례: 일반 데이터 암호화.
- 특징: 성능이 우수하고, 키 관리가 상대적으로 간단.
- 비대칭 키: 공개 키와 개인 키 쌍을 사용하는 방식.
- 사용 사례: 디지털 서명, 인증서 발급, 데이터 암호화 등.
- 특징: 보안 수준이 높고, 키 분배 문제를 해결.
5. 다중 리전 키 (Multi-Region Keys)
- 다중 리전 지원 CMKs: 여러 리전에 걸쳐 동일한 키를 사용할 수 있도록 설계된 키입니다.
- 사용 사례: 리전 간 데이터 복제 및 동기화.
- 특징: 여러 리전에서 키의 일관성을 유지하며 암호화 및 복호화를 수행할 수 있습니다.
✅ 문제 37
A company recently launched a variety of new workloads on Amazon EC2 instances in its AWS account. The company needs to create a strategy to access and administer the instances remotely and securely. The company needs to implement a repeatable process that works with native AWS services and follows the AWS Well-Architected Framework.
Which solution will meet these requirements with the LEAST operational overhead?
한 회사는 최근 AWS 계정의 Amazon EC2 인스턴스에서 다양한 새로운 워크로드를 출시했습니다. 회사는 인스턴스에 원격으로 안전하게 액세스하고 관리하는 전략을 수립해야 합니다. 회사는 기본 AWS 서비스와 함께 작동하고 AWS Well-Architected 프레임워크를 따르는 반복 가능한 프로세스를 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Use the EC2 serial console to directly access the terminal interface of each instance for administration.
EC2 직렬 콘솔을 사용하여 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스합니다.
B.
Attach the appropriate IAM role to each existing instance and new instance. Use AWS Systems Manager Session Manager to establish a remote SSH session.
각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS Systems Manager Session Manager를 사용하여 원격 SSH 세션을 설정합니다.
C.
Create an administrative SSH key pair. Load the public key into each EC2 instance. Deploy a *bastion host in a public subnet to provide a tunnel for administration of each instance.
관리 SSH 키 쌍을 만듭니다. 공개 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 *배스천 호스트를 배포하여 각 인스턴스의 관리를 위한 터널을 제공합니다.
D.
Establish an AWS Site-to-Site VPN connection. Instruct administrators to use their local on-premises machines to connect directly to the instances by using SSH keys across the VPN tunnel.
AWS Site-to-Site VPN 연결을 설정합니다. 관리자에게 로컬 온프레미스 머신을 사용하여 VPN 터널에서 SSH 키를 사용하여 인스턴스에 직접 연결하도록 지시합니다.
⭕ 정답: B
📝 해설
📍 AWS Systems Manager Session Manager
EC2 인스턴스에 대한 안전한 원격 액세스를 제공하는 서비스입니다.
- IAM 역할 연결:
- 각 EC2 인스턴스에 적절한 IAM 역할을 연결합니다. 이 역할에는 Systems Manager에 필요한 권한이 포함되어야 합니다.
- Session Manager 사용:
- Systems Manager Session Manager를 사용하여 인스턴스에 원격으로 접속합니다.
- SSH 키를 사용하지 않고도 안전한 세션을 설정할 수 있으며, 관리 오버헤드를 줄입니다.
- Session Manager는 AWS Identity and Access Management(IAM)과 통합되어 보안 및 감사 기능을 제공합니다.
이 방법은 AWS Well-Architected Framework를 따르는 반복 가능한 프로세스를 제공하며, 운영 오버헤드를 최소화하면서 안전하게 인스턴스를 관리할 수 있게 합니다.
✅ 문제 38
A company is hosting a static website on Amazon S3 and is using Amazon Route 53 for DNS. The website is experiencing increased demand from around the world. The company must decrease latency for users who access the website.
Which solution meets these requirements MOST cost-effectively?
회사는 Amazon S3에서 정적 웹 사이트를 호스팅하고 DNS에 Amazon Route 53을 사용하고 있습니다. 웹 사이트는 전 세계적으로 수요가 증가하고 있습니다. 회사는 웹 사이트에 액세스하는 사용자의 대기 시간을 줄여야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Replicate the S3 bucket that contains the website to all AWS Regions. Add Route 53 geolocation routing entries.
웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
B.
Provision accelerators in AWS Global Accelerator. Associate the supplied IP addresses with the S3 bucket. Edit the Route 53 entries to point to the IP addresses of the accelerators.
AWS Global Accelerator에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다.
C.
Add an Amazon CloudFront distribution in front of the S3 bucket. Edit the Route 53 entries to point to the CloudFront distribution.
S3 버킷 앞에 Amazon CloudFront 배포를 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다.
D.
Enable S3 Transfer Acceleration on the bucket. Edit the Route 53 entries to point to the new endpoint.
버킷에서 S3 Transfer Acceleration을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다.
⭕ 정답: C
📝 해설
📍 Amazon CloudFront
콘텐츠 전송 네트워크(CDN) 서비스로, 전 세계적으로 콘텐츠를 캐싱하여 사용자에게 더 가까운 위치에서 콘텐츠를 제공합니다.
- CloudFront 배포 추가:
- S3 버킷 앞에 CloudFront 배포를 설정합니다.
- CloudFront는 정적 콘텐츠를 엣지 로케이션에 캐싱하여 사용자에게 더 빠르게 제공할 수 있습니다.
- Route 53 항목 편집:
- Route 53에서 CloudFront 배포를 가리키도록 DNS 항목을 설정합니다.
- 이렇게 하면 사용자가 CloudFront를 통해 콘텐츠에 접근할 수 있습니다.
CloudFront는 글로벌 네트워크를 통해 콘텐츠를 캐싱하고 제공하므로, 전 세계적으로 사용자 대기 시간을 최소화하면서 비용 효율적인 솔루션을 제공합니다.
✅ 문제 39
A company maintains a searchable repository of items on its website. The data is stored in an Amazon RDS for MySQL database table that contains more than 10 million rows. The database has 2 TB of General Purpose SSD storage. There are millions of updates against this data every day through the company's website.
The company has noticed that some insert operations are taking 10 seconds or longer. The company has determined that the database storage performance is the problem.
Which solution addresses this performance issue?
회사는 웹 사이트에서 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 천만 개 이상의 행이 포함된 Amazon RDS for MySQL 데이터베이스 테이블에 저장됩니다. 데이터베이스에는 2TB의 범용 SSD 스토리지가 있습니다. 회사 웹 사이트를 통해 이 데이터에 대한 수백만 건의 업데이트가 매일 있습니다. 이 회사는 일부 삽입 작업이 10초 이상 걸리는 것을 확인했습니다. 회사는 데이터베이스 스토리지 성능이 문제라고 판단했습니다.
이 성능 문제를 해결하는 솔루션은 무엇입니까?
A.
Change the storage type to Provisioned IOPS SSD.
스토리지 유형을 프로비저닝된 IOPS SSD로 변경합니다.
B.
Change the DB instance to a memory optimized instance class.
DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다.
C.
Change the DB instance to a burstable performance instance class.
DB 인스턴스를 버스트 가능한 성능 인스턴스 클래스로 변경합니다.
D.
Enable Multi-AZ RDS read replicas with MySQL native asynchronous replication.
MySQL 기본 비동기 복제로 다중 AZ RDS 읽기 전용 복제본을 활성화합니다.
⭕ 정답: A
📝 해설
📍 Provisioned IOPS SSD
고성능 I/O 작업을 처리하도록 설계된 스토리지 유형입니다. 높은 IOPS(초당 입출력 작업 수)를 제공하여 데이터베이스 작업의 성능을 향상시킵니다. 특히, 빈번한 읽기/쓰기 작업이 많은 워크로드에 적합합니다.
📍 Amazon RDS 종류
1. 범용 SSD (General Purpose SSD, gp2)
- 성능: 일반적인 워크로드에 적합한 성능을 제공하며, 기본 IOPS(초당 입출력 작업 수)를 필요에 따라 자동으로 조정합니다.
- IOPS: 기본적으로 GB당 3 IOPS를 제공하며, 최대 16,000 IOPS까지 지원합니다.
- 용량: 20GB에서 64TB까지 확장할 수 있습니다.
- 사용 사례: 소규모 데이터베이스, 개발 및 테스트 환경, 트랜잭션이 적은 애플리케이션.
2. 프로비저닝된 IOPS SSD (Provisioned IOPS SSD, io1/io2)
- 성능: 고성능 워크로드에 적합한 스토리지로, IOPS를 사용자 정의하여 일관된 성능을 보장합니다.
- IOPS: 최대 256,000 IOPS까지 지원하며, IOPS와 스토리지 용량을 독립적으로 설정할 수 있습니다.
- 용량: io1은 20GB에서 16TB까지, io2는 4GB에서 64TB까지 지원합니다.
- 사용 사례: I/O 집약적인 애플리케이션, 대규모 데이터베이스, 성능에 민감한 OLTP(온라인 트랜잭션 처리) 워크로
- 일관된 고성능 제공.
- 높은 I/O 처리 능력으로 짧은 지연 시간 보장.
3. 마그네틱 스토리지 (Magnetic)
- 성능: 과거의 표준 스토리지로, 현재는 주로 레거시 시스템이나 저비용이 중요한 워크로드에 사용됩니다.
- IOPS: 상대적으로 낮은 IOPS를 제공.
- 용량: 20GB에서 3TB까지 확장 가능.
- 사용 사례: 데이터 백업, 아카이빙, I/O 요구 사항이 낮은 애플리케이션
- 저비용 스토리지 옵션
- 비용이 중요한 워크로드에 적합.
4. 범용 SSD (gp3)
- 성능: gp2와 유사하지만, 비용 대비 성능이 개선됨.
- IOPS: 3,000 IOPS 기본 제공, 최대 16,000 IOPS까지 확장 가능.
- 용량: 20GB에서 64TB까지 지원.
- 사용 사례: 중간 크기의 데이터베이스 워크로드, 웹 애플리케이션, 비즈니스 애플리케이션.
- gp2보다 비용 효율적.
- 유연한 성능 및 용량 확장.
5. 선택 가이드
- 범용 SSD (gp2/gp3): 일반적인 데이터베이스 워크로드와 비용 효율성을 고려한 경우 적합.
- 프로비저닝된 IOPS SSD (io1/io2): 높은 I/O 성능과 낮은 지연 시간이 중요한 고성능 애플리케이션에 적합.
- 마그네틱 스토리지: 비용을 최우선으로 고려하고, 성능 요구 사항이 낮은 경우 적합.
✅ 문제 40
A company has thousands of edge devices that collectively generate 1 TB of status alerts each day. Each alert is approximately 2 KB in size. A solutions architect needs to implement a solution to ingest and store the alerts for future analysis.
The company wants a highly available solution. However, the company needs to minimize costs and does not want to manage additional infrastructure. Additionally, the company wants to keep 14 days of data available for immediate analysis and archive any data older than 14 days.
What is the MOST operationally efficient solution that meets these requirements?
회사에는 매일 1TB의 상태 알림을 집합적으로 생성하는 수천 개의 에지 장치가 있습니다. 각 경고의 크기는 약 2KB입니다. 솔루션 설계자는 향후 분석을 위해 경고를 수집하고 저장하는 솔루션을 구현해야 합니다.
회사는 고가용성 솔루션을 원합니다. 그러나 회사는 비용을 최소화해야 하며 추가 인프라 관리를 원하지 않습니다. 또한 회사는 즉각적인 분석을 위해 14일 동안의 데이터를 유지하고 14일이 지난 데이터를 보관하기를 원합니다.
이러한 요구 사항을 충족하는 가장 운영 효율성이 높은 솔루션은 무엇입니까?
A.
Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the alerts to an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition data to Amazon S3 Glacier after 14 days.
Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon S3 버킷에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
B.
Launch Amazon EC2 instances across two Availability Zones and place them behind an Elastic Load Balancer to ingest the alerts. Create a script on the EC2 instances that will store the alerts in an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition data to Amazon S3 Glacier after 14 days.
두 가용 영역에서 Amazon EC2 인스턴스를 시작하고 Elastic Load Balancer 뒤에 배치하여 알림을 수집합니다. Amazon S3 버킷에 경고를 저장할 EC2 인스턴스에 대한 스크립트를 생성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
C.
Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the alerts to an Amazon OpenSearch Service (Amazon Elasticsearch Service) cluster. Set up the Amazon OpenSearch Service (Amazon Elasticsearch Service) cluster to take manual snapshots every day and delete data from the cluster that is older than 14 days.
Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터를 설정하여 매일 수동 스냅샷을 만들고 클러스터에서 14일이 지난 데이터를 삭제합니다.
D.
Create an Amazon Simple Queue Service (Amazon SQS) standard queue to ingest the alerts, and set the message retention period to 14 days. Configure consumers to poll the SQS queue, check the age of the message, and analyze the message data as needed. If the message is 14 days old, the consumer should copy the message to an Amazon S3 bucket and delete the message from the SQS queue.
Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 생성하여 알림을 수집하고 메시지 보존 기간을 14일로 설정합니다. SQS 대기열을 폴링하고, 메시지의 수명을 확인하고, 필요에 따라 메시지 데이터를 분석하도록 소비자를 구성합니다. 메시지가 14일이 지난 경우 소비자는 메시지를 Amazon S3 버킷에 복사하고 SQS 대기열에서 메시지를 삭제해야 합니다.
⭕ 정답: A
📝 해설
- Kinesis Data Firehose 설정:
- Kinesis Data Firehose 전송 스트림을 생성하여 에지 장치에서 생성된 알림을 수집합니다.
- Firehose는 데이터를 실시간으로 S3 버킷에 전달합니다.
- S3 수명 주기 구성:
- 14일 후 데이터를 S3 Glacier로 전환하도록 S3 수명 주기 정책을 설정합니다.
- 이렇게 하면 데이터를 비용 효율적으로 장기 보관할 수 있습니다.
이 솔루션은 고가용성과 비용 효율성을 동시에 제공하며, 추가 인프라 관리를 최소화할 수 있습니다.
📍 Amazon Kinesis Data Firehose
실시간 데이터를 손쉽게 수집, 변환 및 로드할 수 있는 완전 관리형 서비스입니다. 다양한 데이터 스트림을 실시간으로 수집하여 Amazon S3, Amazon Redshift, Amazon OpenSearch Service (이전의 Amazon Elasticsearch Service), Splunk와 같은 데이터 저장소로 전송할 수 있습니다. 다음은 Kinesis Data Firehose의 주요 기능과 작동 방식을 더 자세히 설명합니다.
- 실시간 데이터 수집:
- 데이터 스트림 수집: Firehose는 수백만 개의 데이터 레코드를 실시간으로 수집할 수 있습니다. 이는 IoT 센서 데이터, 애플리케이션 로그, 클릭스트림 데이터와 같은 다양한 소스에서 데이터를 수집하는 데 유용합니다.
- 무한 확장성: 데이터 수집량이 증가함에 따라 자동으로 확장되므로 데이터의 양에 관계없이 안정적인 데이터 수집이 가능합니다.
- 데이터 변환:
- 데이터 포맷 변환: AWS Lambda 함수를 사용하여 수집된 데이터를 JSON, CSV, Parquet 등의 형식으로 변환할 수 있습니다. 데이터 변환 작업은 Firehose 스트림 내에서 실시간으로 수행됩니다.
- 데이터 압축: 수집된 데이터를 gzip, ZIP, Snappy와 같은 형식으로 압축하여 저장 공간을 절약하고 전송 속도를 향상시킬 수 있습니다.
- 데이터 로드:
- Amazon S3: 수집된 데이터를 Amazon S3 버킷에 저장할 수 있습니다. S3 버킷에 데이터를 저장하면 다른 AWS 서비스와의 통합이 용이해집니다.
- Amazon Redshift: 데이터 웨어하우스로 데이터를 로드하여 분석 작업을 수행할 수 있습니다. Firehose는 자동으로 데이터를 Redshift로 로드하고, 데이터 로드 중단 시 자동으로 재시도합니다.
- Amazon OpenSearch Service: 실시간 로그 분석 및 검색을 위해 데이터를 OpenSearch 클러스터로 전송할 수 있습니다.
- Splunk: Firehose는 데이터를 Splunk로 전송하여 실시간 로그 분석 및 모니터링을 수행할 수 있습니다.
- 자동 배치:
- 배치 크기 및 시간 설정: Firehose는 데이터를 배치로 묶어 전송합니다. 사용자는 배치 크기와 배치 시간을 설정할 수 있으며, 이 설정은 전송 효율성을 최적화하는 데 도움이 됩니다.
- 모니터링 및 관리:
- Amazon CloudWatch 통합: Firehose 스트림의 상태를 모니터링하고, 데이터 전송 실패, 전송 지연 등의 문제를 감지할 수 있습니다.
- 자동 재시도: 데이터 전송이 실패하면 자동으로 재시도하여 데이터 손실을 최소화합니다.
- 사용사례
- 실시간 로그 및 이벤트 데이터 수집: 애플리케이션 로그, 시스템 로그, 클릭스트림 데이터와 같은 실시간 데이터를 수집하고 변환하여 Amazon S3나 OpenSearch Service로 전송하여 분석할 수 있습니다.
- 데이터 웨어하우징: 대규모 데이터 세트를 실시간으로 수집하고 변환하여 Amazon Redshift로 전송함으로써 데이터 웨어하우징 솔루션을 구축할 수 있습니다.
- 보안 및 모니터링: 실시간 보안 로그와 이벤트 데이터를 수집하여 Splunk로 전송함으로써 보안 모니터링과 분석을 수행할 수 있습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (61 - 80) (0) | 2024.05.22 |
---|---|
[AWS SAA-C03] Examtopics Dump (41 - 60) (0) | 2024.05.17 |
[AWS SAA-C03] Examtopics Dump (1 - 20) (1) | 2024.05.14 |
[AWS SAA-C03] EC2 기초 (0) | 2024.05.14 |
[AWS SAA-C03] IAM (0) | 2024.05.14 |