✅ 문제 41
A company's application integrates with multiple software-as-a-service (SaaS) sources for data collection. The company runs Amazon EC2 instances to receive the data and to upload the data to an Amazon S3 bucket for analysis. The same EC2 instance that receives and uploads the data also sends a notification to the user when an upload is complete. The company has noticed slow application performance and wants to improve the performance as much as possible.
Which solution will meet these requirements with the LEAST operational overhead?
회사의 애플리케이션은 데이터 수집을 위해 여러 SaaS(Software-as-a-Service) 소스와 통합됩니다. 이 회사는 Amazon EC2 인스턴스를 실행하여 데이터를 수신하고 분석을 위해 데이터를 Amazon S3 버킷에 업로드합니다. 데이터를 수신하고 업로드하는 동일한 EC2 인스턴스도 업로드가 완료되면 사용자에게 알림을 보냅니다. 회사는 느린 응용 프로그램 성능을 발견했으며 가능한 한 성능을 개선하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A.
Create an Auto Scaling group so that EC2 instances can scale out. Configure an S3 event notification to send events to an Amazon Simple Notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.
EC2 인스턴스가 확장할 수 있도록 Auto Scaling 그룹을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
B.
Create an Amazon AppFlow flow to transfer data between each SaaS source and the S3 bucket. Configure an S3 event notification to send events to an Amazon Simple Notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.
Amazon AppFlow 흐름을 생성하여 각 SaaS 소스와 S3 버킷 간에 데이터를 전송합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
C.
Create an Amazon EventBridge (Amazon CloudWatch Events) rule for each SaaS source to send output data. Configure the S3 bucket as the rule's target. Create a second EventBridge (Cloud Watch Events) rule to send events when the upload to the S3 bucket is complete. Configure an Amazon Simple Notification Service (Amazon SNS) topic as the second rule's target.
각 SaaS 소스에 대해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 출력 데이터를 보냅니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 업로드가 완료되면 이벤트를 전송하는 두 번째 EventBridge(Cloud Watch Events) 규칙을 생성합니다. Amazon Simple Notification Service(Amazon SNS) 주제를 두 번째 규칙의 대상으로 구성합니다.
D.
Create a Docker container to use instead of an EC2 instance. Host the containerized application on Amazon Elastic Container Service (Amazon ECS). Configure Amazon CloudWatch Container Insights to send events to an Amazon Simple Notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.
EC2 인스턴스 대신 사용할 Docker 컨테이너를 생성합니다. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너화된 애플리케이션을 호스팅합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 Amazon CloudWatch Container Insights를 구성합니다.
⭕ 정답: B
📝 해설
📍 Amazon AppFlow
클릭 몇 번으로 Salesforce, SAP, Zendesk, Slack 및 ServiceNow와 같은 서비스형 소프트웨어(SaaS) 애플리케이션과 Amazon S3 및 Amazon Redshift와 같은 AWS 서비스 간에 데이터를 안전하게 전송할 수 있게 해 주는 완전관리형 통합 서비스이다.
- AppFlow를 사용하면 엔터프라이즈급 규모에 원하는 빈도로 즉 일정에 따라, 비즈니스 이벤트에 대한 응답으로 또는 온디맨드로 데이터 플로우를 실행할 수 있다.
- 필터링 및 검증과 같은 데이터 변환 기능을 구성하여 추가 단계 없이 플로우 자체의 일부로 바로 사용 가능한 풍부한 데이터를 생성할 수 있다.
- AppFlow는 이동 중의 데이터를 자동으로 암호화하며 사용자가 AWS PrivateLink와 통합된 SaaS 애플리케이션을 위해 퍼블릭 인터넷상의 데이터 플로우를 제한할 수 있게 해 주므로 보안 위협에 대한 노출이 감소시킬 수 있다.
- S3 이벤트 알림을 구성하여 업로드가 완료되면 Amazon SNS 주제로 이벤트를 보냅니다. 이를 통해 사용자에게 알림을 자동으로 보낼 수 있다.
✅ 문제 42
A company runs a highly available image-processing application on Amazon EC2 instances in a single VPC. The EC2 instances run inside several subnets across multiple Availability Zones. The EC2 instances do not communicate with each other. However, the EC2 instances download images from Amazon S3 and upload images to Amazon S3 through a single NAT gateway. The company is concerned about data transfer charges.
What is the MOST cost-effective way for the company to avoid Regional data transfer charges?
회사는 단일 VPC의 Amazon EC2 인스턴스에서 고가용성 이미지 처리 애플리케이션을 실행합니다. EC2 인스턴스는 여러 가용 영역의 여러 서브넷 내에서 실행됩니다. EC2 인스턴스는 서로 통신하지 않습니다. 그러나 EC2 인스턴스는 Amazon S3에서 이미지를 다운로드하고 단일 NAT 게이트웨이를 통해 Amazon S3에 이미지를 업로드합니다. 회사는 데이터 전송 요금에 대해 우려하고 있습니다.
회사가 지역 데이터 전송 요금을 피할 수 있는 가장 비용 효율적인 방법은 무엇입니까?
A.
Launch the NAT gateway in each Availability Zone.
각 가용 영역에서 NAT 게이트웨이를 시작합니다.
B.
Replace the NAT gateway with a NAT instance.
NAT 게이트웨이를 NAT 인스턴스로 교체합니다.
C.
Deploy a gateway VPC endpoint for Amazon S3.
Amazon S3용 게이트웨이 VPC 엔드포인트를 배포합니다.
D.
Provision an EC2 Dedicated Host to run the EC2 instances.
EC2 인스턴스를 실행할 EC2 전용 호스트를 프로비저닝합니다.
⭕ 정답: C
📝 해설
VPC 게이트웨이 엔드 포인트를 배포하면 데이터는 AWS 네트워크를 통해서만 전송됩니다. 또한, Amazon S3와 같은 AWS 서비스에 대한 프라이빗 연결을 제공하여, 인터넷 게이트웨이나 NAT 게이트웨이를 거치지 않고도 S3에 직접 접근할 수 있게 합니다.
✅ 문제 43
A company has an on-premises application that generates a large amount of time-sensitive data that is backed up to Amazon S3. The application has grown and there are user complaints about internet bandwidth limitations. A solutions architect needs to design a long-term solution that allows for both timely backups to Amazon S3 and with minimal impact on internet connectivity for internal users.
Which solution meets these requirements?
회사에 Amazon S3에 백업되는 시간에 민감한 대량의 데이터를 생성하는 온프레미스 애플리케이션이 있습니다. 애플리케이션이 성장했고 인터넷 대역폭 제한에 대한 사용자 불만이 있습니다. 솔루션 설계자는 Amazon S3에 대한 적시 백업을 허용하고 내부 사용자의 인터넷 연결에 미치는 영향을 최소화하는 장기 솔루션을 설계해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Establish AWS VPN connections and proxy all traffic through a VPC gateway endpoint.
AWS VPN 연결을 설정하고 VPC 게이트웨이 엔드포인트를 통해 모든 트래픽을 프록시합니다.
B.
Establish a new AWS Direct Connect connection and direct backup traffic through this new connection.
새 AWS Direct Connect 연결을 설정하고 이 새 연결을 통해 백업 트래픽을 직접 연결합니다.
C.
Order daily AWS Snowball devices. Load the data onto the Snowball devices and return the devices to AWS each day.
매일 AWS Snowball 디바이스를 주문합니다. Snowball 디바이스에 데이터를 로드하고 디바이스를 매일 AWS로 반환합니다.
D.
Submit a support ticket through the AWS Management Console. Request the removal of S3 service limits from the account.
AWS Management 콘솔을 통해 지원 티켓을 제출합니다. 계정에서 S3 서비스 제한 제거를 요청합니다.
⭕ 정답: B
📝 해설
📍 AWS Direct Connet
온프레미스 데이터 센터와 AWS 간의 전용 네트워크 직접연결을 제공하며, 이는 인터넷 연결처럼 늘어나거나 줄어들지 않는 안정적인 네트워크 연결을 보장하는 방법입니다.
- 높은 대역폭: Direct Connect는 고대역폭 전용 연결을 통해 인터넷 대역폭 제한 문제를 해결합니다.
- 지연 시간 감소: 전용 연결을 통해 지연 시간이 줄어들고, 백업 작업의 성능이 향상됩니다.
- 안정성 및 신뢰성: 인터넷을 통하지 않고 전용 연결을 사용하므로, 데이터 전송의 안정성과 신뢰성이 높아집니다.
✅ 문제 44
A company has an Amazon S3 bucket that contains critical data. The company must protect the data from accidental deletion.
Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)
회사에 중요한 데이터가 포함된 Amazon S3 버킷이 있습니다. 회사는 우발적인 삭제로부터 데이터를 보호해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)
A.
Enable versioning on the S3 bucket.
S3 버킷에서 버전 관리를 활성화합니다.
B.
Enable MFA Delete on the S3 bucket.
S3 버킷에서 MFA 삭제를 활성화합니다.
C.
Create a bucket policy on the S3 bucket.
S3 버킷에 버킷 정책을 생성합니다.
D.
Enable default encryption on the S3 bucket.
S3 버킷에서 기본 암호화를 활성화합니다.
E.
Create a lifecycle policy for the objects in the S3 bucket.
S3 버킷의 객체에 대한 수명 주기 정책을 생성합니다.
⭕ 정답: A, B
📝 해설
- 버전 관리 활성화: S3 버킷에서 버전 관리를 활성화하면 데이터의 모든 버전을 보관하여, 우발적인 삭제나 덮어쓰기를 방지할 수 있습니다.
- MFA 삭제 활성화: MFA 삭제를 활성화하면 삭제 작업 시 다중 요소 인증을 요구하여, 우발적인 데이터 삭제를 방지할 수 있습니다.
- 객체의 교차 리전 복제를 활성화합니다.
+) S3 객체가 어떻게 삭제되었는지 알아보는 방법 : 서버 Access Log, AWS CloudTrail 로그 검토
✅ 문제 45
A company has a data ingestion workflow that consists of the following:
• An Amazon Simple Notification Service (Amazon SNS) topic for notifications about new data deliveries
• An AWS Lambda function to process the data and record metadata
The company observes that the ingestion workflow fails occasionally because of network connectivity issues. When such a failure occurs, the Lambda function does not ingest the corresponding data unless the company manually reruns the job.
Which combination of actions should a solutions architect take to ensure that the Lambda function ingests all data in the future? (Choose two.)
회사에 다음으로 구성된 데이터 수집 워크플로가 있습니다.
• 새 데이터 전송에 대한 알림을 위한 Amazon Simple Notification Service(Amazon SNS) 주제
• 데이터를 처리하고 메타데이터를 기록하는 AWS Lambda 함수
회사에서 수집 워크플로가 실패하는 것을 관찰합니다. 때때로 네트워크 연결 문제로 인해. 이러한 장애가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 Lambda 함수는 해당 데이터를 수집하지 않습니다.
Lambda 함수가 향후 모든 데이터를 수집하도록 하려면 솔루션 설계자가 취해야 하는 작업 조합은 무엇입니까? (2개를 선택하세요.)
A.
Deploy the Lambda function in multiple Availability Zones.
여러 가용 영역에 Lambda 함수를 배포합니다.
B.
Create an Amazon Simple Queue Service (Amazon SQS) queue, and subscribe it to the SNS topic.
Amazon Simple Queue Service(Amazon SQS) 대기열을 생성하고 SNS 주제를 구독합니다.
C.
Increase the CPU and memory that are allocated to the Lambda function.
Lambda 함수에 할당된 CPU와 메모리를 늘립니다.
D.
Increase provisioned throughput for the Lambda function.
Lambda 함수에 대해 프로비저닝된 처리량을 늘립니다.
E.
Modify the Lambda function to read from an Amazon Simple Queue Service (Amazon SQS) queue.
Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽도록 Lambda 함수를 수정합니다.
⭕ 정답: B, E
📝 해설
- SQS 대기열 사용: SQS 대기열을 사용하면 데이터 수집의 신뢰성을 높일 수 있습니다. SNS 주제에서 SQS 대기열을 구독하여 메시지를 저장하면 네트워크 문제 발생 시에도 데이터가 손실되지 않습니다.
- Lambda 함수 수정: Lambda 함수가 SQS 대기열에서 메시지를 읽도록 수정하여, 데이터 수집 실패 시에도 SQS 대기열에서 데이터를 처리할 수 있습니다.
- Lambda는 서버리스 서비스이므로 다중 AZ(가용역역)이 필요없음
✅ 문제 46
A company has an application that provides marketing services to stores. The services are based on previous purchases by store customers. The stores upload transaction data to the company through SFTP, and the data is processed and analyzed to generate new marketing offers. Some of the files can exceed 200 GB in size.
Recently, the company discovered that some of the stores have uploaded files that contain personally identifiable information (PII) that should not have been included. The company wants administrators to be alerted if PII is shared again. The company also wants to automate remediation.
What should a solutions architect do to meet these requirements with the LEAST development effort?
회사에 매장에 마케팅 서비스를 제공하는 애플리케이션이 있습니다. 서비스는 매장 고객의 이전 구매를 기반으로 합니다. 상점은 SFTP를 통해 거래 데이터를 회사에 업로드하고 데이터를 처리 및 분석하여 새로운 마케팅 제안을 생성합니다. 일부 파일의 크기는 200GB를 초과할 수 있습니다.
최근에 회사는 일부 상점에서 포함되어서는 안 되는 개인 식별 정보(PII)가 포함된 파일을 업로드했음을 발견했습니다. 회사는 PII가 다시 공유될 경우 관리자에게 경고를 주기를 원합니다. 회사는 또한 문제 해결을 자동화하기를 원합니다.
최소한의 개발 노력으로 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A.
Use an Amazon S3 bucket as a secure transfer point. Use Amazon Inspector to scan the objects in the bucket. If objects contain PII, trigger an S3 Lifecycle policy to remove the objects that contain PII.
Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
B.
Use an Amazon S3 bucket as a secure transfer point. Use Amazon Macie to scan the objects in the bucket. If objects contain PII, use Amazon Simple Notification Service (Amazon SNS) to trigger a notification to the administrators to remove the objects that contain PII.
Amazon S3 버킷을 보안 전송 지점으로 사용합니다. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 트리거합니다.
C.
Implement custom scanning algorithms in an AWS Lambda function. Trigger the function when objects are loaded into the bucket. If objects contain PII, use Amazon Simple Notification Service (Amazon SNS) to trigger a notification to the administrators to remove the objects that contain PII.
AWS Lambda 함수에서 사용자 지정 스캔 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 트리거합니다.
D.
Implement custom scanning algorithms in an AWS Lambda function. Trigger the function when objects are loaded into the bucket. If objects contain PII, use Amazon Simple Email Service (Amazon SES) to trigger a notification to the administrators and trigger an S3 Lifecycle policy to remove the meats that contain PII.
AWS Lambda 함수에서 사용자 지정 스캔 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 트리거하고 S3 수명 주기 정책을 트리거하여 PII가 포함된 meats를 제거합니다.
⭕ 정답: B
📝 해설
📍 Amazon Macie
Amazon Macie는 완전관리형 데이터 보안 및 데이터 프라이버시 서비스로, 기계 학습 및 패턴 일치를 활용하여 AWS에서 민감한 데이터를 검색하고 보호합니다. 즉, 기계 학습을 사용하여 Amazon S3에 저장된 데이터에서 PII를 식별하고 보호하여 데이터를 자동으로 스캔하고 민감한 정보를 탐지합니다.
- Amazon S3 사용: S3 버킷을 파일 업로드 지점으로 사용합니다. S3는 높은 내구성과 가용성을 제공하므로 안전한 데이터 전송 지점으로 적합합니다.
- Amazon Macie 설정: Macie를 사용하여 S3 버킷에 업로드된 파일을 자동으로 스캔하고, PII가 포함된 파일을 탐지합니다.
- SNS 알림 구성: PII가 포함된 파일이 발견되면 Amazon SNS를 사용하여 관리자에게 알림을 보냅니다. 이를 통해 신속하게 문제를 인지하고 대응할 수 있습니다.
- 자동화된 조치: 추가로 Lambda 함수를 사용하여 탐지된 PII 파일을 자동으로 처리하거나 제거할 수 있습니다.
이 방법은 최소한의 개발 노력으로 PII 감지 및 자동화를 구현할 수 있는 효율적인 솔루션입니다.
✅ 문제 47
A company needs guaranteed Amazon EC2 capacity in three specific Availability Zones in a specific AWS Region for an upcoming event that will last 1 week.
What should the company do to guarantee the EC2 capacity?
회사는 1주일 동안 진행될 예정된 이벤트를 위해 특정 AWS 리전의 3개의 특정 가용 영역에서 보장된 Amazon EC2 용량이 필요합니다.
EC2 용량을 보장하기 위해 회사는 무엇을 해야 합니까?
A.
Purchase Reserved Instances that specify the Region needed.
필요한 리전을 지정하는 예약 인스턴스를 구매합니다.
B.
Create an On-Demand Capacity Reservation that specifies the Region needed.
필요한 지역을 지정하는 온디맨드 용량 예약을 생성합니다.
C.
Purchase Reserved Instances that specify the Region and three Availability Zones needed.
필요한 리전과 3개의 가용 영역을 지정하는 예약 인스턴스를 구매합니다.
D.
Create an On-Demand Capacity Reservation that specifies the Region and three Availability Zones needed.
필요한 지역과 3개의 가용 영역을 지정하는 온디맨드 용량 예약을 생성합니다.
⭕ 정답: D
📝 해설
On-Demand Capacity Reservations는 특정 리전과 가용 영역에서 EC2 인스턴스 용량을 예약할 수 있는 기능을 제공합니다. 이를 통해 이벤트 기간 동안 필요한 인스턴스 용량을 보장받을 수 있습니다.
- 온디맨드 용량 예약 생성: 필요한 리전과 가용 영역을 지정하여 EC2 용량을 예약합니다. 이렇게 하면 이벤트 기간 동안 필요한 용량을 확보할 수 있습니다.
- 확정된 용량 보장: 예약된 용량은 사용자의 예약이 유효한 동안 항상 가용하며, 필요한 인스턴스를 언제든지 시작할 수 있습니다.
✅ 문제 48
A company's website uses an Amazon EC2 instance store for its catalog of items. The company wants to make sure that the catalog is highly available and that the catalog is stored in a durable location.
What should a solutions architect do to meet these requirements?
회사 웹 사이트는 항목 카탈로그에 Amazon EC2 인스턴스 스토어를 사용합니다. 회사는 카탈로그의 가용성이 높고 카탈로그가 내구성 있는 위치에 저장되기를 원합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Move the catalog to Amazon ElastiCache for Redis.
카탈로그를 Redis용 Amazon ElastiCache로 이동합니다.
B.
Deploy a larger EC2 instance with a larger instance store.
더 큰 인스턴스 스토어로 더 큰 EC2 인스턴스를 배포합니다.
C.
Move the catalog from the instance store to Amazon S3 Glacier Deep Archive.
인스턴스 스토어에서 Amazon S3 Glacier Deep Archive로 카탈로그를 이동합니다.
D.
Move the catalog to an Amazon Elastic File System (Amazon EFS) file system.
카탈로그를 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
⭕ 정답: D
📝 해설
📍 Amazon Elastic File System(Amazon EFS)
완전 관리형 네트워크 파일 시스템으로, EC2 인스턴스와 함께 사용할 수 있으며 높은 가용성과 내구성을 제공합니다.
- 높은 가용성: EFS는 여러 가용 영역에 걸쳐 데이터를 저장하므로, 하나의 가용 영역에서 장애가 발생하더라도 데이터 접근이 가능합니다.
- 내구성: EFS는 데이터를 중복 저장하여 내구성을 보장합니다.
- 확장성: 파일 시스템은 자동으로 확장 및 축소되므로, 데이터 저장 요구가 증가하더라도 추가적인 관리가 필요 없습니다.
걍 내구성하면 Amazon EFS 고르면 될듯??
✅ 문제 49
A company stores call transcript files on a monthly basis. Users access the files randomly within 1 year of the call, but users access the files infrequently after 1 year. The company wants to optimize its solution by giving users the ability to query and retrieve files that are less than 1-year-old as quickly as possible. A delay in retrieving older files is acceptable.
Which solution will meet these requirements MOST cost-effectively?
회사는 매월 통화 기록 파일을 저장합니다. 사용자는 통화 후 1년 이내에 파일에 무작위로 액세스하지만 1년 이후에는 파일에 자주 액세스하지 않습니다. 이 회사는 사용자에게 1년 미만의 파일을 가능한 한 빨리 쿼리하고 검색할 수 있는 기능을 제공하여 솔루션을 최적화하려고 합니다. 오래된 파일을 검색하는 데 있어 지연은 허용됩니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A.
Store individual files with tags in Amazon S3 Glacier Instant Retrieval. Query the tags to retrieve the files from S3 Glacier Instant Retrieval.
Amazon S3 Glacier Instant Retrieval에 태그가 있는 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval에서 파일을 검색합니다.
B.
Store individual files in Amazon S3 Intelligent-Tiering. Use S3 Lifecycle policies to move the files to S3 Glacier Flexible Retrieval after 1 year. Query and retrieve the files that are in Amazon S3 by using Amazon Athena. Query and retrieve the files that are in S3 Glacier by using S3 Glacier Select.
Amazon S3 Intelligent-Tiering에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후 파일을 S3 Glacier Flexible Retrieval로 이동합니다. Amazon Athena를 사용하여 Amazon S3에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select를 사용하여 S3 Glacier에 있는 파일을 쿼리하고 검색합니다.
C.
Store individual files with tags in Amazon S3 Standard storage. Store search metadata for each archive in Amazon S3 Standard storage. Use S3 Lifecycle policies to move the files to S3 Glacier Instant Retrieval after 1 year. Query and retrieve the files by searching for metadata from Amazon S3.
Amazon S3 Standard 스토리지에 태그가 있는 개별 파일을 저장합니다. Amazon S3 Standard 스토리지의 각 아카이브에 대한 검색 메타데이터를 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Instant Retrieval로 이동합니다. Amazon S3에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다.
D.
Store individual files in Amazon S3 Standard storage. Use S3 Lifecycle policies to move the files to S3 Glacier Deep Archive after 1 year. Store search metadata in Amazon RDS. Query the files from Amazon RDS. Retrieve the files from S3 Glacier Deep Archive.
Amazon S3 Standard 스토리지에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Deep Archive로 이동합니다. Amazon RDS에 검색 메타데이터를 저장합니다. Amazon RDS에서 파일을 쿼리합니다. S3 Glacier Deep Archive에서 파일을 검색합니다.
⭕ 정답: B
📝 해설
- Amazon S3 Intelligent-Tiering: 해당 스토리지 클래스는 데이터 접근 패턴을 모니터링하여 자주 접근되는 데이터를 비용 효율적으로 저장합니다.
- S3 수명 주기 정책: 수명 주기 정책을 설정하여 1년 후에 파일을 S3 Glacier Flexible Retrieval로 자동 전환하여 저장 비용을 절감합니다.
- 데이터 쿼리 및 검색:
- Amazon Athena: Amazon S3에 있는 데이터를 SQL 쿼리를 사용하여 빠르게 분석하고 검색할 수 있습니다.
- S3 Glacier Select: S3 Glacier에 저장된 데이터를 직접 쿼리하여 필요한 정보를 검색할 수 있습니다.
✅ 문제 50
A company has a production workload that runs on 1,000 Amazon EC2 Linux instances. The workload is powered by third-party software. The company needs to patch the third-party software on all EC2 instances as quickly as possible to remediate a critical security vulnerability.
What should a solutions architect do to meet these requirements?
회사에 1,000개의 Amazon EC2 Linux 인스턴스에서 실행되는 프로덕션 워크로드가 있습니다. 워크로드는 타사 소프트웨어에 의해 구동됩니다. 회사는 중요한 보안 취약성을 수정하기 위해 가능한 한 빨리 모든 EC2 인스턴스에서 타사 소프트웨어를 패치해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Create an AWS Lambda function to apply the patch to all EC2 instances.
AWS Lambda 함수를 생성하여 모든 EC2 인스턴스에 패치를 적용합니다.
B.
Configure AWS Systems Manager Patch Manager to apply the patch to all EC2 instances.
모든 EC2 인스턴스에 패치를 적용하도록 AWS Systems Manager Patch Manager를 구성합니다.
C.
Schedule an AWS Systems Manager maintenance window to apply the patch to all EC2 instances.
AWS Systems Manager 유지 관리 기간을 예약하여 모든 EC2 인스턴스에 패치를 적용합니다.
D.
Use AWS Systems Manager Run Command to run a custom command that applies the patch to all EC2 instances.
AWS Systems Manager Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.
⭕ 정답: D
📝 해설
📍 AWS Systems Manager Run Command
AWS Systems Manager의 기능 중 하나로, 대규모 EC2 인스턴스에 대해 원격으로 명령을 실행할 수 있게 합니다. Run Command는 일관된 방법으로 인스턴스 그룹에 명령을 배포할 수 있어, 신속하고 효율적으로 패치를 적용하는 데 매우 유용합니다.
- 중앙 집중식 관리:
- 단일 콘솔에서 관리: AWS Management Console, AWS CLI 또는 AWS SDK를 통해 모든 EC2 인스턴스를 중앙에서 관리할 수 있습니다.
- 대규모 배포: 수백 또는 수천 개의 인스턴스에 명령을 동시에 배포할 수 있어, 패치 작업을 빠르게 완료할 수 있습니다.
- 안전하고 신뢰성 있는 작업:
- IAM 역할 사용: 인스턴스에 명령을 실행하기 위해 적절한 권한이 부여된 IAM 역할을 사용합니다.
- 세분화된 제어: 특정 인스턴스 그룹에만 명령을 실행하거나, 태그를 사용하여 대상 인스턴스를 세분화할 수 있습니다.
- 작업 추적: 각 명령의 실행 상태와 결과를 추적하고 로깅하여, 패치 적용 과정을 모니터링할 수 있습니다.
- 자동화 및 효율성:
- 프리패치 스크립트: 패치 작업을 위한 사용자 지정 스크립트를 미리 작성하여 Run Command를 통해 실행할 수 있습니다.
- 재사용 가능한 명령: 여러 번 사용할 수 있는 명령 템플릿을 작성하여 일관된 방식으로 패치를 적용할 수 있습니다.
📍 AWS Systems Manager Patch Manager
EC2 인스턴스에 대한 자동 패치 관리 기능을 제공합니다. 이를 통해 모든 인스턴스에 일관되게 패치를 적용할 수 있습니다.
- Patch Manager 설정: 패치를 적용할 대상 인스턴스와 패치 기준을 정의합니다.
- 자동 패치 적용: 지정된 일정에 따라 모든 EC2 인스턴스에 패치를 자동으로 적용합니다.
- 감사 및 보고: 패치 적용 상태를 모니터링하고 보고서를 생성하여, 패치 적용이 완료되었는지 확인할 수 있습니다.
==> 패치 적용 작업 중 인스턴스에서 실행 중인 애플리케이션 또는 프로세스를 중단할 수 없는 경우 사용합니다. 또한, 타사 소프트웨어를 경로 지정해야 하고 Systems Manager Patch Manager는 OS 소유 소프트웨어에서만 작동하기 때문에 타사 소프트웨어를 적용하는데 한계가 있습니다. 따라서 타사 소프트웨어 패치의 경우, 커스텀 명령을 실행하는 Run Command가 적합합니다.
✅ 문제 51
A company is developing an application that provides order shipping statistics for retrieval by a REST API. The company wants to extract the shipping statistics, organize the data into an easy-to-read HTML format, and send the report to several email addresses at the same time every morning.
Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)
회사는 REST API로 검색하기 위해 주문 배송 통계를 제공하는 애플리케이션을 개발 중입니다. 이 회사는 배송 통계를 추출하고 데이터를 읽기 쉬운 HTML 형식으로 구성하고 매일 아침 여러 이메일 주소로 보고서를 보내려고 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)
A.
Configure the application to send the data to Amazon Kinesis Data Firehose.
데이터를 Amazon Kinesis Data Firehose로 보내도록 애플리케이션을 구성합니다.
B.
Use Amazon Simple Email Service (Amazon SES) to format the data and to send the report by email.
Amazon Simple Email Service(Amazon SES)를 사용하여 데이터 형식을 지정하고 보고서를 이메일로 보냅니다.
C.
Create an Amazon EventBridge (Amazon CloudWatch Events) scheduled event that invokes an AWS Glue job to query the application's API for the data.
AWS Glue 작업을 호출하여 데이터에 대한 애플리케이션의 API를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
D.
Create an Amazon EventBridge (Amazon CloudWatch Events) scheduled event that invokes an AWS Lambda function to query the application's API for the data.
AWS Lambda 함수를 호출하여 데이터에 대한 애플리케이션의 API를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
E.
Store the application data in Amazon S3. Create an Amazon Simple Notification Service (Amazon SNS) topic as an S3 event destination to send the report by email.
Amazon S3에 애플리케이션 데이터를 저장합니다. 보고서를 이메일로 보낼 S3 이벤트 대상으로 Amazon Simple Notification Service(Amazon SNS) 주제를 생성합니다.
⭕ 정답: B, D
📝 해설
- Lambda 함수 작성:
- API에서 데이터를 가져오고 HTML 형식으로 변환하는 Lambda 함수를 작성합니다.
- 이 함수는 일정에 따라 실행되어 데이터를 처리하고 이메일을 발송하는 작업을 수행합니다.
- EventBridge 규칙 생성:
- 매일 아침 일정한 시간에 Lambda 함수를 호출하는 EventBridge 규칙을 생성합니다.
- 규칙은 CRON 표현식을 사용하여 원하는 시간에 Lambda 함수를 호출하도록 설정할 수 있습니다.
- SES 설정 및 이메일 템플릿 작성:
- SES에서 이메일 발송을 위한 도메인 인증 및 이메일 템플릿을 설정합니다.
- Lambda 함수가 SES를 사용하여 HTML 형식의 이메일을 발송할 수 있도록 합니다.
📍 Amazon Simple Email Service(Amazon SES)
SES는 대량의 이메일을 발송하고 수신하는 데 사용되는 완전 관리형 서비스입니다. 마케팅 이메일, 알림 이메일, HTML 형식의 데이터의 이메일 전송, 트랜잭션 이메일을 발송하는 데 적합합니다.
- 확장성: 대량의 이메일을 신속하게 발송할 수 있습니다.
- 비용 효율성: 사용한 만큼만 비용을 지불하는 방식으로 비용을 절감할 수 있습니다.
- 보안: 인증, IP 허용 목록, 전송 암호화를 통한 보안을 제공합니다.
📍 Amazon EventBridge(Amazon CloudWatch Events)
다양한 AWS 서비스와 사용자 지정 애플리케이션 간의 이벤트를 연결하고 라우팅하는 완전 관리형 이벤트 버스 서비스입니다.
- Amazon EventBridge는 일정에 따라 AWS Lambda 함수를 호출하여 데이터를 API에서 가져오고 처리할 수 있습니다.
- AWS Lambda 함수 호출: 예약된 시간마다 Lambda 함수를 호출하여 API에서 데이터를 쿼리하고, 데이터를 HTML 형식으로 변환하여 Amazon SES를 통해 이메일을 보냅니다.
✅ 문제 52
A company wants to migrate its on-premises application to AWS. The application produces output files that vary in size from tens of gigabytes to hundreds of terabytes. The application data must be stored in a standard file system structure. The company wants a solution that scales automatically. is highly available, and requires minimum operational overhead.
Which solution will meet these requirements?
회사에서 온프레미스 애플리케이션을 AWS로 마이그레이션하려고 합니다. 애플리케이션은 수십 기가바이트에서 수백 테라바이트까지 다양한 크기의 출력 파일을 생성합니다. 애플리케이션 데이터는 표준 파일 시스템 구조로 저장되어야 합니다. 회사는 자동으로 확장되는 솔루션을 원합니다. 고가용성이며 최소한의 운영 오버헤드가 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Migrate the application to run as containers on Amazon Elastic Container Service (Amazon ECS). Use Amazon S3 for storage.
Amazon Elastic Container Service(Amazon ECS)에서 컨테이너로 실행되도록 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon S3를 사용합니다.
B.
Migrate the application to run as containers on Amazon Elastic Kubernetes Service (Amazon EKS). Use Amazon Elastic Block Store (Amazon EBS) for storage.
Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너로 실행되도록 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon Elastic Block Store(Amazon EBS)를 사용합니다.
C.
Migrate the application to Amazon EC2 instances in a Multi-AZ Auto Scaling group. Use Amazon Elastic File System (Amazon EFS) for storage.
다중 AZ Auto Scaling 그룹의 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon Elastic File System(Amazon EFS)을 사용합니다.
D.
Migrate the application to Amazon EC2 instances in a Multi-AZ Auto Scaling group. Use Amazon Elastic Block Store (Amazon EBS) for storage.
다중 AZ Auto Scaling 그룹의 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon Elastic Block Store(Amazon EBS)를 사용합니다.
⭕ 정답: C
📝 해설
Amazon EC2 및 Amazon EFS를 사용한 솔루션은 다음과 같은 이유로 최적입니다:
- 자동 확장: EC2 Auto Scaling 그룹을 사용하면 트래픽 증가에 따라 인스턴스를 자동으로 추가하거나 제거할 수 있습니다. 이는 애플리케이션의 가용성과 성능을 보장합니다.
- 고가용성: EFS는 다중 가용 영역(AZ)에서 데이터를 복제하여 높은 내구성과 가용성을 제공합니다.
- 운영 오버헤드 최소화: EFS는 완전 관리형 파일 시스템으로, 파일 시스템을 관리하고 확장하는 데 필요한 운영 오버헤드를 줄여줍니다.
오답 분석:
- A: Amazon S3는 객체 스토리지로, 파일 시스템 접근이 필요한 애플리케이션에는 적합하지 않습니다.
- B: Amazon EBS는 인스턴스에 직접 연결된 블록 스토리지로, 다중 AZ에서 공유 파일 시스템을 제공하지 않습니다.
- D: EBS는 표준 파일 시스템으로 사용하기 어렵고, 다중 AZ에서의 높은 가용성을 보장하지 않습니다.
✅ 문제 53
A company needs to store its accounting records in Amazon S3. The records must be immediately accessible for 1 year and then must be archived for an additional 9 years. No one at the company, including administrative users and root users, can be able to delete the records during the entire 10-year period. The records must be stored with maximum resiliency.
Which solution will meet these requirements?
회사는 Amazon S3에 회계 기록을 저장해야 합니다. 기록은 1년 동안 즉시 액세스할 수 있어야 하며 그 후 추가로 9년 동안 보관해야 합니다. 관리자 및 루트 사용자를 포함하여 회사의 그 누구도 전체 10년 동안 기록을 삭제할 수 없습니다. 기록은 최대한의 복원력으로 저장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Store the records in S3 Glacier for the entire 10-year period. Use an access control policy to deny deletion of the records for a period of 10 years.
전체 10년 동안 S3 Glacier에 기록을 저장합니다. 접근통제 정책을 사용하여 10년 동안 기록 삭제를 거부합니다.
B.
Store the records by using S3 Intelligent-Tiering. Use an IAM policy to deny deletion of the records. After 10 years, change the IAM policy to allow deletion.
S3 Intelligent-Tiering을 사용하여 레코드를 저장합니다. IAM 정책을 사용하여 레코드 삭제를 거부합니다. 10년 후 삭제를 허용하도록 IAM 정책을 변경합니다.
C.
Use an S3 Lifecycle policy to transition the records from S3 Standard to S3 Glacier Deep Archive after 1 year. Use S3 Object Lock in compliance mode for a period of 10 years.
S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 Glacier Deep Archive로 레코드를 전환합니다. 10년 동안 규정 준수 모드에서 S3 Object Lock을 사용합니다.
D.
Use an S3 Lifecycle policy to transition the records from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) after 1 year. Use S3 Object Lock in governance mode for a period of 10 years.
S3 수명 주기 정책을 사용하여 1년 후 레코드를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 10년 동안 거버넌스 모드에서 S3 Object Lock을 사용합니다.
⭕ 정답: C
📝 해설
📍 S3 Object Lock
데이터를 규정 준수 모드로 잠그면 데이터의 변경 및 삭제를 방지할 수 있습니다. 수명 주기 정책을 통해 데이터를 저렴한 S3 Glacier Deep Archive로 이동함으로써 비용을 절감할 수 있습니다.
- 규정 준수 모드: 데이터가 보호되고 누구도 삭제할 수 없도록 보장합니다.
- 수명 주기 정책: S3 Standard에서 S3 Glacier Deep Archive로 데이터를 이동하여 비용을 절감합니다.
오답 분석:
- A: S3 Glacier는 저비용 저장소를 제공하지만, 즉시 접근이 필요한 첫 1년 동안 적합하지 않습니다.
- B: IAM 정책은 강력한 보안을 제공하지만, Object Lock의 규정 준수 모드만큼 강력하지는 않습니다.
- D: One Zone-IA는 내구성 면에서 부족할 수 있으며, 규정 준수 모드의 Object Lock을 사용하는 것이 더 안전합니다.
✅ 문제 54
A company runs multiple Windows workloads on AWS. The company's employees use Windows file shares that are hosted on two Amazon EC2 instances. The file shares synchronize data between themselves and maintain duplicate copies. The company wants a highly available and durable storage solution that preserves how users currently access the files.
What should a solutions architect do to meet these requirements?
회사는 AWS에서 여러 Windows 워크로드를 실행합니다. 회사 직원은 두 개의 Amazon EC2 인스턴스에서 호스팅되는 Windows 파일 공유를 사용합니다. 파일 공유는 서로 간에 데이터를 동기화하고 중복 복사본을 유지합니다. 이 회사는 사용자가 현재 파일에 액세스하는 방식을 보존하는 고가용성 및 내구성 스토리지 솔루션을 원합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Migrate all the data to Amazon S3. Set up IAM authentication for users to access files.
모든 데이터를 Amazon S3로 마이그레이션합니다. 사용자가 파일에 액세스할 수 있도록 IAM 인증을 설정합니다.
B.
Set up an Amazon S3 File Gateway. Mount the S3 File Gateway on the existing EC2 instances.
Amazon S3 파일 게이트웨이를 설정합니다. 기존 EC2 인스턴스에 S3 파일 게이트웨이를 탑재합니다.
C.
Extend the file share environment to Amazon FSx for Windows File Server with a Multi-AZ configuration. Migrate all the data to FSx for Windows File Server.
다중 AZ 구성을 사용하여 파일 공유 환경을 Windows 파일 서버용 Amazon FSx로 확장합니다. 모든 데이터를 Windows 파일 서버용 FSx로 마이그레이션합니다.
D.
Extend the file share environment to Amazon Elastic File System (Amazon EFS) with a Multi-AZ configuration. Migrate all the data to Amazon EFS.
다중 AZ 구성을 사용하여 파일 공유 환경을 Amazon Elastic File System(Amazon EFS)으로 확장합니다. 모든 데이터를 Amazon EFS로 마이그레이션합니다.
⭕ 정답: C
📝 해설
📍 Amazon FSx
Windows 파일 서버용 Amazon FSx는 완전 기본 Windows 파일 시스템이 지원하는 완전 관리형 Microsoft Windows
파일 서버를 제공합니다. FSx for Windows File Server는 엔터프라이즈 애플리케이션을 AWS 클라우드로 쉽게 리프트 앤 시프트할 수 있는 성능 및 호환성을 갖추고 있습니다. 또한, Windows 기본 공유 폴더 GUI 및 PowerShell의 원격 관리용 Amazon FSx CLI를 사용하여 Windows 파일 서버용 FSx 파일 시스템의 파일 공유를 관리할 수 있습니다.
- 고가용성: 다중 AZ 배포로 높은 가용성을 제공합니다.
- 네이티브 지원: 네이티브 Windows 파일 시스템을 사용하여 현재의 파일 공유 방식을 유지할 수 있습니다.
오답 분석:
- A: Amazon S3는 객체 스토리지로, Windows 파일 공유와는 다른 접근 방식을 요구합니다.
- B: S3 파일 게이트웨이는 S3 객체를 파일 시스템처럼 사용할 수 있게 하지만, 네이티브 Windows 파일 시스템과의 완벽한 호환성을 제공하지 않습니다.
- D: Amazon EFS는 주로 Linux 파일 시스템에 최적화되어 있어 Windows 환경에 적합하지 않습니다.
✅ 문제 55
A solutions architect is developing a VPC architecture that includes multiple subnets. The architecture will host applications that use Amazon EC2 instances and Amazon RDS DB instances. The architecture consists of six subnets in two Availability Zones. Each Availability Zone includes a public subnet, a private subnet, and a dedicated subnet for databases. Only EC2 instances that run in the private subnets can have access to the RDS databases.
Which solution will meet these requirements?
솔루션 설계자는 여러 서브넷을 포함하는 VPC 아키텍처를 개발 중입니다. 아키텍처는 Amazon EC2 인스턴스 및 Amazon RDS DB 인스턴스를 사용하는 애플리케이션을 호스팅합니다. 아키텍처는 2개의 가용 영역에 있는 6개의 서브넷으로 구성됩니다. 각 가용 영역에는 퍼블릭 서브넷, 프라이빗 서브넷 및 데이터베이스용 전용 서브넷이 포함됩니다. 프라이빗 서브넷에서 실행되는 EC2 인스턴스만 RDS 데이터베이스에 액세스할 수 있습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Create a new route table that excludes the route to the public subnets' CIDR blocks. Associate the route table with the database subnets.
퍼블릭 서브넷의 CIDR 블록에 대한 경로를 제외하는 새 라우팅 테이블을 생성합니다. 라우팅 테이블을 데이터베이스 서브넷과 연결합니다.
B.
Create a security group that denies inbound traffic from the security group that is assigned to instances in the public subnets. Attach the security group to the DB instances.
퍼블릭 서브넷의 인스턴스에 할당된 보안 그룹의 인바운드 트래픽을 거부하는 보안 그룹을 생성합니다. 보안 그룹을 DB 인스턴스에 연결합니다.
C.
Create a security group that allows inbound traffic from the security group that is assigned to instances in the private subnets. Attach the security group to the DB instances.
프라이빗 서브넷의 인스턴스에 할당된 보안 그룹의 인바운드 트래픽을 허용하는 보안 그룹을 생성합니다. 보안 그룹을 DB 인스턴스에 연결합니다.
D.
Create a new peering connection between the public subnets and the private subnets. Create a different peering connection between the private subnets and the database subnets.
퍼블릭 서브넷과 프라이빗 서브넷 사이에 새로운 피어링 연결을 생성합니다. 프라이빗 서브넷과 데이터베이스 서브넷 간에 다른 피어링 연결을 만듭니다.
⭕ 정답: C
📝 해설
보안 그룹을 사용하면 세밀한 인바운드 및 아웃바운드 트래픽 제어가 가능합니다. EC2 인스턴스와 RDS 인스턴스 간의 트래픽을 제어하여 요구 사항을 충족할 수 있습니다.
- 보안 그룹 설정: 프라이빗 서브넷의 EC2 인스턴스가 속한 보안 그룹의 인바운드 트래픽을 허용하도록 RDS 인스턴스의 보안 그룹을 설정합니다.
- 액세스 제어: 퍼블릭 서브넷의 인스턴스는 RDS 데이터베이스에 접근할 수 없도록 보안 그룹 규칙을 설정합니다.
오답 분석:
- A: 라우팅 테이블을 통한 접근 제어는 적절하지 않으며, 세밀한 보안 제어가 어렵습니다.
- B: 보안 그룹을 사용하여 인바운드 트래픽을 거부하는 대신, 허용 규칙을 설정하는 것이 보안 측면에서 더 안전합니다.
- D: 피어링 연결은 불필요한 복잡성을 추가하며, 보안 그룹을 통한 접근 제어가 더 효과적입니다.
✅ 문제 56
A company has registered its domain name with Amazon Route 53. The company uses Amazon API Gateway in the ca-central-1 Region as a public interface for its backend microservice APIs. Third-party services consume the APIs securely. The company wants to design its API Gateway URL with the company's domain name and corresponding certificate so that the third-party services can use HTTPS.
Which solution will meet these requirements?
회사는 Amazon Route 53에 도메인 이름을 등록했습니다. 이 회사는 ca-central-1 리전의 Amazon API Gateway를 백엔드 마이크로서비스 API의 공용 인터페이스로 사용합니다. 타사 서비스는 API를 안전하게 사용합니다. 회사는 타사 서비스에서 HTTPS를 사용할 수 있도록 회사의 도메인 이름 및 해당 인증서로 API 게이트웨이 URL을 설계하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A.
Create stage variables in API Gateway with Name="Endpoint-URL" and Value="Company Domain Name" to overwrite the default URL. Import the public certificate associated with the company's domain name into AWS Certificate Manager (ACM).
API Gateway에서 Name="Endpoint-URL" 및 Value="Company Domain Name"으로 단계 변수를 생성하여 기본 URL을 덮어씁니다. 회사의 도메인 이름과 연결된 공인 인증서를 AWS Certificate Manager(ACM)로 가져옵니다.
B.
Create Route 53 DNS records with the company's domain name. Point the alias record to the Regional API Gateway stage endpoint. Import the public certificate associated with the company's domain name into AWS Certificate Manager (ACM) in the us-east-1 Region.
회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. 별칭 레코드가 리전 API 게이트웨이 단계 엔드포인트를 가리키도록 합니다. 회사의 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다.
C.
Create a Regional API Gateway endpoint. Associate the API Gateway endpoint with the company's domain name. Import the public certificate associated with the company's domain name into AWS Certificate Manager (ACM) in the same Region. Attach the certificate to the API Gateway endpoint. Configure Route 53 to route traffic to the API Gateway endpoint.
리전 API 게이트웨이 엔드포인트를 생성합니다. API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 동일한 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway 엔드포인트에 인증서를 연결합니다. API Gateway 엔드포인트로 트래픽을 라우팅하도록 Route 53을 구성합니다.
D.
Create a Regional API Gateway endpoint. Associate the API Gateway endpoint with the company's domain name. Import the public certificate associated with the company's domain name into AWS Certificate Manager (ACM) in the us-east-1 Region. Attach the certificate to the API Gateway APIs. Create Route 53 DNS records with the company's domain name. Point an A record to the company's domain name.
리전 API 게이트웨이 엔드포인트를 생성합니다. API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway API에 인증서를 연결합니다. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. A 레코드가 회사의 도메인 이름을 가리키도록 합니다.
⭕ 정답: C
📝 해설
Amazon API Gateway와 AWS Certificate Manager (ACM)을 사용하여 회사의 도메인 이름으로 API Gateway를 설정하고 HTTPS를 적용할 수 있습니다. 이 설정은 API Gateway 엔드포인트를 회사 도메인 이름과 연결하고, 인증서를 적용하여 보안된 통신을 제공합니다.
- 리전 API 게이트웨이 엔드포인트 생성: API Gateway에서 리전 엔드포인트를 생성합니다.
- 도메인 이름과 연결: 생성된 API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다.
- ACM 인증서 가져오기: 회사의 도메인 이름과 연결된 공인 인증서를 동일한 리전의 AWS Certificate Manager로 가져옵니다.
- 인증서 연결: API Gateway 엔드포인트에 인증서를 연결합니다.
- Route 53 구성: Route 53에서 DNS 레코드를 설정하여 트래픽을 API Gateway 엔드포인트로 라우팅합니다.
오답 분석 :
- A: 단계 변수는 기본 URL을 덮어쓰지 않습니다. 또한 공인 인증서를 API Gateway와 연결하는 방법이 명시되어 있지 않습니다.
- B: 인증서를 us-east-1 리전에 가져오는 것은 비효율적입니다. 인증서와 API Gateway가 동일한 리전에 있어야 합니다.
- D: 인증서를 us-east-1 리전에 가져오는 대신 API Gateway와 동일한 리전에 인증서를 가져와야 합니다.
✅ 문제 57
A company is running a popular social media website. The website gives users the ability to upload images to share with other users. The company wants to make sure that the images do not contain inappropriate content. The company needs a solution that minimizes development effort.
What should a solutions architect do to meet these requirements?
한 회사에서 인기 있는 소셜 미디어 웹사이트를 운영하고 있습니다. 웹사이트는 사용자에게 이미지를 업로드하여 다른 사용자와 공유할 수 있는 기능을 제공합니다. 회사는 이미지에 부적절한 콘텐츠가 포함되지 않았는지 확인하고 싶습니다. 회사는 개발 노력을 최소화하는 솔루션이 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Use Amazon Comprehend to detect inappropriate content. Use human review for low-confidence predictions.
Amazon Comprehend를 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에는 인적 검토를 사용합니다.
B.
Use Amazon Rekognition to detect inappropriate content. Use human review for low-confidence predictions.
Amazon Rekognition을 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에는 인적 검토를 사용합니다.
C.
Use Amazon SageMaker to detect inappropriate content. Use ground truth to label low-confidence predictions.
Amazon SageMaker를 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에 레이블을 지정하려면 정답을 사용합니다.
D.
Use AWS Fargate to deploy a custom machine learning model to detect inappropriate content. Use ground truth to label low-confidence predictions.
AWS Fargate를 사용하여 사용자 지정 기계 학습 모델을 배포하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에 레이블을 지정하려면 정답을 사용합니다.
⭕ 정답: B
📝 해설
📍 Amazon Rekognition
Amazon Rekognition은 이미지 및 비디오 분석을 위한 완전 관리형 서비스로, 부적절한 콘텐츠를 감지하는 데 매우 유용합니다. 소셜 미디어, 방송 미디어, 광고 및 전자 상거래 상황에서 Rekognition 조정 API를 사용하여 보다 안전한 사용자 환경을 만들고 광고주에게 브랜드 안전을 보장하며 지역 및 글로벌 규정을 준수할 수 있습니다.
- 부적절한 콘텐츠 감지: Amazon Rekognition은 포르노그래피, 폭력, 증오심 표현 등 부적절한 콘텐츠를 자동으로 감지할 수 있습니다.
- 인적 검토 사용: Rekognition의 예측이 신뢰도가 낮을 경우, 인간 검토자가 최종 결정을 내릴 수 있도록 설정할 수 있습니다.
오답 분석:
- A: Amazon Comprehend는 텍스트 분석을 위한 서비스로, 이미지 콘텐츠 검열에는 적합하지 않습니다.
- C: Amazon SageMaker는 기계 학습 모델을 개발하고 배포하는 데 사용되지만, 완전히 관리되는 솔루션이 아니므로 개발 노력이 더 많이 필요합니다.
- D: AWS Fargate에서 커스텀 모델을 배포하는 것은 관리 오버헤드가 크고 개발 노력이 많이 듭니다.
✅ 문제 58
A company wants to run its critical applications in containers to meet requirements for scalability and availability. The company prefers to focus on maintenance of the critical applications. The company does not want to be responsible for provisioning and managing the underlying infrastructure that runs the containerized workload.
What should a solutions architect do to meet these requirements?
회사는 확장성 및 가용성에 대한 요구 사항을 충족하기 위해 컨테이너에서 중요한 응용 프로그램을 실행하려고 합니다. 회사는 중요한 응용 프로그램의 유지 관리에 집중하는 것을 선호합니다. 회사는 컨테이너화된 워크로드를 실행하는 기본 인프라의 프로비저닝 및 관리에 대한 책임을 원하지 않습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Use Amazon EC2 instances, and install Docker on the instances.
Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치합니다.
B.
Use Amazon Elastic Container Service (Amazon ECS) on Amazon EC2 worker nodes.
Amazon EC2 작업자 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.
C.
Use Amazon Elastic Container Service (Amazon ECS) on AWS Fargate.
AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.
D.
Use Amazon EC2 instances from an Amazon Elastic Container Service (Amazon ECS)-optimized Amazon Machine Image (AMI).
Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon 머신 이미지(AMI)의 Amazon EC2 인스턴스를 사용합니다.
⭕ 정답: C
📝 해설
📍 AWS Fargate
서버리스 컴퓨팅 엔진으로, Amazon ECS 또는 Amazon EKS와 함께 사용하여 컨테이너를 실행할 수 있습니다. Fargate는 인프라를 관리할 필요 없이 컨테이너를 실행할 수 있게 합니다.
- 관리 오버헤드 최소화: 서버를 프로비저닝하거나 관리할 필요가 없습니다. Fargate는 애플리케이션에 필요한 리소스를 자동으로 관리합니다.
- 확장성 및 가용성: 애플리케이션의 확장성 및 가용성을 자동으로 조정하여 요구 사항을 충족할 수 있습니다.
오답 분석:
- A: EC2 인스턴스에 Docker를 설치하는 것은 관리 오버헤드가 큽니다.
- B: Amazon ECS를 EC2 작업자 노드에서 실행하는 것은 인프라를 직접 관리해야 합니다.
- D: ECS 최적화 AMI를 사용하는 것은 여전히 인프라를 직접 관리해야 합니다.
✅ 문제 59
A company hosts more than 300 global websites and applications. The company requires a platform to analyze more than 30 TB of clickstream data each day.
What should a solutions architect do to transmit and process the clickstream data?
회사는 300개 이상의 글로벌 웹사이트 및 애플리케이션을 호스팅합니다. 이 회사는 매일 30TB 이상의 클릭스트림 데이터를 분석할 플랫폼이 필요합니다.
솔루션 설계자는 클릭스트림 데이터를 전송하고 처리하기 위해 무엇을 해야 합니까?
A.
Design an AWS Data Pipeline to archive the data to an Amazon S3 bucket and run an Amazon EMR cluster with the data to generate analytics.
AWS Data Pipeline을 설계하여 데이터를 Amazon S3 버킷에 보관하고 데이터로 Amazon EMR 클러스터를 실행하여 분석을 생성합니다.
B.
Create an Auto Scaling group of Amazon EC2 instances to process the data and send it to an Amazon S3 data lake for Amazon Redshift to use for analysis.
Amazon EC2 인스턴스의 Auto Scaling 그룹을 생성하여 데이터를 처리하고 Amazon Redshift가 분석에 사용할 수 있도록 Amazon S3 데이터 레이크로 보냅니다.
C.
Cache the data to Amazon CloudFront. Store the data in an Amazon S3 bucket. When an object is added to the S3 bucket. run an AWS Lambda function to process the data for analysis.
데이터를 Amazon CloudFront에 캐시합니다. Amazon S3 버킷에 데이터를 저장합니다. 객체가 S3 버킷에 추가될 때. AWS Lambda 함수를 실행하여 분석용 데이터를 처리합니다.
D.
Collect the data from Amazon Kinesis Data Streams. Use Amazon Kinesis Data Firehose to transmit the data to an Amazon S3 data lake. Load the data in Amazon Redshift for analysis.
Amazon Kinesis Data Streams에서 데이터를 수집합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3 데이터 레이크로 데이터를 전송합니다. 분석을 위해 Amazon Redshift에 데이터를 로드합니다.
⭕ 정답: D
📝 해설
Amazon Kinesis Data Streams와 Amazon Kinesis Data Firehose는 대규모 실시간 데이터 스트림을 처리하는 데 최적화된 솔루션입니다.
- 데이터 수집: Kinesis Data Streams를 사용하여 클릭스트림 데이터를 실시간으로 수집합니다.
- 데이터 전송: Kinesis Data Firehose를 사용하여 데이터를 Amazon S3 데이터 레이크로 전송합니다.
- 분석 준비: 데이터를 Amazon Redshift에 로드하여 대규모 데이터 분석을 수행합니다.
오답 분석:
- A: AWS Data Pipeline은 데이터 처리에 적합하지 않습니다.
- B: EC2 인스턴스를 사용한 Auto Scaling 그룹은 데이터 전송 및 처리에 비효율적일 수 있습니다.
- C: CloudFront 캐싱은 클릭스트림 데이터 분석과는 관련이 없습니다.
✅ 문제 60
A company has a website hosted on AWS. The website is behind an Application Load Balancer (ALB) that is configured to handle HTTP and HTTPS separately. The company wants to forward all requests to the website so that the requests will use HTTPS.
What should a solutions architect do to meet this requirement?
회사에 AWS에서 호스팅되는 웹 사이트가 있습니다. 웹 사이트는 HTTP와 HTTPS를 별도로 처리하도록 구성된 ALB(Application Load Balancer) 뒤에 있습니다. 회사는 요청이 HTTPS를 사용하도록 모든 요청을 웹사이트로 전달하려고 합니다.
솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A.
Update the ALB's network ACL to accept only HTTPS traffic.
HTTPS 트래픽만 허용하도록 ALB의 네트워크 ACL을 업데이트합니다.
B.
Create a rule that replaces the HTTP in the URL with HTTPS.
URL의 HTTP를 HTTPS로 바꾸는 규칙을 만듭니다.
C.
Create a listener rule on the ALB to redirect HTTP traffic to HTTPS.
ALB에서 리스너 규칙을 생성하여 HTTP 트래픽을 HTTPS로 리디렉션합니다.
D.
Replace the ALB with a Network Load Balancer configured to use Server Name Indication (SNI).
ALB를 SNI(서버 이름 표시)를 사용하도록 구성된 Network Load Balancer로 교체합니다.
⭕ 정답: C
📝 해설
Application Load Balancer(ALB)는 HTTP 트래픽을 HTTPS로 리디렉션하는 규칙을 설정할 수 있습니다. 이는 트래픽을 안전하게 유지하고, 사용자가 항상 HTTPS를 통해 사이트에 액세스하도록 합니다.
==> 리스너 규칙 생성: ALB에서 HTTP 리스너에 리디렉션 규칙을 추가하여 모든 HTTP 트래픽을 HTTPS로 리디렉션합니다.
오답 분석:
- A: 네트워크 ACL은 트래픽 유형을 제어하지만 리디렉션 기능을 제공하지 않습니다.
- B: URL 규칙을 직접 설정하는 것은 복잡하고 유지 관리가 어려울 수 있습니다.
- D: Network Load Balancer는 주로 TCP 트래픽을 처리하며, SNI는 HTTPS 리디렉션과 관련이 없습니다.
'Certificates > AWS-SAA-CO3' 카테고리의 다른 글
[AWS SAA-C03] Examtopics Dump (81 - 100) (3) | 2024.05.22 |
---|---|
[AWS SAA-C03] Examtopics Dump (61 - 80) (0) | 2024.05.22 |
[AWS SAA-C03] Examtopics Dump (21 - 40) (0) | 2024.05.17 |
[AWS SAA-C03] Examtopics Dump (1 - 20) (1) | 2024.05.14 |
[AWS SAA-C03] EC2 기초 (0) | 2024.05.14 |