티스토리 뷰

안녕하세요.

오늘은 제가 ChatGPT를 활용하고 있는 방법 중 하나를 소개하려고 합니다.

 

AWS 기초 자격증(CLF-C01) 후기 : 이렇게 하면 만점도 가능하다?

안녕하세요. 오늘은 2022년 12월 16일에 보고 온 AWS 기초 자격증(AWS Certified Cloud Practitioner : CLF-C01) 시험 후기를 남겨봅니다. 시험을 보게 된 계기는? 요즘 핫하다는 ChatGPT에 AWS 자격증을 취득하면 얻

error-storage.tistory.com

저는 예전에 AWS 기초 자격증(Certified Cloud Practitioner)을 취득하고, 최근에는 AWS SAA(Solution Architect Associate) 자격증을 준비하고 있습니다.

이전에 합격한 경험을 살려서 유데미 인강 + 기출문제 위주로 공부를 하고 있는데요.

기출문제 공부에 ChatGPT(GPT4)가 생각보다 도움이 돼서 간단한 활용법을 소개해보려고 합니다.

 

기출문제에 대한 GPT4의 대답

[질문]
A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection. The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must minimize operational complexity. Which solution meets these requirements?

A. Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.
B. Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.
C. Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.
D. Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket. Restore the EBS volume in that Region.

문제의 정답과 왜 정답인지 알려줘

정답: A. Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.

이유: 이 문제에서 요구하는 것은 최소한의 운영 복잡성으로 전세계의 사이트로부터 데이터를 가능한 한 빠르게 단일 Amazon S3 버킷에 집계하는 것입니다.

옵션 A는 Amazon S3 Transfer Acceleration을 사용하여 데이터 전송 속도를 향상시키고, 멀티파트 업로드를 사용하여 데이터를 직접 대상 S3 버킷에 업로드합니다. 이렇게 하면 전역적으로 빠른 업로드 속도와 간단한 작업을 도입할 수 있습니다.

옵션 B는 근접한 지역의 S3 버킷에 먼저 데이터를 업로드한 다음, S3 Cross-Region Replication을 사용하여 객체를 대상 S3 버킷으로 복사하는 방식을 제안합니다. 이 방법은 추가적인 관리 작업이 필요하므로 작업 복잡성이 증가합니다.

옵션 C는 AWS Snowball Edge Storage Optimized 장치를 사용하여 일일 데이터 전송 작업을 스케줄링하는 것을 제안합니다. 이 방법은 대용량 데이터 전송에 적합하지만, 일일 데이터 전송 작업에는 불필요한 복잡성을 초래합니다.

옵션 D는 근접한 지역의 Amazon EC2 인스턴스에 데이터를 업로드하고, Amazon EBS 볼륨에 저장한 다음 EBS 스냅샷을 찍어 대상 S3 버킷이 있는 지역으로 복사하는 것을 제안합니다. 이 방법은 데이터 관리 및 전송에 대한 복잡성이 높아지므로 옵션 A보다 비효율적입니다.

결과적으로, 옵션 A가 요구 사항을 가장 잘 충족시키며, 운영 복잡성을 최소화합니다.

기본적으로 정답 뿐만 아니라 각 보기가 왜 틀렸는지도 다 설명을 해주더군요.

그리고 아래는 보기에 대해서 조금 더 이해를 하고 싶어서 추가적으로 질문한 내용입니다.

GPT 답변
<너가 대신 시험 봐줄래??>

[질문]
Amazon S3 Transfer Acceleration는 어떻게 데이터 전송 속도를 향상시키지?

Amazon S3 Transfer Acceleration은 Amazon CloudFront의 글로벌 가속화된 엣지 로케이션 네트워크를 활용하여 데이터 전송 속도를 향상시킵니다. 

데이터를 S3 버킷으로 업로드할 때, S3 Transfer Acceleration은 클라이언트와 가장 가까운 엣지 로케이션에서 데이터를 받아들입니다. 그런 다음, 데이터는 Amazon의 최적화된 백본 네트워크를 통해 빠르게 전송되어 대상 S3 버킷에 저장됩니다. 

이 프로세스는 기본 인터넷 연결을 통한 전송보다 훨씬 빠르게 데이터를 전송할 수 있도록 도와줍니다. 이는 글로벌 가속화된 엣지 로케이션 네트워크가 데이터를 더 빠르게 전송하기 위해 최적화된 네트워크 경로와 캐싱 메커니즘을 사용하기 때문입니다. 이로 인해 긴 거리 전송에 발생할 수 있는 지연 시간과 패킷 손실이 크게 줄어들며, 전체적인 데이터 전송 속도가 향상됩니다. 

따라서, Amazon S3 Transfer Acceleration은 글로벌 엣지 로케이션과 최적화된 네트워크를 활용하여 데이터 전송 속도를 빠르게 하고, 성능을 향상시키며, 전체적인 사용자 경험을 개선합니다.

이 외에도 ChatGPT를 통해서 영어 공부도 하고 있는데요.

기본적으로 ChatGPT가 티키타카를 잘해주고 문법적으로는 저보다 몇 배는 낫다고 생각해서 외국인과 채팅을 하는 느낌으로 대화를 하면서 공부를 하고 있습니다.

 

ChatGPT Plust가 월 $20 (26,000원)인데 사용하시는 분들은 다들 잘 활용하고 계신가요?

제가 활용하고 있는 방법 중 하나를 간단히 소개해봅니다. ㅎㅎ

반응형
댓글
최근에 올라온 글
최근에 달린 댓글