이 과정에서는 기계 학습(ML) 파이프라인의 모델 배포에 대해 포괄적으로 알아봅니다. 소개에서는 기본적인 배포 개념에 대해 알아봅니다. 그 후 첫 번째 섹션에서는 프로덕션 인프라의 필수 구성 요소에 대해 알아봅니다. 이 섹션에서는 ML 워크플로에 가장 적합한 오케스트레이션 서비스를 선택하는 방법을 안내합니다. 그런 다음, ML 수명 주기의 배포 단계에서 사용할 수 있는 Amazon Web Services(AWS)의 도구와 서비스에 대해 알아봅니다. 그 다음 섹션에서는 추론 인프라에 대해 설명합니다. 주요 이점을 기반으로 최적의 배포 대상을 선택하는 방법을 알아봅니다. 또한 특정 요구 사항에 적합한 훈련 및 추론 환경을 선택하는 방법도 알아봅니다. 다음으로, 다양한 AWS 컴퓨팅 인스턴스 유형을 살펴보고 온디맨드 리소스와 프로비저닝 방식 리소스를 구분하는 방법을 알아봅니다. 마지막으로, 프로덕션 환경과 테스트 환경에서 컴퓨팅 리소스를 프로비저닝하는 방법을 살펴봅니다.
- 과정 수준: 고급
- 소요 시간: 1시간
참고: 이 과정의 동영상에는 한국어 트랜스크립트 또는 자막이 지원되며 음성은 영어로 출력됩니다. 자막을 표시하려면 동영상 화면 우측 하단의 CC 버튼을 클릭하세요.
참고: 이 과정은 Google Chrome(최신 주요 버전 2개), Microsoft Edge(최신 주요 버전 2개), Safari(최신 주요 버전 2개)에 최적화되어 있습니다.
활동
- 온라인 자료
- 지식 확인 질문
- 과정 평가
과정 목표
- ML 파이프라인에서 모델 배포를 정의합니다.
- 프로덕션 인프라 및 해당 구성 요소를 설명합니다.
- ML 워크플로를 위한 오케스트레이션 서비스를 비교 대조합니다.
- 배포 인프라 설계 고려 사항을 설명합니다.
- 주요 이점을 기반으로 최적의 배포 대상을 선택합니다.
- ML 모델 배포 전략과 엔드포인트 요구 사항을 설명합니다.
- 주요 이점을 기반으로 최적의 모델 배포 호스팅 전략을 선택합니다.
- 주요 이점을 기반으로 다중 모델 또는 다중 컨테이너 배포를 선택합니다.
- 주요 이점을 기반으로 최적의 컨테이너 옵션을 선택합니다.
- ML 솔루션용 AWS 컴퓨팅 인스턴스 유형을 나열하고 설명합니다.
- 특정 요구 사항에 따라 훈련 및 추론에 가장 적합한 컴퓨팅 환경을 선택합니다.
- 성능 및 규모 조정 문제에 사용되는 온디맨드 리소스와 프로비저닝 방식 리소스를 구분합니다.
- 프로덕션 환경과 테스트 환경에서 컴퓨팅 리소스를 프로비저닝하는 방법을 설명합니다.
- 엣지 디바이스에서 모델을 최적화하는 방법을 설명합니다.
수강 대상
- 클라우드 아키텍트
- 기계 학습 엔지니어
권장 기술
- SageMaker 및 기타 AWS 서비스를 ML 엔지니어링에 사용한 1년 이상의 경험
- 백엔드 개발자, DevOps 개발자, 데이터 엔지니어 또는 데이터 과학자 등 관련 역할에서 1년 이상의 경험
- Python 등 프로그래밍 언어에 대한 기본적인 이해
- AWS ML Engineer Associate 학습 플랜의 이전 과정 이수
과정 개요
- 섹션 1: 소개
- 1강: 본 과정 사용 방법
- 2강: 영역 3 소개
- 3강: 과정 개요
- 4강: 모델 배포 기초
- 섹션 2: 모델 구축 및 배포 인프라
- 5강: 반복 가능한 프레임워크 구축
- 6강: 워크플로 오케스트레이션 옵션
- 섹션 3: 추론 인프라
- 7강: 배포 고려 사항 및 대상 옵션
- 8강: 모델 추론 전략 선택
- 9강: 추론용 컨테이너 및 인스턴스 유형
- 10강: 엣지 컴퓨팅으로 배포 최적화
- 섹션 4: 결론
- 11강: 과정 요약
- 12강: 평가
- 13강: AWS에 문의하기