모델 개발 영역의 마지막 과정으로, ML 모델 성능을 분석하기 위한 지침을 제공합니다. 분류 및 회귀 문제 지표를 비롯하여 모델 평가의 주요 개념 및 기법에 대해 알아봅니다. 또한 수렴 문제를 식별하고 재현 가능한 실험을 보장하는 방법도 배우게 됩니다. 마지막으로, Amazon SageMaker Clarify, Amazon SageMaker Debugger와 같은 AWS 서비스를 사용하여 기계 학습(ML) 훈련 데이터 및 모델 문제에 대한 인사이트를 얻습니다.
- 과정 수준: 300
- 소요 시간: 1시간 30분
참고: 이 과정의 동영상에는 한국어 트랜스크립트 또는 자막이 지원되며 음성은 영어로 출력됩니다. 자막을 표시하려면 동영상 화면 우측 하단의 CC 버튼을 클릭하세요.
참고: 이 과정은 Google Chrome(최신 주요 버전 2개), Microsoft Edge(최신 주요 버전 2개), Safari(최신 주요 버전 2개)에 최적화되어 있습니다.
활동
- 온라인 자료
- 연습
- 지식 확인 질문
과정 목표
- 성능 기준을 생성하는 방법을 결정합니다.
- 모델 성능, 훈련 시간, 비용 간의 절충점을 평가합니다.
- 분류 문제 평가 기법 및 지표를 결정합니다.
- 회귀 문제 평가 기법 및 지표를 결정합니다.
- Amazon SageMaker Training Compiler 및 Amazon SageMaker Automatic Model Tuning(AMT)을 사용하여 수렴 문제를 식별하고 모델 수렴 문제를 방지합니다.
- ML 훈련 데이터 및 모델에 대한 인사이트를 얻기 위한 SageMaker Clarify 지표를 식별합니다.
- SageMaker Clarify를 사용하여 모델 출력을 해석합니다.
- AWS 서비스를 사용하여 재현 가능한 실험을 수행하는 방법을 설명합니다.
- SageMaker Model Debugger를 사용하여 모델 수렴을 디버그합니다.
수강 대상
- 클라우드 아키텍트
- 기계 학습 엔지니어
권장 기술
- SageMaker 및 기타 AWS 서비스를 ML 엔지니어링에 사용한 1년 이상의 경험
- 백엔드 개발자, DevOps 개발자, 데이터 엔지니어 또는 데이터 과학자 등 관련 역할을 수행한 1년 이상의 경험
- Python 등 프로그래밍 언어에 대한 기본적인 이해
- AWS ML Engineer Associate 학습 플랜의 이전 과정 완료
과정 개요
- 섹션 1: 소개
- 강의 1: 본 과정 사용 방법
- 강의 2: 과정 개요
- 강좌 3: 성능 기준
- 섹션 2: 모델 평가
- 강의 4: 모델 평가 기법 및 지표
- 강의 5: 수렴 문제
- 강의 6: SageMaker Debugger를 사용한 모델 수렴 디버깅
- 강의 7: SageMaker Clarify 및 지표 개요
- 강의 8: SageMaker Clarify를 사용하여 모델 출력 해석
- 강의 9: Amazon SageMaker Experiments
- 섹션 3: 결론
- 강의 10: 과정 요약
- 강의 11: 평가
- 강의 12: AWS에 문의하기