이 과정에서는 Amazon SageMaker의 모니터링 기능을 사용하여 기계 학습(ML) 솔루션의 성능과 안정성을 모니터링하고 유지 관리하는 기법을 배웁니다. 모니터링의 중요성과 ML의 드리프트 유형을 확인하는 것으로 시작합니다. 그런 다음 데이터 드리프트, 모델 품질 문제, 통계적 편향, 특성 기여도 드리프트를 탐지하는 방법을 배웁니다. 지속적 모니터링을 지원하는 SageMaker Model Monitor, 편향을 탐지하고 해석 가능한 설명을 제공하는 SageMaker Clarify, 성능 지표를 시각화하고 분석할 수 있는 SageMaker 모델 대시보드를 살펴봅니다.
이 과정에서는 AWS Well-Architected Machine Learning Lens 설계 원칙에 맞는 안정성과 성능이 뛰어나며 신뢰할 수 있는 ML 솔루션을 구축하고 유지 관리하는 데 도움이 되는 모범 사례를 공유합니다. 시간이 지나도 ML 솔루션의 효과를 유지하는 데 도움이 되는 사전 예방적 의사 결정, 자동화된 수정, 알림, 재훈련 워크플로를 위한 접근 방식을 배우게 됩니다.
- 과정 수준: 고급
- 소요 시간: 2시간 30분
참고: 이 과정의 동영상에는 한국어 트랜스크립트 또는 자막이 지원되며 음성은 영어로 출력됩니다. 자막을 표시하려면 동영상 화면 우측 하단의 CC 버튼을 클릭하세요.
참고: 이 과정은 Google Chrome(최신 주요 버전 2개), Microsoft Edge(최신 주요 버전 2개), Safari(최신 주요 버전 2개)에 최적화되어 있습니다.
활동
- 온라인 자료
- 실습
- 지식 확인 질문
과정 목표
- 모니터링을 위한 AWS Well-Architected Machine Learning Lens 설계 원칙을 설명합니다.
- 데이터 품질 및 모델 성능 모니터링 모범 사례를 파악합니다.
- SageMaker Model Monitor를 사용하여 프로덕션 환경에서 모델의 데이터 드리프트 및 모델 품질 문제를 지속적으로 모니터링합니다.
- Amazon SageMaker Clarify가 모델 편향을 탐지하고 해석 가능한 설명을 제공하는 방법을 설명합니다.
- SageMaker Clarify 특성 기여도 모니터링의 이점과 사용 사례를 설명합니다.
- A/B 테스트를 사용하여 프로덕션 환경에서 모델 성능을 모니터링할 때 얻을 수 있는 이점을 설명합니다.
- SageMaker 모델 대시보드의 주요 기능과 일반적인 사용 사례를 설명합니다.
- ML 솔루션을 모니터링하고 자동화된 수정, 알림, 재훈련 워크플로를 구현하여 문제를 사전에 식별합니다.
수강 대상
- 클라우드 아키텍트
- 기계 학습 엔지니어
권장 기술
- SageMaker 및 기타 AWS 서비스를 ML 엔지니어링에 사용한 1년 이상의 경험
- 백엔드 개발자, DevOps 개발자, 데이터 엔지니어 또는 데이터 과학자 등 관련 역할에서 1년 이상의 경험
- Python 등 프로그래밍 언어에 대한 기본적인 이해
- AWS ML Engineer Associate 학습 플랜의 이전 과정 이수
과정 개요
- 섹션 1: 소개
- 강의 1: 본 과정 사용 방법
- 강의 2: 영역 소개
- 강의 3: 과정 개요
- 섹션 2: 기계 학습 솔루션 모니터링
- 강의 4: ML에서 모니터링의 중요성
- 강의 5: 모니터링에서 드리프트 탐지
- 강의 6: Amazon SageMaker Model Monitor
- 강의 7: 데이터 품질 드리프트 모니터링
- 강의 8: SageMaker Model Monitor를 사용하여 모델 품질 모니터링
- 강의 9: SageMaker Model Monitor 데모
- 강의 10: SageMaker Clarify를 사용하여 통계적 편향 드리프트 모니터링
- 강의 11: 특성 기여도 드리프트 모니터링
- 강의 12: A/B 테스트를 사용하여 모델 성능 모니터링
- 강의 13: SageMaker 모델 대시보드 소개
- 강의 14: 모니터링 접근 방식 선택
- 섹션 3: 모니터링을 통해 파악한 문제 해결
- 강의 15: 자동화된 수정 및 문제 해결
- 섹션 4: 결론
- 강의 16: 과정 요약
- 강의 17: 평가
- 강의 18: AWS에 문의하기