이 과정에서는 기계 학습(ML) 모델을 구체화하는 방법을 알아봅니다. 먼저 편향 완화 및 모델 성능 방법을 검토하고, 모델 과대 적합과 과소 적합을 방지하는 방법을 알아봅니다. 그런 다음, 방법을 결합하여 모델 성능을 개선하는 방법과 하이퍼파라미터 튜닝을 사용하여 최적화된 모델 결과를 생성하는 방법을 알아봅니다.
또한 다양한 모델 크기 및 모델 버전 관리를 살펴보고, Amazon SageMaker 서비스에서 모델 구체화 프로세스를 지원할 수 있는 방법을 살펴봅니다.
- 과정 수준: 300
- 소요 시간: 2시간
참고: 이 과정의 동영상에는 한국어 트랜스크립트 또는 자막이 지원되며 음성은 영어로 출력됩니다. 자막을 표시하려면 동영상 화면 우측 하단의 CC 버튼을 클릭하세요.
참고: 이 과정은 Google Chrome(최신 주요 버전 2개), Microsoft Edge(최신 주요 버전 2개), Safari(최신 주요 버전 2개)에 최적화되어 있습니다.
활동
- 온라인 자료
- 연습
- 지식 확인 질문
과정 목표
- 모델 편향, 모델 분산과 같은 모델 평가 지표를 정의하고 해석합니다.
- 모델 과대 적합 및 과소 적합을 탐지하는 방법을 설명합니다.
- 정규화 기법과 특성 선택을 사용하여 모델의 과대 적합 및 과소 적합을 방지합니다.
- 부스팅, 배깅, 스태킹과 같은 앙상블 방법을 통해 여러 훈련 모델을 결합하여 모델 성능을 개선합니다.
- 하이퍼파라미터가 모델 성능에 미치는 영향을 설명합니다.
- 주요 하이퍼파라미터 튜닝 기법을 정의합니다.
- 자동화된 하이퍼파라미터 최적화를 수행하여 모델 성능을 개선합니다.
- 모델 크기에 영향을 미치는 주요 요인을 식별합니다.
- 반복적 모델 프루닝을 사용하여 모델 크기를 줄입니다.
- Amazon SageMaker JumpStart 및 Amazon Bedrock에서 사용자 지정 데이터세트를 사용하여 사전 훈련된 모델을 미세 조정합니다.
- 정규화 기법과 특성 선택을 사용하여 치명적인 망각을 방지합니다.
- 반복성 및 감사를 위해 Amazon SageMaker 모델 레지스트리를 사용하여 모델 버전을 관리합니다.
수강 대상
- 클라우드 아키텍트
- 기계 학습 엔지니어
권장 스킬
- SageMaker 및 기타 AWS 서비스를 ML 엔지니어링에 1년 이상 사용한 경험
- 백엔드 소프트웨어 개발자, DevOps 개발자, 데이터 엔지니어 또는 데이터 과학자와 같은 관련 역할을 1년 이상 수행한 경험
- Python과 같은 등 프로그래밍 언어에 대한 기본적인 이해
- AWS ML Engineer Associate 학습 플랜의 이전 과정을 완료했습니다.
과정 개요
- 섹션 1: 소개
- 강의 1: 본 과정 사용 방법
- 강의 2: 과정 개요
- 강의 3: 모델 성능 평가
- 섹션 2: 모델 적합성
- 강의 4: 모델 과대 적합 및 과소 적합
- 강의 5: 모델 과대 적합 및 과소 적합 방지
- 강의 6: 성능 향상을 위한 모델 조합
- 섹션 3: 하이퍼파라미터 튜닝
- 강의 7: 하이퍼파라미터 튜닝의 이점
- 강의 8: 하이퍼파라미터 튜닝 기법
- 강의 9: Amazon SageMaker AMT를 사용하는 하이퍼파라미터 튜닝
- 섹션 4: 모델 크기 관리
- 강의 10: 모델 크기 요인
- 강의 11: 모델 크기 축소 기법
- 섹션 5: 사전 훈련된 모델 구체화
- 강의 12: 사전 훈련된 모델 미세 조정의 이점
- 강의 13: AWS에서 사용자 지정 데이터세트를 사용하여 사전 훈련된 모델 미세 조정
- 강의 14: 치명적인 망각 방지
- 섹션 6: 모델 버전 관리
- 강의 15: Amazon SageMaker 모델 레지스트리의 이점
- 강의 16: SageMaker 모델 레지스트리를 사용하여 모델 등록 및 배포
- 섹션 7: 결론
- 강의 17: 과정 요약
- 강의 18: 평가
- 강의 19: AWS에 문의