En este curso se ofrece información general de los desafíos que conlleva la producción de los LLM y de un conjunto de herramientas disponibles para afrontarlos. En el curso se ofrecerá información general de la arquitectura de referencia para el desarrollo, la implementación y la operacionalización de los LLM, y se profundizará en cada etapa del proceso.
- Nivel del curso: intermedio
- Duración: 90 minutos
Nota: Este curso tiene transcripciones o subtítulos localizados. La narración está en inglés. Para mostrar los subtítulos, haga clic en el botón CC en la esquina inferior derecha del reproductor.
Actividades
Este curso incluye presentaciones, ejemplos reales y estudios de casos.
Objetivos del curso
En este curso, aprenderá a hacer lo siguiente:
- Diferenciar las MLOps de las LLMOps y definir los desafíos principales que presenta la operacionalización de los LLM,
- elegir el LLM óptimo para un caso práctico determinado,
- evaluar los LLM y la diferencia entre evaluación y análisis comparativo,
- definir los componentes principales de la generación aumentada por recuperación (RAG) y cómo se puede administrar,
- diferenciar el entrenamiento previo continuo del ajuste de precisión,
- comprender las técnicas de ajuste de precisión disponibles que están listas para usar en AWS,
- saber qué debe supervisarse en los LLM y cómo hacerlo en AWS,
- comprender las prácticas recomendadas de gobernanza y seguridad, e
- ilustrar la arquitectura de referencia para LLMOps en AWS.
Audiencia objetivo
Este curso está dirigido a las siguientes personas:
- científicos de datos e ingenieros de ML que buscan automatizar la creación e implementación de LLM, y
- arquitectos de soluciones e ingenieros de DevOps que buscan comprender la arquitectura general de una plataforma de LLMOps.
Requisitos
Recomendamos que quienes participen en este curso cumplan con los siguientes requisitos:
- la finalización del plan de aprendizaje de IA generativa para desarrolladores (digital), y
- formación técnica y experiencia en programación.
Esquema del curso
Módulo 1: Introducción a las LLMOps
- Introducción a las LLMOps
- Roles en las LLMOps
- Desafíos que presenta la operacionalización de LLM
Módulo 2: Elección del LLM
- Análisis comparativo de casos prácticos de LLM
- Toma de decisiones basada en prioridades
Módulo 3: Evaluación del LLM
- Métodos de evaluación
- Catálogo de peticiones de evaluación
- Marco de trabajo y métricas de evaluación
- Marco de trabajo y métricas del análisis comparativo
Módulo 4: Generación aumentada por recuperación (RAG)
- Personalización del LLM
- Modelos de incrustación
- Bases de datos vectoriales
- Flujos de trabajo de RAG
- Técnicas de RAG avanzadas
Módulo 5: Ajuste de precisión del LLM
- Comparación entre el entrenamiento previo continuo y el ajuste de precisión
- Ajuste de precisión eficiente de parámetros (Parameter-efficient fine-tuning, PEFT)
- Arquitectura de ajuste de precisión
Módulo 6: Supervisión del LLM
- Supervisión del LLM
- Barreras de protección del LLM
Módulo 7: Gobernanza y seguridad del LLM
- Prácticas recomendadas de seguridad y gobernanza
- Herramientas de seguridad y gobernanza
Módulo 8: Arquitectura de las LLMOps
- Ciclo de vida de las LLMOps
Demostraciones
- Incrustación de texto y similitud semántica
- Ajuste de precisión y evaluación del LLM a escala
- Medidas de protección para la inferencia