Inferencia Eficiente de LLMs en CPUs y GPUs Intel con Neural Speed
The Machine Learning Engineer via YouTube
Overview
Explora la inferencia eficiente de modelos de lenguaje grandes (LLMs) en CPUs y GPUs de Intel utilizando Neural Speed en este video tutorial en español. Aprende sobre las extensiones de Intel para transformadores y cómo optimizar el rendimiento de LLMs. Accede a notebooks prácticos para implementar estas técnicas tanto en CPU como en GPU. Profundiza en estrategias de machine learning avanzadas para mejorar la velocidad y eficiencia de tus modelos de lenguaje en hardware Intel.
Syllabus
Inferencia Eficiente de LLMs en CPUs y GPU,s INTEL. Neural Speed Español #machinelearning
Taught by
The Machine Learning Engineer