LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU
The Machine Learning Engineer via YouTube
Overview
Explora cómo convertir un modelo al formato TensorRT y compara los tiempos de inferencia en GPU entre PyTorch nativo y TensorRT con diferentes tipos de precisión de datos en este video de 40 minutos. Aprende a utilizar el SDK Nvidia TensorRT para optimizar la inferencia en GPU para modelos de aprendizaje automático. Examina un caso práctico utilizando ResNet50, siguiendo el proceso paso a paso con el notebook proporcionado en GitHub. Descubre las ventajas y consideraciones al implementar TensorRT para mejorar el rendimiento de inferencia en aplicaciones de ciencia de datos y aprendizaje automático.
Syllabus
LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU #datascience #machinelearning
Taught by
The Machine Learning Engineer