Class Central is learner-supported. When you buy through links on our site, we may earn an affiliate commission.

YouTube

LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU

The Machine Learning Engineer via YouTube

Overview

Explora cómo convertir un modelo al formato TensorRT y compara los tiempos de inferencia en GPU entre PyTorch nativo y TensorRT con diferentes tipos de precisión de datos en este video de 40 minutos. Aprende a utilizar el SDK Nvidia TensorRT para optimizar la inferencia en GPU para modelos de aprendizaje automático. Examina un caso práctico utilizando ResNet50, siguiendo el proceso paso a paso con el notebook proporcionado en GitHub. Descubre las ventajas y consideraciones al implementar TensorRT para mejorar el rendimiento de inferencia en aplicaciones de ciencia de datos y aprendizaje automático.

Syllabus

LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU #datascience #machinelearning

Taught by

The Machine Learning Engineer

Reviews

Start your review of LLMOps: Como usar Nvidia TensorRT SDK para Inferencia en GPU

Never Stop Learning.

Get personalized course recommendations, track subjects and courses with reminders, and more.

Someone learning on their laptop while sitting on the floor.