LLMOPs - Inferencia en CPU con Phi3 4k Instruct ONNX 4bits en C#
The Machine Learning Engineer via YouTube
Overview
Aprende a realizar inferencia en CPU utilizando el modelo Phi 3 4K Instruct cuantizado a 4 bits en formato ONNX con C#. Este tutorial de 24 minutos explica paso a paso cómo implementar LLMOPs (Operaciones de Modelos de Lenguaje Grande) para ciencia de datos y aprendizaje automático. Descubre técnicas avanzadas para optimizar el rendimiento en CPU y trabajar con modelos de lenguaje comprimidos. Accede al código fuente completo en GitHub para seguir la implementación práctica y profundizar en los conceptos presentados.
Syllabus
LLMOPs: Inferencia en CPU Phi3 4k Intruct ONNX 4bits en C# #datascience #machinelearning
Taught by
The Machine Learning Engineer