Courses from 1000+ universities
Class Central experiments with cataloging online courses from California Community Colleges, offering diverse, affordable, and credit-worthy learning opportunities.
600 Free Google Certifications
Artificial Intelligence
Web Development
Web Design
Learn Like a Pro: Science-Based Tools to Become Better at Anything
Paleontology: Theropod Dinosaurs and the Origin of Birds
Introduction to Complexity
Organize and share your learning with Class Central Lists.
View our Lists Showcase
Explore advanced agentic RAG systems with expert Atita Arora. Learn how these innovations overcome traditional limitations and revolutionize information retrieval in AI and machine learning.
Supercharge LLM deployment by integrating Baseten model endpoints into Unify Platform. Learn dynamic routing, open-source model usage, and see real-world examples to optimize your AI workflow.
Explicación de YOCO: arquitectura decodificador-decodificador para modelos de lenguaje que mejora la memoria de inferencia, latencia y rendimiento al almacenar en caché pares clave-valor una sola vez.
Explicación de "Towards Monosemanticity": descomposición de modelos de lenguaje mediante aprendizaje de diccionarios para mejorar la interpretabilidad y comprensión del comportamiento de las redes neuronales.
Presentación de ReFT: método innovador de ajuste fino para modelos de lenguaje que modifica representaciones internas, usando hasta 50 veces menos parámetros que métodos tradicionales.
Presentación sobre LayerSkip, un método de aceleración de LLM que logra mejoras de velocidad 2x mediante salidas tempranas y decodificación auto-especulativa durante el entrenamiento e inferencia.
DSPy: un modelo de programación que abstrae pipelines de LM como grafos de transformación de texto. Permite que modelos como GPT-3.5 y llama2-13b-chat mejoren su rendimiento mediante técnicas de prompting, fine-tuning y razonamiento.
Presentación sobre destilación del conocimiento en modelos de lenguaje grandes, enfocada en el método MiniLLM que mejora la precisión usando divergencia KL inversa.
Aprenda a construir um chatbot interativo usando LLMs suportados pelo Unify. Explore clientes sÃncronos e assÃncronos e siga o tutorial prático com notebooks fornecidos.
Explicación de la era de los LLMs de 1 bit: modelos de lenguaje con parámetros ternarios que igualan el rendimiento de modelos de precisión completa, ofreciendo mayor eficiencia y escalabilidad.
Presentación sobre SparQ Attention, una técnica para aumentar el rendimiento de inferencia de LLMs reduciendo los requisitos de ancho de banda de memoria en bloques de atención.
Exploración de OpenMoE: modelos de lenguaje de mezcla de expertos, su eficacia en costos y mecanismos de enrutamiento. Presentación del trabajo de Fuzhao Xue sobre estos modelos de IA abiertos.
Exploración de arquitecturas Profesor-Estudiante en destilación del conocimiento para compresión, expansión, adaptación y mejora. Presentado por Chengming Hu sobre su trabajo de investigación.
Explicación de SliceGPT: técnica para comprimir modelos de lenguaje grandes eliminando filas y columnas, manteniendo alto rendimiento. Presentado por Saleh Ashkboos de ETH Zurich.
Haoran Xu presents Contrastive Preference Optimization, a novel approach to improve moderately sized LLMs on translation tasks by guiding them towards producing better translations rather than just avoiding errors.
Get personalized course recommendations, track subjects and courses with reminders, and more.