DeepLearning.AI
Este curso ofrece una inmersión profunda en los componentes principales de la arquitectura de transformadores que impulsan los modelos de lenguaje grande (LLMs). Obtén una sólida base técnica en transformadores, comprende las mejoras recientes y explora implementaciones en la biblioteca Hugging Face Transformers.
En este curso, aprenderás cómo funciona una arquitectura de red de transformadores que impulsa los LLMs. Desarrollarás la intuición de cómo los LLMs procesan texto y trabajarás con ejemplos de código que ilustran los componentes clave de la arquitectura de transformadores. Al final de este curso, tendrás una comprensión profunda de cómo los LLMs procesan el lenguaje y podrás leer artículos que describen modelos y entender los detalles que se utilizan para describir estas arquitecturas.
Entusiastas de la IA
Individuos interesados en comprender el funcionamiento interno de las arquitecturas de transformadores que impulsan los LLMs de hoy en día.
Científicos de Datos
Profesionales que buscan profundizar su conocimiento sobre los modelos de transformadores y sus aplicaciones en IA.
Desarrolladores
Desarrolladores que desean construir aplicaciones utilizando modelos de lenguaje grande y comprender su arquitectura subyacente.
Obtén una comprensión profunda de las arquitecturas de transformadores que impulsan los LLMs de hoy en día. Aprende componentes clave como la tokenización, las incrustaciones y la autoatención, y explora las mejoras recientes. Ideal para entusiastas de la IA, científicos de datos y desarrolladores que buscan avanzar en sus carreras.
1 / 3
Comprensión básica de los conceptos de aprendizaje automático
Familiaridad con lenguajes de programación como Python
Interés en IA y modelos de lenguaje
Jay Alammar
Director y Compañero de Ingeniería, Cohere
Coautor de Hands-On Large Language Models
Maarten Grootendorst
Científico Senior de Datos Clínicos, Organización Holandesa de Cáncer Integral
Costo
Libre
Duración
Fechas
Ubicación