AWS presenta el nuevo chip de IA Trainium y Graviton 4, amplía la asociación con Nvidia

AWS presenta el nuevo chip Trainium de inteligencia artificial y Graviton 4, amplía la colaboración con Nvidia

aws-graviton4-and-aws-trainium2-prototype

El chip Graviton 4, a la izquierda, es un microprocesador de propósito general utilizado por empresas como SAP para cargas de trabajo pesadas, mientras que el Trainium 2 es un chip acelerador de propósito especial para programas de redes neuronales muy grandes, como la inteligencia artificial generativa.

En su conferencia anual para desarrolladores AWS re:Invent en Las Vegas, Amazon anunció el martes una nueva versión del Trainium 2, su chip dedicado para entrenar redes neuronales. El Trainium 2 está optimizado específicamente para entrenar modelos de lenguaje grande (LLMs) y modelos fundamentales, como los programas de inteligencia artificial generativa de OpenAI GPT-4.

La compañía también presentó una nueva versión de su microprocesador personalizado, el Graviton 4, y anunció la expansión de su asociación con Nvidia para ejecutar los chips más avanzados de Nvidia en su servicio de computación en la nube.

También: El futuro de la computación en la nube, desde la híbrida hasta la periférica impulsada por IA

El Trainium 2 está diseñado para manejar redes neuronales con billones de parámetros o pesos neuronales, que son las funciones del algoritmo del programa que le dan escala y potencia, en general. Escalar hacia parámetros cada vez más grandes es un enfoque de toda la industria de la IA.

El recuento de billones de parámetros se ha convertido en una especie de obsesión en la industria debido al hecho de que se cree que el cerebro humano contiene 100 billones de conexiones neuronales, lo que hace que un programa de red neuronal con un billón de parámetros parezca relacionado con el cerebro humano, ya sea que realmente lo sea o no.

Los chips “están diseñados para ofrecer hasta cuatro veces más rendimiento de entrenamiento y tres veces más capacidad de memoria” que sus predecesores, “mejorando la eficiencia energética (rendimiento/vatio) hasta dos veces”, según Amazon.

Amazon está poniendo los chips a disposición en instancias de su servicio de computación en la nube EC2 conocidas como “instancias Trn2”. La instancia ofrece 16 chips Trainium 2 funcionando en conjunto, que se pueden ampliar a 100,000 instancias, dijo Amazon. Estas instancias más grandes están interconectadas utilizando el sistema de redes de la compañía, llamado Elastic Fabric Adapter, que puede proporcionar un total de 65 exaFLOPs de potencia informática. (Un exaFLOP es mil millones de operaciones de punto flotante por segundo)

También: AWS presenta zonas locales en la nube para uso exclusivo de los clientes

Según Amazon, a esa escala de cálculo, “los clientes pueden entrenar un LLM de 300 billones de parámetros en semanas en lugar de meses”.

Además de servir a los clientes, Amazon tiene incentivos adicionales para seguir avanzando en la tecnología de inteligencia artificial. La compañía ha invertido $4 mil millones en Anthropic, una startup de inteligencia artificial generativa independiente de OpenAI. Esta inversión coloca a la compañía en una posición para competir con el acuerdo exclusivo de Microsoft con OpenAI.

El chip Graviton 4, que se basa en la propiedad intelectual del microprocesador de ARM Holdings, compite con los procesadores de Intel y Advanced Micro Devices basados en el antiguo estándar de chip x86. Según Amazon, el Graviton 4 tiene un “rendimiento de cómputo un 30% mejor”.

También: Por qué Nvidia está enseñando a los robots a girar bolígrafos y cómo la inteligencia artificial generativa está ayudando

A diferencia de los chips Trainium para IA, los procesadores Graviton están diseñados para ejecutar cargas de trabajo más convencionales. Amazon AWS dijo que los clientes, incluyendo a Datadog, DirecTV, Discovery, Formula 1, Nielsen, Pinterest, SAP, Snowflake, Sprinklr, Stripe y Zendesk, utilizan los chips Graviton “para ejecutar una amplia gama de cargas de trabajo, como bases de datos, análisis, servidores web, procesamiento por lotes, servidores de aplicaciones y microservicios”.

SAP dijo en declaraciones preparadas que ha logrado “mejorar un 35% el rendimiento en relación al precio en cargas de trabajo analíticas” al ejecutar su base de datos en memoria HANA en los chips Graviton, y que “esperamos evaluar Graviton4 y los beneficios que puede ofrecer a nuestros clientes conjuntos”.

Los nuevos chips se presentan dos años después de la introducción en 2021 de Graviton 3 y el original Trainium.

La noticia de Amazon llega después de que Microsoft presentara la semana pasada sus primeros chips para IA. Google de Alphabet, el otro gigante en la nube junto a Amazon y Microsoft, se les adelantó en 2016 con el primer chip en la nube para IA, el TPU o Unidad de Procesamiento Tensorial, del cual ha lanzado varias generaciones desde entonces.

También: Amazon convierte Fire TV Cube en un cliente ligero para empresas

Además de los dos nuevos chips, Amazon dijo que extendió su asociación estratégica con el gigante de los chips de IA, Nvidia. AWS será el primer servicio en la nube en ejecutar el próximo producto de múltiples chips GH200 Grace Hopper de Nvidia, que combina la CPU basada en ARM Grace y el chip de GPU Hopper H100.

El chip GH200, que se espera que comience a enviarse el próximo año, es la próxima versión del chip combinado Grace Hopper, anunciado a principios de este año, que ya se envía en su versión inicial en computadoras de Dell y otros.

Los chips GH200 se alojarán en AWS a través de las computadoras de IA especialmente diseñadas de Nvidia, los DGX, según anunciaron ambas compañías, y acelerarán la capacitación de redes neuronales con más de un billón de parámetros.

Nvidia dijo que hará de AWS su “proveedor de nube principal para su investigación y desarrollo en aprendizaje automático”.