Microsoft presenta el primer chip de IA, Maia 100, y la CPU Cobalt

Microsoft presenta su primer chip de IA, Maia 100, y la CPU Cobalt

Azure Cobalt

En Microsoft Ignite, el CEO de Microsoft, Satya Nadella, anunció el procesador Azure Cobalt.

En su conferencia anual para desarrolladores, Ignite, Microsoft presentó el tan esperado chip personalizado de computación en la nube para su servicio de Azure, llamado Azure Maia 100, que según la compañía está optimizado para tareas como la inteligencia artificial generativa.

Según la compañía, el Maia 100 es el primero de una serie de aceleradores Maia para la inteligencia artificial. Con 105 mil millones de transistores, es “uno de los chips más grandes en tecnología de proceso de 5 nanómetros”, dijo Microsoft, refiriéndose al tamaño de las características más pequeñas del chip, cinco milmillonésimas de metro.

Con 105 mil millones de transistores, Azure Maia 100 es “uno de los chips más grandes en tecnología de proceso de 5 nanómetros”, según Microsoft, refiriéndose al tamaño de las características más pequeñas del chip, cinco milmillonésimas de metro.

También: Las últimas ofertas de inteligencia artificial de Microsoft para desarrolladores reveladas en Ignite 2023

Además, la compañía presentó su primer microprocesador construido internamente para la computación en la nube, el Azure Cobalt 100. Al igual que Maia, el procesador es el primero de una serie planificada de microprocesadores. Está basado en la arquitectura de conjunto de instrucciones ARM de ARM Holdings que está licenciada para su uso por numerosas empresas, incluyendo Nvidia y Apple.

Microsoft dijo que Cobalt 100 es un procesador de 64 bits que tiene 128 núcleos de computación en el troquel, y que logra una reducción del 40% en el consumo de energía en comparación con otros chips basados en ARM que Azure ha estado utilizando. La parte Cobalt ya está alimentando programas como Microsoft Teams y Azure SQL, dijo la compañía.

La CPU Microsoft Azure Cobalt.

Los dos chips, Maia 100 y Cobalt 100, se alimentan mediante una red de 200 gigabits por segundo, según Microsoft, y pueden ofrecer 12.5 gigabytes por segundo de capacidad de transmisión de datos.

Microsoft es el último de los tres grandes proveedores de servicios en la nube en ofrecer silicio personalizado para la nube y la inteligencia artificial. Google fue el pionero en la carrera del silicio personalizado con su Unidad de Procesamiento Tensorial, o TPU, en 2016. Amazon siguió el ejemplo con una serie de chips, incluyendo Graviton, Trainium e Inferentia.

Los rumores sobre los esfuerzos de Microsoft han circulado durante años, alimentados por revelaciones ocasionales como la filtración del verano pasado de un documento de planificación de la compañía.

También: Azure AI Studio se presenta en Ignite 2023: Desbloquea el potencial de esta caja de herramientas de inteligencia artificial

Microsoft enfatizó que continúa asociándose tanto con Nvidia como con AMD para los chips de Azure. Planea añadir el último chip de GPU “Hopper” de Nvidia, el H200, el próximo año, así como la GPU competidora de AMD, la MI300.

Los chips de Microsoft ayudarán con programas como GitHub Copilot, pero también se utilizarán para ejecutar inteligencia artificial generativa de la startup de IA OpenAI, en la cual Microsoft ha invertido 11 mil millones de dólares para obtener derechos exclusivos de programas como ChatGPT y GPT-4.

Un rack construido a medida para el Acelerador de IA Maia 100 y su “compañero” en una cámara térmica en un laboratorio de Microsoft en Redmond, Washington.

En la conferencia de desarrolladores de OpenAI la semana pasada en San Francisco, el CEO de Microsoft, Satya Nadella, se comprometió a construir “la mejor informática” para OpenAI “mientras avanzan agresivamente en su hoja de ruta.”

También: OpenAI presenta GPTs personalizados, Store y Assistant API en Dev Day

Tanto Microsoft como OpenAI están tratando de atraer simultáneamente a las empresas a utilizar la inteligencia artificial generativa. Microsoft está experimentando un gran crecimiento en el negocio de la IA generativa, según informó Nadella a Wall Street el mes pasado. Los clientes de pago de la compañía por su software GitHub Copilot aumentaron un 40% en el tercer trimestre de septiembre en comparación con el trimestre anterior.

“Tenemos más de 1 millón de usuarios de Copilot que pagan en más de 37,000 organizaciones que se suscriben a Copilot para empresas”, dijo Nadella, “con un avance significativo fuera de Estados Unidos.”

También en Ignite, Microsoft anunció que está extendiendo Copilot a Azure con una versión preliminar pública de Copilot for Azure, una herramienta que, según ellos, proporcionará a los administradores del sistema un “acompañante de IA” que les ayudará a “generar conocimientos profundos al instante.”

También: CEO de OpenAI: Estamos contentos si Microsoft realiza una venta, y ellos están contentos si nosotros realizamos una venta

Además de las innovaciones en chips, Microsoft anunció la disponibilidad general de los programas de bases de datos de Oracle que se ejecutan en hardware de Oracle en la región este de Azure en EE.UU. Según dijeron, Microsoft es el único operador de la nube que ofrece la base de datos de Oracle en la propia infraestructura de sistemas informáticos de Oracle.

Otras noticias de socios incluyeron la disponibilidad general del servicio de informática perimetral de Microsoft, Arc, para el conjunto de virtualización vSphere de VMware.