Microsoft presenta el primer chip de IA, Maia 100, y la CPU Cobalt
Microsoft presenta su primer chip de IA, Maia 100, y la CPU Cobalt
En su conferencia anual para desarrolladores, Ignite, Microsoft presentó el tan esperado chip personalizado de computación en la nube para su servicio de Azure, llamado Azure Maia 100, que según la compañía está optimizado para tareas como la inteligencia artificial generativa.
Según la compañía, el Maia 100 es el primero de una serie de aceleradores Maia para la inteligencia artificial. Con 105 mil millones de transistores, es “uno de los chips más grandes en tecnología de proceso de 5 nanómetros”, dijo Microsoft, refiriéndose al tamaño de las características más pequeñas del chip, cinco milmillonésimas de metro.
- Bing Chat ahora se llama Copilot y se siente mucho más como ChatGPT
- ¿Kubernetes simplificado? Microsoft agrega operador de herramientas...
- No esperaba que esta mini barra de sonido sonara tan grande, ¡y aho...
Además, la compañía presentó su primer microprocesador construido internamente para la computación en la nube, el Azure Cobalt 100. Al igual que Maia, el procesador es el primero de una serie planificada de microprocesadores. Está basado en la arquitectura de conjunto de instrucciones ARM de ARM Holdings que está licenciada para su uso por numerosas empresas, incluyendo Nvidia y Apple.
Microsoft dijo que Cobalt 100 es un procesador de 64 bits que tiene 128 núcleos de computación en el troquel, y que logra una reducción del 40% en el consumo de energía en comparación con otros chips basados en ARM que Azure ha estado utilizando. La parte Cobalt ya está alimentando programas como Microsoft Teams y Azure SQL, dijo la compañía.
Los dos chips, Maia 100 y Cobalt 100, se alimentan mediante una red de 200 gigabits por segundo, según Microsoft, y pueden ofrecer 12.5 gigabytes por segundo de capacidad de transmisión de datos.
Microsoft es el último de los tres grandes proveedores de servicios en la nube en ofrecer silicio personalizado para la nube y la inteligencia artificial. Google fue el pionero en la carrera del silicio personalizado con su Unidad de Procesamiento Tensorial, o TPU, en 2016. Amazon siguió el ejemplo con una serie de chips, incluyendo Graviton, Trainium e Inferentia.
Los rumores sobre los esfuerzos de Microsoft han circulado durante años, alimentados por revelaciones ocasionales como la filtración del verano pasado de un documento de planificación de la compañía.
Microsoft enfatizó que continúa asociándose tanto con Nvidia como con AMD para los chips de Azure. Planea añadir el último chip de GPU “Hopper” de Nvidia, el H200, el próximo año, así como la GPU competidora de AMD, la MI300.
Los chips de Microsoft ayudarán con programas como GitHub Copilot, pero también se utilizarán para ejecutar inteligencia artificial generativa de la startup de IA OpenAI, en la cual Microsoft ha invertido 11 mil millones de dólares para obtener derechos exclusivos de programas como ChatGPT y GPT-4.
En la conferencia de desarrolladores de OpenAI la semana pasada en San Francisco, el CEO de Microsoft, Satya Nadella, se comprometió a construir “la mejor informática” para OpenAI “mientras avanzan agresivamente en su hoja de ruta.”
También: OpenAI presenta GPTs personalizados, Store y Assistant API en Dev Day
Tanto Microsoft como OpenAI están tratando de atraer simultáneamente a las empresas a utilizar la inteligencia artificial generativa. Microsoft está experimentando un gran crecimiento en el negocio de la IA generativa, según informó Nadella a Wall Street el mes pasado. Los clientes de pago de la compañía por su software GitHub Copilot aumentaron un 40% en el tercer trimestre de septiembre en comparación con el trimestre anterior.
“Tenemos más de 1 millón de usuarios de Copilot que pagan en más de 37,000 organizaciones que se suscriben a Copilot para empresas”, dijo Nadella, “con un avance significativo fuera de Estados Unidos.”
También en Ignite, Microsoft anunció que está extendiendo Copilot a Azure con una versión preliminar pública de Copilot for Azure, una herramienta que, según ellos, proporcionará a los administradores del sistema un “acompañante de IA” que les ayudará a “generar conocimientos profundos al instante.”
Además de las innovaciones en chips, Microsoft anunció la disponibilidad general de los programas de bases de datos de Oracle que se ejecutan en hardware de Oracle en la región este de Azure en EE.UU. Según dijeron, Microsoft es el único operador de la nube que ofrece la base de datos de Oracle en la propia infraestructura de sistemas informáticos de Oracle.
Otras noticias de socios incluyeron la disponibilidad general del servicio de informática perimetral de Microsoft, Arc, para el conjunto de virtualización vSphere de VMware.