AMD lanza nuevos chips de IA con más memoria que Nvidia para impulsar sistemas de IA de próxima generación

Por
Amanda Zhang
9 min de lectura

AMD Rompe el Techo de Memoria de Nvidia en la Batalla de Alto Riesgo por los Chips de IA

En un Duelo en Silicon Valley, la Apuesta de Memoria de 288 GB de AMD Redefine el Panorama del Hardware de IA

En un desafío directo al dominio de larga data de Nvidia en la computación de inteligencia artificial, AMD ha presentado su línea de hardware de IA más ambiciosa hasta la fecha, encabezada por chips que aventajan al líder de la industria en una especificación crucial: la capacidad de memoria. En su evento "Advancing AI 2025" celebrado en San José esta semana, AMD exhibió la serie Instinct MI350, que cuenta con una capacidad de memoria de alto ancho de banda de 288 GB sin precedentes, un 50% más que los chips Blackwell insignia de Nvidia, lo que podría redefinir la dinámica competitiva en el mercado de aceleradores de IA, valorado en 150.000 millones de dólares.

Lisa Su (gstatic.com)
Lisa Su (gstatic.com)

"Cuando comenzaron a compartir las especificaciones, pensé que era increíble; sonaba totalmente descabellado. Será un avance extraordinario", afirmó Sam Altman, CEO de OpenAI, durante el evento, subrayando la trascendencia del logro técnico de AMD.

Ficha Técnica de los Nuevos Productos de IA de AMD

Nombre/Serie del ProductoEspecificaciones y Características ClaveRendimiento DestacadoDisponibilidad / Lanzamiento
Serie Instinct MI350 (MI350X y MI355X)- Arquitectura: CDNA 4, nodo TSMC N3P
- Memoria: Hasta 288 GB HBM3E
- Ancho de Banda: 8 TB/s
- Refrigeración: Por aire (hasta 64 GPU/rack) y Líquida (hasta 128 GPU/rack)
- Hasta 4 veces el rendimiento de cómputo de IA y 35 veces el rendimiento de inferencia sobre la generación anterior
- Hasta 2,6 exaFLOPS (FP4) en una configuración de rack
- 40% más de tokens por dólar que Nvidia Blackwell B200 (en inferencia FP4)
Tercer trimestre de 2025 (envío)
Serie MI400/450 (Avance)- Memoria: Hasta 432 GB HBM4
- Plataforma: Será la base de la plataforma "Helios" a escala de rack
- Competencia: Competirá con las plataformas Rubin/Vera Rubin de Nvidia
- Se espera que ofrezca hasta 10 veces el rendimiento de inferencia en modelos de Mezcla de Expertos (MoE) en comparación con la serie MI3502026
Rack de IA Helios- Componentes: Integra hasta 72 GPU, CPU EPYC Zen 6 y un nuevo chip de red Vulcano
- Diseño: Motor de cómputo unificado de rack completo, refrigerado por líquido, para IA a hiperescala
- El rendimiento se basa en sus componentes integrados (serie MI400/450)2026
Pila de Software ROCm 7.0- Tiene como objetivo crear un ecosistema de IA abierto para competir con CUDA
- Incluye un shim CUDA-thunk para recompilar el 72% de los proyectos CUDA de código abierto "listos para usar"
- Ofrece mejoras de rendimiento de más de 4 veces en inferencia y 3 veces en entrenamiento con respecto a ROCm 6.0Disponible Ahora
Developer Cloud- Un nuevo servicio en la nube que proporciona a los desarrolladores acceso instantáneo a las últimas GPU de AMD
- Replica el servicio DGX Cloud Lepton de Nvidia
- (No aplicable - una plataforma de acceso)Disponible Ahora

Avance en Memoria se Dirige al Cuello de Botella de la IA

La serie Instinct MI350, construida sobre la nueva arquitectura CDNA 4 de AMD y el avanzado proceso de fabricación N3P de TSMC, representa el primer producto de la compañía limitado por capacidad que supera claramente a Nvidia en una especificación destacada. Con 288 GB de memoria HBM3E y 8 TB/s de ancho de banda por chip, el MI350 aborda lo que se ha convertido en la principal limitación en la ejecución de modelos de lenguaje grandes y modernos: la capacidad de memoria.

Para las aplicaciones de IA, particularmente las cargas de trabajo de inferencia que involucran modelos con miles de millones de parámetros, esta ventaja de memoria se traduce en ganancias tangibles de rendimiento. Los primeros puntos de referencia sugieren que el MI350 puede ofrecer aproximadamente un 40% más de tokens por dólar que el Blackwell B200 de Nvidia con precisión FP4, principalmente debido a su eficiencia de memoria en lugar de su potencia computacional bruta.

"Este es el momento en que la estrategia de IA de AMD finalmente cristaliza", dijo un analista senior de la industria que solicitó el anonimato. "La capacidad de memoria del MI350 no es solo una victoria en la hoja de especificaciones, sino que cambia fundamentalmente lo que es posible para la inferencia de LLM a escala."

Los chips estarán disponibles tanto en configuraciones refrigeradas por aire que soportan hasta 64 GPU por rack como en variantes refrigeradas por líquido que permiten hasta 128 GPU por rack, con el potencial de ofrecer hasta 2,6 exaFLOPS de rendimiento FP4. AMD confirmó que la serie MI350 se enviará en el tercer trimestre de 2025, aproximadamente nueve meses después de que Nvidia comenzara a enviar su arquitectura Blackwell.

Más Allá del Chip: El Enfoque Integral de AMD

Si bien el MI350 representa la ofensiva a corto plazo de AMD, la estrategia a largo plazo de la compañía parece aún más ambiciosa. AMD presentó una vista previa de sus chips de la serie MI400/450, programados para su lanzamiento en 2026, que contarán con hasta 432 GB de memoria HBM4 de próxima generación y anclarán la plataforma de IA a escala de rack "Helios" de la compañía, diseñada para implementaciones a hiperescala.

El Rack de IA Helios —un sistema refrigerado por líquido que integra hasta 72 GPU junto con CPU EPYC Zen 6 y el nuevo chip de red Vulcano de AMD— señala la intención de AMD de competir con Nvidia a nivel de sistema completo en lugar de solo chip a chip. Este enfoque a escala de rack replica la estrategia Vera Rubin de Nvidia y apunta a los centros de datos a hiperescala que representan el segmento más grande y lucrativo del mercado de hardware de IA.

AMD también ha mejorado significativamente su ecosistema de software, lanzando ROCm 7.0, que ofrece mejoras de rendimiento de más de 4 veces en inferencia y 3 veces en entrenamiento con respecto a su predecesor. La compañía presentó un nuevo servicio en la nube para desarrolladores que proporciona acceso instantáneo a sus últimas GPU para desarrolladores de IA, similar a la oferta DGX Cloud Lepton de Nvidia.

Alianzas Estratégicas Validan el Impulso de AMD en IA

Los principales proveedores de la nube y empresas de IA ya han señalado su apoyo al nuevo hardware de AMD. Oracle Cloud Infrastructure se ha comprometido a desplegar clústeres de más de 131.000 chips MI355X, lo que representa el pedido anunciado públicamente más grande hasta la fecha. Meta está implementando el MI350 para la inferencia de modelos Llama, mientras que Microsoft y OpenAI han profundizado sus colaboraciones con AMD.

Estas alianzas se complementan con la agresiva estrategia de adquisición de AMD, ya que la compañía ha adquirido o invertido en 25 startups relacionadas con IA durante el último año. Las adquisiciones notables incluyen al fabricante de servidores ZT Systems, al equipo de chips Untether AI y talento de la startup de IA Lamini, todas destinadas a reforzar las capacidades de IA de extremo a extremo de AMD.

La Cautelosa Respuesta de Wall Street

A pesar de los logros técnicos, la reacción de Wall Street ha sido cautelosa. Las acciones de AMD cayeron un 2% tras los anuncios, y las de Nvidia disminuyeron un 1,5%, lo que refleja el escepticismo de los inversores sobre la ejecución más que sobre la hoja de ruta tecnológica en sí.

Actualmente, AMD cotiza a aproximadamente 9 veces su EBITDA proyectado para 2026, un descuento del 30% respecto al múltiplo de 13x de Nvidia. Esta brecha de valoración subraya las persistentes preocupaciones del mercado sobre la capacidad de AMD para superar las limitaciones de suministro y las desventajas de su ecosistema de software.

"Las especificaciones son impresionantes, pero el software sigue siendo el flanco débil de AMD", señala un analista de semiconductores de un importante banco de inversión. "Hasta que ROCm se envíe con un entorno de ejecución de inferencia plug-compatible, los clientes que buscan soluciones llave en mano seguirán recurriendo a Nvidia por defecto."

Las Limitaciones de la Cadena de Suministro Podrían Limitar el Impacto

El éxito de la estrategia de IA de AMD depende tanto de la capacidad de fabricación como de la destreza técnica. La capacidad de producción N3P de TSMC está muy limitada, con Apple, AMD y Qualcomm compitiendo por la asignación. Fuentes de la industria estiman que AMD podría enviar aproximadamente 80.000 paquetes MI350 en la segunda mitad de 2025, lo que representa solo alrededor del 11% de los recientes envíos trimestrales de obleas Blackwell de Nvidia.

El suministro de memoria HBM3E de SK Hynix y Samsung representa otro posible cuello de botella, lo que podría limitar la capacidad de AMD para capitalizar sus ventajas técnicas a corto plazo. Además, a diferencia de las variantes Blackwell de Nvidia, el MI355X actualmente no tiene una versión legal para China, cediendo efectivamente aproximadamente el 18% del mercado a Nvidia.

Perspectivas de Inversión: Opción Estratégica con Retornos Asimétricos

Para los inversores, el impulso de AMD en IA representa lo que los analistas describen como una "opción estratégica" con retornos potencialmente asimétricos. Incluso modestas ganancias de cuota de mercado podrían impactar significativamente el rendimiento financiero de AMD, con modelos que sugieren ingresos incrementales por GPU de 5.000 millones de dólares en el año fiscal 2026 si se pueden superar las limitaciones de suministro.

"El perfil de riesgo-recompensa es atractivo en las valoraciones actuales", sugiere un gestor de cartera especializado en inversiones en semiconductores. "Si los volúmenes del MI350 superan las limitaciones de suministro y Helios se envía a tiempo, AMD podría ver su descuento de valoración con respecto a Nvidia reducirse a la mitad en los próximos 18 meses."

Los catalizadores clave a monitorear incluyen la llamada de resultados del tercer trimestre de 2025 de AMD, que proporcionará las primeras cifras concluyentes de ingresos del MI350; el lanzamiento del software ROCm 7.1 esperado en noviembre de 2025; las implementaciones iniciales de racks piloto de Helios en los centros de datos de Oracle y Meta; y los contratos de suministro de HBM4 a principios de 2026.

Aunque persisten riesgos significativos de ejecución, los últimos anuncios de AMD establecen a la compañía como un contendiente creíble en la aceleración de IA por primera vez. Para una industria acostumbrada al liderazgo indiscutible de Nvidia, la aparición de competencia viable podría reconfigurar la dinámica de precios y los ciclos de innovación en todo el ecosistema de hardware de IA.

Descargo de responsabilidad: Este análisis refleja información disponible públicamente y no debe considerarse asesoramiento de inversión. El rendimiento pasado no garantiza resultados futuros. Los inversores deben consultar a asesores financieros para obtener orientación personalizada.

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal