
El conmutador de 102.4 terabits de Broadcom abre una nueva era para las redes de IA
El conmutador de 102,4 terabits de Broadcom inaugura una nueva era para las redes de IA
El gigante tecnológico lanza el primer conmutador Ethernet con ópticas co-empaquetadas mientras los centros de datos se enfrentan a desafíos de potencia y estabilidad en los enormes clústeres de entrenamiento de IA
PALO ALTO — La carrera por impulsar la inteligencia artificial no se trata solo de chips más rápidos o algoritmos más inteligentes. Detrás de escena, un desafío aún mayor ha estado al acecho: las conexiones entre esos chips. Cada día, los centros de datos consumen cantidades asombrosas de electricidad mientras luchan por mantener miles de procesadores comunicándose entre sí sin tropezar con enlaces inestables. Este cuello de botella oculto amenaza ahora la economía de la propia IA.
Broadcom cree tener la respuesta. El miércoles, la compañía reveló que ha comenzado a enviar el Tomahawk 6 "Davisson", un conmutador Ethernet de 102,4 terabits por segundo. Más importante aún, es el primero de su tipo en utilizar ópticas co-empaquetadas a esta escala. El lanzamiento no podría llegar en un momento más crítico, ya que los operadores de nube a hiperescala se esfuerzan por exprimir cada gota de rendimiento de recursos limitados de energía y refrigeración.
Durante años, los ingenieros confiaron en conectar transceptores ópticos directamente en las placas frontales de los conmutadores. Ese método funcionó, hasta que las cargas de trabajo de entrenamiento de IA se dispararon a cientos de miles de procesadores interconectados. A esa escala, el hardware tradicional ha chocado contra un muro, tanto física como económicamente.

Un matrimonio de silicio y luz
Entonces, ¿qué hace diferente a este nuevo conmutador? En lugar de adjuntar las ópticas como un complemento, Broadcom las ha integrado directamente en el mismo sustrato del chip. Al eliminar largas vías eléctricas, conectores adicionales y hardware de acondicionamiento de señales, las ópticas co-empaquetadas eliminan a los intermediarios que desperdician energía e introducen inestabilidad.
Piénsalo como mover el motor dentro de las ruedas en lugar de conectarlas con un largo y tambaleante eje de transmisión. ¿El resultado? Un movimiento más limpio, rápido y fiable.
Según Broadcom, este diseño reduce el consumo de energía de interconexión hasta en un 70 por ciento en comparación con las ópticas conectables convencionales. Multiplica eso por decenas de miles de puertos de red y verás enormes ahorros, no solo en dólares, sino en la cantidad de calor que los centros de datos tienen que disipar.
La estabilidad también recibe un gran impulso. En grandes clústeres de entrenamiento de IA, incluso un pequeño contratiempo en la red puede dejar inactivas costosas GPU y retrasar ejecuciones de entrenamiento que cuestan cientos de miles de dólares al día. Al estrechar la integración, Broadcom busca minimizar esas costosas interrupciones.
La pregunta de los 80.000 millones de dólares
Por supuesto, esto no es solo una hazaña técnica, también es una historia de negocios. Los analistas esperan que el gasto en conmutadores Ethernet para redes de IA alcance entre 80.000 y 100.000 millones de dólares en los próximos cinco años. Los gigantes de la nube y las empresas de IA están en una carrera armamentística para construir redes capaces de manejar un entrenamiento de modelos cada vez más ambicioso.
Dentro de ese enorme mercado, las ópticas co-empaquetadas ocupan un rincón pequeño pero crítico. La adopción ha sido lenta porque la tecnología es compleja y la cadena de suministro no está completamente madura. Pero a medida que las velocidades de red superan los 1,6 terabits por segundo, los conectables convencionales empiezan a ceder bajo el estrés de la potencia y el calor. Ahí es donde la CPO empieza a brillar.
Como lo expresó un arquitecto de redes: "A estas velocidades, no solo estás comprando rendimiento. Estás comprando la capacidad de encajar el ancho de banda en tus límites de energía y refrigeración existentes".
Con la plataforma Davisson duplicando las velocidades a 200 gigabits por canal óptico —el doble de lo que lograron los conmutadores CPO de última generación de Broadcom—, la compañía está plantando su bandera firmemente en medio de esta transición de alto riesgo.
Rivales en intensa persecución
Broadcom no está sola. Cisco, Marvell y Nvidia tienen sus propias visiones sobre cómo cablear las fábricas de IA del futuro. Varios ya han anunciado conmutadores capaces de igualar la capacidad bruta de Broadcom. Pero Broadcom tiene el derecho a presumir de ser la primera en enviar a esta escala.
Esa ventaja puede importar. Los grandes proveedores de nube planifican la infraestructura con años de antelación, y una vez que califican el producto de un proveedor, a menudo se quedan con él. Ser el primero podría dar a Broadcom una ventaja crucial.
Nvidia, sin embargo, plantea una amenaza única. Al combinar sus dominantes aceleradores de IA con equipos de red y software, ofrece a los clientes un paquete todo en uno. Eso es difícil de contrarrestar para los proveedores de redes puros. Se espera que la competencia se desarrolle de manera diferente según el caso de uso, con algunos escenarios favoreciendo el enfoque integrado verticalmente de Nvidia y otros apoyándose en el silicio de Broadcom.
Proveedores de sistemas como Arista Networks y actores de nicho como Micas Networks también influirán en la adopción. Su disposición a respaldar las soluciones CPO servirá como una señal temprana de la rapidez con la que se extenderá la tecnología.
Una dosis de realidad para los operadores
Aun así, implementar ópticas co-empaquetadas no es tan simple como encender un interruptor. La misma integración que hace eficiente la tecnología también dificulta su mantenimiento. Reemplazar un módulo óptico defectuoso dentro de un paquete dista mucho de simplemente deslizar un nuevo transceptor conectable.
Broadcom ha intentado mitigar esas preocupaciones con módulos láser reemplazables, pero los operadores necesitarán nuevas habilidades y procedimientos para mantener estos sistemas. Muchos cubrirán sus apuestas, desplegando CPO en capas críticas de la red mientras confían en ópticas conectables más familiares en otros lugares.
La fiabilidad de la cadena de suministro añade otra complicación. El papel de TSMC en la fabricación de los motores fotónicos significa que los volúmenes de producción podrían alcanzar límites justo cuando la demanda se dispara. Cualquier contratiempo allí podría retrasar los despliegues.
El camino por delante
Para inversores y observadores de la industria, el movimiento de Broadcom destaca tendencias clave. La ventaja de ser el primero importa, y enviar productos reales —no solo anunciar hojas de ruta— genera credibilidad. Los analistas esperan que Broadcom acumule éxitos en el diseño durante el próximo año o dos, especialmente entre los clientes que probaron versiones anteriores.
Sin embargo, el panorama general es el creciente dominio de Ethernet en las redes de back-end de IA. Incluso si la adopción de CPO sigue siendo modesta, el valor por rack aumentará gracias a un contenido más rico de silicio y óptica. Los escenarios van desde proyecciones conservadoras donde los conectables lineales hacen la mayor parte del trabajo pesado, hasta casos agresivos donde la adopción de CPO sube a un cuarto de los puertos de IA para 2027.
Broadcom ya mira hacia el futuro, con planes para una CPO de cuarta generación que soporta velocidades de carril de 400 gigabits por segundo. Esa hoja de ruta se alinea perfectamente con la planificación a largo plazo de los hiperescaladores, lo que indica que esto no es solo un avance único, sino el inicio de un cambio plurianual.
Tesis de Inversión Interna
| Categoría | Resumen y opinión del autor |
|---|---|
| Producto y significado | Conmutador Ethernet con Ópticas Co-empaquetadas (CPO) de 102,4 Tb/s, el primero en llegar al mercado. Un verdadero hito, no solo una mejora de especificaciones. Aborda directamente los puntos débiles de la infraestructura de IA: potencia/térmica y estabilidad de los enlaces a velocidades de 1,6T. Construido sobre la base probada de TH5/TSMC COUPE. |
| Ventajas clave | 1. Rendimiento: Ancho de banda de 102,4T, que permite puertos de 1,6T para clústeres de GPU de más de 10.000-100.000. 2. Potencia/Térmica: La CPO reduce la energía de interconexión frente a los conectables, ofreciendo ahorros de doble dígito porcentual a nivel de sistema. 3. Estabilidad: Menos componentes reducen los fallos de enlace, minimizando el costoso tiempo de inactividad de la GPU. 4. Fabricación: La plataforma TSMC COUPE permite la escalada de volumen con buen rendimiento. |
| Oportunidad de mercado | Gasto de ~80.000 millones de dólares en conmutadores Ethernet para IA en 5 años. La CPO no necesita ganar en todas partes; incluso una penetración del 5-15% para 2027 representa una oportunidad de miles de millones de dólares en silicio+ópticas, concentrada en dominios de alta potencia como los backbones de GPU. |
| Panorama competitivo | • Broadcom: Líder; primero en enviar CPO de 102,4T, fuerte ecosistema de mercado. • Nvidia: La integración vertical (GPU+redes+software) es su ventaja. • Cisco: Impulsa LPO como una alternativa "suficientemente buena" con menos compensaciones en la capacidad de servicio. • Marvell: Seguidor rápido; el tiempo de salida al mercado en volumen es clave. |
| Tesis de inversión (AVGO) | Apoyo: Liderazgo de categoría, crecimiento estructural del TAM de Ethernet, ventaja competitiva en fotónica/empaquetado. Riesgos: Tasa de adopción de CPO, competitividad de LPO, fricción operativa/de servicio, cadena de suministro fotónica. |
| Riesgos y mitigaciones de la adopción | 1. Capacidad de servicio: Más difícil de reemplazar que los conectables. Mitigación: Módulos láser reemplazables en campo. 2. Densidad térmica: El flujo de calor local es brutal. Mitigación: Requiere un diseño de sistema avanzado. 3. Cadena de suministro: Escalar la fotónica no es trivial. Mitigación: Plataforma estándar TSMC COUPE. 4. Software: La pila Ethernet debe madurar para igualar las optimizaciones de extremo a extremo de Nvidia. |
| Escenarios | Caso Base (Más probable): 8-12% de adopción de CPO para 2027; AVGO captura la mayor parte del mercado. Caso Optimista: 15-25% de adopción de CPO; AVGO mantiene >60% de cuota, impulsando un rendimiento superior de los ingresos. Caso Pesimista: <5% de adopción de CPO; LPO gana; AVGO aún se beneficia del ciclo ASIC de 102,4T pero pierde el potencial alcista de la CPU. |
| Métricas clave a seguir | 1. Envío de sistemas CPO de 102,4T por parte de los OEM. 2. Datos independientes de potencia/estabilidad (vatios/100G, MTBF de fallos de enlace). 3. Despliegues de hiperescaladores nombrados y divisiones de nivel LPO/CPO. 4. Actualizaciones de capacidad/rendimiento de TSMC COUPE. 5. Tiempos de las hojas de ruta de 102,4T/CPO de la competencia. |
| Veredicto final | ¿Innovador? Sí, para CPO Ethernet. ¿Resuelve problemas urgentes? Sí, avanza materialmente en potencia y estabilidad. ¿Tamaño del mercado? Grande, independientemente de la combinación de CPO. ¿Líder? Sí, en el envío actual de CPO de 102,4T. |
En resumen: Los centros de datos se están quedando sin espacio para crecer a la antigua usanza. El Tomahawk 6 de Broadcom puede que no resuelva todos los desafíos de la noche a la mañana, pero muestra cómo la industria está repensando los cimientos mismos de la infraestructura de IA. Y en una carrera donde cada vatio, cada dólar y cada segundo cuenta, ese cambio podría resultar decisivo. NO ES ASESORAMIENTO DE INVERSIÓN