La startup de IA Modular recauda 250 millones de dólares para desafiar el dominio de NVIDIA en la potencia de cálculo

Por
Tomorrow Capital
10 min de lectura

Una startup de Silicon Valley apuesta 250 millones de dólares por romper el dominio de NVIDIA en IA

La financiación récord de Modular muestra una creciente resistencia contra la dependencia de un proveedor a medida que la demanda de IA se dispara

Algo grande está cambiando en los centros de datos de Silicon Valley. A medida que las cargas de trabajo de IA devoran cada vez más potencia de cómputo, una joven startup acaba de obtener 250 millones de dólares en financiación para enfrentarse a una de las fuerzas más dominantes en tecnología: el control absoluto de NVIDIA sobre la infraestructura de IA.

Modular, la startup cofundada por Chris Lattner, pionero en lenguajes de programación, anunció el miércoles que había conseguido una ronda de financiación Serie C liderada por el fondo US Innovative Technology de Thomas Tull. Esta ronda casi triplicó la valoración de Modular a 1.600 millones de dólares y elevó su recaudación total desde su lanzamiento en 2022 a 380 millones de dólares. Ahora se sitúa a la vanguardia de los desafiantes que buscan reescribir las reglas de la computación de IA.

Pero más allá de la fanfarria, la historia es más profunda. La industria no solo busca chips más rápidos; lidia con una realidad incómoda: la demanda de computación está explotando, pero grandes porciones de la capacidad actual permanecen inactivas debido a pilas de software fragmentadas y específicas de cada proveedor.


La crisis silenciosa: capacidad de cómputo desperdiciada en un mundo hambriento de poder

El apetito de la IA por la potencia parece interminable. Los centros de datos se alzan como catedrales de cristal, pero los expertos susurran sobre las ineficiencias que se esconden a plena vista. El problema no es el hardware en sí, sino los ecosistemas cerrados que lo envuelven.

NVIDIA tiene CUDA. AMD ofrece ROCm. Apple protege su propio conjunto de frameworks. Cada uno obliga a los desarrolladores a su propio silo, dejándolos con la opción de jurar lealtad a un solo proveedor o manejar múltiples bases de código a un costo asombroso. Un analista lo llama un “impuesto a la innovación”.

Ese impuesto no es pequeño. El entrenamiento de modelos de IA se vuelve más caro cada mes, incluso a medida que los costos de inferencia disminuyen. Las empresas gastan cantidades récord en computación, pero gran parte de ese gasto no produce resultados debido a cuellos de botella de software. Imagina una flota de coches de carreras atascados en primera marcha; esa es la imagen que muchos ingenieros describen.


La apuesta de Modular: Construyendo el “sistema operativo” de la IA

Modular cree tener la solución. La compañía se está presentando como el equivalente de VMware para la IA, la empresa que una vez abstrajo el hardware de los servidores y cambió la TI empresarial para siempre.

Su plataforma une tres grandes componentes. En la cima se encuentra Mammoth, un sistema de orquestación nativo de Kubernetes optimizado para IA. A diferencia de la orquestación genérica, Mammoth conoce las particularidades de la inferencia a gran escala, como el enrutamiento de solicitudes por tipo de carga de trabajo, la separación de la computación del caché para una asignación más inteligente y la gestión de múltiples modelos en el mismo hardware.

Luego viene MAX, la capa de servicio. Aquí, Modular ha incorporado optimizaciones como la decodificación especulativa y las fusiones a nivel de operador. También promete algo pragmático: compatibilidad. MAX es compatible con PyTorch y modelos propietarios, al tiempo que expone puntos finales que se alinean con la API de OpenAI.

Y en la base se encuentra Mojo, un nuevo lenguaje de sistemas que combina la facilidad de Python con la velocidad pura de C++. Al ser propietario del propio lenguaje, Modular espera lograr el mismo tipo de dependencia que CUDA le dio a NVIDIA, solo que esta vez, en todos los proveedores.

Las primeras pruebas de rendimiento parecen prometedoras. Modular afirma que su pila ofrece un rendimiento entre un 20% y un 50% superior al de frameworks como vLLM y SGLang en hardware moderno, con reducciones de latencia de hasta el 70% y ahorros de costos de hasta el 80% para sus socios.


Forjando alianzas en un mercado de todo o nada

Modular no se lanza a esta batalla solo. Su ronda de financiación reveló una alianza que se extiende desde proveedores de la nube hasta fabricantes de chips. Oracle, AWS, Lambda Labs y Tensorwave se han unido. Entre los socios de hardware se encuentran tanto AMD como, curiosamente, la propia NVIDIA. Los clientes van desde startups como Inworld hasta grandes empresas como Jane Street.

Para las plataformas en la nube, apoyar a Modular tiene sentido. Una capa de software unificada reduce su dependencia de un único proveedor de chips y podría aumentar las tasas de utilización. Para AMD y otros rivales, es una oportunidad para igualar las condiciones con NVIDIA al reducir las barreras de adopción.

El inversor Thomas Tull lo expresó sin rodeos: “La implementación estratégica de la IA es el factor competitivo más importante en la economía actual”. El trasfondo es claro: quien controle la capa de software podría modelar no solo los mercados, sino también la competitividad nacional.

El momento no podría ser mejor para los desafiantes. Los últimos chips MI350 de AMD igualan el rendimiento de NVIDIA en muchas cargas de trabajo de IA, mientras que startups como Cerebras y Groq impulsan arquitecturas especializadas que destacan en casos de uso específicos. La capa de abstracción de Modular podría dar a estas alternativas una oportunidad justa.


El contraataque de NVIDIA

Por supuesto, NVIDIA no se queda de brazos cruzados. Su plataforma NIM (NVIDIA Inference Microservices) empaqueta la implementación basada en CUDA en contenedores simples. Para los clientes contentos dentro del mundo de NVIDIA, este modelo llave en mano ofrece una simplicidad y un rendimiento inigualables.

Esto coloca a Modular en un clásico dilema del innovador. Debe convencer a los desarrolladores de que la flexibilidad y la libertad multiplataforma superan la sofisticación y la velocidad del ecosistema cerrado de NVIDIA. Mientras tanto, competidores de código abierto como vLLM, SGLang y ONNX Runtime ya cuentan con una tracción significativa entre los desarrolladores.

Y las fuerzas del mercado pueden dictar los resultados tanto como la tecnología. Con una demanda de GPU que supera la oferta, muchas organizaciones no pueden elegir su chip preferido. Tomarán lo que esté disponible. Esa dinámica por sí sola podría impulsar la adopción de soluciones neutrales al proveedor como la de Modular.


Por qué les importa a los inversores

Esta apuesta de 250 millones de dólares destaca un cambio en cómo el capital de riesgo ve la IA. Las llamativas startups de modelos acaparan los titulares, pero los actores de infraestructura son vistos cada vez más como inversiones más seguras y duraderas. No necesitan ganar la carrera armamentística de la IA; se benefician de ella, sin importar quién construya los mejores modelos.

Con 1.600 millones de dólares, la valoración de Modular sugiere que sus inversores lo ven como algo más que una startup de software. Apuestan a que podría convertirse en una capa fundamental, como una cabina de peaje por la que todo proyecto de IA debe pasar. Ese es el tipo de posicionamiento que convierte a los gigantes de la nube o a los proveedores de hardware en candidatos de adquisición codiciados.


El camino por delante

Aun así, el desafío de Modular es enorme. No se trata solo de construir un lenguaje o un framework; está abordando el lenguaje, el entorno de ejecución (runtime) y la orquestación al mismo tiempo. Pocas empresas sobreviven a ese tipo de ascenso cuesta arriba.

La historia ofrece tanto esperanza como cautela. VMware lo logró y transformó la TI. Muchos otros intentaron hazañas similares y tropezaron debido a las compensaciones de rendimiento o la resistencia de actores establecidos. Modular debe ofrecer una velocidad que sea “suficientemente buena” en todo el hardware, al tiempo que brinda una facilidad operativa que justifique el cambio.

El tiempo se agota. El ecosistema de NVIDIA se fortalece cada día, y los competidores de código abierto avanzan a toda velocidad. La oportunidad de Modular para establecer su dominio no permanecerá abierta para siempre.

Para el mundo de la IA, lo que está en juego es mucho. Si Modular tiene éxito, podría marcar el comienzo de un futuro con opciones de hardware diversas y competitivas, y precios más justos. Si fracasa, el dominio de NVIDIA podría consolidarse en algo cercano a lo permanente.

Una cosa es cierta: a medida que los costos de computación de IA se disparan y la oferta se vuelve más ajustada, el atractivo de una infraestructura independiente del proveedor solo se fortalecerá. Si Modular puede convertir ese anhelo en un éxito duradero podría decidir no solo su destino, sino la forma de la infraestructura de IA en los años venideros.

Tesis de Inversión Interna

AspectoResumen
Tesis PrincipalUna capa de computación de IA unificada es una tendencia real y de alta convicción impulsada por el pluralismo de hardware y el cansancio por la dependencia de un proveedor. Sin embargo, su éxito depende de probar la paridad de rendimiento y la simplicidad operativa frente al contraataque de NVIDIA (NIM, TensorRT-LLM).
Señal Clave: Ronda de Financiación de Modular250 millones de dólares con una valoración de 1.600 millones de dólares. Posicionada como "VMware para IA", ofrece una pila unificada (servicio compatible con OpenAI, plano de control K8s, DSL del kernel) para abstraer CUDA/ROCm/ASIC para nubes, empresas e ISV.
Señal Clave: Contraataque de NVIDIALos microservicios NIM y TensorRT-LLM ofrecen una ruta llave en mano y de alto rendimiento dentro del ecosistema CUDA, lo que constituye un "botón fácil" convincente que desafía la necesidad de unificadores de terceros.
Impulsores del Mercado (Causas Raíz)1. Cansancio por la dependencia del proveedor: Deseo de poder de negociación de precios frente a NVIDIA.
2. Pluralismo de hardware: Alternativas creíbles (AMD MI350, Groq, Gaudi, Apple MLX).
3. Complejidad de operaciones: Necesidad de enrutamiento de prefijo, cuantificación, etc., listos para usar.
4. Movimientos de capital: Las nuevas nubes/nubes necesitan utilización y portabilidad para un mejor retorno de la inversión.
Panorama CompetitivoUnificadores Horizontales: Modular (pila completa), ONNX Runtime (pragmático), OpenXLA/IREE (IR de compilador).
Motores de Servicio: vLLM (predeterminado OSS), SGLang (movimiento rápido), NVIDIA NIM/TRT-LLM (facilidad del titular), Hugging Face TGI (empresarial).
Verticales de Hardware: NVIDIA (atracción gravitatoria), AMD (ganando credibilidad), Groq (narrativa de velocidad).
Camino hacia la Victoria (para Modular/Unificadores)1. Distribución: Preinstalaciones OEM en imágenes de nube/nuevas nubes.
2. Codiseño con Fabricantes de Chips: Soporte desde el primer día y paridad de rendimiento en hardware no-NVIDIA.
3. Victorias Operacionales: Entrega de características avanzadas (enrutamiento de prefijo, multitenencia) por defecto.
4. Atracción para Desarrolladores: Éxito del lenguaje Mojo o fuerte interoperabilidad PyTorch/OpenAI API.
Riesgos Clave / Modos de Fallo1. Conveniencia de NVIDIA: Si NIM es "suficientemente bueno", la portabilidad pierde atractivo.
2. Retraso en el rendimiento: Ser más lento (5-20%) en hardware común desalienta la migración.
3. Riesgo de sobreconstrucción: El alcance del lenguaje+runtime+plano de control es demasiado grande.
4. Estándares abiertos: La maduración de ONNX/OpenXLA/vLLM podría hacer redundante una nueva capa.
Enfoque de la Diligencia Debida (para VCs)1. Prueba de Portabilidad: SLOs de producción (TTFT, p95, $/1M tokens) en B200 vs. MI350 vs. Gaudi.
2. Distribución: Inclusión como opción predeterminada en los mercados de la nube.
3. Primitivas Operacionales: Paridad de características con NIM (enrutamiento, caché, servicio de múltiples modelos).
4. Ecosistema: Soporte de modelos, compatibilidad de API, comparación con vLLM/SGLang.
5. Márgenes: Economía unitaria de la monetización "por tarea".
Oportunidades para Fundadores1. Observabilidad de LLM: Rastreo a nivel de token, atribución de costos.
2. Cadenas de herramientas de cuantificación: Límites de precisión demostrables, pruebas A/B automáticas.
3. Seguridad y Política Multitenencia: Barreras de protección a nivel de infraestructura.
4. Unificación en el Borde: Conexión de ExecuTorch/MLX/NPUs con la malla de la nube.
Implicaciones si la capa unificada gana1. Diversificación acelerada de chips (AMD/Gaudi/Groq ganan cuota).
2. Las nubes/nuevas nubes recuperan influencia frente a NVIDIA; mejora de la utilización/ROIC.
3. Los estándares (ONNX, OpenXLA) se vuelven más potentes.
Implicaciones si fallaLa hegemonía de CUDA se profundiza con NIM; la adopción de hardware no-NVIDIA se ralentiza.
Predicciones a 12-24 Meses1. Mundo de dos pilas: Coexisten pilas "primero NVIDIA" y "primero unificada".
2. Fusiones y Adquisiciones (F&A): Un hiperescalador/nueva nube adquiere un unificador.
3. La cuota de AMD aumenta en la inferencia a medida que maduran los entornos de ejecución unificados.
4. Los motores de servicio se consolidan; la competencia se desplaza hacia la operabilidad sobre las pequeñas diferencias de rendimiento.
KPIs a Seguir1. Costo: $/1M tokens de salida @ p95 en B200 vs. MI350.
2. Velocidad: Tiempo de producción vs. NIM.
3. Cobertura: Soporte de chips/proveedores y preparación desde el primer día.
4. Eficiencia: Tasa de acierto de enrutamiento de prefijo, reutilización de caché KV.
5. Distribución: Imágenes de mercado y preempaquetado OEM.

NO ES ASESORAMIENTO DE INVERSIÓN

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal