El Gigante Perdido de Meta: El Behemoth Llama 4 Aún Desaparecido Mientras los Rivales Se Acercan

Por
CTOL Editors - Ken
9 min de lectura

Bajo el Foco, Tras la Cortina: El Gigante Que No Llegó a Ser

En la cámara de eco de tuits de celebración, transmisiones técnicas en vivo y análisis de YouTube que estallaron el 5 de abril, una verdad permaneció silenciosamente en las sombras: el modelo de lenguaje grande más importante de Meta, Llama 4 Behemoth, aún no está aquí. Mientras el mundo vitoreaba el lanzamiento de Llama 4 Scout y Maverick, el buque insignia de Meta, su respuesta a la creciente rivalidad con OpenAI, Anthropic y Google, permanece sin enviarse, todavía en entrenamiento y posiblemente retrasado.

Meta declaró el lanzamiento de "una nueva era de IA multimodal", pero bajo la elegante ingeniería y las audaces afirmaciones, los iniciados describen una olla a presión creciente: una carrera frenética para mantenerse a la vanguardia mientras los competidores preparan su próxima ola de modelos de código abierto.

"Necesitábamos mostrar algo, especialmente después de que ustedes informaran sobre nuestro retraso. Cualquier cosa, realmente. Antes de que los nuevos lanzamientos de los oponentes maten también a nuestro nuevo bebé", nos dijo hoy un ingeniero de Gen AI de Meta.

Esta es la historia no contada detrás de Llama 4.


Los Modelos Que Sí Salieron: Scout y Maverick

Sobre el papel, el lanzamiento de Llama 4 Scout y Llama 4 Maverick es un hito para la comunidad de código abierto. Estos modelos, construidos sobre arquitecturas de mezcla de expertos, impulsan la frontera de la eficiencia de inferencia, la longitud del contexto y la capacidad multimodal. Scout, un modelo ágil de 17B de parámetros activos con 16 expertos, cuenta con una ventana de contexto sin precedentes de 10 millones de tokens, una hazaña inigualable por cualquier modelo lanzado en la actualidad. Se ejecuta en una sola GPU H100, dirigida a investigadores, desarrolladores y equipos de producto a pequeña escala.

Maverick, por el contrario, es el caballo de batalla: mismo tamaño activo, pero impulsado por 128 expertos y 400 mil millones de parámetros totales. Compite directamente con DeepSeek V3, Gemini 2.0 Flash y GPT-4o, ofreciendo un rendimiento similar a costos de inferencia más bajos.

"Esta es la mejor relación rendimiento-costo en el mercado en este momento", dice un analista de benchmarks de IA. "Si estás construyendo con Llama 4 Maverick, no solo estás obteniendo un razonamiento a nivel de OpenAI, sino que lo estás haciendo por una fracción de los ciclos de GPU".

Las primeras métricas lo confirman: Maverick ya ha obtenido 1417 en LM Arena (CTOL Editor Ken: Realmente no confiamos en LM Arena, pero es el único disponible con diferencia), ubicándolo en el nivel superior, aunque con un amplio intervalo de confianza debido a votos limitados.

Sin embargo, por impresionantes que sean estos modelos, no eran el plato fuerte que Meta había planeado originalmente.

Resultado Oficial del Benchmark de Llama 4 Maverick
Resultado Oficial del Benchmark de Llama 4 Maverick


El Fantasma del Lanzamiento: Behemoth Permanece en las Alas

Detrás del espectáculo de Scout y Maverick, Llama 4 Behemoth está ausente de manera notoria. Con 288 mil millones de parámetros activos, 16 expertos y un tamaño total que roza los 2 billones de parámetros, está diseñado no solo para igualar, sino para eclipsar a GPT-o3 mini, Claude Sonnet 3.7 y Gemini 2.5 Pro en benchmarks técnicos. Internamente, se considera el primer "Modelo Frontera" de Meta: el que tiene el coeficiente intelectual bruto para cambiar la tabla de clasificación de LLM.

Pero el entrenamiento de Behemoth está en curso. Su fecha de lanzamiento sigue siendo vaga. Y ese silencio es revelador.

"El proceso de entrenamiento está consumiendo muchos recursos", nos dijo el ingeniero de Meta. "No es fluido. Personalmente, no estoy seguro de dónde aterrizará frente a los tres primeros en este momento: Gemini 2.5 Pro, Claude 3.7, O3 Mini".

Si bien Meta ha insinuado victorias de benchmark en dominios STEM como MATH-500 y GPQA Diamond, son notablemente silenciosos sobre el rendimiento generalista o conversacional, una señal de alerta para muchos analistas de IA.

Un ingeniero senior de aprendizaje automático en una empresa de infraestructura de IA especuló que "cuellos de botella de recursos y escalado inestable de pipelines de RL en este conteo de parámetros" podrían estar detrás de los retrasos. Otros señalan a la estrategia: "Meta no quería arriesgarse a lanzar Behemoth hasta que pudiera garantizar resultados de primer nivel, hay demasiado en juego en esto".

Eso incluye no solo el prestigio, sino una apuesta existencial más profunda: si Llama 4 Behemoth no supera claramente a Claude o Gemini, Meta corre el riesgo de ceder su posición en la carrera armamentista del dominio de la IA, incluso en el reino del código abierto que ayudó a definir.


Maverick y Scout: Ingeniería Elegante, Juego Táctico

Lo que Maverick y Scout sí ofrecen es la mejor innovación en su clase en el segmento de peso medio. La elección de Meta de la arquitectura MoE, durante mucho tiempo descartada por ser demasiado compleja para ajustar o implementar, ahora se ha convertido en su as bajo la manga.

En Scout, cada token se enruta solo a uno de los 16 expertos más una capa compartida, lo que permite la eficiencia computacional sin sacrificar la calidad. Su longitud de contexto de 10 millones de tokens no es solo una maravilla técnica, podría ser un cambio de paradigma.

"Estás hablando de resumir repositorios de código completos, razonamiento multi-documento o memoria persistente para agentes", dijo un investigador. "Es una revolución funcional".

Maverick, por otro lado, lleva esa eficiencia al nivel de un solo host, con 400B de parámetros totales, enrutamiento de mezcla de expertos y fluidez multimodal mejorada. Admite entrada de texto + imagen y domina en QA visual y benchmarks de codificación como ChartQA y LiveCodeBench.

Su proceso de entrenamiento no fue menos riguroso. Utilizando un pipeline de post-entrenamiento basado en currículo progresivo, Meta eliminó los "datos fáciles", filtró los prompts utilizando modelos de juicio internos y repitió el aprendizaje por refuerzo con selección de prompts solo difíciles, una receta brutal pero efectiva para la mejora del rendimiento.

Scout y Maverick fueron ambos destilados de Behemoth, lo que Meta llama "codestilación". Pero las implicaciones completas de ese modelo maestro aún son desconocidas.


Fallo Temprano de Prueba contra Modelos Líderes: Llama 4 Maverick vs. Claude 3.7 Sonnet

En una prueba lógica inicial cara a cara, Llama 4 Maverick de Meta tuvo dificultades para igualar el rendimiento de Claude 3.7 Sonnet. A ambos modelos se les encomendó resolver un rompecabezas de razonamiento de matriz personalizado de 4×7 que involucraba elementos de fantasía y 15 pistas complejas. Si bien Claude completó la tarea rápidamente y entregó una solución consistente y verificable en el primer intento, Maverick requirió múltiples continuaciones y repetidamente falló las verificaciones de verificación, inicialmente asignando artefactos duplicados a un personaje y luego reconociendo "contradicciones fatales" en su lógica. Incluso después de varios pases de corrección, continuó omitiendo pistas e introduciendo nuevas inconsistencias. El probador notó que el estilo informal de Maverick, incluidos emojis y abreviaturas, confundió aún más su razonamiento. Aunque esta es solo una prueba, plantea preocupaciones tempranas sobre la confiabilidad de Maverick en la resolución de problemas estructurados, particularmente cuando Meta aún no ha lanzado su modelo insignia Behemoth. Y de nuevo, Meta necesita lanzar un modelo Behemoth sólido para seguir siendo relevante frente a los modelos principales.


Código Abierto con un Asterisco

Meta ha posicionado durante mucho tiempo a Llama como la punta de lanza de la IA de código abierto. Pero la licencia para Llama 4 ha provocado críticas. La cláusula de "700 millones de MAU" prohíbe el uso por parte de cualquier entidad con más de 700 millones de usuarios activos mensuales, lo que efectivamente impide que los gigantes tecnológicos la adopten libremente.

"Es una contradicción", dijo un defensor de la IA. "No puedes llamarlo abierto si está lleno de trampas para tus competidores".

Peor aún, la distribución está limitada: para descargar, los usuarios deben completar un formulario, recibir un enlace de tiempo limitado y se les permiten cinco descargas en 48 horas.

Estas restricciones artificiales están frustrando a muchos desarrolladores. En palabras de un constructor de comunidad que tuvo acceso temprano a Scout:

"Es el mejor modelo pequeño que he usado. ¿Pero el lanzamiento? Se sintió más como solicitar un pasaporte que descargar un modelo de código abierto".


Las Apuestas: Estrategia de IA en 2025

¿Por qué importa la ausencia de Behemoth?

Porque ahora estamos en la era de la guerra de IA de código abierto, donde la latencia, el costo por token y el rendimiento en tareas de razonamiento difíciles definen no solo la viabilidad del producto, sino también la estrategia nacional.

Los modelos Scout y Maverick de Meta superan a Gemini 2.0 Flash en la mayoría de las métricas. Pero no superan a Claude 3.7 Sonnet Thinking o Gemini 2.5 Pro. Solo Behemoth tiene una oportunidad de eso.

Y la competencia no está esperando.

Se rumorea que DeepSeek lanzará su próxima generación de modelo de código abierto con capacidades completas de razonamiento de código a principios de mayo. Según los informes, OpenAI está preparando su primer modelo de código abierto.

Si Meta no logra lanzar Behemoth antes de estos lanzamientos, la ola de bombo de Llama 4 puede disiparse antes de que pueda solidificar el dominio del mercado.


Lo Que Sigue: Behemoth, LlamaCon y la Verdadera Frontera

Meta está haciendo sus apuestas para el 29 de abril, cuando organizará LlamaCon, prometiendo más detalles técnicos y, posiblemente, una ventana de lanzamiento para Behemoth. Los observadores de la industria dicen que este podría ser un momento decisivo para la hoja de ruta de IA de la compañía.

Hasta entonces, tenemos Scout y Maverick: técnicamente brillantes, lanzados públicamente, pero estratégicamente interinos.

Como dijo un analista:

"Llama 4 es el movimiento de apertura de Meta, pero el final del juego depende de Behemoth".

El futuro de la IA no solo se está construyendo en público. Se está entrenando, detrás de escena, en 32K GPU, con cada hora, cada token, una carrera contra el tiempo.


Resumen:

  • Llama 4 Scout: Un modelo de 17B parámetros, ventana de contexto de 10M que cabe en una sola GPU H100. Es el mejor en su clase para modelos multimodales compactos.
  • Llama 4 Maverick: Modelo más grande, de 400B parámetros con 128 expertos. Supera a Gemini 2.0 Flash en la mayoría de las métricas con un impresionante costo-rendimiento.
  • Llama 4 Behemoth: Todavía en entrenamiento. Con 2T parámetros, apunta a desafiar a Gemini 2.5 Pro, Claude 3.7 y O3 Mini, pero enfrenta dudas internas.
  • Scout y Maverick son productos de gama media y no pueden vencer a los modelos principales como Claude Sonnet 3.7 o Gemini 2.5 Pro
  • Preguntas sobre la apertura: Las restricciones de licencia y la restricción de descargas han provocado críticas de la comunidad de código abierto.
  • 29 de abril en LlamaCon: Todas las miradas se dirigen a si Meta finalmente puede presentar a Behemoth, y si valdrá la pena la espera.

La historia no ha terminado. Pero por ahora, el escenario está listo. El Scout es rápido. El Maverick es fuerte. ¿Y el Behemoth? Todavía está en las sombras, todavía entrenando, todavía incierto.

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal