Alibaba Entra al Club del Billón de Parámetros de la IA con su Nuevo Modelo Qwen3-Max, que Afirma Superar a Claude Opus 4

Por
CTOL Editors - Ken
5 min de lectura

Alibaba entra en la carrera de los billones de parámetros con Qwen3-Max-Preview, desafiando a los gigantes de la IA

Alibaba se ha unido oficialmente al exclusivo club de los billones de parámetros con el lanzamiento de Qwen3-Max-Preview, un modelo de lenguaje masivo que el gigante tecnológico chino afirma que supera a sus principales competidores, incluidos Claude Opus 4 y DeepSeek-V3.1. El anuncio marca un impulso agresivo de China hacia el desarrollo de IA a gran escala, aunque las primeras pruebas revelan tanto capacidades impresionantes como limitaciones notables.

Qwen 3 (githubusercontent.com)
Qwen 3 (githubusercontent.com)

Un nuevo peso pesado en la arena de la IA

El Qwen3-Max-Preview representa un salto significativo respecto al modelo insignia anterior de Alibaba, Qwen3-235B, y cuenta con más de un billón de parámetros. Al igual que otros modelos de este nivel élite, Qwen3-Max emplea una arquitectura de "Mixtura de Expertos" (MoE), un diseño que almacena un enorme número total de parámetros pero solo activa un subconjunto durante cada inferencia, manteniendo los costes y la latencia manejables.

Disponible a través de Qwen Chat y la API de Alibaba Cloud, el modelo ofrece una ventana de contexto de 256.000 tokens con una salida máxima de unos 32.800 tokens. Si bien es sustancial, esto se queda corto frente a competidores como DeepSeek V3.1 y Gemini 2.5 Pro, que ambos soportan un millón de tokens de entrada.

Las afirmaciones de rendimiento se enfrentan a la realidad

Nuestras pruebas internas sugieren que Qwen3-Max-Preview ofrece mejoras significativas en múltiples dominios. El modelo demuestra una fuerza particular en conocimientos generales, matemáticas, pruebas de rendimiento de codificación y tareas de seguimiento de instrucciones. El modelo ha abordado en gran medida las lagunas de conocimiento de las versiones anteriores y produce una prosa más rica y sofisticada.

Sin embargo, si bien el modelo destaca por su amplitud y muestra impresionantes capacidades de codificación de un solo intento para tareas complejas como la conversión de interfaz de usuario a código, tiene dificultades con el razonamiento sostenido. Hemos observado tendencias hacia una "resolución de problemas divagante y errática", donde el modelo intenta múltiples enfoques antes de abandonarlos a mitad de camino.

La cuestión del billón de parámetros: ¿importa el tamaño?

La aparición de Qwen3-Max-Preview junto con otros modelos de billones de parámetros como Kimi K2 plantea preguntas fundamentales sobre la relación entre el tamaño del modelo y el rendimiento. El hito del billón de parámetros suena impresionante, pero la realidad es más compleja.

En las arquitecturas MoE, el título de "billones de parámetros" representa la capacidad total, no la computación activa por consulta. A modo de comparación, el modelo GLaM de Google contiene 1,2 billones de parámetros totales, pero activa solo unos 97.000 millones por token, aproximadamente el 8% de su capacidad total. Este diseño permite a las empresas reclamar una escala masiva manteniendo los costes de inferencia razonables.

Los beneficios de los modelos más grandes son reales, pero vienen con salvedades significativas. Los modelos más grandes generalmente ofrecen una mayor cobertura de conocimiento, mejor razonamiento con pocas muestras y un uso de herramientas más fiable. Son particularmente valiosos para tareas complejas de múltiples pasos y situaciones que requieren un conocimiento profundo en diversos dominios.

Sin embargo, el tamaño por sí solo no garantiza un rendimiento superior. La calidad de los datos, la metodología de entrenamiento y la alineación post-entrenamiento a menudo importan más que el número bruto de parámetros. Qwen3-Max-Preview ilustra esto perfectamente: a pesar de su escala masiva, los usuarios informan que su seguimiento de instrucciones se siente "poco pulido" para un modelo de billones de parámetros, y a veces responde de manera inapropiada, incluso usando emojis cuando se le pregunta con información falsa.

Precios y consideraciones prácticas

La estructura de precios de Alibaba para Qwen3-Max-Preview refleja el posicionamiento premium del modelo. Los costes oscilan entre aproximadamente 6 ¥ por millón de tokens de entrada para contextos más cortos y 15 ¥ para las entradas más largas soportadas, con los tokens de salida teniendo un precio significativamente más alto. Esto sitúa al modelo en una posición premium en comparación con sus competidores nacionales chinos como DeepSeek V3.1 y GLM-4.5, lo que lleva a algunos usuarios a cuestionar su rentabilidad.

Los primeros usuarios informan de experiencias mixtas con las aplicaciones prácticas. Mientras que algunos elogian la capacidad del modelo para manejar tareas de codificación complejas y simulaciones abstractas con "resultados de alta fidelidad en un solo intento", otros lo encuentran prolijo pero impreciso en áreas de conocimiento especializado como consultas legales y financieras.

La carrera armamentística de la IA en su conjunto

El lanzamiento de Qwen3-Max-Preview señala la determinación de China de competir en los niveles más altos del desarrollo de la IA. El panorama de los LLM (grandes modelos de lenguaje) en el país ha evolucionado rápidamente, con múltiples empresas que ahora afirman tener capacidades de billones de parámetros. Esta carrera de escalado refleja tensiones geopolíticas más amplias y la competencia tecnológica entre desarrolladores de IA chinos y occidentales.

Sin embargo, los expertos de la industria advierten contra centrarse únicamente en el recuento de parámetros. Las implementaciones más exitosas a menudo combinan múltiples enfoques: utilizando modelos grandes para el razonamiento complejo mientras se apoyan en modelos más pequeños y especializados para tareas rutinarias. Muchas organizaciones están encontrando éxito con arquitecturas de "contingencia", donde los costosos modelos de billones de parámetros manejan solo los problemas más desafiantes que los modelos más pequeños no pueden resolver.

Mirando hacia el futuro

A medida que el club de los billones de parámetros se expande, la pregunta clave no es si los modelos más grandes son mejores, sino cuándo sus capacidades justifican sus costes. Qwen3-Max-Preview representa un impresionante logro técnico, pero su éxito comercial dependerá de ofrecer un valor claro sobre alternativas menos costosas.

Para las organizaciones que consideran modelos de billones de parámetros, la decisión debe centrarse en casos de uso específicos en lugar de en las especificaciones destacadas. Las tareas que requieren un amplio conocimiento multilingüe, una orquestación compleja de herramientas o un razonamiento robusto de cero ejemplos pueden justificar el coste adicional. Las aplicaciones rutinarias —codificación, procesamiento de documentos o consultas específicas de dominio— a menudo funcionan igual de bien con alternativas más pequeñas y rentables.

Las ambiciones de escalado de la industria de la IA no muestran signos de desaceleración, con rumores de modelos aún más grandes en desarrollo por parte de los principales actores. Pero como demuestra Qwen3-Max-Preview, el verdadero desafío no es construir modelos más grandes, sino hacerlos fiables, rentables y genuinamente útiles para aplicaciones del mundo real.

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal