Microsoft lanza su primer modelo de IA de imágenes propio, envuelto en polémica
Microsoft acaba de desvelar MAI-Image-1, su primer modelo de generación de imágenes desarrollado íntegramente de forma interna, y este movimiento es un indicio importante: la compañía se está distanciando lentamente de su dependencia de OpenAI. No es una ruptura total, pero muestra que Microsoft desea un control absoluto sobre su propia base de IA en lugar de depender del motor de otro.
La compañía presentó el modelo como una victoria para los creadores, afirmando que ofrece "flexibilidad real, diversidad visual y valor práctico". Y a primera vista, el lanzamiento parecía un éxito. MAI-Image-1 se disparó al top 10 en LMArena, una clasificación pública donde los humanos evalúan los modelos de IA de imágenes. Microsoft tomó esta clasificación como prueba de que su sistema podía generar imágenes fotorrealistas más rápido que algunos de los mayores actores de la industria.

Sin embargo, las clasificaciones como LMArena pueden ser engañosas. Son útiles, pero no cuentan la historia completa. El sistema de clasificación funciona de manera similar a las puntuaciones Elo del ajedrez, lo que significa que la calificación de un modelo depende de a quién se enfrenta. Si se enfrenta a oponentes más débiles, la puntuación se infla. Los expertos lo llaman "sesgo del conjunto" y puede distorsionar los resultados. Además, las empresas a veces prueban muchas versiones privadas de modelos entre bastidores y solo lanzan aquella que rinde mejor en el formato limitado de la clasificación. Ese tipo de "juego" con los benchmarks premia los estilos llamativos en lugar de la capacidad real, y deja a los usuarios preguntándose si el modelo es tan bueno en el uso diario como parece sobre el papel.
Mientras el lanzamiento generaba entusiasmo en el exterior, algo mucho más preocupante se gestaba dentro de la división de IA de Microsoft. Salió a la luz una carta de denuncia de un empleado actual —verificada y detallada— acusando al colíder del equipo, Mustafa, de crear una cultura laboral tóxica.
Según la carta, ingenieros de Microsoft con experiencia están siendo desplazados por un círculo interno de líderes elegidos a dedo de la anterior startup de Mustafa. El autor describe un "enfoque autoritario propio de una startup" donde los veteranos se sienten ridiculizados, ignorados o excluidos. Es un marcado contraste con la imagen pulcra que Microsoft presenta al público, y plantea interrogantes sobre lo que está sucediendo entre bastidores en uno de sus proyectos de IA más importantes.
MAI-Image-1 es más que un nuevo modelo. Es el disparo de salida en la carrera de Microsoft por la independencia en IA. Pero su debut viene con una tensión inherente: un avance impulsado por métricas cuestionables y ensombrecido por acusaciones de caos interno. En otras palabras, no se trata solo de la tecnología, sino de la cultura que la construye.
Por ahora, solo podremos saber si se trata de un verdadero avance una vez que el modelo alcance su disponibilidad general completa. MAI-Image-1 es accesible hoy a través de LMArena para pruebas públicas, y Microsoft afirma que los lanzamientos para Copilot y Bing Image Creator llegarán "muy pronto". Sin embargo, el acceso directo a la API para desarrolladores aún no se ha anunciado, por lo que la verdadera prueba —cómo se comporta en el mundo real— aún está por llegar.
