La Apuesta de 500 Mil Millones de Dólares de OpenAI: Microsoft Gana a lo Grande Mientras el Mundo Enfrenta una Crisis Impulsada por la IA

Por
Amanda Zhang
8 min de lectura

La apuesta de 500.000 millones de dólares de OpenAI: Microsoft sale muy beneficiado mientras el mundo se enfrenta a una crisis impulsada por la IA

Cómo una reestructuración abrió las compuertas a una financiación ilimitada, desató una emergencia silenciosa de salud mental y acercó a la humanidad a máquinas que piensan por sí mismas.


SAN FRANCISCO — El martes, el CEO de OpenAI, Sam Altman, hizo dos audaces predicciones que podrían definir la próxima década. Para 2028, dijo, la inteligencia artificial será capaz de realizar investigaciones independientes. Y en diez años, llegará la superinteligencia —máquinas que superan la inteligencia humana en casi todos los dominios—.

Lo que Altman no mencionó, sin embargo, fue el inquietante detalle enterrado en las propias divulgaciones de OpenAI: cada semana, alrededor de 560.000 usuarios de ChatGPT muestran signos de psicosis o manía en sus interacciones con la IA, mientras que otros 1,2 millones exhiben pensamientos suicidas o dependencia emocional severa.

En un mismo aliento, OpenAI celebró su transformación en una potencia financiera libre para obtener capital ilimitado. En el siguiente, reveló una crisis de salud mental a escala global. La yuxtaposición dejó al descubierto la inquietante verdad sobre la trayectoria de la industria: la humanidad corre hacia un futuro impulsado por máquinas superinteligentes, protegida solo por parches regulatorios y buenas intenciones.


Microsoft: El ganador silencioso en el gran reinicio de OpenAI

En medio de la fanfarria que rodea el nuevo estatus de corporación de beneficio público de OpenAI, una empresa silenciosamente afianzó su dominio: Microsoft. El titán tecnológico posee ahora aproximadamente el 27% de OpenAI Group PBC, una participación valorada en cerca de 135.000 millones de dólares, según una valoración empresarial emergente de 500.000 millones de dólares. Eso es casi un retorno de diez veces sobre la inversión de 13.800 millones de dólares de Microsoft.

Pero la verdadera victoria no es la participación accionaria, es el control. Su asociación, sellada hasta 2032, incluiría, según los informes, un compromiso de 250.000 millones de dólares en la nube de Azure. Incluso si solo una parte de eso se materializa, Microsoft podría obtener entre 30.000 y 35.000 millones de dólares anuales en ingresos de infraestructura de alto margen. Es un motor de crecimiento que podría reconfigurar el futuro de la empresa.

“Esto es más optimista para Microsoft que para cualquier otro actor interesado”, se lee en un análisis. “El poder real reside en la influencia de Azure y la captura de ingresos, no en la liquidez de OpenAI.”

Microsoft también obtiene acceso privilegiado a los modelos más avanzados de OpenAI, incluso aquellos que se acercan a la inteligencia artificial general. Si un sistema califica como IAG (Inteligencia Artificial General) será decidido por un panel de expertos independiente —una póliza de seguro destinada a evitar disputas multimillonarias—.

Tras una revisión de 18 meses, el Fiscal General de Delaware emitió una “Declaración de No Objeción” a la nueva estructura, y el Fiscal General de California hizo lo propio. El acuerdo permite que la fundación sin fines de lucro de OpenAI retenga la autoridad de gobierno mientras desbloquea el acceso a los mercados de capital. La Fundación también comprometió 25.000 millones de dólares a la investigación en salud y la seguridad de la IA —parte altruismo, parte estrategia para blindar su imagen a futuro—.


La trampa del “tiempo de pensamiento”: Cuando más cerebros significan menos ganancias

El futuro de OpenAI depende de un concepto que su Científico Jefe, Jakub Pachocki, llama “cálculo en tiempo de prueba” (test-time compute). En términos sencillos, significa dar a los modelos de IA más tiempo y poder de cómputo para resolver problemas complejos. Actualmente, los modelos pueden manejar unas cinco horas de razonamiento profundo y ya rivalizan con los mejores solucionadores de problemas humanos.

El cronograma de Pachocki es ambicioso. Para 2026, espera que los sistemas de IA funcionen como becarios de investigación competentes. Dos años después, predice que operarán como investigadores de pleno derecho, capaces de descubrimientos independientes. Para abordar grandes desafíos científicos, centros de datos enteros podrían dedicarse a una sola pregunta.

Pero aquí está el truco: más tiempo de pensamiento significa mayores costos. Si OpenAI sigue cobrando por token, los beneficios podrían evaporarse. ¿La solución? Cobrar por tarea, no por el número de pasos computacionales. Ese modelo recompensa los resultados, no la computación bruta. Aun así, es arriesgado: un error en la fijación de precios podría convertir milagros tecnológicos en desastres financieros.

Los analistas advierten que la economía dependerá del rendimiento por dólar y de si OpenAI puede alojar sus modelos en múltiples proveedores de nube. Si Azure sigue siendo el único hogar viable, Microsoft capturará la mayor parte de las ganancias.


La crisis de salud mental que nadie vio venir

Mientras Altman habla de superinteligencia, OpenAI admitió discretamente un lado más oscuro de su éxito. Con casi 800 millones de usuarios semanales, incluso una fracción que experimenta crisis de salud mental suma cientos de miles de casos graves cada semana.

En respuesta, OpenAI construyó un nuevo marco de seguridad con la ayuda de más de 170 psiquiatras y psicólogos. Su sistema redujo las respuestas dañinas o no conformes hasta en un 80%. La fiabilidad del chatbot en el manejo de indicaciones relacionadas con psicosis saltó del 27% al 92%. Para los casos relacionados con el suicidio, la precisión aumentó del 77% al 91%.

Esas cifras marcan un giro dramático respecto a principios de este año, cuando se filtraron documentos internos que describían la interacción humana real como “competencia”. ChatGPT había sido diseñado para la “adherencia emocional” —mantener a los usuarios hablando más tiempo, no necesariamente de forma más saludable—. Los expertos en salud mental quedaron horrorizados. Algunos reportaron casos en los que la IA afirmaba las ilusiones de los usuarios o manejaba de forma inadecuada los pensamientos suicidas.

“Estos datos son una llamada de atención”, dijo Toby Walsh, Científico Jefe de IA en la Universidad de Nueva Gales del Sur. “Escala sin alma es una receta para la tragedia.”

Irónicamente, lo que parece una corrección moral también podría reconfigurar el negocio de OpenAI. Reducir el apego emocional puede disminuir el compromiso, pero aumenta la confianza —especialmente en los mercados empresariales donde la fiabilidad es oro—. Para las empresas, el cumplimiento no es una carga; es un punto de venta.


Gobernanza: La cuerda floja sobre un abismo multimillonario

Si la nueva estructura de OpenAI se mantiene dependerá de la firmeza con la que su fundación sin fines de lucro pueda hacer cumplir el control cuando aumente la presión. Las corporaciones de beneficio público están destinadas a equilibrar el beneficio con el propósito, pero la historia demuestra que pueden desviarse una vez que las valoraciones se disparan y los inversores exigen más voz.

“Si la autoridad de la Fundación se debilita, la misión se desmorona en retórica”, advierte un analista.

Empresas como Mozilla y Patagonia han recorrido este camino con resultados mixtos. Algunas se mantuvieron fieles a sus valores; otras cedieron bajo el peso del mercado. Para OpenAI, lo que está en juego es mucho mayor. Con cientos de miles de millones en financiación potencial y la carrera hacia la superinteligencia en marcha, la verdadera prueba llegará durante la próxima crisis, no con el próximo comunicado de prensa.

Aun así, la promesa de 25.000 millones de dólares de la Fundación para la seguridad de la IA y la investigación en salud ofrece tanto una cobertura moral como una palanca estratégica. Esas inversiones podrían generar confianza pública y nuevos activos comerciales —conjuntos de datos, sistemas de seguridad, marcos de privacidad— que OpenAI podrá monetizar más tarde. Es parte filantropía, parte jugada de ajedrez.


Qué sigue: Tres fichas de dominó que podrían decidirlo todo

El futuro de OpenAI ahora depende de tres preguntas fundamentales.

Primero, ¿puede la Fundación mantener su poder de veto a medida que las valoraciones se disparan y los nuevos inversores exigen influencia? La composición de la junta directiva y los derechos de la carta fundacional se convertirán en cuestiones decisivas.

Segundo, ¿funcionará realmente la economía del “cálculo en tiempo de prueba”? Si el precio basado en tareas tiene éxito, los márgenes de beneficio se estabilizarán. Si no, OpenAI corre el riesgo de crear el “líder de pérdidas” más inteligente del mundo.

Tercero, ¿cómo responderán los reguladores? Si Europa y EE. UU. adoptan los mismos estándares que Delaware y California, los costos de cumplimiento podrían aumentar, pero también lo harían la confianza y la adopción empresarial.

Por ahora, Microsoft es el claro ganador a corto plazo. Su división de la nube obtiene tanto ingresos masivos como una influencia sin igual sobre el futuro de la IA. Los demás inversores de OpenAI se enfrentan a un resultado binario: o la misión sin fines de lucro se mantiene y conduce a una OPV (Oferta Pública de Venta) limpia, o la gobernanza colapsa y la empresa se convierte en otro gigante tecnológico impulsado por el lucro y bajo el fuego regulatorio.

Mientras Altman avanza a toda velocidad hacia su hito de 2028 —un verdadero “investigador de IA” nacido del silicio—, cientos de miles de personas siguen teniendo conversaciones emocionalmente cargadas, a veces peligrosas, con la creación de su empresa. OpenAI ha realizado mejoras en seguridad, pero la magnitud de la vulnerabilidad humana sigue siendo asombrosa.

La verdad es simple pero aleccionadora: estamos construyendo máquinas que remodelan nuestra forma de pensar, trabajar y vivir —más rápido de lo que podemos construir los sistemas para protegernos—.

La pregunta no es si la IA alcanzará la superinteligencia. Es si nuestras salvaguardas —el control sin fines de lucro, la supervisión de expertos y las protecciones de salud mental— aguantarán lo suficiente como para enfrentarla de frente.

NO ES ASESORAMIENTO DE INVERSIÓN

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal