
La startup de seguridad de IA Irregular recauda 80 millones de dólares de Sequoia para evaluar las capacidades de ciberataque de los modelos de OpenAI y Anthropic
La Pregunta de los 450 Millones de Dólares: Por Qué la Élite de Silicon Valley Está Apostando Fuerte por el Lado Oscuro de la IA
Una mañana de miércoles de septiembre, mientras las empresas de inteligencia artificial competían por construir modelos cada vez más potentes, una startup israelí relativamente desconocida salió del sigilo con un arsenal de 80 millones de dólares y una misión aleccionadora: probar la capacidad de la IA para causar daño antes de que llegue al mundo.
Irregular, antes conocida como Pattern Labs, anunció la sustancial ronda de financiación liderada por Sequoia Capital y Redpoint Ventures, con la participación del CEO de Wiz, Assaf Rappaport. Fuentes cercanas al acuerdo valoraron la empresa en aproximadamente 450 millones de dólares, una cifra notable para una firma con menos de tres docenas de empleados de la que la mayoría de los observadores de la industria nunca había oído hablar hasta esta semana.
Sin embargo, las huellas de Irregular ya están presentes en los sistemas de IA más trascendentales de nuestro tiempo. Las evaluaciones de seguridad de la empresa aparecen de forma destacada en las fichas de sistema de OpenAI para sus modelos o3 y o4-mini, mientras que Anthropic atribuye su trabajo colaborativo en las evaluaciones de Claude 3.7 Sonnet. Su marco SOLVE para calificar la detección de vulnerabilidades de IA se ha convertido en un estándar de la industria, dando forma silenciosamente a cómo se prueban los sistemas de IA más avanzados del mundo antes de su lanzamiento.
Cuando las Mentes Más Brillantes de Silicon Valley se Preocupan por la Guerra de IA
La financiación refleja un cambio fundamental en cómo la industria tecnológica percibe los riesgos de la inteligencia artificial. Mientras que las preocupaciones anteriores se centraban en el sesgo o la desinformación, los temores actuales son más profundos: sistemas de IA capaces de ciberataques autónomos, descubrimiento sofisticado de vulnerabilidades y coordinación entre múltiples agentes de IA de maneras que podrían abrumar las defensas tradicionales.
"Pronto, mucha actividad económica provendrá de la interacción humano-IA y la interacción IA-IA, y eso va a romper la pila de seguridad en múltiples puntos", explicó a los observadores de la industria el cofundador Dan Lahav. Su socio, el CTO Omer Nevo, describió su enfoque con precisión militar: "Tenemos simulaciones de red complejas donde la IA asume el papel de atacante y defensor. Cuando sale un nuevo modelo, podemos ver dónde resisten las defensas y dónde no".
Esto no es especulación teórica. OpenAI revisó sus protocolos de seguridad internos este verano en medio de preocupaciones sobre espionaje corporativo. Mientras tanto, los modelos de IA de frontera han demostrado habilidades cada vez más sofisticadas para identificar vulnerabilidades de software, capacidades que sirven tanto para fines defensivos como ofensivos. Evaluaciones recientes muestran que estos sistemas pueden planificar ataques sofisticados, aunque a menudo no logran ejecutarlos sin asistencia humana.
La aparición de "comportamientos emergentes"—capacidades inesperadas que surgen a medida que los sistemas de IA escalan—ha creado lo que los expertos en seguridad describen como un problema de "objetivo en movimiento". Los modelos entrenados para propósitos benignos pueden desarrollar espontáneamente habilidades que sus creadores nunca tuvieron la intención, desde el razonamiento avanzado sobre la ciberguerra hasta la coordinación autónoma con otros sistemas de IA.
La Ciencia de los Equipos Rojos Digitales
El enfoque de Irregular se centra en entornos simulados elaborados que imitan las arquitecturas de red del mundo real. A diferencia de los simples intentos de "jailbreaking" que buscan engañar a los modelos de IA para obtener respuestas dañinas, sus pruebas implican escenarios complejos y de múltiples pasos donde los agentes de IA deben navegar defensas de red realistas, escalar privilegios y lograr objetivos específicos.
El sistema de puntuación SOLVE de la empresa proporciona una evaluación granular de cómo los modelos de IA manejan las tareas de descubrimiento y explotación de vulnerabilidades. Este marco ha ganado terreno en toda la industria, apareciendo en evaluaciones realizadas por importantes laboratorios de IA y agencias gubernamentales. Tanto el gobierno del Reino Unido como Anthropic hacen referencia a SOLVE en sus evaluaciones de seguridad, lo que sugiere que el marco podría convertirse en un estándar de facto para la evaluación de la seguridad de la IA.
Lo que diferencia a Irregular de las firmas de ciberseguridad tradicionales es su enfoque en los riesgos emergentes, amenazas que aún no se han manifestado en el mundo real, pero que podrían surgir a medida que avanzan las capacidades de la IA. Sus entornos simulados prueban no solo las capacidades actuales del modelo, sino también los posibles comportamientos futuros que podrían surgir a través del entrenamiento continuo o la interacción con otros sistemas.
Los analistas de la industria señalan que el acceso temprano de Irregular a modelos de IA previos al lanzamiento de importantes laboratorios proporciona una ventaja competitiva significativa. Este posicionamiento les permite identificar vulnerabilidades de seguridad antes del despliegue público, lo que podría prevenir incidentes en el mundo real.
Fuerzas del Mercado Impulsando la Carrera Armamentista de Seguridad
El mercado de la seguridad de la IA está experimentando un crecimiento sin precedentes, y se proyecta que el gasto superará los 20.000 millones de dólares para 2028. Este auge refleja tanto el uso cada vez mayor de los sistemas de IA como la creciente conciencia de los riesgos asociados. Incidentes recientes, incluyendo deepfakes generados por IA que causaron miles de millones en pérdidas por fraude y preocupaciones sobre ataques facilitados por IA a infraestructuras críticas, han elevado la seguridad de una consideración tardía a un requisito previo de despliegue.
La presión regulatoria está acelerando la adopción de soluciones de seguridad de IA. La Ley de IA de la Unión Europea, que entró en vigor en agosto de 2025, requiere evaluaciones de riesgo exhaustivas para sistemas de IA de alta capacidad. Requisitos similares están surgiendo en diversas jurisdicciones, creando demanda de marcos de evaluación estandarizados y evaluaciones de seguridad de terceros.
El panorama competitivo revela un mercado fragmentado maduro para la consolidación. Las principales plataformas de ciberseguridad han comenzado a adquirir firmas especializadas en seguridad de IA: Cisco adquirió Robust Intelligence, Palo Alto Networks compró Protect AI y Check Point se hizo con Lakera. Estos movimientos señalan el reconocimiento de que la seguridad de la IA requiere experiencia especializada que va más allá de los enfoques tradicionales de ciberseguridad.
El posicionamiento de Irregular como proveedor de evaluación y posible creador de estándares los sitúa en el centro de esta ola de consolidación. Sus relaciones con importantes laboratorios de IA y agencias gubernamentales proporcionan un valor estratégico que se extiende más allá de sus ingresos actuales, los cuales, según las fuentes, ya alcanzan millones anualmente a pesar de la reciente salida del sigilo de la empresa.
Implicaciones de Inversión en un Panorama Incierto
Para los inversores institucionales, Irregular representa una apuesta por la capa de infraestructura del despliegue de la IA, en lugar de por las capacidades de la IA en sí mismas. A medida que los sistemas de IA se vuelven más potentes y ubicuos, la capa de seguridad se vuelve cada vez más crítica y valiosa.
La valoración de 450 millones de dólares de la empresa refleja consideraciones estratégicas más que puramente financieras. Con acceso a modelos previos al lanzamiento de OpenAI, Anthropic y Google DeepMind, Irregular ocupa una posición única en el ecosistema de la IA. Este acceso, combinado con su creciente influencia en los estándares de la industria, crea un potencial para un valor de plataforma significativo.
La dinámica del mercado favorece a las empresas que pueden proporcionar soluciones integrales de seguridad de IA. El cambio hacia las interacciones IA-IA —donde múltiples sistemas de IA se coordinan de forma autónoma— crea desafíos de seguridad que los enfoques tradicionales no pueden abordar. El enfoque de Irregular en las simulaciones multiagente los posiciona bien para esta transición.
Los factores de riesgo incluyen la posibilidad de que los principales laboratorios de IA desarrollen capacidades de seguridad internas, reduciendo la demanda de servicios de evaluación externos. Sin embargo, los requisitos regulatorios para evaluaciones independientes y la complejidad de las pruebas de seguridad avanzadas de IA sugieren una demanda continua de proveedores especializados.
Los inversores con visión de futuro deben monitorear varias métricas clave: la expansión de Irregular más allá de la evaluación hacia controles de seguridad en tiempo de ejecución, la adopción de sus marcos por parte de los organismos reguladores y su capacidad para escalar las capacidades de prueba a medida que los sistemas de IA se vuelven más sofisticados.
El Camino a Seguir en un Mundo que Prioriza la IA
La aparición de Irregular refleja una maduración más amplia de la industria de la IA, donde las consideraciones de seguridad impulsan cada vez más las decisiones de despliegue. El rápido ascenso de la empresa desde el sigilo hasta una valoración cercana a la de un "unicornio" demuestra el reconocimiento de los inversores de que la seguridad de la IA representa tanto una necesidad como una oportunidad.
El anuncio de financiación llega mientras la industria de la IA lidia con el equilibrio entre el ritmo de la innovación y las consideraciones de seguridad. Evaluaciones recientes sugieren que, si bien los sistemas de IA actuales pueden ayudar con los ciberataques, siguen siendo limitados en comparación con los operadores humanos expertos. Sin embargo, la trayectoria apunta hacia sistemas más capaces y autónomos que podrían alterar fundamentalmente el panorama de la ciberseguridad.
A medida que los sistemas de IA se vuelven más prevalentes en infraestructuras críticas, servicios financieros y aplicaciones de seguridad nacional, lo que está en juego para garantizar la seguridad correctamente sigue aumentando. Empresas como Irregular sirven como guardianes cruciales, probando los límites de las capacidades de la IA antes de que lleguen al despliegue.
La inversión de 80 millones de dólares en Irregular señala una confianza más amplia en que la seguridad de la IA se convertirá en una categoría de mercado sustancial. Para los inversores que buscan exposición a la infraestructura de IA en lugar de a las capacidades directas de la IA, las empresas que proporcionan evaluación de seguridad y protección en tiempo de ejecución representan oportunidades atractivas en un panorama en rápida evolución.
Si Irregular puede traducir su éxito temprano en la evaluación en un dominio de plataforma sigue siendo una pregunta abierta. Sin embargo, su posicionamiento en la intersección del avance de la IA y la necesidad de seguridad sugiere que desempeñarán un papel influyente en la configuración de cómo la sociedad gestiona los riesgos y beneficios de sistemas de inteligencia artificial cada vez más potentes.