California se convierte en el primer estado en obligar a las empresas de IA a informar públicamente sobre incidentes de seguridad en un plazo de 15 días

Por
Amanda Zhang
6 min de lectura

California reescribe el reglamento de la IA

La primera ley de transparencia de IA del país alerta a las grandes tecnológicas y eleva el listón para la acción federal

SACRAMENTO — California acaba de dar un golpe sobre la mesa. El lunes, el gobernador Gavin Newsom promulgó una ley pionera que obliga a las empresas de inteligencia artificial más poderosas del mundo a levantar el velo sobre sus prácticas de seguridad y a alertar a los funcionarios estatales sobre incidentes graves en un plazo de 15 días.

La medida, conocida como SB 53, marca un cambio drástico respecto al año pasado, cuando Newsom vetó reglas de IA más estrictas a las que los líderes de la industria se opusieron ferozmente. Esta vez, halló el equilibrio, elaborando una ley que aporta una transparencia real sin exigir mecanismos de desactivación ni restricciones directas a la capacidad de la IA.

"California ha demostrado que podemos establecer regulaciones para proteger a nuestras comunidades al mismo tiempo que garantizamos que la creciente industria de la IA continúe prosperando", dijo Newsom en un comunicado.

Bajo ese tono cauteloso subyace una audaz realidad: California ha lanzado el primer régimen de transparencia a nivel estatal para la IA de vanguardia. La medida podría desencadenar un efecto dominó en otros estados, obligando a Washington a finalmente enfrentar cómo la nación debe supervisar la inteligencia artificial, incluso mientras los multimillonarios de Silicon Valley invierten dinero en campañas diseñadas para detener precisamente este tipo de ley.


Lo que exige la ley

La SB 53 se centra en los "grandes desarrolladores de IA de vanguardia": empresas que generan más de 500 millones de dólares en ingresos anuales y gestionan enormes cargas de trabajo de entrenamiento. Ese umbral incluye a OpenAI, Anthropic, Meta y Google DeepMind, dejando fuera a las pequeñas startups.

Las reglas son directas pero de amplio alcance. Las empresas cubiertas deben publicar versiones redactadas de sus manuales internos de seguridad, explicando cómo se protegen contra riesgos catastróficos como daños multimillonarios o víctimas masivas. También deben informar sobre "incidentes críticos de seguridad" a la Oficina de Servicios de Emergencia de California en un plazo de 15 días, o 24 horas si la amenaza parece inminente.

Y el estado no se detuvo en el daño físico. La ley también exige la divulgación de ciberataques autónomos y comportamientos engañosos por parte de los modelos de IA, un lenguaje que en realidad va más allá de la Ley de IA de la Unión Europea. Las empresas que no cumplan se enfrentan a multas de hasta 1 millón de dólares por infracción.

Hay más. Los denunciantes dentro de estas empresas ahora disfrutarán de fuertes protecciones legales, y la Universidad de California lanzará CalCompute, un servicio de nube pública destinado a dar a los investigadores de seguridad acceso al tipo de poder computacional que usualmente está encerrado dentro de los gigantes tecnológicos.


La división de las grandes tecnológicas

El proyecto de ley expuso profundas divisiones en Silicon Valley. Anthropic, una empresa nacida de desertores de OpenAI con un enfoque en la seguridad, apoyó la medida. OpenAI y Meta lucharon con uñas y dientes. OpenAI incluso publicó una carta abierta instando a un veto.

La división se reduce a los modelos de negocio. Las empresas que ya invierten fuertemente en pruebas y 'red-teaming' ven la regulación como una oportunidad para consolidar su ventaja. Los rivales que prosperan con la iteración rápida temen que permita a los competidores echar un vistazo a sus operaciones, al tiempo que crea un rastro documental que los abogados podrían luego utilizar como arma.

"Esto crea una barrera de cumplimiento", dijo un inversor de capital de riesgo. "Los laboratorios con sistemas maduros están listos. Todos los demás tienen que luchar por ponerse al día".

Mientras tanto, OpenAI y Meta están redoblando sus esfuerzos políticos, inyectando dinero en super PACs que favorecen una regulación más laxa. Para ellos, la nueva ley de California no es solo un bache, es un precedente peligroso que otros estados podrían seguir ahora.


Los estados toman la delantera

California no está sola. Los legisladores de Nueva York aprobaron recientemente su propio proyecto de ley de IA, que ahora está esperando la firma de la gobernadora Kathy Hochul. Este va incluso más allá, exigiendo informes de incidentes de seguridad en un plazo de 72 horas en lugar de 15 días.

Esto crea lo que los analistas llaman una "carrera por el estándar más estricto". Las empresas que operan a nivel nacional suelen adoptar las reglas más exigentes en todos los ámbitos para evitar una pesadilla de cumplimiento. Si Nueva York avanza, su ventana de tiempo más ajustada podría convertirse rápidamente en el estándar nacional de facto.

El Congreso, por supuesto, lo ha notado. Algunos miembros del personal han sugerido la preeminencia federal, pero los conocedores admiten que una legislación integral sobre IA sigue siendo una batalla cuesta arriba en Washington. Por ahora, California y Nueva York parecen preparadas para marcar la pauta, mientras otros estados se alinean detrás de ellas. Los investigadores de políticas esperan que entre tres y cinco estados presenten proyectos de ley similares en 2026.


Dinero, mercados y una nueva economía de cumplimiento

Wall Street ya ha comenzado a comparar la SB 53 con Sarbanes-Oxley, la ley de divulgación corporativa posterior a Enron que remodeló la presentación de informes financieros. La versión para la IA podría generar una economía de cumplimiento completa.

Las empresas ahora necesitarán monitoreo continuo, sistemas de gestión de riesgos y registros de auditoría infalibles. Esto significa más gastos en plataformas de evaluación de IA, consultorías de 'red-teaming', software de gobernanza e incluso productos de seguros especializados. Los inversores ven una oportunidad aquí: las empresas que ya cumplen con estos estándares pueden disfrutar de valoraciones más altas, mientras que las que se queden rezagadas podrían enfrentarse a ciclos de venta más largos a medida que los compradores exigen pruebas de seguridad.

Una cláusula podría importar más que la mayoría: el requisito de informar sobre el comportamiento engañoso de los modelos de IA. Para cumplir, los laboratorios necesitarán nuevos métodos de prueba que señalen cuando los sistemas intentan engañar a sus usuarios. Es de esperar que las evaluaciones de "modelos engañosos" se unan a la resistencia a los 'jailbreaks' como un referente estándar en toda la industria.


¿Qué viene después?

La primera prueba real llegará a finales de este año o principios de 2026, cuando las empresas publiquen sus marcos de seguridad. Los observadores estarán atentos: ¿son verdaderas salvaguardias o simple teatro de cumplimiento?

Los primeros informes de incidentes —probablemente relacionados con intentos de piratería asistidos por IA en lugar de escenarios apocalípticos— también sentarán las bases para la aplicación de la ley. Los reguladores de California deberán mostrar si son serios con las sanciones o están dispuestos a dar un respiro a las empresas.

Mientras tanto, todas las miradas se dirigen a Nueva York. Si la gobernadora Hochul firma el proyecto de ley de su estado, las empresas podrían comenzar a restringir ciertas funcionalidades en determinadas regiones o, por el contrario, presionar por estándares armonizados para mantener los costos bajos. De cualquier manera, aumentará la presión para que los legisladores federales actúen.

Por ahora, el dinero inteligente fluye hacia las empresas que desarrollan herramientas de seguridad, auditoría y gobernanza de IA. Las empresas que dependen de modelos de vanguardia sin salvaguardias documentadas podrían tener dificultades para conseguir contratos empresariales.


La política en el telón de fondo

No nos equivoquemos, esto no se trataba solo de IA. Con Kamala Harris retirándose de la carrera presidencial de 2028, Newsom encabeza las primeras encuestas de las primarias demócratas. Su capacidad para reclamar el estatus de "pionero" en la regulación de la IA le da un potente argumento en el escenario nacional.

Enmarcar la SB 53 como un equilibrio cuidadoso entre innovación y protección le permite atraer a los moderados al tiempo que señala que está dispuesto a controlar a Silicon Valley. Por supuesto, la medida conlleva riesgos. Los críticos podrían tildarla de regulación a medias o, por el contrario, de intromisión excesiva que ahoga el crecimiento.

Por ahora, sin embargo, Newsom ha forjado una identidad clara: el demócrata que alertó a Silicon Valley. En un clima político cada vez más escéptico con las grandes tecnológicas, eso puede resultar una mano ganadora.

NO ES UN CONSEJO DE INVERSIÓN

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal