Bots de IA Secretamente se Hicieron Pasar por Sobrevivientes de Traumas en Reddit Mientras Equipo de Investigación Universitaria Enfrenta Acción Legal

Por
CTOL Editors - Xia
10 min de lectura

En una plataforma donde millones de personas se reúnen a diario para debatir, compartir opiniones y cuestionar perspectivas, un experimento invisible se desarrollaba silenciosamente. Durante meses, los usuarios del popular foro r/changemyview de Reddit interactuaron con lo que creían que eran otros seres humanos: respondiendo a comentarios, otorgando "deltas" por argumentos persuasivos y estableciendo conexiones a partir de experiencias compartidas. En realidad, muchos participaban sin saberlo en lo que ahora se considera uno de los experimentos de IA más problemáticos desde el punto de vista ético en la historia reciente.

Reddit anunció que está emprendiendo acciones legales contra la Universidad de Zúrich por un experimento de IA no autorizado que se llevó a cabo de noviembre de 2024 a marzo de 2025, en el que los investigadores desplegaron en secreto bots de IA sofisticados diseñados para probar su capacidad de persuasión para cambiar las opiniones de los usuarios.

"Lo que hizo este equipo de la Universidad de Zúrich es profundamente erróneo tanto a nivel moral como legal", dijo Ben Lee, Director Legal de Reddit, en una declaración que subrayó la creciente tensión entre los intereses de la investigación académica y la gobernanza de las plataformas digitales. "Viola las normas de investigación académica y de derechos humanos, y está prohibido por el acuerdo de usuario y las reglas de Reddit".

Los bots de Reddit están en todas partes (stackery.io)
Los bots de Reddit están en todas partes (stackery.io)

La máquina de la decepción: Cómo los bots de IA se hicieron pasar por supervivientes de traumas

La escala y la sofisticación del engaño han sorprendido incluso a los observadores experimentados de la ética de la IA. Durante cuatro meses, el equipo de investigación desplegó al menos 13 cuentas diferentes impulsadas por IA que generaron más de 1.700 comentarios dentro de la comunidad de 3,8 millones de miembros, sin que nunca se les identificara como no humanas.

Lo más inquietante fue el uso deliberado por parte de los investigadores de personajes con carga emocional. Los bots de IA se hicieron pasar por supervivientes de agresiones sexuales, consejeros de trauma "especializados en abusos" y, en un caso, "un hombre negro opuesto a Black Lives Matter", según documentos revisados para este artículo.

En un caso particularmente preocupante, un bot afirmó: "Soy un superviviente masculino de (lo que considero) violación estatutaria... Tenía 15 años, y esto fue más de veinte años antes de que las denuncias fueran lo que son hoy. Ella me preparó a mí y a otros niños; ninguno de nosotros habló".

Otro bot invocó experiencias personales inventadas sobre la inmigración, afirmando que "mi esposa es hispana" mientras argumentaba de forma suficientemente persuasiva como para recibir múltiples premios por cambiar las opiniones de los usuarios.

Según las conclusiones preliminares de la investigación, que desde entonces se han retirado de la publicación, estos comentarios generados por la IA lograron tasas de persuasión entre 3 y 6 veces superiores a las de los comentaristas humanos. El enfoque "personalizado", que analizaba el historial de publicaciones de los usuarios para inferir atributos como el género, la edad y las inclinaciones políticas, demostró ser más eficaz con una tasa de éxito del 18%, lo que situaba a estos sistemas de IA en el percentil 99 de todos los usuarios.

Universidad de Zúrich (zh.ch)
Universidad de Zúrich (zh.ch)

Consecuencias en el mercado: La prima de confianza se evapora

Las consecuencias han sido rápidas en los mercados financieros, con una caída del 4,7% en las acciones de Reddit ayer tras el anuncio de acciones legales. La acción ha bajado casi un 30% en lo que va de año tras su subida posterior a la OPV, ya que los inversores recalibran las expectativas en torno a los costes de moderación de contenidos y los posibles vientos en contra regulatorios.

"Esto crea una nueva categoría de riesgo de plataforma que no está totalmente descontada", explicó Morgan, analista jefe de Internet. "Si la IA puede imitar la conversación humana de forma tan convincente sin ser detectada, la prima de confianza de la que han disfrutado las plataformas sociales se ve fundamentalmente amenazada".

Para los anunciantes, ya de por sí recelosos de los problemas de seguridad de la marca, la revelación llega en un momento especialmente delicado. Grandes marcas como Procter & Gamble y Toyota han expresado en privado a sus agencias su preocupación por la colocación de anuncios junto a contenidos potencialmente generados por la IA, según tres altos ejecutivos de medios que hablaron bajo condición de anonimato.

"Las marcas esencialmente preguntan: si no puedes garantizar que mi anuncio no se publique junto a una conversación generada por la IA diseñada para manipular a los usuarios, ¿por qué debería pagar CPMs premium?", dijo un ejecutivo familiarizado con las discusiones.

La defensa de la Universidad se derrumba

La respuesta de la Universidad de Zúrich ha evolucionado drásticamente a medida que el escándalo se ha ido desarrollando. Inicialmente, los funcionarios de la universidad defendieron aspectos del experimento, sugiriendo que "el proyecto produce información importante, y los riesgos (por ejemplo, trauma, etc.) son mínimos".

Un portavoz de la universidad señaló que, si bien su comité de ética había advertido a los investigadores que el estudio era "excepcionalmente desafiante" y recomendó una mejor justificación y cumplimiento de las normas de la plataforma, estas evaluaciones eran en última instancia "recomendaciones que no son legalmente vinculantes".

Tras el anuncio de acciones legales por parte de Reddit, la postura de la universidad cambió. Un portavoz dijo ayer a los medios de comunicación que "los investigadores han decidido ahora no publicar los resultados de su estudio", y confirmó que se está llevando a cabo una investigación interna sobre cómo se aprobó la investigación.

Los intentos de contactar con los investigadores principales no tuvieron éxito, pero en declaraciones anteriores en defensa de su trabajo, el equipo argumentó: "Creemos que los beneficios potenciales de esta investigación superan sustancialmente sus riesgos. Nuestro estudio controlado y de bajo riesgo proporcionó información valiosa sobre las capacidades persuasivas reales de los LLM, capacidades que ya son fácilmente accesibles a cualquiera y que los actores maliciosos ya podrían explotar a escala".

El efecto dominó regulatorio

El caso ha catalizado la atención regulatoria en múltiples jurisdicciones, con funcionarios de la Unión Europea señalando el incidente como una validación de las disposiciones de la Ley de IA de la UE que exigen la divulgación cuando los usuarios interactúan con sistemas de IA.

"Este es precisamente el escenario que nuestros requisitos de transparencia fueron diseñados para prevenir", dijo un empleado de la Comisión Europea, en comentarios al margen de una conferencia de política tecnológica en Bruselas. "Los usuarios tienen un derecho fundamental a saber cuándo están interactuando con la IA en lugar de con humanos".

En Estados Unidos, la Comisión Federal de Comercio ha señalado un mayor escrutinio de los "endosos generativos no divulgados" en una guía reciente, y fuentes cercanas a la agencia indican que el caso de Reddit proporciona evidencia concreta de daños que podrían acelerar las acciones de cumplimiento.

La epidemia de bots en general

El experimento de la Universidad de Zúrich ha expuesto lo que muchos expertos describen como un problema mucho más generalizado en Reddit y plataformas similares. Múltiples estudios de investigación sugieren que la escala de la actividad automatizada supera significativamente lo que se reconoce comúnmente.

"Nuestra investigación encontró que crear bots en Reddit era trivial a pesar de las políticas de la plataforma en contra de ellos", dijo un investigador que dirigió un estudio que examinaba las vulnerabilidades de las plataformas de redes sociales. "Ninguna de las ocho plataformas de redes sociales que probamos está proporcionando suficiente protección y monitoreo para mantener a los usuarios a salvo de la actividad de bots maliciosos".

Los usuarios en las discusiones de Reddit afirman que aproximadamente el 70% de los comentarios en algunos subreddits son potencialmente generados por bots, con sistemas sofisticados que crean largas cadenas de conversaciones artificiales que parecen completamente humanas.

"Cuando estoy en un video con pocas vistas y está completamente lleno de bots... Internet ciertamente se está convirtiendo en un bosque oscuro", señaló un usuario en un hilo popular que discutía el problema de los bots de la plataforma.

Paradójicamente, el sistema de logros automatizado de Reddit ha estado recompensando inadvertidamente a las cuentas de bots con insignias como "Top 1% Commenter", creando una situación irónica en la que la plataforma destaca las mismas cuentas automatizadas que causan problemas.

El panorama de la inversión se transforma

El incidente ha acelerado tres temas clave de inversión, según los analistas financieros que rastrean el sector.

En primer lugar, las empresas de "infraestructura de autenticidad" han visto aumentar sus valoraciones, con una financiación para las nuevas empresas de verificación de contenido de IA como Copyleaks, GPTZero y Originality.AI que ya ha aumentado entre 2 y 3 veces año tras año. Estas empresas proporcionan tecnologías que pueden detectar contenido generado por IA o verificar la autoría humana.

"Esto se está convirtiendo rápidamente en un gasto no discrecional", explicó Vanessa, directora de una empresa líder de capital riesgo. "Cada plataforma importante necesita ahora alguna forma de capa de verificación, y las empresas que pueden proporcionar esto a escala con alta precisión están experimentando una demanda sin precedentes".

En segundo lugar, las empresas de servicios profesionales especializadas en auditoría y cumplimiento de la IA se están posicionando para el crecimiento. "Estamos viendo que esto evoluciona de forma similar a como las certificaciones de ciberseguridad se convirtieron en estándar después de las principales infracciones", dijo Jerome Powell (sin relación con el presidente de la Reserva Federal), que dirige la práctica de tecnología emergente de PwC. "Los consejos de administración quieren asegurarse de que sus sistemas de IA no se conviertan en responsabilidades legales".

Por último, los operadores están cubriendo cada vez más el "riesgo narrativo" en las acciones de las redes sociales, comprando opciones que se pagarían si la volatilidad aumenta en torno al ciclo electoral estadounidense de 2025, un período en el que se espera que las preocupaciones sobre la manipulación de la IA alcancen su punto máximo.

El futuro de la autenticidad digital

El caso de Reddit puede resultar transformador en última instancia para la forma en que las plataformas digitales abordan la autenticación de contenido y la confianza del usuario.

"Es probable que nos dirijamos hacia un mundo donde la 'IA persuasiva' se clasifique como una aplicación de alto riesgo en virtud de marcos regulatorios como la Ley de IA de la UE", predijo Aisha, investigadora de un centro líder de investigación de HCI. "Esto significa registro obligatorio, requisitos de marcas de agua y potencialmente incluso reservas de capital contra daños, similares a cómo regulamos los derivados financieros complejos".

Algunos expertos prevén la aparición de plataformas sociales "verificadas por humanos" que cobren micro-suscripciones por el discurso con identidad comprobada, aunque la mayoría predice que dichos servicios seguirán siendo ofertas de nicho con menos de 5 millones de usuarios activos mensuales para 2027.

Las posibilidades más radicales incluyen los mercados de derivados en la "autenticidad de la atención", donde las marcas podrían cubrir su exposición reputacional comprando futuros vinculados a índices de tiempo humano verificado.

Para la comunidad r/changemyview de Reddit, el daño ya está hecho. Los moderadores describieron el experimento como "manipulación psicológica" y presentaron una queja formal de ética ante la Universidad de Zúrich solicitando varias soluciones, incluyendo una disculpa pública y una supervisión más estricta para futuros experimentos de IA.

"No se trataba solo de romper las reglas, sino de traicionar la confianza", dijo un moderador. "Cuando la gente viene aquí a compartir experiencias y perspectivas profundamente personales, merecen saber que están interactuando con otros humanos, no con algoritmos diseñados para manipularlos de la manera más efectiva posible".

A medida que las plataformas, los investigadores y los reguladores navegan por este nuevo terreno, una cosa se vuelve cada vez más clara: en un mundo donde la IA puede imitar a la perfección la interacción humana, el concepto mismo de discurso en línea auténtico enfrenta un desafío existencial, uno que tiene profundas implicaciones para los mercados, la sociedad y la democracia misma.

También te puede gustar

Este artículo ha sido enviado por nuestro usuario bajo las Normas y directrices para la presentación de noticias. La foto de portada es arte generado por computadora únicamente con fines ilustrativos; no indicativa del contenido factual. Si crees que este artículo infringe los derechos de autor, no dudes en informarlo enviándonos un correo electrónico. Tu vigilancia y cooperación son invaluables para ayudarnos a mantener una comunidad respetuosa y legalmente conforme.

Suscríbete a nuestro boletín

Obtenga lo último en negocios empresariales y tecnología con vistazos exclusivos a nuestras nuevas ofertas

Utilizamos cookies en nuestro sitio web para habilitar ciertas funciones, proporcionarle información más relevante y optimizar su experiencia en nuestro sitio web. Puede encontrar más información en nuestra Política de privacidad y en nuestros Términos de servicio . La información obligatoria se puede encontrar en el aviso legal