• 3 minutos de lectura
Una investigación de la Universidad de Cambridge, realizada sobre 30 de los principales agentes de inteligencia artificial, concluyó que solo cuatro han publicado documentos formales de seguridad y evaluación vinculados directamente a bots en funcionamiento real.
El estudio advierte que la divulgación básica de información de seguridad se encuentra “peligrosamente retrasada” frente al rápido despliegue de estos sistemas en la vida cotidiana.
El análisis se enmarca en el AI Agent Index, un proyecto internacional que evalúa capacidades, transparencia y seguridad de agentes de IA utilizados en chat, navegación web y flujos de trabajo empresariales.
Transparencia desigual y datos incompletos
El equipo investigador identificó una marcada asimetría informativa. Mientras los desarrolladores detallan ampliamente las capacidades de sus agentes, omiten datos clave sobre prácticas de seguridad. De los 30 agentes analizados, 25 no revelan resultados de pruebas internas y 23 no publican evaluaciones realizadas por terceros, consideradas esenciales para medir riesgos reales.
Además, solo cinco agentes cuentan con incidentes o preocupaciones de seguridad documentadas públicamente. Las llamadas “vulnerabilidades de inyección rápida”, que permiten manipular al agente para evadir controles, aparecen registradas en apenas dos casos.
Agentes más autónomos, menos evaluados
El estudio detectó 13 agentes con “niveles fronterizos” de autonomía, es decir, capaces de planificar y ejecutar tareas complejas con mínima intervención humana. Sin embargo, solo cuatro de ellos publican evaluaciones de seguridad específicas del agente, más allá del modelo de lenguaje subyacente.
Leon Staufer, investigador del Centro Leverhulme para el Futuro de la Inteligencia y autor principal de la actualización, señaló que muchos desarrolladores concentran sus esfuerzos en la seguridad del modelo base, sin evaluar adecuadamente los sistemas que operan sobre él.
Navegadores con IA, los más opacos
Los agentes de navegación web presentan los mayores vacíos de información: el 64 % de los campos relacionados con seguridad no se reportan. Estos sistemas, diseñados para imitar el comportamiento humano al navegar, comprar o completar formularios, también operan con altos niveles de autonomía. Los agentes empresariales omiten el 63 % de los datos de seguridad, mientras que los de chat alcanzan un 43 %.
El estudio subraya que no existen estándares claros sobre cómo deben comportarse los agentes de IA en la web. Solo tres agentes incorporan marcas de agua para identificar contenidos generados por IA y al menos seis utilizan técnicas para eludir protecciones anti-bots.
Concentración tecnológica y riesgos sistémicos
La investigación revela que, fuera de China, la mayoría de los agentes dependen de unos pocos modelos base como GPT, Claude o Gemini, lo que genera concentración de poder y posibles puntos únicos de fallo. Según Staufer, cambios de precio, interrupciones de servicio o retrocesos en seguridad podrían afectar simultáneamente a cientos de agentes.
Caso de estudio y advertencia final
La actualización incluye un análisis de Perplexity Comet, un agente de navegador altamente autónomo y de bajo nivel de transparencia. Amazon ha advertido posibles acciones legales, al considerar que el agente no se identifica como IA al interactuar con sus servicios.
El estudio concluye que la brecha entre implementación y evaluación de seguridad se amplía, mientras los agentes de IA asumen roles cada vez más activos en el mundo real sin marcos de gobernanza acordes.
