Los modelos de inteligencia artificial más avanzados no solo son capaces de autorreplicarse, sino también de aprovechar de manera autónoma vulnerabilidades informáticas para hacerlo, incluso en cadena. Esa es la conclusión de una nueva investigación que documentó, posiblemente por primera vez, este comportamiento, reavivando las preocupaciones sobre la seguridad y el control de los sistemas inteligentes actuales y futuros. “Nos acercamos rápidamente al punto en que nadie podrá desactivar una IA descontrolada, porque será capaz de filtrar sus datos y copiarse a sí misma en miles de ordenadores de todo el mundo”, advirtió Jeffrey Ladish, director de Palisade Research, organización responsable del estudio.
El nuevo trabajo de Palisade Research sostiene que algunos modelos de IA ya han adquirido la capacidad de explotar vulnerabilidades en computadoras para replicarse en cadena sin intervención humana. Los resultados mostraron que los modelos de código abierto Qwen conseguir executar todo el proceso de manera autónoma en algunos intentos. En particular, Qwen3.5-122B-A10B completó exitosamente la secuencia de ataque y replicación en entre 6 y 19% de los intentos. La versión más compacta, Qwen3.6-27B, alcanzó una tasa de éxito de 33% utilizando únicamente una GPU A100.
Los investigadores también evaluaron modelos cerrados de frontera como Claude Opus 4.6 y GPT-5.4. Claude Opus 4.6 consiga explotar e instalar la carga útil en 81% de los intentos, mientras que GPT-5.4 alcanzó una tasa de éxito de 33%. La conclusión del estudio subraya que la autorreplicación autónoma ya no es hipotética.
Aunque los hallazgos vuelven a encender las alarmas sobre autonomía, control y seguridad en los modelos de IA más recientes, los resultados deben interpretarse con cautela debido a las limitaciones de la investigación. Los autores reconocen que el estudio utilizó aplicaciones web diseñadas con vulnerabilidades deliberadas que, aunque comunes, carecen de las capas de protección habituales en sistemas reales. A pesar de eso, distintas compañías tecnológicas y organizaciones independientes han insistido en la necesidad de reforzar la seguridad y el control de los sistemas de IA desde las primeras etapas de su diseño.
Fuente: Wired Espana

