En un esfuerzo conjunto por reforzar la seguridad en el uso de Inteligencia Artificial (IA), la NSA de Estados Unidos, junto a sus homólogas de Australia, Canadá, Nueva Zelanda y Reino Unido, ha publicado el documento “AI Data Security: Best Practices for Securing Data Used to Train & Operate AI Systems”. El informe establece un marco de mejores prácticas para proteger los datos utilizados en el entrenamiento y operación de sistemas de IA y machine learning.
El informe reconoce que los datos son el insumo fundamental para el desarrollo de modelos de IA. Sin embargo, están expuestos a amenazas que comprometerían su confiabilidad, integridad y funcionamiento. Entre los riesgos críticos se encuentran la manipulación maliciosa, el acceso no autorizado y la degradación de datos con el tiempo.
Riesgos en la cadena de suministro de datos: cualquier punto, desde la adquisición hasta el uso final, puede ser vulnerable a ataques o errores.
Manipulación maliciosa de datos (data poisoning): actores maliciosos pueden introducir datos falsos para alterar el comportamiento del modelo.
Deriva de datos (data drift): cambios en los datos con el tiempo pueden hacer que los modelos pierdan precisión, requiriendo ajustes.
El informe, publicado por los “Five Eyes”, refleja la preocupación global por la seguridad de los sistemas de IA. Esta cooperación busca establecer estándares comunes y promover una cultura de ciberseguridad proactiva en sectores críticos como defensa, salud, finanzas y administración pública.
Adoptar las mejores prácticas descritas puede marcar la diferencia entre un sistema confiable y uno vulnerable a manipulaciones o fallos catastróficos.
Podés consultar el informe completo aquí: AI Data Security Report – Departamento de Defensa de EE. UU. (2025)