Publicidad Danone
INTELIGENCIA ARTIFICIAL

Publicado 26/05/2025

Cinco potencias publican guía clave para blindar los datos en sistemas de Inteligencia Artificial

Un nuevo informe de agencias de ciberseguridad de EE. UU., Reino Unido, Canadá, Australia y Nueva Zelandaadvierte sobre la posibilidad de que datos manipulados socaven la seguridad y confiabilidad de los sistemas de Inteligencia Artificial. El documento establece buenas prácticas para mitigar estas amenazas.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

Un nuevo informe de agencias de ciberseguridad de EE. UU., Reino Unido, Canadá, Australia y Nueva Zelandaadvierte sobre la posibilidad de que datos manipulados socaven la seguridad y confiabilidad de los sistemas de Inteligencia Artificial. El documento establece buenas prácticas para mitigar estas amenazas.

 

En un esfuerzo conjunto por reforzar la seguridad en el uso de Inteligencia Artificial (IA), la NSA de Estados Unidos, junto a sus homólogas de Australia, Canadá, Nueva Zelanda y Reino Unido, ha publicado el documento “AI Data Security: Best Practices for Securing Data Used to Train & Operate AI Systems”. El informe establece un marco de mejores prácticas para proteger los datos utilizados en el entrenamiento y operación de sistemas de IA y machine learning.

 

El informe reconoce que los datos son el insumo fundamental para el desarrollo de modelos de IA. Sin embargo, están expuestos a amenazas que comprometerían su confiabilidad, integridad y funcionamiento. Entre los riesgos críticos se encuentran la manipulación maliciosa, el acceso no autorizado y la degradación de datos con el tiempo.

 

Riesgos clave en el ecosistema de IA

 

  1. Riesgos en la cadena de suministro de datos: cualquier punto, desde la adquisición hasta el uso final, puede ser vulnerable a ataques o errores.

  2. Manipulación maliciosa de datos (data poisoning): actores maliciosos pueden introducir datos falsos para alterar el comportamiento del modelo.

  3. Deriva de datos (data drift): cambios en los datos con el tiempo pueden hacer que los modelos pierdan precisión, requiriendo ajustes.

 

 

Recomendaciones estratégicas

 

  • Cifrado y control de acceso: cifrar datos en tránsito y reposo, y limitar el acceso solo a personal autorizado.
  • Firmas digitales y verificación de integridad: asegurar que los datos no hayan sido alterados desde su origen.
  • Seguimiento de procedencia de los datos (data provenance): documentar origen, historial y condiciones de recolección.
  • Infraestructura de confianza: entornos seguros en la nube o locales, con aislamiento y supervisión constante.
  • Evaluación continua y reentrenamiento: monitorear modelos y actualizarlos cuando los datos cambien significativamente.

 

Un enfoque de cooperación internacional

 

El informe, publicado por los “Five Eyes”, refleja la preocupación global por la seguridad de los sistemas de IA. Esta cooperación busca establecer estándares comunes y promover una cultura de ciberseguridad proactiva en sectores críticos como defensa, salud, finanzas y administración pública.

Adoptar las mejores prácticas descritas puede marcar la diferencia entre un sistema confiable y uno vulnerable a manipulaciones o fallos catastróficos.

 

Podés consultar el informe completo aquí: AI Data Security Report – Departamento de Defensa de EE. UU. (2025)