GOBIERNO

Publicado 15/11/2025

Cuando el delincuente usa IA y la comisaría sigue en papel: la nueva brecha de seguridad

Deepfakes, estafas con voces clonadas, sextorsión automatizada y ciberespionaje asistido por modelos de IA ya no son ciencia ficción. Mientras el crimen se aggiorna con velocidad, la mayoría de las fuerzas de seguridad del mundo —incluyendo las de Argentina— todavía no tienen formación sistemática para reconocer, investigar y frenar este tipo de ataques.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

Deepfakes, estafas con voces clonadas, sextorsión automatizada y ciberespionaje asistido por modelos de IA ya no son ciencia ficción. Mientras el crimen se aggiorna con velocidad, la mayoría de las fuerzas de seguridad del mundo —incluyendo las de Argentina— todavía no tienen formación sistemática para reconocer, investigar y frenar este tipo de ataques.

El mapa del delito cambió silenciosamente. Hoy, una videollamada con un CEO falso puede vaciar la caja de una empresa en minutos. Una foto inocente de Instagram puede convertirse en material sexualizado generado por IA y terminar en una campaña de sextorsión. Un grupo de atacantes puede lanzar operaciones de ciberespionaje apoyándose en agentes de IA que automatizan tareas que antes requerían equipos de elite.

 

La novedad no es sólo el tipo de delito, sino su escala: más víctimas en menos tiempo; ataques hiperpersonalizados gracias al cruce de datos filtrados, redes sociales y modelos generativos y delincuentes que ya no necesitan ser expertos en programación para ejecutar operaciones complejas. La IA funciona como amplificador: potencia lo que ya existía —fraude, extorsión, espionaje, violencia de género—, pero lo hace más barato, masivo y sofisticado.

 

 

Deepfakes, voz clonada y sextorsión: la tormenta perfecta

Entre los casos que más preocupan a los especialistas aparecen dos fenómenos:

 

Fraudes corporativos con video y voz clonada
Historias de directivos “ordenando” transferencias millonarias en videollamadas que en realidad son deepfakes se acumulan en los titulares. El problema: los sistemas tradicionales de compliance y verificación interna no estaban pensados para un mundo donde la cara y la voz pueden ser sintetizadas en segundos.

 

Sextorsión a menores con imágenes manipuladas
Organizaciones que trabajan en ciberseguridad infantil describen un patrón inquietante: los agresores toman fotos públicas de redes sociales, las transforman en imágenes sexualizadas usando IA y luego amenazan con difundirlas a cambio de dinero, más material o favores.

El impacto emocional en adolescentes y familias es devastador y, muchas veces, la primera reacción es el silencio, no la denuncia. La mayoría del contenido deepfake que circula tiene como blanco a mujeres conocidas, influenciadoras o personas comunes. Es una forma de violencia que combina misoginia, humillación pública y un mensaje claro: “tu imagen no te pertenece”.

 

 

IA también del lado de los atacantes “pro”: espionaje y cibercrimen asistido

En paralelo, el mundo de la ciberseguridad empieza a documentar algo todavía más delicado: operaciones de espionaje y hacking donde buena parte del trabajo lo hace la IA. En estos casos, modelos avanzados se usan para mapear objetivos, analizar infraestructura y detectar vulnerabilidades. También para generar código malicioso, crear variaciones de ataques, evitar defensas.

Lo que antes era patrimonio exclusivo de unos pocos actores estatales ahora puede ser replicado por grupos criminales con recursos moderados, apalancados en herramientas disponibles en el mercado.

 

La policía, atrapada en el desfasaje

Mientras tanto, la mayoría de las fuerzas de seguridad del mundo arrastra un problema común: no está formada para este escenario. Las academias policiales tienen currículas que priorizan la calle, la investigación clásica, el manejo de armas y procedimiento, pero rara vez incluyen módulos serios de IA, cibercrimen y evidencia digital.

 

Las pocas unidades de cibercrimen suelen concentrarse en delitos informáticos “tradicionales” (phishing, grooming, tarjetas clonadas), sin capacidad suficiente para investigar deepfakes o ataques con agentes de IA. El “primer respondiente” —la comisaría de barrio, el patrullero, la guardia de una fiscalía— muchas veces ni siquiera tiene lenguaje para nombrar estos casos.

 

El resultado es un desacople estructural: el delito se vuelve digital y automatizado, mientras que la puerta de entrada al sistema de seguridad sigue siendo analógica, burocrática y, en muchos casos, tecnológicamente precaria.

 

Hay excepciones. Algunas academias policiales en Estados Unidos y Europa comenzaron a incorporar: asistentes tipo “ChatGPT interno” entrenados con legislación y protocolos policiales;  herramientas de IA para analizar grabaciones de bodycams y detectar patrones de uso de la fuerza o situaciones de riesgo y módulos específicos sobre deepfakes, sextorsión y preservación de evidencia digital. Pero son casos aislados, más cerca del piloto innovador que de una política pública consolidada, y el contraste con la realidad de gran parte de América Latina es evidente: presupuestos acotados, escasa actualización de planes de estudio y urgencias cotidianas que postergan cualquier discusión de mediano plazo.

 

La foto de hoy es clara: la inseguridad relacionada con IA ya es una realidad, aunque todavía no tenga nombre propio en las estadísticas oficiales.
Lo que falta es el paso siguiente: reconocerla como tal, formar a quienes están en la primera línea y animarse a discutir un plan serio de “seguridad en tiempos de inteligencia artificial”.