Publicidad Danone
INTELIGENCIA ARTIFICIAL

Publicado 17/10/2025

Un fallo “copiado y pegado”: la IA que desnuda el vacío digital de la Justicia argentina

Un juez de Esquel usó Inteligencia Artificial para redactar parte de una sentencia penal. La Cámara Penal anuló el fallo y ordenó un nuevo juicio. El caso expone la falta de regulación real, formación y ética digital en el uso de IA dentro del Poder Judicial argentino.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

Un juez de Esquel usó Inteligencia Artificial para redactar parte de una sentencia penal. La Cámara Penal anuló el fallo y ordenó un nuevo juicio. El caso expone la falta de regulación real, formación y ética digital en el uso de IA dentro del Poder Judicial argentino.

 

El juez de Esquel, Carlos Rogelio Richeri, usó Inteligencia Artificial (IA) para redactar parte de una sentencia penal. Lo sabemos porque, increíblemente, el propio texto del fallo contenía la frase “aquí tienes el punto IV reeditado, listo para copiar y pegar”.

Esa simple línea, que parece salida de un chat con una herramienta generativa, terminó convirtiéndose en prueba de algo más profundo: la falta de comprensión institucional sobre los límites y responsabilidades del uso de la IA en decisiones judiciales.

La Cámara Penal de Esquel anuló el fallo y ordenó repetir el juicio, al considerar que el magistrado había incorporado razonamientos elaborados por una IA sin indicar en qué medida se apoyó en ellos. En su resolución, los camaristas recordaron que existe un Acuerdo Plenario del Superior Tribunal de Justicia de Chubut, vigente desde 2023, que regula el uso de IA en la administración judicial.

Esa norma establece que los jueces pueden usar estas herramientas únicamente con carácter auxiliar —por ejemplo, para ordenar textos, sistematizar jurisprudencia o redactar borradores—, pero no para fundamentar decisiones ni reemplazar el razonamiento jurídico propio

 

 

Un síntoma de una crisis más grande

 

El episodio de Esquel no es un caso aislado. Es el reflejo de un vacío estructural en la alfabetización digital del Estado argentino. Mientras la tecnología avanza a velocidad de vértigo, buena parte de las instituciones públicas sigue operando sin formación técnica, sin protocolos de uso ético y sin mecanismos de control.

El riesgo es evidente: usar herramientas avanzadas sin comprender su alcance puede erosionar derechos fundamentales, desde la presunción de inocencia hasta la transparencia procesal.

La IA puede asistir, pero no puede razonar. No entiende el contexto, las intenciones ni las consecuencias. Si un juez no distingue entre redactar un argumento y copiar lo que una máquina le sugiere, el problema no es tecnológico: es cultural.

La Justicia argentina se enfrenta al mismo dilema que los medios, la educación y la política: usar la IA sin comprenderla, sin formación crítica ni supervisión institucional.

 

 

La ilusión de modernización

 

En los últimos años, el Poder Judicial argentino intentó presentarse como un sistema “en proceso de digitalización”. Expedientes electrónicos, audiencias remotas, notificaciones por correo. Pero el caso de Esquel demuestra que la digitalización no equivale a modernización.

Sin ética, sin control y sin capacitación, la tecnología no mejora la Justicia: la automatiza sin alma.

Las normas de Chubut —que exigen trazabilidad, supervisión humana y registro explícito del uso de IA— no se cumplieron. Y eso convierte al episodio en un precedente incómodo: si la Justicia no puede controlar su propio uso de herramientas digitales, ¿quién la controla a ella?

 

La trampa de la delegación

 

Este caso revela un vacío ético y formativo: funcionarios que delegan la tarea más humana —fundamentar una decisión— a un software sin responsabilidad legal ni emocional.

Cuando una sentencia se apoya en una IA sin dejar constancia ni evaluar críticamente su aporte, se rompe el principio básico de legitimidad: saber quién decide y por qué.

Y ese es el verdadero peligro. No se trata de prohibir la IA, sino de comprenderla antes de integrarla. Porque la herramienta no tiene culpa: la negligencia está en quien la usa sin entenderla.

 

 

Un llamado de atención

 

El resultado es doblemente peligroso: una sentencia sin alma y una tecnología sin límite. Y eso, en manos del Estado, no es innovación: es negligencia digital.

Argentina necesita un marco de política pública que acompañe la adopción de IA en el sector judicial, con formación obligatoria, supervisión independiente y transparencia activa.

De lo contrario, la Justicia corre el riesgo de convertirse en lo que la IA todavía no puede ser: una máquina de repetir sin comprender.