GOBIERNO

Publicado 24/10/2025

California aprueba una ley que obliga a los chatbots a decir que son Inteligencia Artificial

Transparencia obligatoria: el estado más influyente de EE. UU. establece un precedente global en la regulación de la IA conversacional
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

Transparencia obligatoria: el estado más influyente de EE. UU. establece un precedente global en la regulación de la IA conversacional

California dio un paso histórico en la regulación de la Inteligencia Artificial (IA). El gobernador Gavin Newsom promulgó la ley del Senado 243, que exigirá que todo chatbot o asistente virtual que interactúe con personas informe explícitamente que no es humano. La norma, que comenzará a aplicarse en 2026, marca un precedente global en materia de transparencia tecnológica.

Según informó The Verge, la ley no solo busca evitar confusiones o fraudes digitales, sino también proteger la salud mental de los usuarios. Los desarrolladores deberán incluir protocolos que detecten cuándo un usuario expresa ideación suicida o angustia emocional, y derivar la conversación hacia recursos de ayuda verificados.

 

Capitolio de California.

 

Una nueva era de regulación para la IA

 

Hasta ahora, la mayoría de los chatbots —como los asistentes de servicio al cliente o los modelos conversacionales generativos— operaban sin obligación legal de identificarse como sistemas automatizados.

Con esta ley, California se convierte en el primer estado de EE. UU. en exigir que los bots indiquen su naturaleza antes o durante la interacción.

La senadora Nancy Downey, autora del proyecto, explicó que el objetivo es “preservar la confianza en la comunicación digital y garantizar que los ciudadanos sepan cuándo están hablando con una máquina”. La medida llega en un contexto en el que las voces sintéticas y los modelos de lenguaje avanzados son cada vez más indistinguibles de una conversación humana real.

 

 

 

Implicancias globales y posibles efectos en Latinoamérica

 

El impacto de la ley californiana podría ir mucho más allá de las fronteras estadounidenses. Dado que Silicon Valley es la sede de las principales compañías tecnológicas —OpenAI, Google, Meta, Anthropic, Salesforce—, es probable que muchas adopten estos estándares de transparencia a nivel mundial.

En América Latina, el debate sobre la regulación de la IA apenas comienza. Este tipo de medidas podría inspirar legislaciones locales que establezcan criterios de responsabilidad, ética y protección del usuario.

Para Argentina, representa una oportunidad de anticiparse y crear marcos normativos que equilibren innovación y derechos ciudadanos.

 

 

 

Desafíos y críticas

 

Expertos advierten que la aplicación práctica de la ley puede ser compleja. ¿Cómo se define exactamente un “chatbot”? ¿Qué nivel de interacción requiere el aviso? ¿Alcanza con una advertencia inicial o debe repetirse?

Empresas del sector tecnológico señalan que la norma podría incrementar costos de cumplimiento y ralentizar la innovación, especialmente para startups con pocos recursos.

Sin embargo, organizaciones civiles y académicas la celebran como un paso decisivo hacia una IA más ética y transparente.

 

Una tendencia que llegó para quedarse

 

Más allá de las críticas, el consenso general es claro: la regulación de la IA ya no es opcional.

California abre el camino para un modelo de interacción donde la confianza, la transparencia y la seguridad del usuario ocupan el centro del debate tecnológico.