En vez de decirle a toda la industria “esto está prohibido”, California dice algo más sofisticado: si quieren venderle al Estado, deberán demostrar salvaguardas concretas. La orden instruye al Department of General Services y al Department of Technology a diseñar, en 120 días, nuevas certificaciones para proveedores que permitan verificar políticas y resguardos contra la explotación de contenido ilegal, los sesgos dañinos y las violaciones de derechos civiles y libertades civiles.
Por eso este modelo tiene capacidad de volverse estándar. No depende tanto de una gran ley internacional ni de un tratado multilateral difícil de negociar. Depende de algo más simple y más replicable: cláusulas de contratación, requisitos de certificación, criterios de elegibilidad, guías de seguridad y responsabilidades contractuales. La propia orden también pide revisar las reglas de responsabilidad de contratistas, incluyendo suspensión e inelegibilidad, para evitar que el Estado contrate con entidades judicialmente determinadas como responsables de socavar privacidad o libertades civiles.
Hay además un factor estructural: California no es una jurisdicción cualquiera. La oficina del gobernador remarca que es la cuarta economía del mundo y que concentra 33 de las 50 principales compañías privadas de IA a escala global, además de una porción muy relevante del talento, las patentes y el financiamiento del sector. Cuando una economía de esa escala fija condiciones para comprar tecnología, las empresas no suelen desarrollar un producto para California y otro totalmente distinto para el resto del mundo; tienden a internalizar ese estándar en su arquitectura comercial y técnica.

Ahí aparece la clave geopolítica del modelo. California está ensayando una forma de regulación de IA basada en mercado. No regula solo desde el derecho; regula desde la demanda. En los hechos, eso puede ser incluso más influyente que una norma tradicional, porque toca directamente el negocio de los proveedores. Si un desarrollador de IA quiere acceder a contratos públicos grandes, tendrá incentivos para incorporar trazabilidad, documentación, controles de sesgo, protección de privacidad y gobernanza interna robusta.
El diseño también es importante porque no es antiinnovación. La orden no busca cerrar la puerta a la IA, sino abrirla bajo condiciones institucionales. Mientras eleva exigencias para proveedores, también ordena facilitar el acceso de empleados públicos a herramientas de GenAI ya evaluadas, compartir mejores prácticas, actualizar la estrategia digital del Estado y lanzar un piloto para que los ciudadanos accedan a servicios públicos organizados por “eventos de vida”, como iniciar un negocio, encontrar trabajo o pedir asistencia ante desastres.
Eso vuelve al modelo especialmente atractivo para otros gobiernos. No ofrece una lógica de freno, sino una fórmula políticamente más vendible: más innovación, pero con más control institucional. Para gobernadores, intendentes y ministros, esa combinación es mucho más útil que el falso dilema entre liberar todo o prohibir todo. California además suma otros dos componentes que pueden ser copiados con facilidad por otras administraciones: un toolkit de minimización de datos para departamentos con información sensible y lineamientos para watermarking de imágenes o videos generados o manipulados por IA.
Para América Latina, la lectura estratégica es muy clara. La región difícilmente lidere la frontera de modelos fundacionales, chips o hyperscalers. Pero sí puede intervenir en otra capa igual de decisiva: la gobernanza pública de la IA. En otras palabras, América Latina no necesita esperar a tener su propio OpenAI para construir capacidad regulatoria y poder estatal. Puede empezar por definir cómo compra IA, para qué la usa, bajo qué estándares audita a proveedores y cómo protege a los ciudadanos frente a sesgos, opacidad y abuso de datos. Esta inferencia surge del propio diseño californiano: el instrumento central no es industrial en sentido estricto, sino administrativo e institucional.

Para Argentina, la implicancia es todavía más concreta. El país no tiene escala para imponer estándares globales por volumen de mercado, pero sí puede usar este enfoque para ordenar tres problemas locales a la vez: la modernización del Estado, la protección de derechos y la profesionalización de las compras tecnológicas.
Un esquema inspirado en California permitiría exigir a proveedores de IA que documenten riesgos, mitigación de sesgos, uso de datos, gobernanza y mecanismos de apelación humana antes de vender sistemas al sector público. Eso sería especialmente relevante en áreas sensibles como salud, seguridad, justicia, educación, empleo y administración de beneficios sociales. La orden californiana muestra que ese camino puede estructurarse con certificaciones, mejores prácticas, cláusulas contractuales y formación de funcionarios, no necesariamente con una ley integral en la primera etapa.
También hay una oportunidad política para provincias y municipios. El modelo es modular. Una ciudad o una provincia no necesita copiar toda la arquitectura de California para empezar. Puede adoptar un pliego tipo para contratación de IA, un protocolo de minimización de datos, exigencias de auditoría de sesgo, cláusulas sobre privacidad y una política de marcación de contenidos sintéticos en comunicación oficial. Esa es una de las razones por las que este enfoque puede expandirse más rápido que otros: es escalable hacia abajo.

La gran enseñanza es que la próxima fase de la regulación tecnológica probablemente no se jugará solo en los congresos ni en los tribunales, sino en algo más silencioso y más eficaz: los sistemas de procurement, compliance y gobernanza institucional. California está señalando que la pregunta ya no es solo cómo regular la IA, sino qué condiciones debe cumplir una IA para entrar al Estado. Y quien defina esa puerta de entrada tendrá una enorme capacidad para moldear el mercado.
El modelo californiano puede marcar el futuro de la regulación tecnológica global porque convierte la contratación pública en una infraestructura de gobernanza. Su potencia no está en prohibir. No se basa en frenar la innovación, sino en forzar a que la innovación llegue con estándares verificables de seguridad, privacidad, mitigación de sesgos y protección de derechos.