Una nueva frontera legal: proteger la mente como un territorio inviolable
La Recomendación sobre la Ética de la Neurotecnología, aprobada por los 194 Estados miembro de la UNESCO en noviembre de 2025, constituye el primer instrumento internacional que define reglas globales para tecnologías que pueden leer, registrar o modular la actividad cerebral.
El documento reconoce oficialmente la existencia de los “datos neuronales” —información capturada directamente del sistema nervioso— y los ubica en la categoría más alta de sensibilidad, por encima incluso de los datos biométricos tradicionales. Según UNESCO, este avance responde a que la actividad cerebral permite inferir emociones, rasgos de personalidad, estados mentales, intenciones o patrones cognitivos, incluso sin expresión verbal o física.
En palabras del organismo, la humanidad está ingresando en una etapa en la cual la mente se convirtió en “un espacio que requiere protección jurídica explícita”.

Neurotecnología: del laboratorio a la vida cotidiana
Lo que hasta hace pocos años era ciencia ficción hoy es un mercado en expansión:
Interfaces cerebro-máquina para mover prótesis robóticas.
Dispositivos portables que miden atención, estrés, carga cognitiva o estados emocionales.
Tecnologías comerciales para mejorar la productividad o evaluar conductas de consumo.
Sistemas de neuroestimulación para tratar afecciones neurológicas.
Según la propia UNESCO, la aceleración tecnológica desplazó el debate ético: el desafío ya no es “si la mente puede ser leída”, sino quién controla esa capacidad y con qué autoridad para hacerlo.

Los cinco principios centrales de la nueva norma
Privacidad mental e integridad cerebral
La recomendación establece que el cerebro es el núcleo de la identidad y por lo tanto cualquier acceso a datos neuronales requiere consentimiento explícito, informado y reversible.
La UNESCO advierte que la extracción no autorizada de señales cerebrales podría violar derechos fundamentales.
Autonomía y libertad de pensamiento
El documento protege la “inviolabilidad de la mente”, un concepto que remite directamente al derecho a la libertad de pensamiento reconocido en tratados internacionales como el Pacto Internacional de Derechos Civiles y Políticos (ONU, 1966).
La preocupación central: que tecnologías de estimulación o análisis profundo puedan influir, condicionar o desviardecisiones de manera subliminal.
Equidad y acceso
El organismo teme la creación de una brecha neurotecnológica, en la cual solo países o corporaciones ricas puedan acceder a dispositivos que mejoren capacidades cognitivas o motoras.
Esto podría generar una desigualdad social sin precedentes.
Diferenciar usos médicos de usos comerciales
La UNESCO traza una línea clara: no es lo mismo una neuroprótesis terapéutica que un dispositivo que mide emociones en un supermercado o una app que evalúa atención en tiempo real.
Los usos comerciales deben someterse a transparencia estricta, límites de finalidad y controles éticos externos.
Gobernanza global
Los Estados deben crear leyes específicas, comités nacionales de ética, sistemas de auditoría y mecanismos de participación ciudadana.
La recomendación insta a coordinar esfuerzos con organismos científicos y de derechos humanos para evitar asimetrías regulatorias.

El factor IA: el verdadero acelerador del riesgo
Según UNESCO, el problema no es solo la capacidad de captar señales neuronales sino lo que los algoritmos de IA pueden inferir a partir de ellas.
Modelos de aprendizaje profundo podrían:
anticipar emociones antes de que aparezcan;
inferir preferencias o intenciones;
predecir comportamientos;
reconstruir patrones cognitivos con alta precisión.
Esta convergencia —neurotecnología + IA— aumenta el riesgo de manipulación cognitiva, vigilancia emocional o publicidad conductual extrema.
Para evitarlo, la recomendación exige que toda tecnología neuro-IA esté sujeta a límites legales claros, auditorías independientes y evaluación continua de impacto.

Implicancias para Argentina: un vacío legal que debe cerrarse
La legislación argentina, incluida la Ley 25.326 de Protección de Datos Personales, no contempla ninguna categoría vinculada a datos neuronales.
Esto genera tres problemas:
Vacío normativo: hoy no hay reglas que impidan que una empresa recopile información cerebral con fines comerciales.
Dificultades para investigación: proyectos locales de neurociencia e IA podrían perder cooperación internacional si no se ajustan a estándares UNESCO.
Pérdida de soberanía tecnológica: sin regulación, empresas extranjeras pueden operar sin controles locales.
A la vez, Argentina tiene una oportunidad estratégica: si adopta tempranamente este marco, puede posicionarse como referente regional en innovación responsable, similar al rol que la UE asumió con el GDPR.
Qué viene ahora: el nuevo tablero de la ética digital
La recomendación de la UNESCO no es legalmente vinculante, pero funciona como hoja de ruta mundial.
Lo que está en juego es más profundo que la privacidad: la norma propone reconocer la soberanía mental, es decir, el derecho a pensar sin vigilancia, presión o extracción de datos inconsciente.
En términos regulatorios y políticos, inaugura una nueva pregunta central para la era de la Inteligencia Artificial:
¿Debe la mente humana ser tratada como un espacio protegido por derecho internacional?: Según la UNESCO, la respuesta es sí.