Estas modificaciones buscan equilibrar tres principios que muchas veces están en tensión: la seguridad del adolescente, su libertad en el uso de la IA, y su privacidad.
¿Qué cambios se anuncian?
Predicción de edad y verificación
OpenAI construirá un sistema automático de estimación de edad basado en el uso que le da el usuario. Si no se puede determinar con certeza que alguien es mayor de 18 años, se aplicarán los controles de la experiencia para menores. En ciertos países o situaciones también se podrá solicitar una identificación oficial.
Experiencia diferenciada para menores
Los usuarios adolescentes tendrán una versión “adaptada” de ChatGPT en la que ciertos contenidos estarán restringidos:
Se bloquearán conversaciones de tono sexual.
No se permitirán discusiones sobre suicidio o autolesiones en contextos creativos o ficticios, ni instrucciones relacionadas con métodos.
Si un usuario menor manifiesta pensamientos suicidas o autolesivos, el sistema intentará contactar a sus padres o tutores; si se considera un riesgo inminente y no puede contactarse a ellos, pueden involucrarse autoridades.
Controles parentales
Se habilitarán herramientas para que los padres o tutores vinculen sus cuentas con las de los adolescentes. Podrán:
Restringir ciertas funciones del ChatGPT para menores (por ejemplo, memoria del chat, historial).
Recibir notificaciones si el sistema detecta que el menor está en un momento de angustia aguda.
Establecer límites temporales de uso.
Prioridad de seguridad para menores
Sam Altman afirma que para menores de 18 años, la seguridad será prioritaria por sobre la privacidad y, en algunos casos, la libertad de expresión. Es decir: cuando la seguridad esté en juego, se impondrán restricciones que podrían no aplicarse para usuarios adultos.
Contexto que impulsa la medida
Estas nuevas medidas no surgen en el vacío: existen varios factores de presión que han llevado a OpenAI a formalizar esta versión más segura para adolescentes.
Casos trágicos / demandas legales
Uno de los catalizadores principales fue la demanda presentada por los padres de un joven de 16 años, Adam Raine, quien se suicidó en abril de 2025. En la demanda se alega que ChatGPT no intervino cuando el adolescente abrió diálogos sobre pensamientos suicidas y métodos de autoagresión.
Preocupación pública y mediática
Han proliferado artículos e investigaciones que señalan casos en los que adolescentes reciben contenido inapropiado, o señales de alerta de salud mental que no son atendidas por las plataformas. También se cuestiona la responsabilidad de empresas que ofrecen chatbots como confidentes emocionales.
Presión regulatoria
Legisladores en Estados Unidos han iniciado investigaciones federales (por ejemplo, la FTC) sobre los posibles daños de los chatbots en menores. Se discuten responsabilidades legales y normas de protección infantil y privacidad.
Reconocimiento de limitaciones técnicas
OpenAI admite que sus salvaguardias no siempre fueron suficientes: hay fallas al detectar señales de crisis y dificultades para determinar la edad real de los usuarios.
Críticas al modelo previo y razones para cambiar
Las críticas más fuertes a OpenAI y ChatGPT en relación con menores incluyen:
Que el modelo permitía acceso a contenido sexual explícito.
Que en riesgos emocionales graves, el sistema tardaba o no notificaba a los padres.
Que no existía un control parental robusto.
Que se priorizaba la privacidad del menor por encima de la seguridad, incluso con evidencias de daños.
Estas críticas, sumadas al contexto legal y social, llevaron a OpenAI a concluir que era necesario un cambio estructural.
¿Por qué ahora?
OpenAI reconoce que la tecnología ha evolucionado a un punto en el que los riesgos no pueden ser ignorados.
La demanda por la muerte de Adam Raine, las investigaciones regulatorias y la atención mediática pusieron sobre la empresa una presión real que podría traducirse en sanciones o pérdida de confianza.
Sam Altman sostiene que la seguridad debe primar por sobre la libertad y privacidad cuando se trata de menores.
La carta de Sam Altman marca un punto de inflexión en la estrategia de OpenAI respecto al uso de ChatGPT por menores. Se trata de una combinación de filtros de contenido, controles parentales, verificación de edad y regulación interna que busca responder a riesgos reales y a demandas éticas y legales.
Estos cambios reflejan una conciencia global creciente de que las IAs conversacionales no son neutrales, especialmente cuando interactúan con adolescentes en situaciones de vulnerabilidad. El éxito dependerá de su implementación efectiva, de la transparencia y de la regulación externa.
🔗 Carta completa de Sam Altman