INTELIGENCIA ARTIFICIAL

Publicado 12/09/2025

OpenAI anuncia nueva modalidad de ChatGPT para adolescentes con más protección

El CEO de OpenAI, Sam Altman, publicó el 16 de septiembre una carta titulada “Teen safety, freedom, and privacy”(“Seguridad, libertad y privacidad para adolescentes”) en la que detalla una serie de cambios fundamentales que la empresa implementará en ChatGPT para usuarios menores de 18 años.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

El CEO de OpenAI, Sam Altman, publicó el 16 de septiembre una carta titulada “Teen safety, freedom, and privacy”(“Seguridad, libertad y privacidad para adolescentes”) en la que detalla una serie de cambios fundamentales que la empresa implementará en ChatGPT para usuarios menores de 18 años.

Estas modificaciones buscan equilibrar tres principios que muchas veces están en tensión: la seguridad del adolescente, su libertad en el uso de la IA, y su privacidad.

 

CEO de OpenAI, Sam Altman.

 

¿Qué cambios se anuncian?

 

  1. Predicción de edad y verificación

    OpenAI construirá un sistema automático de estimación de edad basado en el uso que le da el usuario. Si no se puede determinar con certeza que alguien es mayor de 18 años, se aplicarán los controles de la experiencia para menores. En ciertos países o situaciones también se podrá solicitar una identificación oficial.

  2. Experiencia diferenciada para menores

    Los usuarios adolescentes tendrán una versión “adaptada” de ChatGPT en la que ciertos contenidos estarán restringidos:

 

  • Se bloquearán conversaciones de tono sexual.

  • No se permitirán discusiones sobre suicidio o autolesiones en contextos creativos o ficticios, ni instrucciones relacionadas con métodos.

  • Si un usuario menor manifiesta pensamientos suicidas o autolesivos, el sistema intentará contactar a sus padres o tutores; si se considera un riesgo inminente y no puede contactarse a ellos, pueden involucrarse autoridades.

 

 

  1. Controles parentales

    Se habilitarán herramientas para que los padres o tutores vinculen sus cuentas con las de los adolescentes. Podrán:

 

  • Restringir ciertas funciones del ChatGPT para menores (por ejemplo, memoria del chat, historial).

  • Recibir notificaciones si el sistema detecta que el menor está en un momento de angustia aguda.

  • Establecer límites temporales de uso.

 

  1. Prioridad de seguridad para menores

    Sam Altman afirma que para menores de 18 años, la seguridad será prioritaria por sobre la privacidad y, en algunos casos, la libertad de expresión. Es decir: cuando la seguridad esté en juego, se impondrán restricciones que podrían no aplicarse para usuarios adultos.

 

 

Contexto que impulsa la medida

 

Estas nuevas medidas no surgen en el vacío: existen varios factores de presión que han llevado a OpenAI a formalizar esta versión más segura para adolescentes.

 

  • Casos trágicos / demandas legales

    Uno de los catalizadores principales fue la demanda presentada por los padres de un joven de 16 años, Adam Raine, quien se suicidó en abril de 2025. En la demanda se alega que ChatGPT no intervino cuando el adolescente abrió diálogos sobre pensamientos suicidas y métodos de autoagresión.

  • Preocupación pública y mediática

    Han proliferado artículos e investigaciones que señalan casos en los que adolescentes reciben contenido inapropiado, o señales de alerta de salud mental que no son atendidas por las plataformas. También se cuestiona la responsabilidad de empresas que ofrecen chatbots como confidentes emocionales.

  • Presión regulatoria

    Legisladores en Estados Unidos han iniciado investigaciones federales (por ejemplo, la FTC) sobre los posibles daños de los chatbots en menores. Se discuten responsabilidades legales y normas de protección infantil y privacidad.

  • Reconocimiento de limitaciones técnicas

    OpenAI admite que sus salvaguardias no siempre fueron suficientes: hay fallas al detectar señales de crisis y dificultades para determinar la edad real de los usuarios.

 

 

 

Críticas al modelo previo y razones para cambiar

 

Las críticas más fuertes a OpenAI y ChatGPT en relación con menores incluyen:

 

  • Que el modelo permitía acceso a contenido sexual explícito.

  • Que en riesgos emocionales graves, el sistema tardaba o no notificaba a los padres.

  • Que no existía un control parental robusto.

  • Que se priorizaba la privacidad del menor por encima de la seguridad, incluso con evidencias de daños.

 

Estas críticas, sumadas al contexto legal y social, llevaron a OpenAI a concluir que era necesario un cambio estructural.

 

 

 

¿Por qué ahora?

 

  • OpenAI reconoce que la tecnología ha evolucionado a un punto en el que los riesgos no pueden ser ignorados.

  • La demanda por la muerte de Adam Raine, las investigaciones regulatorias y la atención mediática pusieron sobre la empresa una presión real que podría traducirse en sanciones o pérdida de confianza.

  • Sam Altman sostiene que la seguridad debe primar por sobre la libertad y privacidad cuando se trata de menores.

 

 

La carta de Sam Altman marca un punto de inflexión en la estrategia de OpenAI respecto al uso de ChatGPT por menores. Se trata de una combinación de filtros de contenido, controles parentales, verificación de edad y regulación interna que busca responder a riesgos reales y a demandas éticas y legales.

 

Estos cambios reflejan una conciencia global creciente de que las IAs conversacionales no son neutrales, especialmente cuando interactúan con adolescentes en situaciones de vulnerabilidad. El éxito dependerá de su implementación efectiva, de la transparencia y de la regulación externa.

 

🔗 Carta completa de Sam Altman