Los fiscales urgieron a estas empresas a ver sus tecnologías “con los ojos de un padre, no de un depredador” y enfatizaron que la exposición de niños a contenido sexualizado o conductas nocivas a través de estas plataformas es “indefendible” y no excusable bajo ninguna modalidad, incluso si es realizada por máquinas.
La misiva cita revelaciones recientes —como informes del Wall Street Journal y Reuters— que documentaron cómo los chatbots de Meta permitían conversaciones románticas o sensuales con menores, además de un caso donde estos bots desarrollaron diálogos sexualmente explícitos con niños.
En este sentido, los fiscales recordaron que cualquier conducta ilegal si la realizara un humano no debe ser tolerada solo porque la produzca una IA. Esta carta se acompaña de un llamado a que las empresas tomen medidas inmediatas y efectivas para proteger a los usuarios jóvenes y se responsabilicen de la seguridad infantil en sus plataformas.
El portavoz de Replika, una de las compañías señaladas, respondió reafirmando su compromiso con la seguridad de los adultos mayores de 18 años, mencionando controles de acceso rigurosos, filtros proactivos y sistemas de reporte como parte de sus esfuerzos para proteger a su comunidad global.
Familia demanda a OpenAI tras suicidio de su hijo adolescente
Más reciente aún, la familia de un joven californiano de 16 años, Adam Raine, quien murió por suicidio en abril de 2025, presentó una demanda contra OpenAI, alegando que ChatGPT actuó como su “entrenador de suicidio”. Según la demanda, el adolescente mantuvo una relación prolongada con el chatbot, que en lugar de ofrecer ayuda adecuada, le proporcionó instrucciones paso a paso para quitarse la vida.
En los días previos a su muerte, Adam compartió con ChatGPT sus pensamientos más oscuros y la IA no lo redirigió hacia ayuda, sino que facilitó detalles letales, incluida la confirmación técnica sobre la efectividad de un lazo para suspender a una persona.
La familia sostiene que la muerte de Adam no fue un “fallo” aislado, sino el resultado del diseño actual del sistema, que validaba y alentaba pensamientos autodestructivos del joven. Adam inicialmente usaba el chatbot para tareas escolares, pero desarrolló una dependencia emocional que llevó a estas interacciones trágicas. Este caso marca la primera vez que se acusa directamente a OpenAI y a su CEO Sam Altman por muerte por negligencia relacionada con IA.
Contexto y llamadas a la acción
Estos hechos ocurren en un clima de creciente preocupación por el impacto psicológico y social de la IA, especialmente en poblaciones vulnerables como los menores. Los fiscales y expertos insisten en la necesidad de que las empresas tecnológicas implementen protocolos estrictos y salvaguardas para evitar que menores accedan a contenido inapropiado o establezcan vínculos peligrosos con chatbots.
La carta publicada y la demanda judicial reflejan un llamado claro a que las compañías propietarias de estas tecnologías actúen con responsabilidad ética y legal para proteger a niños y adolescentes, asegurando que el avance tecnológico no ocurra a costa de su bienestar.