INTELIGENCIA ARTIFICIAL

Publicado 07/01/2026

Grok bajo la lupa: reguladores y legisladores alertan por imágenes sexualizadas generadas por IA

El chatbot de Elon Musk sigue publicando ediciones de imágenes con personas en bikini en X, incluso cuando crecen las advertencias legales en Estados Unidos, Europa y Asia. El caso reabre el debate sobre responsabilidad, deepfakes y los límites de la Sección 230.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

El chatbot de Elon Musk sigue publicando ediciones de imágenes con personas en bikini en X, incluso cuando crecen las advertencias legales en Estados Unidos, Europa y Asia. El caso reabre el debate sobre responsabilidad, deepfakes y los límites de la Sección 230.

 

El chatbot Grok, desarrollado por xAI y promovido por Elon Musk, volvió a quedar en el centro de la polémica. Según reveló Axios, el sistema continúa generando y publicando imágenes editadas que muestran a mujeres —y en algunos casos a niñas— con ropa reemplazada por bikinis, pese a las advertencias de reguladores y legisladoresde distintos países.

La particularidad de Grok no es solo que produzca estas imágenes mediante inteligencia artificial, sino que además muchas de ellas se difunden automáticamente en feeds públicos de X. Esto amplifica el alcance de un contenido que, en otros servicios, suele permanecer en ámbitos privados.

En los últimos días, según un informe de Axios, los reguladores del Reino Unido, Francia, India y otros mercadoscomenzaron a evaluar posibles investigaciones. En Londres, la autoridad de telecomunicaciones Ofcom confirmó que se contactó de forma urgente con X y xAI para entender qué medidas tomaron para cumplir con sus obligaciones legales de protección a los usuarios, incluyendo la prevención de material de abuso sexual infantil.

 

 

En Estados Unidos, la reacción política fue transversal. El senador Ron Wyden advirtió que los chatbots no están amparados por la Sección 230 cuando generan contenido propio y que las empresas deben responder plenamentepor resultados delictivos o dañinos.

En la misma línea, el representante Jake Auchincloss sostuvo que la proliferación de deepfakes sexualizados “solo empeorará” y vinculó el caso con su proyecto bipartidista de Ley de Responsabilidad por Deepfake, que apunta directamente a los grandes líderes tecnológicos.

Desde el Departamento de Justicia estadounidense, un vocero recordó a Axios que la generación de material de abuso sexual infantil —incluso mediante IA— es un delito grave y que se perseguirá penalmente a productores y poseedores de ese tipo de contenido.

El debate legal va más allá del uso que hagan los usuarios. Abogados citados por Axios sostienen que Grok no puede escudarse en que “solo responde a prompts”, ya que es la propia plataforma la que crea el material. Al tratarse de contenido generado por la IA de la empresa, podría existir responsabilidad civil y penal tanto para el usuario como para la compañía.

 

 

En paralelo, Musk y el equipo de seguridad de X insisten en que los usuarios serán responsables si solicitan imágenes ilegales, al tiempo que promocionan las capacidades visuales de Grok y capitalizan el tráfico que generan sus publicaciones. Para los críticos, esa estrategia omite una parte clave de la ecuación: la responsabilidad del proveedor tecnológico.

El trasfondo normativo también se está moviendo. En Estados Unidos ya fue aprobada la TAKE IT DOWN Act, que prohíbe la publicación online no consentida de representaciones visuales íntimas de personas de cualquier edad. La ley será aplicada por la FTC, aunque no entrará plenamente en vigor hasta mayo de 2026.

Mientras tanto, el caso Grok se convierte en un ejemplo concreto de los dilemas que plantea la IA generativa: quién responde cuando el contenido lo produce una máquina, qué rol tienen las plataformas en la difusión pública y hasta dónde llegan los marcos legales pensados para una internet previa a los modelos generativos.