INTELIGENCIA ARTIFICIAL

Publicado 13/11/2025

Un estudio de la BBC y la Unión Europea de Radiodifusión revela que la IA tergiversa noticias en casi la mitad de los casos

Un informe internacional analizó más de 3.000 respuestas generadas por ChatGPT, Gemini, Copilot y Perplexity y concluyó que el 45 % presenta errores o imprecisiones significativas.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

Un informe internacional analizó más de 3.000 respuestas generadas por ChatGPT, Gemini, Copilot y Perplexity y concluyó que el 45 % presenta errores o imprecisiones significativas.

La investigación alerta sobre el impacto de la Inteligencia Artificial en la circulación de información y advierte que los jóvenes comienzan a usar estos sistemas como fuente primaria de noticias.

 

 

Una nueva fuente de desinformación digital

 

La expansión de los asistentes de Inteligencia Artificial (IA) está transformando los hábitos informativos. Según el estudio conjunto de la Unión Europea de Radiodifusión (EBU) y la BBC —publicado en octubre de 2025—, el 15 % de los menores de 25 años ya consulta noticias a través de la IA.

Pero el dato más preocupante del informe es otro: el 45 % de las respuestas analizadas contenía errores significativos, y un 31 % presentaba problemas graves de atribución de fuentes, lo que significa información incompleta, inexacta o imposible de verificar.

El estudio —titulado News Integrity in AI Assistants— evaluó la precisión de ChatGPT, Copilot, Gemini y Perplexity en 18 países y 14 idiomas.

 

Qué detectó el informe

 

Los periodistas analizaron más de 3.000 consultas sobre temas de actualidad y compararon las respuestas con notas verificadas y bases de datos oficiales.

 

Los resultados fueron consistentes:

 

  • 45 % de las respuestas tenía al menos un error significativo.

  • 20 % incluía información falsa, desactualizada o con errores de contexto.

  • 31 % mostraba fallas graves de atribución.

  • Gemini (Google) fue el peor evaluado: 76 % de errores relevantes, más del doble que ChatGPT o Copilot.

 

“La velocidad con la que la IA genera información no garantiza precisión”, advierte el informe.

 

 

Cómo se realizó el estudio

 

La investigación fue coordinada por la European Broadcasting Union (EBU) junto a la BBC, con participación de 22 organismos periodísticos

 

Los criterios de evaluación fueron:

 

  1. Exactitud de datos verificables.

  2. Contexto y neutralidad.

  3. Atribución y transparencia de fuentes.

 

 

Riesgo creciente: los jóvenes y la IA como fuente primaria

 

Uno de cada seis menores de 25 años obtiene noticias directamente desde asistentes conversacionales, sin verificar fuentes.

Esto plantea un desafío para los medios: competir con la inmediatez de la IA sin perder credibilidad.

 

Qué implican estos resultados

 

El estudio marca un punto de inflexión en el debate sobre alfabetización digital y ética de la IA.

Las herramientas pueden ayudar a procesar información, pero su fiabilidad aún no alcanza estándar periodístico.

La EBU y la BBC recomiendan mayor transparencia, verificación y mejoras en trazabilidad.

“Los asistentes de IA no deberían reemplazar a los periodistas, sino complementarlos”, concluye el informe.