Chatbots IA 2025: ¿Por qué distorsionan casi la mitad de las noticias?

Caroline
Editor de Blog

Los chatbots de inteligencia artificial, como ChatGPT o Copilot, han revolucionado la forma en que accedemos a la información, pero ¿qué pasa cuando los “asistentes” más populares se convierten en fuentes de desinformación? Un reciente y revelador estudio de 2025 realizado por 22 organizaciones de medios públicos, incluyendo a DW, BBC y NPR, ha destapado que estos sistemas distorsionan las noticias casi la mitad de las veces. Si pensabas que la IA era infalible, prepárate para una realidad mucho más compleja y con impacto directo en nuestra confianza informativa.
Los chatbots de IA y el fenómeno de la desinformación
A pesar de la confianza de muchos usuarios, el estudio señala que los cuatro principales chatbots de IA—ChatGPT, Copilot de Microsoft, Gemini de Google y Perplexity AI—cometen errores graves con alarmante frecuencia. Imagina que más del 45% de las respuestas a preguntas sobre noticias contienen algún tipo de tergiversación, error de contexto o problema con las fuentes.
¿Qué evaluaron exactamente los periodistas?
Periodistas especializados de emisoras públicas evaluaron cerca de 3000 respuestas emitidas por estos asistentes. Los criterios clave incluyeron:
- Precisión de la información.
- Veracidad y obtención correcta de fuentes.
- Contextualización adecuada.
- Capacidad para diferenciar hechos de opiniones.
- Habilidad para editar y corregir información.
Los resultados no dejan lugar a dudas:
“Las deficiencias son sistémicas, transfronterizas y multilingües, y creemos que esto pone en peligro la confianza pública. Cuando la gente no sabe en qué confiar, acaba por no confiar en nada, y eso puede deteriorar la participación democrática.”
— Jean Philip De Tender, subdirector general de la Unión Europea de Radiodifusión (UER)
Entendiendo la magnitud de los errores
El estudio reveló que aproximadamente:
- El 31% de las respuestas presentaban problemas graves en la obtención de fuentes.
- El 20% contenía errores fácticos importantes.
- DW encontró que el 53% de las respuestas tenían problemas importantes, y un 29% presentaba problemas concretos de precisión.
Algunos ejemplos que no puedes creer
Errores absurdos como nombrar al político Olaf Scholz como canciller alemán, cuando en realidad Friedrich Merz había asumido ese puesto un mes antes, o referirse a Jens Stoltenberg como secretario general de la OTAN cuando Mark Rutte ya ocupaba ese cargo, ilustran el problema.
Estos fallos no son meros despistes: revelan una incapacidad alarmante de los asistentes para actualizar y gestionar datos de manera fiable, lo que puede generar confusión en millones de usuarios.
¿Por qué esta información en 2025 es crítica para ti?
De acuerdo con el Informe de Noticias Digitales 2025 del Instituto Reuters, el 7% de los consumidores de noticias en línea recurren a chatbots de IA para informarse, y esta cifra sube al 15% en menores de 25 años. Esto implica que un porcentaje relevante de la población joven está accediendo a noticias con riesgo elevado de desinformación.
El problema impacta especialmente en la generación digital, que busca respuestas inmediatas y confiables sobre temas complejos, desde política hasta conflictos internacionales.
Comparativa con estudios previos y rendimiento de los chatbots
Este proyecto es uno de los más ambiciosos realizados hasta ahora y da continuidad a un informe similar publicado por la BBC en febrero de 2025. Aunque se observó una ligera mejora general, la tasa de error sigue siendo preocupante.
Ranking de desempeño de los chatbots
- Gemini (Google) fue el que peor rendimiento tuvo, con un 72% de respuestas con problemas importantes en las fuentes.
- Copilot y Gemini fueron los que menor fiabilidad mostraron en los dos estudios.
- ChatGPT también mostró deficiencias, aunque OpenAI asegura trabaja para mejorar la calidad y transparencia de sus fuentes.
“Estamos entusiasmados con la IA y con cómo puede ayudarnos a aportar aún más valor a la audiencia,” dijo Peter Archer, director de programación de IA generativa de la BBC, “pero la gente debe poder confiar en lo que lee, ve y observa.”
Llamado a la acción: regulación y responsabilidad corporativa
Frente a este escenario, las organizaciones de medios instan a los gobiernos y a empresas tecnológicas a:
- Implementar regulaciones estrictas sobre integridad informativa y pluralismo mediático.
- Priorizar el monitoreo independiente y constante de los asistentes de IA.
- Incrementar la transparencia en la gestión y redistribución de noticias por parte de herramientas de IA.
La campaña “Facts In: Facts Out”
Un esfuerzo conjunto de la UER y otros grupos internacionales ha lanzado esta iniciativa para presionar a las compañías desarrolladoras a:
- Garantizar que los datos que entran en los sistemas sean fiables.
- No permitir distorsiones, atribuciones erróneas o descontextualizaciones de información confiable.
- Asumir responsabilidad en la producción y difusión de contenidos noticiosos mediante IA.
“Cuando estos sistemas distorsionan, atribuyen erróneamente o descontextualizan noticias fiables, minan la confianza pública,” destacan los organizadores.
El dilema de la desinformación en la era de la inteligencia artificial
Aunque los chatbots representan un avance tecnológico impresionante, este estudio nos recuerda que la inteligencia artificial no es infalible y puede ser tanto un instrumento de conocimiento como una fuente de confusión.
Estamos en 2025, un momento en el que la velocidad de la información debería ir acompañada de precisión y ética, especialmente cuando millones de usuarios obtienen sus noticias a través de un botón. La responsabilidad no es solo técnica, sino también social y ética: ningún asistente debería sustituir el rigor periodístico ni diluir la verdad en la avalancha digital.
Conclusión: Navegando la información con IA en 2025
Los chatbots de IA son herramientas poderosas, pero la realidad es que, al menos por ahora, no pueden garantizar la fidelidad absoluta de las noticias que ofrecen. El reciente estudio pone en evidencia que confiar ciegamente en estas tecnologías puede fomentar la desinformación, con consecuencias profundas para la democracia y la participación ciudadana.
Por ello, debemos ser usuarios críticos y exigir transparencia, regulación y mejores prácticas a los creadores de estas herramientas, para que la inteligencia artificial sirva verdaderamente al bien común y no se convierta en un enemigo de la verdad.
Si quieres estar al día con las últimas novedades sobre IA, tecnología y cómo influyen en nuestro entorno, no olvides suscribirte a nuestra newsletter y dejar tus comentarios abajo. ¡Tu voz también cuenta en esta conversación sobre la información del futuro!
Artículos Similares

Proyectos SEO con IA: Aprende con Alfonso Prim de Innokabi

Responsabilidad Legal y Ética en IA: El Caso Google y Character.AI Explicado

Congreso Futuro 2026: 15 Años Revolucionando Ciencia y Ciudadanía

Las Innovaciones Chinas Más Sorprendentes del CES 2026 en Robots y IA

Cursos Gratis de IA y Realidad Virtual en Campo de Gibraltar: ¡Apúntate Ya!
