«En Venezuela avanzamos en estas tareas, creando con expertos y expertas soluciones tecnológicas, y consolidando leyes desde nuestra Asamblea Nacional que garanticen un uso correcto, preciso y ético de estos sistemas”, expresó la ministra de Ciencia y Tecnología, Gabriela Jiménez, en referencia a un estudio efectuado por la Unión Europea de Radiodifusión (UER), el cual reveló que la Inteligencia Artificial (IA) malinterpreta noticias en 45% de las respuestas que ofrece a los usuarios.
De acuerdo con un artículo difundido en el canal de Telegram de Jiménez, la UER evaluó respuestas de cuatro asistentes de IA: ChatGPT, Gemini, Copilot y Perplexity, sobre la difusión de noticias. La investigación responde al creciente uso de estas plataformas como sustituto de canales informativos oficiales.
Según el organismo, los cuatro sistemas ofrecieron 45% de respuestas tergiversadas, y al sumar otras carencias, la tasa de inexactitudes asciende a 81%, destaca el escrito.
Entre las fallas se incluyen referencias falsas, descontextualización, imprecisión en las citas y mal empleo de las fuentes, detectadas por 22 organizaciones de medios públicos que analizaron más de 3.000 respuestas ofrecidas por estos asistentes en 14 idiomas.
Jean Philip De Tender, director de medios de la UER, advirtió: “Estos fallos no son incidentes aislados; son sistémicos, transfronterizos y multilingües, y creemos que ponen en peligro la confianza pública”.
Y tú lector ¿utilizas IA para consultar noticias y confías plenamente en sus resultados? Opina y sigue leyendo
Sí, la utilizo y es muy confiable
Sí, la utilizo, pero sé que no todo es verídico porque está en formación
Sí la utilizo, pero no sabía que hay que confirmar
Sí, la utilizo, pero para otros finesResultadosVotar
Información sesgada. Los participantes del estudio revelan que 31% de las respuestas mostraron graves problemas de atribución, con referencias engañosas o inexistentes, las cuales constituyen un serio problema que pone en riesgo el derecho ciudadano a una información oportuna y veraz.
Gemini, desarrollado por Google, obtuvo el peor desempeño, con 75% de errores; los demás asistentes registraron entre 30% y 37% de errores similares. Mientras que ChatGPT ofreció respuestas extensas pero con errores fácticos y mala atribución de fuentes.
Perplexity fue más preciso, aunque inventó o alteró citas; y Copilot falló por falta de contexto, presentar opiniones como hechos y usar información desactualizada.
Uno de los mayores riesgos es la falsa sensación de fiabilidad que generan estos sistemas, pese a no tener rigor periodístico.
“Si los asistentes de IA aún no son una forma fiable de acceder a las noticias, pero muchos usuarios confían en ellos, tenemos un problema”, explican Jean Philip De Tender y Pete Archer, responsable de la investigación y de proyectos de inteligencia artificial generativa de la BBC.
IA no puede pensar por sí misma
De acuerdo con el Instituto Caltech Science Exchange, la Inteligencia Artificial (IA) es una herramienta, que si bien es cierto, es valiosa, su confiabilidad va a depender de diversos factores humanos. “Aunque la llamemos ‘inteligente’, la IA actual no puede pensar por sí misma. Hará exactamente lo que se le programe, lo que hace que las instrucciones que los ingenieros le dan sean de vital importancia. Si no se le proporcionan buenas instrucciones, el comportamiento aprendido por la IA puede tener efectos secundarios o consecuencias imprevistas”, afirma Yisong Yue, profesor de Caltech.
Asimismo, refiere el experto, que “la IA debería ser imparcial por no ser humana, puede revelar y amplificar sesgos al aprender de un conjunto de datos”.

















