A guía para analizar e avaliar os asistentes de intelixencia artificial en contextos informativos

O Servizo de Medios da Unión Europea de Radiodifusión (EBU-MIS), en colaboración coa BBC, publicou en outubro de 2025 o News Integrity in AI Assistants Toolkit, un documento complementario ao informe principal News Integrity in AI Assistants.
Este traballo xorde da preocupación crecente pola maneira en que os asistentes de intelixencia artificial responden a preguntas sobre actualidade, e propón un modelo de análise moi interesante para avaliar a calidade e fiabilidade desas respostas. O seu obxectivo é ofrecer ferramentas que axuden a garantir respostas máis precisas, transparentes e acordes cos principios do bo xornalismo.
O estudo recolle o traballo conxunto de 22 organizacións de medios públicos en 18 países, que analizaron máis de 3.000 respostas xeradas por catro dos asistentes máis populares (ChatGPT, Copilot, Gemini e Perplexity). O resultado é unha radiografía ampla e crítica sobre como estes sistemas aínda están lonxe dos estándares xornalísticos.
Entre as conclusións podemos salientar as seguintes:
A fiabilidade segue a ser o gran reto: preto da metade das respostas avaliadas contiñan erros relevantes, dende datos incorrectos ata afirmacións sen base documental.
Os fallos non son illados: o informe identifica patróns comúns de erro feitos inventados, confusión de fontes, omisión de contexto esencial ou mestura entre opinión e información obxectiva, ademais de problemas de ton e limitacións ao tratar temas sensibles.
• O modelo de análise proposto polo Toolkit é especialmente relevante: define que unha boa resposta de IA debe ser precisa, contextualizada, verificable e transparente sobre a orixe dos datos, distinguindo con claridade entre feitos e valoracións.
A cuestión de fondo : cando unha persoa confía nun asistente de IA para informarse, está delegando nel parte da súa capacidade de comprender o mundo. Se a información é imprecisa ou enganosa, o dano transcende o técnico e convértese nun problema social.
• A EBU e a BBC conciben este Toolkit como unha guía aberta e práctica, pensada tanto para desenvolvedores, xornalistas, educadores como para o público xeral, co obxectivo de formar audiencias críticas e fortalecer unha cultura mediática máis informada e responsable.

As versións oficiais dos dous informes publicados pola Unión Europea de Radiodifusión (EBU) poden consultarse nos seguintes enlaces:
• EBU–BBC (2025). News Integrity in AI Assistants: An International PSM Study.
https://www.ebu.ch/files/live/sites/ebu/files/Publications/MIS/open/EBU-MIS-BBC_News_Integrity_in_AI_Assistants_Report_2025.pdf
• EBU–BBC (2025). News Integrity in AI Assistants Toolkit.
https://www.ebu.ch/files/live/sites/ebu/files/Publications/MIS/open/EBU-MIS-BBC_News_Integrity_in_AI_Assistants_Toolkit_2025.pdf