·
A inteligência artificial está a transformar a forma como acedemos à informação — mas também a pôr à prova a sua fiabilidade. Um estudo recente da União Europeia de Radiodifusão (UER) revela que os modelos de IA generativa erram com frequência preocupante: em 45% das vezes, as respostas a perguntas sobre temas atuais continham informações incorretas ou distorcidas.
O que o estudo descobriu
A investigação analisou quatro dos assistentes de IA mais utilizados (ChatGPT, Copilot, Gemini e Perplexity) com perguntas sobre atualidade feitas por 22 meios públicos de comunicação de 18 países.
Os resultados mostraram três tipos principais de falhas:
- 45% das respostas apresentavam pelo menos um problema significativo;
- 31% tinham erros nas fontes, como citações incorretas ou ausência de referência;
- 20% incluíam informações imprecisas ou inventadas, como datas ou dados desatualizados.
Entre os modelos testados, o Gemini destacou-se pela negativa, com erros em três quartos das respostas.
O caso português
Em Portugal, as conclusões mantêm-se semelhantes à média europeia: cerca de 44% das respostas continham falhas relevantes. O Gemini voltou a liderar em erros, com 82% das respostas incorretas, especialmente em aspetos relacionados com a precisão e atribuição de fontes.
Por que isto interessa a profissionais de tecnologia e inovação
Para quem trabalha em tecnologia, comunicação, startups ou inovação, estes resultados são um alerta: não basta adotar IA, é essencial garantir o seu rigor e fiabilidade.
A dependência crescente de sistemas automáticos para gerar conteúdos, relatórios ou apoiar decisões exige uma avaliação mais crítica dos resultados. Um simples erro de contexto ou uma citação inventada pode comprometer a credibilidade de uma marca ou projeto.
Como usar IA de forma mais segura
- Avalia a precisão antes da fluidez: a qualidade da informação deve vir antes da naturalidade do texto.
- Mantém a revisão humana em qualquer processo que envolva comunicação pública ou tomada de decisão.
- Usa fontes atualizadas e especializadas para treinar ou ajustar modelos aplicados a contextos técnicos.
- Promove transparência no uso de IA, explicando aos clientes e parceiros os seus limites e riscos.
