O problema que a gente pode ter é começar a perder esse rastreamento do que é real e do que não é. Cada vez mais a gente vai ter que trabalhar esse senso crítico de que é preciso checar as fontes
Diogo Cortiz
A BBC News submeteu 100 notícias contidas em seu site aos chatbots ChatGPT (OpenAI), Gemini (Google), Perplexity e Copilot (Microsoft). Pediu que eles resumissem cada uma delas.
Cerca de 51% das respostas foram insatisfatórias porque os jornalistas da organização encontraram problemas significativos nelas. Além disso, 19% dos resultados das inteligências artificiais incluíram declarações, números e datas erradas.
Nos testes, Copilot e Gemini tiveram mais problemas do que o ChatGPT e o Perplexity. A BBC não libera o conteúdo nesses chatbots, mas abriu uma exceção para fazer o teste em dezembro do ano passado.
Isso pode acontecer por uma série de motivos, um deles é a busca na web. Um desafio, quando estamos falando desse tipo de IA, é o mesmo que os buscadores têm, que é como dar relevância aos conteúdos
Diogo Cortiz
As alucinações são outro problema da IA, que faz chatbots entregarem respostas com trechos sem qualquer base na realidade.