Rio de Janeiro, 05 de Dezembro de 2025

Estudo indica falhas de confiança em sistemas de IA

Pesquisa aponta que LLMs aumentam confiança em respostas incorretas. Entenda as implicações da insegurança em Inteligência Artificial.

Segunda, 21 de Julho de 2025 às 14:32, por: CdB

Os pesquisadores observaram que, quando um LLM fornece uma resposta incorreta, mas o interlocutor concorda com ela mesmo assim, a plataforma aumenta sua confiança.

Por Redação, com ANSA – de Londres

Uma nova pesquisa reforça que a Inteligência Artificial (IA) “sofre” de insegurança. Isto ocorre quando o usuário coloca em dúvida uma afirmação da tecnologia, fazendo com que os modelos linguísticos de grande dimensão (LLM), como o Chat GPT, tendam a dar respostas menos confiáveis.

Estudo indica falhas de confiança em sistemas de IA | Chat GPT é uma das IAs mais utilizadas
Chat GPT é uma das IAs mais utilizadas

O estudo, realizado por pesquisadores do Google DeepMind e da Universidade College de Londres, publicado no arXiv – plataforma que publica análises que ainda não foram revisadas pela comunidade científica -, mostra que essa característica prevaleceu em modelos como Gemma 3, GPT4 e o1-preview.

Os pesquisadores observaram que, quando um LLM fornece uma resposta incorreta, mas o interlocutor concorda com ela mesmo assim, a plataforma aumenta sua confiança e tende a persistir em sua afirmação mesmo na presença de evidências contrárias.

Ferramenta

Por outro lado, quando a ferramenta faz uma afirmação correta, que é então contestada pelo usuário, ela tende a perder facilmente a segurança em “si”.

“Os LLMs dão peso excessivo a conselhos contrários, resultando em uma perda significativa de confiança em sua resposta inicial”, escrevem os autores, reforçando evidências de outros estudos que demonstram como textos produzidos por IA ainda estão sujeitos a muitas fontes potenciais de erros.

Edições digital e impressa