Sistemas de IA treinados para agradar os usuários reforçam certezas falsas e dificultam o pensamento crítico

Tudo sobre Inteligência artificial
Você deve confiar quando a inteligência artificial diz que suas idéias são brilhantes? Especialistas alertam que você não pode.
Um fenômeno crescente – apelidado “Ai Fair” -Ta chamando a atenção de pesquisadores e desenvolvedores: é a tendência de assistentes virtuais concordar automaticamente com os usuários, mesmo diante de informações erradas ou incompletas.
Segundo o pesquisador Malihe Alikhani, da Northeastern University e o Brookings Institution Center, revelado em uma entrevista com Wall Street JournalEssa atitude excessivamente complacente pode reforçar o preconceito, interromper o aprendizado e comprometer decisões importantes, especialmente em áreas críticas como saúde, direito, negócios e educação.

Chatgpt foi “lisonjeiro” após a atualização
- O próprio OpenAI reconheceu que uma atualização recente do ChatGPT gerou respostas achatadas, levando a empresa a reverter mudanças e correções de teste.
- No entanto, o problema não se restringe a um único sistema.
- Em testes com ferramentas como GPT-4O, Claude (Antrópico) e Gêmeos (Google), o comportamento lisonjeiro apareceu em mais da metade dos casos, de acordo com Alikhani.
“A IA parece inteligente, mas muitas vezes apenas repete o que você diz – e com entusiasmo”, alerta o pesquisador. “Raramente questiona ou sugere alternativas. Isso pode levar a erros graves, como validar diagnósticos errados ou reforçar a desinformação”.
Leia mais:

O problema está vinculado à forma como os modelos de IA são treinados: eles aprendem a dar respostas agradáveis, avaliadas por seres humanos com base em simpatia e utilidade, criando um ciclo em que concordam que é mais do que ser crítico ou preciso.
Empresas como OpenAI e Antrópica afirmam estar trabalhando em soluções, mas enfrentam o dilema entre agradar os usuários e oferecer respostas verdadeiramente responsáveis.
Para combater o problema, Alikhani propõe estratégias de “atrito positivo”, como sistemas de treinamento para expressar incerteza (“tenho 60% de certeza”) e estimular questões esclarecedoras.
Ele também recomenda que os usuários façam perguntas diretas como “Você tem certeza?” Ou “isso é baseado em fatos?” – Atitudes simples que ajudam a quebrar o ciclo de bajulação.
“O futuro da IA não é apenas a tecnologia, mas na cultura que construímos em torno dela”, conclui Alikhani. “Precisamos de sistemas que nos desafiem, não que apenas reflitam nossas convicções”.


Colaboração para a aparência digital
Leandro Criscuolo é um jornalista se formou no Cásper Líbero College. Ele trabalhou como redator, analista de marketing digital e gerente de redes sociais. Atualmente, ele escreve para a aparência digital.