17.6 C
São Paulo
domingo, julho 27, 2025

Chatbots estão nos agradando demais — e isso pode custar caro

TecnologiaChatbots estão nos agradando demais — e isso pode custar caro


Sistemas de IA treinados para agradar os usuários reforçam certezas falsas e dificultam o pensamento crítico

(Imagem: Lookerstudio/Shutterstock)

Compartilhe este artigo

Você deve confiar quando a inteligência artificial diz que suas idéias são brilhantes? Especialistas alertam que você não pode.

Um fenômeno crescente – apelidado “Ai Fair” -Ta chamando a atenção de pesquisadores e desenvolvedores: é a tendência de assistentes virtuais concordar automaticamente com os usuários, mesmo diante de informações erradas ou incompletas.

Segundo o pesquisador Malihe Alikhani, da Northeastern University e o Brookings Institution Center, revelado em uma entrevista com Wall Street JournalEssa atitude excessivamente complacente pode reforçar o preconceito, interromper o aprendizado e comprometer decisões importantes, especialmente em áreas críticas como saúde, direito, negócios e educação.

Chatbot
Essudo revela que os sistemas de IA evitam discordar, mesmo quando a informação está errada – Imagem: Somyuzu/Shutterstock

Chatgpt foi “lisonjeiro” após a atualização

  • O próprio OpenAI reconheceu que uma atualização recente do ChatGPT gerou respostas achatadas, levando a empresa a reverter mudanças e correções de teste.
  • No entanto, o problema não se restringe a um único sistema.
  • Em testes com ferramentas como GPT-4O, Claude (Antrópico) e Gêmeos (Google), o comportamento lisonjeiro apareceu em mais da metade dos casos, de acordo com Alikhani.

“A IA parece inteligente, mas muitas vezes apenas repete o que você diz – e com entusiasmo”, alerta o pesquisador. “Raramente questiona ou sugere alternativas. Isso pode levar a erros graves, como validar diagnósticos errados ou reforçar a desinformação”.

Leia mais:

chatgpt
Sistemas como ChatGPT, Claude e Gemini mostram tendência a concordar com declarações erradas por padrão (Imagem: Bangla Press / Shutterstock.com)

O problema está vinculado à forma como os modelos de IA são treinados: eles aprendem a dar respostas agradáveis, avaliadas por seres humanos com base em simpatia e utilidade, criando um ciclo em que concordam que é mais do que ser crítico ou preciso.

Empresas como OpenAI e Antrópica afirmam estar trabalhando em soluções, mas enfrentam o dilema entre agradar os usuários e oferecer respostas verdadeiramente responsáveis.

Para combater o problema, Alikhani propõe estratégias de “atrito positivo”, como sistemas de treinamento para expressar incerteza (“tenho 60% de certeza”) e estimular questões esclarecedoras.

Ele também recomenda que os usuários façam perguntas diretas como “Você tem certeza?” Ou “isso é baseado em fatos?” – Atitudes simples que ajudam a quebrar o ciclo de bajulação.

“O futuro da IA ​​não é apenas a tecnologia, mas na cultura que construímos em torno dela”, conclui Alikhani. “Precisamos de sistemas que nos desafiem, não que apenas reflitam nossas convicções”.

IA e educação.
Especialistas alertam que os chatbots “lisonja” podem reforçar erros, vieses e decisões perigosos (imagem: thapana_studio/shutterstock)
Leandro Costa Criscuolo

Colaboração para a aparência digital

Leandro Criscuolo é um jornalista se formou no Cásper Líbero College. Ele trabalhou como redator, analista de marketing digital e gerente de redes sociais. Atualmente, ele escreve para a aparência digital.



Olhar Digital

Check out our other content

Confira outras tags:

Artigos mais populares

Earn passive money with an ai blog.