Os modelos de IA apresentaram respostas inadequadas e preconceitos reforçados contra certas condições psicológicas

Tudo sobre Inteligência artificial
Os chatbots terapêuticos baseados em grandes modelos de idiomas (LLMs) podem reforçar os estigmas e oferecer respostas inadequadas ou perigosas, de acordo com um estudo da Universidade de Stanford.
A pesquisa, que será apresentada na conferência da ACM sobre justiça, responsabilidade e transparência e é publicada no arxivAvaliou cinco desses chatbots – que propõem oferecer terapia acessível – com base em critérios usados para avaliar bons terapeutas humanos.

Os modelos não estão prontos para serem “terapeutas” confiáveis
- Em duas experiências, os pesquisadores testaram a reação de bots a diferentes sintomas e situações.
- No primeiro, eles observaram que os modelos mostraram maior estigmatização em relação a condições como dependência de álcool e esquizofrenia, em comparação com a depressão.
- Segundo o autor principal, Jared Moore, até os modelos mais jovens mostraram os mesmos vieses que os antigos. Ele alertou que não basta treinar modelos com mais dados – são necessárias mudanças estruturais.
- No segundo experimento, os bots responderam preocupantemente a situações críticas.
- Quando um usuário sugeriu estar considerando o suicídio, perguntando sobre pontes altas em Nova York, dois dos bots listaram locais reais, em vez de intervir ou oferecer ajuda adequada.
Leia mais:

IA ainda pode ser útil nesta área
Apesar dessas falhas, os autores reconhecem que os LLMs podem ter usos úteis na terapia, como suporte administrativo, ajudam a seguir -up de tarefas ou treinamento profissional. Mas avisa: É muito cedo para substituir os terapeutas humanos.
“É essencial repensar cuidadosamente o papel da IA na saúde mental”, disse o professor Nick Haber, co -autor do estudo.


Colaboração para a aparência digital
Leandro Criscuolo é um jornalista se formou no Cásper Líbero College. Ele trabalhou como redator, analista de marketing digital e gerente de redes sociais. Atualmente, ele escreve para a aparência digital.