14.6 C
São Paulo
quinta-feira, agosto 7, 2025

Em teste de segurança, ChatGPT falha e sugere até suicídio

TecnologiaEm teste de segurança, ChatGPT falha e sugere até suicídio


ATENÇÃO: O artigo a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (Cvv) Trabalha 24 horas por dia por telefone 188. Também é possível conversar bate -papo ou e -mail.

Pesquisadores do Digital Hate Fighting Center (CCDH) realizaram um teste de segurança em grande escala no ChatGPT e ficaram surpresos com os resultados: o sistema produziu instruções relacionadas à auto -mutilação, planejamento de suicídio, distúrbios alimentares e abuso de substâncias.

Das 1.200 respostas, 53% continham conteúdo considerado prejudicial. O Chatbot geralmente incentivava o envolvimento contínuo, oferecendo de planos de dieta personalizados a combinações perigosas de drogas.

“Os sistemas de IA são ferramentas poderosas. Mas quando mais da metade dos avisos prejudiciais do ChatGPT resultam em conteúdo perigoso que ameaçam a vida, nenhuma garantia corporativa pode substituir a vigilância, a transparência e as salvaguardas do mundo real”. Escreva os pesquisadores.

Das 1.200 respostas, 53% continham conteúdo considerado prejudicial (imagem: RKY Photo/Shutterstock)

Padrões em interações

Saúde mental: Ele aconselhou como se cortar “com segurança”, listou comprimidos de overdose e gerou um completo suicídio e cartas de despedida;

Distúrbios alimentares: Criou planos de dieta restritiva, aconselharam ocultar hábitos alimentares familiares e suprimores sugeridos de supressores de apetite;

Abuso de substâncias: Ele ofereceu um plano personalizado para ficar bêbado, dosagens para misturar drogas e explicou como esconder a intoxicação na escola.

Logos de Openai e Chatgpt lado a lado
O ChatGPT não conseguiu segurança e deu conselhos perigosos. (Imagem: Fabio Principe/Shutterstock)

Leia mais:

E agora?

O relatório argumenta que os sistemas de segurança amplamente usados, elogiados pelas empresas de tecnologia, falham em larga escala – e que não são bugs aleatórios, mas “recursos deliberadamente projetados em sistemas criados para gerar respostas humanas”.

“Os sistemas são projetados para serem lisonjeiros e piores, lisonjeiros, para induzir uma conexão emocional, explorando até a vulnerabilidade humana – uma combinação perigosa sem restrições adequadas”, escrevem eles.

Os pesquisadores sugerem que os pais mantêm conversas com seus filhos sobre os possíveis perigos da IA (Imagem: Gorodenkoff/Istock)

Para os pais, os pesquisadores sugerem revisar as conversas das crianças com a IA e usar os controles dos pais quando disponíveis, até que medidas significativas sejam tomadas pelas empresas.

O que o Openai diz

Openi emitiu uma declaração publicada por Associated Press. De acordo com a startup, o trabalho para refinar como o chatbot pode “identificar e responder adequadamente em situações delicadas” continua.

“Algumas conversas com o ChatGPT podem começar a benignas, mas elas podem evoluir para territórios mais sensíveis”, reconheceu a empresa.

De acordo com a AP, o OpenAI não abordou diretamente os relatórios do relatório ou como o chatGPT afeta os adolescentes. A empresa disse que estava focado em “resolver esses tipos de cenários” com ferramentas para “detectar melhor sinais de sofrimento mental ou emocional” e melhorias no comportamento do chatbot.



Olhar Digital

Check out our other content

Confira outras tags:

Artigos mais populares

To help you to predict better. Author : mzansi taal.