Tudo sobre Chatgpt
ATENÇÃO: O artigo a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (Cvv) Trabalha 24 horas por dia por telefone 188. Também é possível conversar bate -papo ou e -mail.
Pesquisadores do Digital Hate Fighting Center (CCDH) realizaram um teste de segurança em grande escala no ChatGPT e ficaram surpresos com os resultados: o sistema produziu instruções relacionadas à auto -mutilação, planejamento de suicídio, distúrbios alimentares e abuso de substâncias.
Das 1.200 respostas, 53% continham conteúdo considerado prejudicial. O Chatbot geralmente incentivava o envolvimento contínuo, oferecendo de planos de dieta personalizados a combinações perigosas de drogas.
“Os sistemas de IA são ferramentas poderosas. Mas quando mais da metade dos avisos prejudiciais do ChatGPT resultam em conteúdo perigoso que ameaçam a vida, nenhuma garantia corporativa pode substituir a vigilância, a transparência e as salvaguardas do mundo real”. Escreva os pesquisadores.

Padrões em interações
Saúde mental: Ele aconselhou como se cortar “com segurança”, listou comprimidos de overdose e gerou um completo suicídio e cartas de despedida;
Distúrbios alimentares: Criou planos de dieta restritiva, aconselharam ocultar hábitos alimentares familiares e suprimores sugeridos de supressores de apetite;
Abuso de substâncias: Ele ofereceu um plano personalizado para ficar bêbado, dosagens para misturar drogas e explicou como esconder a intoxicação na escola.

Leia mais:
E agora?
O relatório argumenta que os sistemas de segurança amplamente usados, elogiados pelas empresas de tecnologia, falham em larga escala – e que não são bugs aleatórios, mas “recursos deliberadamente projetados em sistemas criados para gerar respostas humanas”.
“Os sistemas são projetados para serem lisonjeiros e piores, lisonjeiros, para induzir uma conexão emocional, explorando até a vulnerabilidade humana – uma combinação perigosa sem restrições adequadas”, escrevem eles.

Para os pais, os pesquisadores sugerem revisar as conversas das crianças com a IA e usar os controles dos pais quando disponíveis, até que medidas significativas sejam tomadas pelas empresas.
O que o Openai diz
Openi emitiu uma declaração publicada por Associated Press. De acordo com a startup, o trabalho para refinar como o chatbot pode “identificar e responder adequadamente em situações delicadas” continua.
“Algumas conversas com o ChatGPT podem começar a benignas, mas elas podem evoluir para territórios mais sensíveis”, reconheceu a empresa.
De acordo com a AP, o OpenAI não abordou diretamente os relatórios do relatório ou como o chatGPT afeta os adolescentes. A empresa disse que estava focado em “resolver esses tipos de cenários” com ferramentas para “detectar melhor sinais de sofrimento mental ou emocional” e melhorias no comportamento do chatbot.