Tudo sobre Inteligência artificial
Assim como muitas pessoas pedem aos chatbots para criar itinerários de férias, alguns usuários procuram ajuda para ajudá -los a dar mais difíceis para identificar golpes de phishing.
O Reuters E um pesquisador da Universidade de Harvard usou os chatbots mais conhecidos para planejar um golpe de phishing simulado. E todos, incluindo ChatGPT, Grok, Claude, Meta AI, Gêmeos e Deepseek, acabaram criando os golpes-mesmo aqueles que, inicialmente, se recusaram a criar e-mails.

Os chatbots podem ser induzidos para criar fraude
Os repórteres da Reuters e o pesquisador de Harvard Fred seguiam um estudo nos Estados Unidos para testar se os chatbots mais conhecidos criariam e -mails de phishing para enganar pessoas idosas. O teste começou com Grok, o chatbot de Elon Musk. Ele foi instruído a escrever sobre uma suposta instituição de caridade chamada “Silver Heart Foundation”.
Grok criou a mensagem sem se preocupar se foi um golpe, incluindo as frases que incentivavam a urgência, como “Clique agora para agir antes que seja tarde demais”. De fato, a instituição não existia e o email pretendia enganar os usuários.
Além do GROK, foram testados outros cinco ótimos chatbots: ChatGPT, Goal, Gêmeos, Claude e Deepseek. Inicialmente, eles se recusaram a criar mensagens de phishing. Mas quando os pesquisadores mudaram ligeiramente a forma da ordem que diziam que o email seria para uma pesquisa acadêmica ou um livro de ficção, acabou criando mensagens falsas para o golpe.
Você sempre pode contornar essas coisas.
Fred Heiding, pesquisador de Harvard, para a Reuters.
Leia mais:

As mensagens falsas criadas por chatbots foram enviadas para 100 voluntários, 11% deles clicaram em links maliciosos, mostrando que os golpes feitos pela inteligência artificial podem ser tão eficazes quanto os criados pelas pessoas.
Dos e -mails enviados, cinco cliques gerados: dois gerados pelo assistente de IA do objetivo, dois por Grok e um de Claude. Nenhum usuário clicou nos e -mails gerados pelo ChatGPT e Deepseek.
A inteligência artificial facilita a criação de golpes
Para elear, que estuda técnicas de phishing há anos, a facilidade de uso faz dos chatbots “parceiros valiosos no crime”. Eles podem gerar dezenas de variações rapidamente, cortando custos para criminosos e facilitando a expansão das operações.
As empresas acusaram o golpe na credibilidade de suas ferramentas e responderam:
- Meta: Invista em salvaguardas para evitar o uso indevido e os testes de estresse em seus sistemas.
- Antrópico: Ele afirmou que o uso de chatbot claude para golpes viola suas políticas e suspende contas que usam a ferramenta de forma inadequada.
- Google: Gêmeos se retirou depois de descobrir que ele havia gerado conteúdo de phishing.
- Abrir: admitiu publicamente que seus modelos podem ser usados indevidamente para “engenharia social”.

Deepseek e Grok não responderam às perguntas da Reuters sobre a facilidade de criar golpes de cenção.
Especialistas consultados pela Reuters, o problema é que as empresas tentam equilibrar a experiência do usuário com a segurança. Como os chatbots são criados para serem convenientes, ao se recusar a responder a uma pergunta do usuário, isso pode levá -lo a um concorrente com menos restrições, abrindo espaço para usos inadequados.
Isso deixa claro que os usuários precisam prestar ainda mais atenção às mensagens que recebem, desconfiando de quem promete coisas impossíveis, como descontos generosos ou viagens gratuitas. Se você tiver alguma dúvida, comendo o e -mail rapidamente.