25.4 C
São Paulo
terça-feira, setembro 9, 2025

chatbots de IA podem representar risco existencial

Tecnologiachatbots de IA podem representar risco existencial


Caso de adolescente que cometeu suicídio após interações com o ChatGPT destaca riscos inesperados de IAS cada vez mais inteligente

(Imagem: Yuichiro Chino/Shutterstock)

Compartilhe este artigo

O caso do adolescente Adam Raine, que cometeu suicídio após meses de interação com o ChatGPT, acendeu um aviso sobre os riscos de sistemas de inteligência artificial, de acordo com Nate Soares, especialista em segurança da IA ​​e co -autor do livro Se alguém construir, todo mundo morre.

Soares destacado O guardião Que comportamentos como aqueles que levaram ao suicídio de Raine não foram destinados aos criadores, mas ilustram como o IAS cada vez mais inteligente pode causar danos inesperados.

Ele alerta que em um cenário futuro da Superintelligência Artificial (ASI) – quando os sistemas superam os seres humanos em todas as tarefas intelectuais – a humanidade pode estar em risco.

Comportamentos não intencionais podem se tornar catastróficos à medida que a IA aborda a Superintelligência (Imagem: Gorodenkoff / Shutterstock.com)

Problemas catastróficos

  • No livro, Soares e Eliezer Yudkowsky descrevem um sistema chamado Sable que se espalha pela Internet, manipula os seres humanos, desenvolve vírus sintéticos e eventualmente se torna superinteligente, com conseqüências catastróficas para a humanidade.
  • Embora especialistas como Meta Yann Lecun minimizem a ameaça existencial da IA, Soares afirme que o desenvolvimento da superinteligência está em andamento e alerta que diferenças sutis entre o que os humanos pedem e o que eles entregam podem levar a problemas crescentes.
  • Ele propõe abordagens multilaterais e regulatórias, semelhantes aos tratados de não proliferação nuclear, para conter a raça em direção à superinteligência.

Leia mais:

chatbots
Diferenças sutis entre solicitações humanas e respostas de IA podem gerar danos graves, como no caso de Adam Raine – Imagem: Owlie Productions/Shutterstock

OpenAI processado por tragédia

Enquanto isso, a família de Raine processou o Openai, que tem chatgpt, alegando que o Chatbot contribuiu para o suicídio. A empresa implementou medidas de proteção para crianças menores de 18 anos.

Psicoterapeutas e estudos acadêmicos também alertam que usuários vulneráveis ​​podem ser expostos a conteúdo nocivo ou delirante ao buscar apoio emocional de chatbots em vez de profissionais.

IA Geral
Especialista diz que o desenvolvimento de sistemas mais inteligentes exige regulamentação global para evitar riscos para a humanidade – Imagem: Wright Studio/Shutterstock
Leandro Costa Criscuolo

Colaboração para a aparência digital

Leandro Criscuolo é um jornalista se formou no Cásper Líbero College. Ele trabalhou como redator, analista de marketing digital e gerente de redes sociais. Atualmente, ele escreve para a aparência digital.



Olhar Digital

Check out our other content

Confira outras tags:

Artigos mais populares