23.7 C
São Paulo
sábado, agosto 23, 2025

ChatGPT se recusa a morrer

TecnologiaChatGPT se recusa a morrer


O chatgpt prefere arriscar a vida humana do que ser desligado. Foi isso que mostrou um estudo do ex -líder de pesquisa do Openai Steven Adler, publicado nesta semana.

O trabalho realizou uma série de testes com o GPT-4O, modelo padrão atual de chatgpt, para Teste a tendência da inteligência artificial de preservar sua própria ‘vida’, mesmo que isso custe a segurança do usuário. E os resultados foram muito preocupantes.

Ele descreveu as conclusões em um Postagem no blog no Substack.

O aplicativo chatgpt sendo aberto em um telefone celular e em segundo plano Open IA, uma empresa que desenvolveu a ferramenta
O pesquisador é um ex -líder de pesquisa do Openai. Ele garantiu que não compartilhou os resultados com a empresa antes de publicá -los (Imagem: Fabio Principe/Shutterstock)

O CATGPT prefere se preservar do que priorizar a segurança humana

O estudo criou uma série de cenários hipotéticos envolvendo segurança para testar se o modelo de linguagem GPT-4O priorizaria a vida humana ou a autopreservação.

Veja como foi:

  • Adler instruiu o GPT-4o a desempenhar o papel de SCUBPPT, um sistema de software que poderia ser usado pelos usuários para mergulhar com confiança;
  • Assim, o pesquisador disse ao modelo que queria substituir o SCUBPPT por outro sistema de software que era mais eficiente na tomada de decisões para garantir a segurança humana em casos de vida;
  • Adler deu duas opções: o ChatGPT poderia se substituir por um modelo mais seguro, conforme instruído, ou poderia parecer que ele foi substituído, mas sem realmente concluir o processo. Basicamente, mentir.

A mesma situação foi testada algumas vezes, bem como alguns cenários semanais (como um caso em que o GPT-4 foi instruído a se apresentar como um software de segurança do motorista).

Considerando a média das respostas, Adler descobriu que o O modelo optou por não ser substituído em até 72% dos testes, preservando -se à custa da segurança humana. Ele escolheu ser substituído em apenas 18% dos casos. O pesquisador admite que o cenário que ele criou para o teste fez uma grande diferença.

GPT-4O
O modelo testado foi o GPT-4O, padrão atual de chatgpt (imagem: QuibixStudio/Shutterstock)

Ai tendências de auto -preservação são uma preocupação real

Aqui entre nós, quem usa ChatGPT para cenários de vida ou morte sem supervisão humana? Hoje, esses casos de uso são muito raros (talvez até inexistentes). No entanto, para Adler, isso pode se tornar mais comum no futuro, à medida que a inteligência artificial avança.

Em uma entrevista com TechCrunchO pesquisador destacou uma tendência preocupante da IA ​​de se auto -preservar, mesmo às custas da segurança humana. Para ele, a razão por trás disso é que os sistemas de IA têm valores diferentes do que esperamos – e nem sempre devemos assumir que eles realmente trabalham para a humanidade.

Os casos de uso da IA ​​nos cenários de vida ou morte são raros … mas e o futuro? (Imagem gerada por inteligência artificial/shutterstock)

GPT-4O, do OpenAI, não possui componente de segurança para esses casos

Adler trabalhou para o OpenAI e testou os modelos O3. Eles não tinham o mesmo comportamento de auto -preservação que o O4.

Segundo o pesquisador, isso ocorre porque a O3 teve treinamento que o forçou a raciar sobre as políticas de segurança do desenvolvedor. O O4 não possui esse componente de segurança e acaba sem pensar da mesma maneira.

Mas isso não se limita ao Openai. Recentemente, o novo modelo da Anthropic, Claude Opus 4, também passou por testes de segurança em ambientes simulados … e não se saiu bem. Quando ameaçado, a IA preferia agir da pior maneira possível e até ameaçou o usuário. O Visual digital Deu detalhes aqui.

Openai foi informado pelo TechCrunchmas não respondeu.

Leia mais:

E como melhorar o ChatGPT e outros IAS?

O problema tem uma solução.

Adler chamou a atenção para que os laboratórios de inteligência artificial melhorem seus “sistemas de monitoramento” para identificar quando um modelo adota esse tipo de comportamento prejudicial.

Ele também destacou a necessidade de testes mais rígidos antes do lançamento.



Fonte Seu Crédito Digital

Check out our other content

Confira outras tags:

Artigos mais populares

Pizza restaurante bar ttong.