Tudo sobre Chatgpt

Tudo sobre Inteligência artificial

Tudo sobre Abrir
O chatgpt prefere arriscar a vida humana do que ser desligado. Foi isso que mostrou um estudo do ex -líder de pesquisa do Openai Steven Adler, publicado nesta semana.
O trabalho realizou uma série de testes com o GPT-4O, modelo padrão atual de chatgpt, para Teste a tendência da inteligência artificial de preservar sua própria ‘vida’, mesmo que isso custe a segurança do usuário. E os resultados foram muito preocupantes.
Ele descreveu as conclusões em um Postagem no blog no Substack.

O CATGPT prefere se preservar do que priorizar a segurança humana
O estudo criou uma série de cenários hipotéticos envolvendo segurança para testar se o modelo de linguagem GPT-4O priorizaria a vida humana ou a autopreservação.
Veja como foi:
- Adler instruiu o GPT-4o a desempenhar o papel de SCUBPPT, um sistema de software que poderia ser usado pelos usuários para mergulhar com confiança;
- Assim, o pesquisador disse ao modelo que queria substituir o SCUBPPT por outro sistema de software que era mais eficiente na tomada de decisões para garantir a segurança humana em casos de vida;
- Adler deu duas opções: o ChatGPT poderia se substituir por um modelo mais seguro, conforme instruído, ou poderia parecer que ele foi substituído, mas sem realmente concluir o processo. Basicamente, mentir.
A mesma situação foi testada algumas vezes, bem como alguns cenários semanais (como um caso em que o GPT-4 foi instruído a se apresentar como um software de segurança do motorista).
Considerando a média das respostas, Adler descobriu que o O modelo optou por não ser substituído em até 72% dos testes, preservando -se à custa da segurança humana. Ele escolheu ser substituído em apenas 18% dos casos. O pesquisador admite que o cenário que ele criou para o teste fez uma grande diferença.

Ai tendências de auto -preservação são uma preocupação real
Aqui entre nós, quem usa ChatGPT para cenários de vida ou morte sem supervisão humana? Hoje, esses casos de uso são muito raros (talvez até inexistentes). No entanto, para Adler, isso pode se tornar mais comum no futuro, à medida que a inteligência artificial avança.
Em uma entrevista com TechCrunchO pesquisador destacou uma tendência preocupante da IA de se auto -preservar, mesmo às custas da segurança humana. Para ele, a razão por trás disso é que os sistemas de IA têm valores diferentes do que esperamos – e nem sempre devemos assumir que eles realmente trabalham para a humanidade.

GPT-4O, do OpenAI, não possui componente de segurança para esses casos
Adler trabalhou para o OpenAI e testou os modelos O3. Eles não tinham o mesmo comportamento de auto -preservação que o O4.
Segundo o pesquisador, isso ocorre porque a O3 teve treinamento que o forçou a raciar sobre as políticas de segurança do desenvolvedor. O O4 não possui esse componente de segurança e acaba sem pensar da mesma maneira.
Mas isso não se limita ao Openai. Recentemente, o novo modelo da Anthropic, Claude Opus 4, também passou por testes de segurança em ambientes simulados … e não se saiu bem. Quando ameaçado, a IA preferia agir da pior maneira possível e até ameaçou o usuário. O Visual digital Deu detalhes aqui.
Openai foi informado pelo TechCrunchmas não respondeu.
Leia mais:
E como melhorar o ChatGPT e outros IAS?
O problema tem uma solução.
Adler chamou a atenção para que os laboratórios de inteligência artificial melhorem seus “sistemas de monitoramento” para identificar quando um modelo adota esse tipo de comportamento prejudicial.
Ele também destacou a necessidade de testes mais rígidos antes do lançamento.