14.5 C
São Paulo
domingo, setembro 14, 2025

O lado oculto da inteligência artificial: pressão e baixos salários

TecnologiaO lado oculto da inteligência artificial: pressão e baixos salários


Trabalhar com inteligência artificial parece um sonho para muitas pessoas, afinal, a área oferece salários muito acima da média, especialmente para engenheiros, matemáticos, desenvolvedores de soluções, entre outros profissionais.

Mas há outro lado com muito menos glamour: trabalhadores contratados para treinar a IA. De acordo com O guardiãoEsses profissionais são essenciais para o desenvolvimento e moderação dos modelos de IA, como o Google Gemini, mas geralmente são muito mal pagos e sofrem de prazos cada vez mais curtos para divulgar sua análise.

Ícone de aplicativo Gemini em um smartphone
Os funcionários terceirizados que trabalham com moderação e avaliação de conteúdo para o Google Gemini relatam que precisam lidar com conteúdo sensível, como textos e imagens violentos e sexualmente explícitos. Crédito: Miss.cabul/Shutterstock)

A função é essencial para a segurança da inteligência artificial

De acordo com o artigo, os profissionais trabalham na avaliação e moderação do conteúdo gerado pela IA, também lidando com materiais sensíveis, como textos e imagens violentas ou sexualmente explícitas. Entre as principais funções desses trabalhadores, destaque -se:

  • Avaliação das respostas geradas pela IA.
  • Moderação e sinalização de conteúdo extremo.
  • Revisão de textos, imagens e vídeos feitos pela IA.
  • Verificação se as respostas seguirem os padrões de segurança.

Fiquei chocado ao saber que meu trabalho envolveu lidar com um conteúdo tão perturbador.

Rachael Sawyer, “Avaliador geral” do Google AI Products, para o Guardian.

Ela explica que, em nenhum momento, no momento do recrutamento, foi explicado que trabalharia com moderação de conteúdo.

Devido à pressão para concluir cada tarefa em menos de 10 minutos, Sawyer começou a sofrer crises de ansiedade e ataques de pânico. Segundo ela, isso aconteceu sem nenhum apoio à saúde mental do Google.

O trabalho de Sawyer e milhares de trabalhadores terceirizados é, de acordo com o O guardiãoO que garante que “bilhões de usuários de chatbots vejam apenas respostas seguras e apropriadas”.

Salários baixos e pressão para resultados

Embora extenuante, o trabalho é responsável por garantir que os usuários recebam respostas seguras e apropriadas. Crédito: Nicoelnino/Shutterstock

O Google trabalha com várias empresas para o trabalho de classificação da IA ​​e os trabalhadores contratados “trabalham duro para ver se as respostas do modelo são seguras para o usuário”.

Esses trabalhadores recebem de US $ 16 (US $ 86) por hora – o dobro do salário mínimo nos Estados Unidos, que é de US $ 7,25 (US $ 40) – representando um salário anual de pouco menos de US $ 34.000 (US $ 183.000), baixos para os padrões americanos.

Leia mais:

“Essas são pessoas conhecidas que estão fazendo um ótimo trabalho de redação, mas estão sendo pagas abaixo do que vale a pena criar um modelo de IA que, na minha opinião, o mundo não precisa”, diz um trabalhador que presta serviços ao Google, pedindo anonimato.

Todos os funcionários entrevistados por O guardião Eles alegaram ter ficado decepcionados com seus empregos devido aos prazos “cada vez mais apertados” e porque sentem que “estão lançando um produto que não é seguro para os usuários”.

Novas regras permitem ódio e discursos preconceituosos

Facada do Google
Mudanças na política do produto do Google foram divulgadas a disseminação de discursos de ódio, insultos raciais e material explícito. Crédito: Fotos VDB/Shutterstock

O artigo também relata uma alteração na política do Google para seus produtos de IA, permitindo que discursos de ódio, insultos raciais e material explícito (violência e gênero) sejam aceitos se fizerem parte da contribuição do usuário. Ou seja, se o conteúdo não foi criado pela inteligência artificial do Google, mas copiada de outro local, ele não seria tratado como uma violação séria pelas novas regras.

Pode replicar o discurso de assédio, sexismo, estereótipos. Ele pode replicar material pornográfico desde que o usuário tenha inserido; Não pode gerar esse material por si só.

Rachael Sawyer, “Avaliador geral” do Google AI Products, para o Guardian.

O Google nega que suas políticas relacionadas ao discurso de ódio tenham mudado, mas até o final de 2024, a empresa introduziu um cláusula Em sua política de uso, permitindo exceções, desde que os benefícios desses discursos sejam maiores que os danos causados.

E tudo isso é decidido por funcionários mal pagos, infelizes e pressionados para cumprir os prazos cada vez mais curtos, gerando desconfiança dos produtos de IA desenvolvidos.



Olhar Digital

Check out our other content

Confira outras tags:

Artigos mais populares