Profissionais da área afirmam que a IA não é capaz de detectar publicações de maneira confiável que violam as políticas das empresas

Tudo sobre Inteligência artificial
A moderação do conteúdo é o processo de triagem, avaliação e aplicação de regras sobre o que é publicado pelos usuários em plataformas digitais. O objetivo é impedir a propagação de conteúdos prejudiciais, como desinformação e discursos de ódio.
A princípio, este trabalho foi realizado por humanos. Com o avanço da tecnologia, foi automatizado. E, em alguns casos, a inteligência artificial já assumiu esse papel, embora os resultados não sejam esperados.

- De acordo com um relatório de BloombergA IA é vista como uma grande esperança de facilitar o trabalho de moderação do conteúdo.
- No entanto, os profissionais do campo afirmam que a tecnologia ainda não foi capaz de detectar publicações de maneira confiável que violam as políticas das empresas de mídia social.
- Mesmo assim, as principais plataformas preferiram substituir os seres humanos pela ferramenta.
- Esse cenário gera preocupações de que o ambiente virtual se torne cada vez mais perigoso e inapropriado para as crianças, por exemplo.
- Enquanto isso, os gigantes da tecnologia dizem que é impossível contratar trabalhadores suficientes para lidar com a demanda.
- As discussões sobre o objeto ganham ainda mais importantes, porque muitas redes sociais foram acusadas de não fazer o suficiente para remover conteúdo violento, preconceituoso e até extremista.
Leia mais

Eu estava dando mais trabalho aos profissionais
Dos 13 moderadores com quem a Bloomberg falou, todos, exceto um, disseram que as ferramentas da IA dificultam o trabalho. A principal queixa é que não se pode confiar nas sugestões de inteligência artificial. Eles estimam que a tecnologia falha em cerca de 70% das avaliações feitas em conteúdo potencialmente inadequado.
Os profissionais temem que, por mais que treinam inteligência artificial, a ferramenta nunca pode capturar as sutilezas da fala e do comportamento humano. Em um post em janeiro disso, o objetivo disse que os sistemas automatizados da empresa “resultaram em muitos erros” e na censura excessiva de conteúdo que não tinha nenhum tipo de problema.

Os computadores são muito bons em perguntas sim ou não. Eles são menos bons em subjetividade, contexto cultural e sabor. O desenvolvimento do julgamento correto é um processo constante. As políticas da empresa mudam rapidamente, dependendo dos regulamentos e climas políticos, as normas sociais evoluem e a nova calúnia é constantemente inventada. Os seres humanos evoluem sua linguagem mais rapidamente do que a IA pode detectá -la e entendê -la.
Mike Pappas, CEO da Modilah Modeation Company
Apesar dos alertas, as empresas do setor continuam aumentando o uso da IA para a função ao reduzir os custos. Tiktok demitiu recentemente centenas de funcionários da área e planeja fazer novos cortes. O X (ex -Twitter) disse que a tecnologia “pode ajudar a apoiar o bem -estar da equipe de moderação” e melhorar o serviço.

Colaboração para a aparência digital
Alessandro Di Lorenzo é formado em jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e trabalha na área desde 2014. Ele trabalhou nas redações da Bandnews FM em Porto Alegre e São Paulo.