17.6 C
São Paulo
domingo, julho 27, 2025

Redes sociais não serão responsabilizadas por todos os posts criminosos, mesmo após decisão do STF, dizem especialistas

TecnologiaRedes sociais não serão responsabilizadas por todos os posts criminosos, mesmo após decisão do STF, dizem especialistas




Os advogados apontam que a punição dependerá da descoberta de falhas sistêmicas com moderação. O STF expande a responsabilidade das plataformas digitais pelo que eles publicam redes sociais não serão responsabilizadas por todos os cargos criminais, mesmo depois que o Supremo Tribunal (STF) determina situações nas quais esses conteúdos devem ser anulados sem ordem judicial, os especialistas ouvidos pelo G1. Até então, Marco Civil, que governa a Internet no Brasil, apenas previa isso em casos de postos com cenas de cenas de nudez ou atos sexuais privados, sem a autorização dos participantes. Mas a mudança determinada pela Suprema Corte só será válida quando o Tribunal entender que houve uma falha sistêmica das plataformas, segundo advogados. “O caso individual, a princípio, serve para esclarecer o assunto, mas a responsabilidade ocorre apenas se um problema importante e recorrente for identificado”, disse Álvaro Palma, advogado constitucionalista e professor de lei da FGV. Conclusão dos votos, estava faltando que os detalhes estariam certos em que casos seriam responsáveis ​​pelas redes, o que também foi feito na quinta -feira. O supremo definiu três maneiras de agir redes sociais contra postos ilegais, de acordo com o tipo de crime encontrado: remoção proativa, sem a necessidade de notificação/ordem judicial – para casos considerados graves, como discurso de ódio, racismo, pedofilia, pornografia infantil, incitação à violência, crimes contra mulheres, pessoas e golpe de golpe; Remoção após ordem judicial – por crimes contra honra (como calúnia, lesão e difamação) após notificação extrajudicial (pelo usuário ou advogado, por exemplo) – por “danos decorrentes do conteúdo gerado por terceiros em casos de crime ou atos ilícitos”, ou seja, para outros crimes. Quem decide se há falha recorrente? De acordo com a Suprema Corte, conteúdo como discurso de ódio, racismo, pedofilia, incitação à violência e defesa do golpe deve ser removido pelas plataformas de forma proativa e imediatamente – mesmo sem notificação prévia ou decisão judicial. A responsabilidade civil, no entanto, só se aplica quando há uma falha sistêmica, de acordo com Carlos Affonso Souza, advogado e diretor do Rio Institute of Technology and Society (ITS). Ele explica que não há uma definição legal precisa do que é uma falha sistêmica, mas que, em geral, refere -se a situações em que as falhas recorrentes da plataforma permitem a disseminação maciça de conteúdo ilícito, gerando impactos graves e coletivos na sociedade. Para o Affonso, essa decisão suprema faz sentido, porque as plataformas não teriam a capacidade de monitorar tudo o que circula nelas, mesmo com a ajuda de programas específicos. “Não há software no mundo capaz de se identificar com 100% de precisão, por exemplo, um ato antidemocrático”. No entanto, ele alerta que, até agora, não está definido quem decidirá se houve uma falha recorrente nas plataformas. “O Supremo incorporou a idéia de risco sistêmico, que veio das notícias falsas, mas não explicou quem decide se o risco é sistêmico: seja um juiz, o promotor ou algum novo órgão”, disse ele. O ‘meio termo’ que já preocupa o cenário em que as plataformas podem ser responsabilizadas se não removerem o conteúdo ilegal após a notificação extrajudicial pode levar a novos problemas na visão de Afonso. Isso ocorre porque, diferentemente dos casos graves, onde a remoção deve ser feita sem notificação, a Suprema Corte não determinou quais crimes se encaixam nessa situação. “Minha crítica é que agora praticamente todo conteúdo ilícito foi jogado nessa prateleira. Isso pode levar a uma remoção excessiva de conteúdo legal, pois as plataformas preferem não correr riscos”. Para Álvaro Palma, da FGV Law Rio, a idéia de que pode haver remoção desnecessária não é sustentada. “Já existe controle. Hoje, é feito com base nos termos e condições de uso das plataformas. O que o estado está dizendo agora é que esses mecanismos são insuficientes”, diz ele. Crimes contra a honra por crimes contra a honra (como calúnia, lesão e difamação), o STF manteve a necessidade de uma ordem judicial anterior para remover o conteúdo. “Você se sentiu ferido? Somente após a saída da decisão do tribunal – e se for violada – que a plataforma pudesse ser responsabilizada. Ela não mudou”, explica Palma. Affonso concorda com a decisão do Supremo. “Se (esses crimes) entrassem na lógica da notificação extrajudicial, isso poderia reduzir a visibilidade das queixas, o que seria negativo”, diz ele. O que muda com a decisão do STF sobre a responsabilidade do plenário da Suprema Corte de Art/G1 da Networks durante o julgamento na Internet Marco Ton Molina/STF Veja mais: o trabalho humano exaustivo por trás do ChatGPT: ‘Não é tão emocionante quando descobrimos o que envolve’ vazamento de dados expõe 16 bilhões de senhas; Veja como se proteger



g1

Check out our other content

Confira outras tags:

Artigos mais populares

Earn passive money with an ai blog.