Os advogados apontam que a punição dependerá da descoberta de falhas sistêmicas com moderação. O STF expande a responsabilidade das plataformas digitais pelo que eles publicam redes sociais não serão responsabilizadas por todos os cargos criminais, mesmo depois que o Supremo Tribunal (STF) determina situações nas quais esses conteúdos devem ser anulados sem ordem judicial, os especialistas ouvidos pelo G1. Até então, Marco Civil, que governa a Internet no Brasil, apenas previa isso em casos de postos com cenas de cenas de nudez ou atos sexuais privados, sem a autorização dos participantes. Mas a mudança determinada pela Suprema Corte só será válida quando o Tribunal entender que houve uma falha sistêmica das plataformas, segundo advogados. “O caso individual, a princípio, serve para esclarecer o assunto, mas a responsabilidade ocorre apenas se um problema importante e recorrente for identificado”, disse Álvaro Palma, advogado constitucionalista e professor de lei da FGV. Conclusão dos votos, estava faltando que os detalhes estariam certos em que casos seriam responsáveis pelas redes, o que também foi feito na quinta -feira. O supremo definiu três maneiras de agir redes sociais contra postos ilegais, de acordo com o tipo de crime encontrado: remoção proativa, sem a necessidade de notificação/ordem judicial – para casos considerados graves, como discurso de ódio, racismo, pedofilia, pornografia infantil, incitação à violência, crimes contra mulheres, pessoas e golpe de golpe; Remoção após ordem judicial – por crimes contra honra (como calúnia, lesão e difamação) após notificação extrajudicial (pelo usuário ou advogado, por exemplo) – por “danos decorrentes do conteúdo gerado por terceiros em casos de crime ou atos ilícitos”, ou seja, para outros crimes. Quem decide se há falha recorrente? De acordo com a Suprema Corte, conteúdo como discurso de ódio, racismo, pedofilia, incitação à violência e defesa do golpe deve ser removido pelas plataformas de forma proativa e imediatamente – mesmo sem notificação prévia ou decisão judicial. A responsabilidade civil, no entanto, só se aplica quando há uma falha sistêmica, de acordo com Carlos Affonso Souza, advogado e diretor do Rio Institute of Technology and Society (ITS). Ele explica que não há uma definição legal precisa do que é uma falha sistêmica, mas que, em geral, refere -se a situações em que as falhas recorrentes da plataforma permitem a disseminação maciça de conteúdo ilícito, gerando impactos graves e coletivos na sociedade. Para o Affonso, essa decisão suprema faz sentido, porque as plataformas não teriam a capacidade de monitorar tudo o que circula nelas, mesmo com a ajuda de programas específicos. “Não há software no mundo capaz de se identificar com 100% de precisão, por exemplo, um ato antidemocrático”. No entanto, ele alerta que, até agora, não está definido quem decidirá se houve uma falha recorrente nas plataformas. “O Supremo incorporou a idéia de risco sistêmico, que veio das notícias falsas, mas não explicou quem decide se o risco é sistêmico: seja um juiz, o promotor ou algum novo órgão”, disse ele. O ‘meio termo’ que já preocupa o cenário em que as plataformas podem ser responsabilizadas se não removerem o conteúdo ilegal após a notificação extrajudicial pode levar a novos problemas na visão de Afonso. Isso ocorre porque, diferentemente dos casos graves, onde a remoção deve ser feita sem notificação, a Suprema Corte não determinou quais crimes se encaixam nessa situação. “Minha crítica é que agora praticamente todo conteúdo ilícito foi jogado nessa prateleira. Isso pode levar a uma remoção excessiva de conteúdo legal, pois as plataformas preferem não correr riscos”. Para Álvaro Palma, da FGV Law Rio, a idéia de que pode haver remoção desnecessária não é sustentada. “Já existe controle. Hoje, é feito com base nos termos e condições de uso das plataformas. O que o estado está dizendo agora é que esses mecanismos são insuficientes”, diz ele. Crimes contra a honra por crimes contra a honra (como calúnia, lesão e difamação), o STF manteve a necessidade de uma ordem judicial anterior para remover o conteúdo. “Você se sentiu ferido? Somente após a saída da decisão do tribunal – e se for violada – que a plataforma pudesse ser responsabilizada. Ela não mudou”, explica Palma. Affonso concorda com a decisão do Supremo. “Se (esses crimes) entrassem na lógica da notificação extrajudicial, isso poderia reduzir a visibilidade das queixas, o que seria negativo”, diz ele. O que muda com a decisão do STF sobre a responsabilidade do plenário da Suprema Corte de Art/G1 da Networks durante o julgamento na Internet Marco Ton Molina/STF Veja mais: o trabalho humano exaustivo por trás do ChatGPT: ‘Não é tão emocionante quando descobrimos o que envolve’ vazamento de dados expõe 16 bilhões de senhas; Veja como se proteger
g1