15.2 C
São Paulo
quinta-feira, agosto 28, 2025

Senado deve votar nesta quarta projeto contra ‘adultização’ de crianças e adolescentes nas redes sociais

NotíciasPolíticaSenado deve votar nesta quarta projeto contra ‘adultização’ de crianças e adolescentes nas redes sociais



O Senado deve votar na quarta -feira (27), o projeto de lei que luta contra a ‘adultização’ de crianças e adolescentes nas redes sociais. As informações foram confirmadas pelo presidente da Câmara, o senador Davi Alcolumbre (Union-AP) na terça-feira (26). “O futuro do Brasil depende de como cuidamos das novas gerações. Ao assumir essa responsabilidade, o Parlamento cumpre seu dever de proteger a segurança, a dignidade e as oportunidades de nossos filhos e adolescentes”, disse Alcolumbre. A proposta se origina do Senado em 2022, mas passou por modificações durante uma votação na Câmara, que aprovou o texto na semana passada. Se aprovado, o projeto precisa ser sancionado pelo Presidente Luiz Inacio Lula da Silva (PT) para iniciar o Real. O Senado retorna para analisar o projeto de lei contra a ‘adultização’, o tema ganhou força após um vídeo feito pelo influenciador Felca viralize nas redes sociais. Autário do senador Alessandro Vieira (MDB-ES), o projeto de lei estabelece uma série de obrigações com os fornecedores de redes sociais. Entre as obrigações é garantir que haja uma ligação das redes sociais de crianças e adolescentes a um guardião e a remoção de conteúdo considerado abusivo para esse público. O não cumprimento das medidas pode levar a multas que variam de US $ 10 por usuário registradas na plataforma a um limite de US $ 50 milhões, dependendo da infração. As empresas também podem ter suas atividades temporariamente ou definitivamente suspensas em caso de não conformidade com medidas. A proposta estabelece que, no caso de identificação de conteúdo de abuso sexual, seqüestro, limpeza e exploração, as empresas devem se comunicar imediatamente às autoridades nacionais e internacionais. Além disso, as empresas também devem fornecer meios para relatar conteúdo com violações dos direitos de crianças e adolescentes. A partir da notificação, as informações devem ser transmitidas às autoridades para o estabelecimento da investigação. Para que o conteúdo seja removido do ar, o usuário que o publicou terá que ser notificado anteriormente dessa retirada, com a explicação do motivo, bem como se a análise de conteúdo foi realizada automaticamente ou por uma pessoa. O texto estabelece que eles são considerados inadequados ou inadequados para crianças e adolescentes contentes: exploração e abuso sexual; Violência física, intimidação sistemática virtual e assédio; Indução, incitação, instigação ou ajuda a práticas que liberam danos à saúde física ou mental de crianças e adolescentes, como mesglilação e uso de substâncias que causam dependência, por exemplo; Promoção e comercialização de jogos de azar, apostas, loterias, produtos de tabaco, bebidas alcoólicas, narcóticos ou produtos de marketing proibidos para crianças e adolescentes; Práticas de publicidade predatória, injustas ou enganosas; Conteúdo pornográfico. Se uma queixa for feita arbitrariamente, também poderão ser adotadas sanções, incluindo a possibilidade de suspensão temporária ou perda de conta para aqueles que fazem uma queixa falsa repetidamente. Os fornecedores de produtos de verificação de idade com conteúdo inadequado para crianças menores de 18 anos devem impedir o acesso por crianças e adolescentes. O projeto determina apenas que os fornecedores devem “adotar medidas eficazes” para isso através de “mecanismos confiáveis ​​de verificação de idade com cada acesso ao usuário ao conteúdo”. A proposta proíbe a conferência de idade a ser feita através da auto -discussão do usuário. O texto também determina que as contas de usuário de até 16 anos devem estar vinculadas à conta ou identificação de um de seus responsáveis ​​e fornecedores legais pode solicitar a verificação da identidade da criança ou adolescente que solicitou acesso à plataforma. O projeto também exige que as empresas forneçam mecanismos para garantir o monitoramento do conteúdo acessado por crianças e adolescentes, além de limitar o tempo de uso. Medidas de prevenção A proposta determina que os provedores elaboram políticas claras e eficientes para evitar intimidação e assédio no ambiente virtual. Também cabe às empresas desenvolver programas educacionais para crianças, adolescentes, pais, educadores, funcionários e equipes de apoio sobre riscos, formas de prevenção e confronto dessas práticas. Redes que possuem mais de 1 milhão de crianças ou adolescentes, pois os usuários devem apresentar um relatório semestral com o número de alegações de abusos recebidos, a quantidade de conteúdo que foi moderada, bem como o detalhamento da segurança e gerenciamento de riscos à saúde de crianças e adolescentes identificados. – Este relatório está em atualização



g1

Check out our other content

Confira outras tags:

Artigos mais populares

lưỡi trai catchsomebody. Trump says he doesn’t know if he needs to uphold constitutional due process – the guardian.