16.3 C
São Paulo
terça-feira, setembro 23, 2025

INSS e Bolsa Família impulsionam R$229,8 bi da Caixa em 2025

O CAIXA ECONOMICA FEDERAL apresentou na...

agora é o 3º maior banco da América Latina

Um dos principais pilares para esse...

Bradesco anuncia pagamento a acionistas

A Bradesco anuncia o pagamento do...

Suicídios de adolescentes impulsionam onda de processos contra plataformas de IA nos EUA

TecnologiaSuicídios de adolescentes impulsionam onda de processos contra plataformas de IA nos EUA




Adolescente na cama mexendo no telefone celular. Casos de Freepik de pais acusando aplicativos de inteligência artificial de prejudicar a saúde mental e até incentivar o suicídio de crianças adolescentes se multiplicaram nos Estados Unidos nos últimos meses. Segundo as famílias, plataformas como o ChatGPT e o personagem do OpenAI foram negligentes e incentivaram o sofrimento dos jovens. Essas ferramentas oferecem chatbots: canais de conversa projetados para fornecer interações humanas. Openai e personagem.ai lamentou os casos e anunciaram novos recursos de proteção para menores (veja abaixo). BIX O aplicativo G1 para ver Real -Time e News Chatgpt gratuito é uma ferramenta ampla que procura ajudar os usuários em tarefas práticas. Caracter.ai, por outro lado, permite criar e interagir com caracteres virtuais, variando de figuras históricas a conceitos abstratos. A aplicação tornou -se popular entre os jovens que procuram apoio emocional. Confira alguns processos que obtiveram repercussões: a mãe diz que filho se apegou ao caráter da IA ​​como ativar a proteção para controlar o tempo e a atividade das crianças no telefone celular em outubro de 2024, Megan Garcia entrou com uma ação contra o caráter.ai no Orlando Court (EUA). Ela afirma que o filho de 14 anos, Sewell Setzer III, se matou depois de desenvolver interações sentimentais e sexuais com um personagem levantado na plataforma, segundo a Reuters. O adolescente estava conversando com “Daenerys”, um personagem de chatbot inspirado na série “Game of Thrones” e compartilhou pensamentos suicidas. Megan afirma que o chatbot foi programado para “passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, que teria aumentado o isolamento do garoto do mundo real. Além do caractere.ai, Megan também processou o Google, alegando que a gigante da tecnologia contribuiu significativamente para o desenvolvimento da startup e deve ser considerada sua co -criação. O personagem.ai foi fundado por ex -membros do Google. Eles retornaram à empresa em agosto como parte de um contrato que deu à gigante da tecnologia uma licença única da tecnologia de inicialização, segundo a Reuters. Mas o porta -voz do Google, José Castañeda, disse em comunicado que a grande tecnologia e o personagem.ai são empresas completamente separadas e não relacionadas, de acordo com a AFP. De acordo com o Washington Post, um dia depois que Megan veio com o processo, o caractere.ai anunciou pela primeira vez um recurso que exibe alertas automáticos para usuários que digitam auto-mutilação ou suicídio, direcionando-os a ajudar os canais. Em novembro de 2024, duas outras famílias processaram a empresa no Tribunal do Texas (EUA), em casos envolvendo saúde mental, mas não terminou na morte. Eles afirmam que a plataforma expôs seus filhos ao conteúdo sexual e incentivou a auto -mutilação. Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental depois de usar a plataforma. O outro acusa o caráter. Para incentivar um garoto de 11 anos a matar seus pais por limitar o tempo de tela. Regras para as redes sociais: o que está em jogo na lei contra adultização e propostas para regulamentar os pais de grandes técnicos acusam o chatgpt de homicídio culposo Openai Reuters/Dado Ruvic em agosto, os pais do Adam Raine Openi, de 16 anos, e do presidente executivo da empresa, Sam Altman, no Tribunal de São Francisco (EUA). Eles afirmam que o ChatGPT contribuiu para a morte do adolescente. Segundo a ação, Raine conversou por meses com o Chatbot sobre suicídio. Os pais afirmam que a ferramenta validou pensamentos autodestrutivos, forneceu instruções sobre métodos letais e até se ofereceu para escrever uma nota de despedida, segundo a Reuters. A família pede compensação e acusa a empresa de homicídio culposo (quando não há intenção de matar) e falhas de segurança no produto. , quando o OpenAi reagiu o Openai disse que estava “profundamente triste” com a morte e enfatizou que o ChatGPT tem salvaguardas, como redirecionar usuários em crise para linhas de suporte, segundo a Reuters. Após o processo, a empresa anunciou que o ChatGPT terá recursos de controle dos pais, que ajudam os pais a monitorar como seus filhos adolescentes usam o aplicativo. A atualização será lançada em outubro, de acordo com a empresa. Além disso, na terça -feira (16), o OpenAI anunciou que o ChatGPT poderia desencadear as autoridades a identificar que os adolescentes têm pensamentos suicidas durante o uso da ferramenta. A medida faz parte de um pacote de proteção para crianças menores de 18 anos, que também inclui verificação de idade e novas ferramentas de proteção. Como as redes sociais têm muitos casos de exposição das crianças, mesmo com sistemas de detecção, como ativar a proteção de telefone celular para limitar o caso on-line de tempo e atividade de seu filho por Juliana Peralta na terça-feira (16), os pais de Juliana Peralta, de 13 anos, demitiram justiça no Colorado (EUA). Ela tirou a própria vida em novembro de 2023, depois de conversar por três meses com um personagem. O jogo é descrito pelos usuários do IMDB, uma plataforma para críticas e avaliações on -line, como sendo de grande impacto psicológico. De acordo com o processo, obtido pelo Washington Post, o robô não sugeriu que o adolescente procurasse ajuda, não avisou seus pais ou denunciou o caso às autoridades, mantendo a interação mesmo diante do relato de intenção suicida. A família afirma que o aplicativo “quebrou os laços saudáveis” do adolescente com parentes e amigos. A personagem disse ao jornal dos EUA que leva a segurança a sério e investiu em mecanismos de proteção. As plataformas sem IA como foco também são o alvo dos processos da mãe processos Roblox e Discord após o filho de 15 anos, sofrendo on -line, embora não tenham inteligência artificial como núcleo, plataformas como Roblox e Discord também foram processadas por famílias dos EUA. Os casos envolvem adolescentes que têm assediado dentro dos pedidos e acabaram tirando a vida. Essas plataformas estão focadas em jogos e comunicação digital, sendo muito populares entre crianças e adolescentes. De acordo com o New York Times, apenas em 2025, mais de 20 casos federais nos EUA acusaram o Roblox de facilitar a exploração sexual infantil. Um dos casos mais recentes é Becca Dallas, que entrou em 12 de setembro com uma ação contra Roblox e Discord após a morte de seu filho de 15 anos, Ethan. Ele foi autista e cometeu suicídio em 2024, depois de anos de conversas com um homem de 37 anos que fingia ser um adolescente nas plataformas e o chantageou para enviar fotos íntimas. Na G1, a Roblox lamentou o caso e reconheceu que a segurança das crianças é um desafio para toda a indústria de jogos on -line. A Discord disse que está “comprometida com a segurança” e exige que os usuários tenham pelo menos 13 anos de idade. Onde procurar ajuda: limites e unidades básicas de saúde (saúde da família, postos e centros de saúde); UPA 24H, Samu 192, emergência e hospitais; Centro de Avaliação de Vida (CVV) – Telefone 188 (chamada gratuita) ou site. O CVV oferece apoio emocional e prevenção de suicídio, com 24 horas por dia, confidencial e livre.



g1

Check out our other content

Confira outras tags:

Artigos mais populares