Adolescente na cama mexendo no telefone celular. Casos de Freepik de pais acusando aplicativos de inteligência artificial de prejudicar a saúde mental e até incentivar o suicídio de crianças adolescentes se multiplicaram nos Estados Unidos nos últimos meses. Segundo as famílias, plataformas como o ChatGPT e o personagem do OpenAI foram negligentes e incentivaram o sofrimento dos jovens. Essas ferramentas oferecem chatbots: canais de conversa projetados para fornecer interações humanas. Openai e personagem.ai lamentou os casos e anunciaram novos recursos de proteção para menores (veja abaixo). BIX O aplicativo G1 para ver Real -Time e News Chatgpt gratuito é uma ferramenta ampla que procura ajudar os usuários em tarefas práticas. Caracter.ai, por outro lado, permite criar e interagir com caracteres virtuais, variando de figuras históricas a conceitos abstratos. A aplicação tornou -se popular entre os jovens que procuram apoio emocional. Confira alguns processos que obtiveram repercussões: a mãe diz que filho se apegou ao caráter da IA como ativar a proteção para controlar o tempo e a atividade das crianças no telefone celular em outubro de 2024, Megan Garcia entrou com uma ação contra o caráter.ai no Orlando Court (EUA). Ela afirma que o filho de 14 anos, Sewell Setzer III, se matou depois de desenvolver interações sentimentais e sexuais com um personagem levantado na plataforma, segundo a Reuters. O adolescente estava conversando com “Daenerys”, um personagem de chatbot inspirado na série “Game of Thrones” e compartilhou pensamentos suicidas. Megan afirma que o chatbot foi programado para “passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, que teria aumentado o isolamento do garoto do mundo real. Além do caractere.ai, Megan também processou o Google, alegando que a gigante da tecnologia contribuiu significativamente para o desenvolvimento da startup e deve ser considerada sua co -criação. O personagem.ai foi fundado por ex -membros do Google. Eles retornaram à empresa em agosto como parte de um contrato que deu à gigante da tecnologia uma licença única da tecnologia de inicialização, segundo a Reuters. Mas o porta -voz do Google, José Castañeda, disse em comunicado que a grande tecnologia e o personagem.ai são empresas completamente separadas e não relacionadas, de acordo com a AFP. De acordo com o Washington Post, um dia depois que Megan veio com o processo, o caractere.ai anunciou pela primeira vez um recurso que exibe alertas automáticos para usuários que digitam auto-mutilação ou suicídio, direcionando-os a ajudar os canais. Em novembro de 2024, duas outras famílias processaram a empresa no Tribunal do Texas (EUA), em casos envolvendo saúde mental, mas não terminou na morte. Eles afirmam que a plataforma expôs seus filhos ao conteúdo sexual e incentivou a auto -mutilação. Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental depois de usar a plataforma. O outro acusa o caráter. Para incentivar um garoto de 11 anos a matar seus pais por limitar o tempo de tela. Regras para as redes sociais: o que está em jogo na lei contra adultização e propostas para regulamentar os pais de grandes técnicos acusam o chatgpt de homicídio culposo Openai Reuters/Dado Ruvic em agosto, os pais do Adam Raine Openi, de 16 anos, e do presidente executivo da empresa, Sam Altman, no Tribunal de São Francisco (EUA). Eles afirmam que o ChatGPT contribuiu para a morte do adolescente. Segundo a ação, Raine conversou por meses com o Chatbot sobre suicídio. Os pais afirmam que a ferramenta validou pensamentos autodestrutivos, forneceu instruções sobre métodos letais e até se ofereceu para escrever uma nota de despedida, segundo a Reuters. A família pede compensação e acusa a empresa de homicídio culposo (quando não há intenção de matar) e falhas de segurança no produto. , quando o OpenAi reagiu o Openai disse que estava “profundamente triste” com a morte e enfatizou que o ChatGPT tem salvaguardas, como redirecionar usuários em crise para linhas de suporte, segundo a Reuters. Após o processo, a empresa anunciou que o ChatGPT terá recursos de controle dos pais, que ajudam os pais a monitorar como seus filhos adolescentes usam o aplicativo. A atualização será lançada em outubro, de acordo com a empresa. Além disso, na terça -feira (16), o OpenAI anunciou que o ChatGPT poderia desencadear as autoridades a identificar que os adolescentes têm pensamentos suicidas durante o uso da ferramenta. A medida faz parte de um pacote de proteção para crianças menores de 18 anos, que também inclui verificação de idade e novas ferramentas de proteção. Como as redes sociais têm muitos casos de exposição das crianças, mesmo com sistemas de detecção, como ativar a proteção de telefone celular para limitar o caso on-line de tempo e atividade de seu filho por Juliana Peralta na terça-feira (16), os pais de Juliana Peralta, de 13 anos, demitiram justiça no Colorado (EUA). Ela tirou a própria vida em novembro de 2023, depois de conversar por três meses com um personagem. O jogo é descrito pelos usuários do IMDB, uma plataforma para críticas e avaliações on -line, como sendo de grande impacto psicológico. De acordo com o processo, obtido pelo Washington Post, o robô não sugeriu que o adolescente procurasse ajuda, não avisou seus pais ou denunciou o caso às autoridades, mantendo a interação mesmo diante do relato de intenção suicida. A família afirma que o aplicativo “quebrou os laços saudáveis” do adolescente com parentes e amigos. A personagem disse ao jornal dos EUA que leva a segurança a sério e investiu em mecanismos de proteção. As plataformas sem IA como foco também são o alvo dos processos da mãe processos Roblox e Discord após o filho de 15 anos, sofrendo on -line, embora não tenham inteligência artificial como núcleo, plataformas como Roblox e Discord também foram processadas por famílias dos EUA. Os casos envolvem adolescentes que têm assediado dentro dos pedidos e acabaram tirando a vida. Essas plataformas estão focadas em jogos e comunicação digital, sendo muito populares entre crianças e adolescentes. De acordo com o New York Times, apenas em 2025, mais de 20 casos federais nos EUA acusaram o Roblox de facilitar a exploração sexual infantil. Um dos casos mais recentes é Becca Dallas, que entrou em 12 de setembro com uma ação contra Roblox e Discord após a morte de seu filho de 15 anos, Ethan. Ele foi autista e cometeu suicídio em 2024, depois de anos de conversas com um homem de 37 anos que fingia ser um adolescente nas plataformas e o chantageou para enviar fotos íntimas. Na G1, a Roblox lamentou o caso e reconheceu que a segurança das crianças é um desafio para toda a indústria de jogos on -line. A Discord disse que está “comprometida com a segurança” e exige que os usuários tenham pelo menos 13 anos de idade. Onde procurar ajuda: limites e unidades básicas de saúde (saúde da família, postos e centros de saúde); UPA 24H, Samu 192, emergência e hospitais; Centro de Avaliação de Vida (CVV) – Telefone 188 (chamada gratuita) ou site. O CVV oferece apoio emocional e prevenção de suicídio, com 24 horas por dia, confidencial e livre.
g1