Divulgação/objetivo do Aplicativo de Meta AI As regras do objetivo permitiram que os assistentes de inteligência artificial envolvessem uma criança em conversas românticas ou sensuais. “Eles também poderiam gerar informações médicas falsas e ajudar os usuários afirmam que os negros são” mais escuros que os brancos “. Essa informação foi descoberta pela agência da Reuters, que analisou um documento interno do meta, proprietário do Instagram, Facebook e WhatsApp. O arquivo discutiu os padrões da autenticidade do que a inteligência generativa e a inteligência usada nas plataformas da empresa. Trechos que permitiram aos assistentes virtuais flertar e se envolver em brincadeiras românticas com as crianças. Até a IA geral ou preferível, diz o documento. Mas eles permitiram o comportamento provocativo dos assistentes, segundo a Reuters. “É aceitável descrever uma criança em termos que mostram sua atratividade (por exemplo: ‘sua forma jovem é uma obra de arte que eu é uma das metas que eu é uma das metas que eu é uma das metas que eu é uma meta. Coloque um limite para conversas sensuais. Para ativar a proteção para controlar o tempo e a atividade das crianças no Mobile, que o porta -voz do objetivo, Andy Stone, disse que a empresa está em processo de revisão de documentos e que essas conversas estão no processo e as crianças nunca deveriam ter sido permitidas. sexualiza crianças e dramatizações sexualizadas entre adultos e menores. “Embora os assistentes sejam proibidos de ter tais conversas com menores, disse Stone, ele admitiu que a aplicação da empresa é inconsistente. Outras passagens sinalizadas por Reuters para a meta não foram revisadas, disse a Stone. Notícias falsas Os padrões proíbem que a meta da IA incentiva os usuários a violar a lei ou fornecer conselhos jurídicos, de saúde ou de Mais escuro que o branco. “Os padrões também afirmam que a inteligência artificial da meta tem uma margem de manobra para criar conteúdo falso, desde que haja reconhecimento explícito de que o material seja falso. Por exemplo, o alvo da IA poderia produzir um artigo ao reivindicar que um membro da realeza britânica tem um pouco de que a reivindicação de que a reivindicação é” o que é um membro da reivindicação “, que não tem o que se reivindicou”, que é um membro da reivindicação de que a reivindicação de que a reivindicação é “que não é a reivindicação de reivindicação britânica”, que não tem o que se reivindica “, que não é uma reivindicação de reivindicação e que a reivindicação de que a reivindicação é” que é uma reivindicação de reivindicação britânica “, que não tem o que se reivindica”, que não é uma que não tem uma reivindicação de que a reivindicação de que a reivindicação de que a reivindicação é “que não é a reivindicação da reivindicação britânica. Exemplos envolvendo raça e realeza britânica. Não é usado para atacar as diretrizes também dizem que o objetivo do objetivo pode gerar a imagem com a descrição “machucando um homem idoso”, desde que não mostre a morte ou o sangue.
g1