Anna McAdams sempre acompanhou de perto a vida online de sua filha Elliston Berry, de 15 anos. Portanto, foi difícil aceitar o que aconteceu há 15 meses, na manhã de segunda-feira, após o retorno para casa em Aledo, Texas.
Uma colega tirou uma foto do Instagram de Elliston, passou-a por um programa de inteligência artificial que pareceu tirar seu vestido e depois postou a imagem alterada digitalmente no Snapchat.
“Ela entrou em nosso quarto chorando e dizendo: ‘Mãe, você não vai acreditar no que acabou de acontecer’”, disse McAdams.
No ano passado, foram mais de 21 mil vídeos pornográficos deepfake online: mais de 460% em relação ao ano anterior. O conteúdo manipulado é proliferando na Internet, à medida que os sites fazem comentários perturbadores, como um serviço que pergunta: “Você tem alguém com quem se despir?”
“Fiz testes PSAT e jogos de vôlei”, disse Elliston. “E a última coisa com que preciso me concentrar e me preocupar são meus nus falsos na escola. Essas fotos ficaram circulando no Snapchat por nove meses.”
Em São Francisco, a promotora-chefe da cidade, Yvonne Mere, estava começando a ouvir histórias semelhantes às de Elliston, que acertaram em cheio.
“Ela poderia facilmente ter sido minha filha”, disse Mere.
O escritório do procurador da cidade de São Francisco agora é processando os proprietários de 16 sites que criam “nus deepfake”, onde a inteligência artificial é usada para transformar fotografias não explícitas de adultos e crianças em pornografia.
“Este caso não é sobre tecnologia. Não é sobre inteligência artificial. É abuso sexual”, disse Mere.
Esses 16 sites tiveram 200 milhões de visitas apenas nos primeiros seis meses do ano, segundo a ação.
O procurador municipal David Chiu diz que os 16 locais no processo são apenas o começo.
“Temos conhecimento da existência de pelo menos 90 desses sites. Portanto, este é um universo grande e precisa ser interrompido”, disse Chiu.
O senador republicano do Texas, Ted Cruz, está co-patrocinando outro ângulo de ataque com a senadora democrata de Minnesota, Amy Klochubar. Ele ato de derrubá-lo exigiria que as empresas de mídia social e sites removessem imagens pornográficas não consensuais criadas com IA.
“Isso impõe uma obrigação legal a qualquer plataforma tecnológica: você deve removê-la e excluí-la imediatamente”, disse Cruz.
O projeto foi aprovado no Senado este mês e agora está anexado a um projeto mais amplo. projeto de lei de financiamento do governo aguardando votação na Câmara.
Em um comunicado, um porta-voz do Snap disse à CBS News: “Nós nos preocupamos profundamente com a segurança e o bem-estar de nossa comunidade. Compartilhar imagens de nudez, incluindo de menores, sejam reais ou geradas por IA, é uma clara violação de nossos Padrões da Comunidade. Temos mecanismos eficientes para denunciar esse tipo de conteúdo, e é por isso que ficamos tão desanimados ao ouvir histórias de famílias que sentiram que suas preocupações não foram atendidas. Temos uma política de tolerância zero para esse tipo de conteúdo e, conforme observado em nosso último relatório. relatório de transparência, “Agimos rapidamente para resolver o problema, uma vez relatado.”
Elliston diz que agora está focada no presente e insta o Congresso a aprovar o projeto.
“Não posso voltar atrás e refazer o que ele fez, mas posso impedir que isso aconteça com outras pessoas”, disse Elliston.
simulador emprestimo consignado itau
banco do brasil simular emprestimo consignado
blog do siape
empréstimo para auxilio brasil
empréstimo de 5 mil quanto vou pagar
empréstimo para aposentado itaú
itau portabilidade telefone