Golpistas alteram vídeos com IA e pedem dinheiro em falsas campanhas

Com o auxílio de inteligência artifical (IA), uma quadrilha está alterando vídeos já existentes nas redes sociais a fim de aplicar golpes pedindo doações para projetos sociais falsos. Os vídeos modificados aparecem em anúncios do YouTube do Brasil inteiro.

Veja o vídeo em um anúncio do YouTube:

Um dos projetos sociais que os criminosos usam para enganar as vítimas se chama Casa Francisco de Assis, uma instituição de caridade que já existiu, mas que hoje está com o Cadastro Nacional de Pessoa Jurídica (CNPJ) baixado, ou seja, que já não funciona mais.

Os vídeos alterados e postados em anúncios pelos golpistas estão armazenados na conta deles no YouTube, intitulada Casa São Francisco de Assis.

Como funciona o golpe?

Uma das vítimas que teve o seu vídeo roubado e alterado é a professora Katya Lichtnow, idealizadoras da Escola de Cuidados ISS, instituição que atua há seis anos no Brasil e em Portugal capacitando pessoas para se tornarem cuidadoras de idosos.

Katya conta que um de seus vídeos postado na conta do Instagram da escola foi alterado com IA pelos criminosos. No vídeo fake, Katya aparece com a fala distorcida e pedindo dinheiro para uma instituição que não existe. Porém, o vídeo original publicado pela professora tem um tema totalmente diferente. Veja:

Vídeo Alterado com IA

 

 

Vídeo Original postado por Katya

Katya diz que descobriu o vídeo fake há pelo menos 10 dias, após uma amiga alertá-la. Mesmo registrando boletim de ocorrência e denunciando o vídeo na plataforma, ele continua rodando.

“Dá uma sensação de impotência, porque, até conseguirem fazer alguma coisa, esses criminosos já vão ter arrecadado muito dinheiro”, contou ao Metrópoles.

Ela ainda alerta para que os usuários prestem atenção e nunca doem dinheiro para instituições que não conhecem. Além disso, é aconselhável que, sempre que possível, o doador tente contatar o responsável pelo projeto para confirmar a veracidade das doações.

Ainda segundo ela, esse golpe tende a atingir pessoas mais velhas, que não têm tanto conhecimento de tecnologia. “Muitas pessoas vulneráveis, que veem aquilo e acreditam ser uma causa nobre e, por isso, doam”.

Centenas de vítimas

4 imagensFechar modal.1 de 4

Material cedido ao Metrópoles2 de 4

Material cedido ao Metrópoles3 de 4

Material cedido ao Metrópoles4 de 4

Material cedido ao Metrópoles

Ainda não existe uma estimativa de quantas pessoas podem ter caído nesses golpes, mas, em comentários da conta dos criminosos, centenas de usuários aparecem reclamando e pedindo para que mais gente denunciasse os vídeos.

Os golpistas ainda criaram uma conta no Instagram que já possui mais de 50 mil seguidores. A suspeita é que tenham comprado os seguidores para passar mais credibilidade aos usuários, já que todas as postagens da conta possuem pouco engajamento.

O que diz o YouTube

Os representantes do YouTube Brasil disseram ao Metrópoles que realizaram uma análise profunda, e os conteúdos que apresentaram violação foram removidos da plataforma.

Em nota, a empresa diz que “não permite spam, golpes ou outras práticas enganosas que se aproveitem da comunidade da plataforma”.

“Também não permitimos conteúdo cujo objetivo principal seja induzir outras pessoas a deixar o YouTube para acessar outro site. Quando esse tipo de conteúdo é identificado, é removido rapidamente”, finalizou.

Como identificar e evitar golpes

Segundo a Polícia Civil do Distrito Federal (PCDF), a produção não autorizada de fotos ou vídeos por meio de IA para a prática de crimes resultou em 48 ocorrências em 2024. No ano anterior, foram registradas 21 ocorrências, ou seja, houve um aumento de 128%. Em 2022, apenas três casos tinham sido anotados.

O delegado Eduardo Del Fabbro, da Delegacia de Repressão aos Crimes Cibernéticos (DRCC), atribui o crescimento dos casos à popularização da tecnologia. As narrativas mentirosas também são usadas para vendas de produtos, aplicações financeiras enganosas, pedidos de Pix, apostas on-line e pirâmides financeiras.

O delegado da DRCC destaca que as fraudes com uso de IA estão cada vez mais elaboradas. No entanto, alguns sinais podem ajudar a identificar deepfakes, como são chamados os vídeos produzidos por IA.

“O olhar da pessoa sempre fica fixo, ele não se mexe. O movimento da boca é muito travado, não condiz com o que a pessoa está falando, não é normal. O tom de voz também não muda, é sempre o mesmo. Tem momentos que a fala também acelera e, do nada, freia bruscamente”, exemplifica.

O professor de direito digital do Ibmec Brasília Alisson Possa diz que o passo mais seguro para não cair em golpes de IA é sempre confirmar a veracidade daquilo por meio de outro canal.

“Ligue diretamente para a pessoa, mande mensagem de voz, ou converse por um aplicativo que você tenha certeza da identidade do contato”, aconselha.

A advogada Manuela Menezes Silva, membro da Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da OAB de São Paulo, conta que já atendeu diversos casos em que os criminosos ligam em chamada de vídeo para os pais, na maioria das vezes idosos e sem conhecimento aprofundado de tecnologia, e pedem dinheiro, tudo isso usando a ferramentas de deepfake.

Ela alerta que sempre desconfiar toda vez que recebe uma chamada de urgência, seja  de vídeo ou de áudio, além de criar um código que só a família e amigos próximos conheçam.

“Alguns sinais de que o vídeo é uma reprodução de inteligência artificial é perceber que a boca da pessoa não acompanha a fala, como se fosse uma dublagem”, diz a advogada.

Sair da versão mobile