Tersandro Vilela (*)
A internet já treinou o brasileiro a desconfiar do “pix urgente” e do link suspeito. O problema é que a fraude mudou de pele: agora ela chega em vídeo, com um rosto conhecido, e em áudio, com o timbre de alguém da família. Deepfakes, feitos por inteligência artificial, conseguem imitar feições, sincronia labial e voz a partir de poucos trechos públicos.
No Brasil, a tecnologia já aparece em investigações. Em 16 de janeiro de 2025, a Polícia Civil do Distrito Federal anunciou uma operação contra um grupo que aplicava fraudes digitais usando deepfake. O caso ganhou repercussão por envolver anúncios com a imagem manipulada do apresentador Marcos Mion para dar aparência de legitimidade ao golpe.
O repertório também inclui celebridades e redes sociais. Em 3 de outubro de 2025, a Reuters relatou que uma quadrilha usou deepfakes de Gisele Bündchen e outras figuras públicas em anúncios no Instagram e teria movimentado mais de R$ 20 milhões, segundo a polícia, com promoções falsas e cobranças baixas que dificultavam denúncias.
Na mesma linha, a Agência Brasil descreveu o “golpe do roubo da voz”, em que criminosos usam inteligência artificial para recriar voz e aparência e induzir transferências.
Por que isso funciona? Porque nosso cérebro confia em sinais familiares. Quando uma voz conhecida vem acompanhada de urgência (“é agora”, “não conta pra ninguém”), a checagem costuma ficar para depois.
Um documento do Parlamento Europeu cita pesquisas que apontam forte alta do uso de deepfakes em 2024 e um ritmo de ataques que pode chegar a um a cada cinco minutos.
O antídoto, por enquanto, é hábito: confirmar por outro canal, combinar palavra-código com a família e desconfiar de pedidos urgentes, mesmo quando vierem em vídeo. Na era em que a imagem pode mentir, verificar virou segurança doméstica.
(*) Jornalista pós-graduado em Filosofia, especialista em Liderança: gestão, resultados e engajamento, e mestrando em Inovação, Comunicação e Economia Criativa