Em todo o mundo, dos EUA e Reino Unido ao Panamá e Brasil, 2024 é um ano eleitoral crucial. Aqui está a parte assustadora: a IA generativa está ficando muito avançada. Tão avançada que criar uma imagem ou vídeo falso convincente de uma figura pública nunca foi tão fácil. O mesmo vale para figuras não públicas, como membros de sua família ou seus colegas. O potencial para atos maliciosos é igualmente claro e preocupante.

Então, como são esses problemas no mundo real? Alguns dos exemplos mais claros incluem deepfakes do presidente Biden desencorajando as pessoas a votarem, imagens adulteradas de Trump ao lado de eleitores negros e um vídeo falso de Putin alertando os eleitores, em inglês, sobre a interferência eleitoral. "Há pouco tempo atrás, você tinha que ser um cientista da computação para fazer algo ilícito, como criar um vírus ou um ransomware, mas no mundo dos deepfakes na mídia em geral, você pode encontrar mais de 100.000 ferramentas online com uma busca rápida no Google", diz Ben Coleman, CEO da Reality Defender. O pessoal da Reality Defender faz questão de identificar deepfakes. (Curiosamente, a empresa usa dados de código aberto do Common Voice da Mozilla para ajudar a treinar suas ferramentas.)

"Fundamos a Reality Defender em 2021 e parece que tivemos a ideia certa, mas o timing estava errado", diz Ben. “Pensamos que os deepfakes seriam um problema na última eleição e não foram. Mas agora, a computação em nuvem está disponível para qualquer pessoa", de acordo com Ben (computação em nuvem significa ter acesso remoto a hardware de computador com grande poder de processamento). “Você pode fingir a voz de alguém com uma das milhares de ferramentas gratuitas ou de baixo custo em apenas alguns segundos. A ameaça representada pelos deepfakes está crescendo de forma alarmante."

Com que tipos de deepfakes você deve ficar atento durante a temporada eleitoral de 2024?

Os deepfakes vêm em todas as formas e tamanhos. Hoje em dia, pode ir além dos vídeos em que uma pessoa famosa diz algo que nunca diria. O bolsista sênior da Mozilla, Tarcizio Silva, lembra de alguns exemplos de mensagens deepfake que eram igualmente preocupantes. “Antes das últimas eleições presidenciais em 2022, um vídeo circulou no WhatsApp simulando o programa jornalístico brasileiro Jornal Nacional”, conta Tarcizio. “Os principais âncoras de TV diziam que Bolsonaro liderava as pesquisas, quando, na verdade, era o contrário.” Tarcizio observa que os deepfakes foram criados para desacreditar as urnas eletrônicas utilizadas na eleição, quando, na verdade, as urnas eletrônicas são conhecidas por serem muito confiáveis.

Você também deve ser cético em relação ao seu cônjuge — quero dizer, aos deepfakes do seu cônjuge. De acordo com Ben, muitos golpes de deepfake podem começar assim. “Pense em chamadas de resgate em que um ente querido diz: 'Estou com problemas, mas se você transferir algum dinheiro, ficarei bem'", diz Ben. “Se isso acontecesse com uma parceira ou com um dos meus dois filhos... Sim, eu pensaria que era falso. Mas também, eu correria o risco de não ser?"

As chamadas telefônicas de deepfake podem ser difíceis de detectar se você não souber quais sinais observar. Mesmo se você souber, você teria que estar ativamente procurando por eles — quando você recebe um telefonema, com que frequência você espera ter que descobrir se a pessoa do outro lado é IA ou real? Você pode estar preparado para ser cético em relação ao presidente dizer algo estranho em sua linha do tempo de mídia social, mas você traria o mesmo ceticismo para, digamos, uma ligação de seu trabalho? "Imagine ser um mesário e seu chefe ligar para dizer: ‘Não venha hoje, estamos fechando a seção eleitoral’", diz Ben. As eleições podem ser prejudicadas de diversas formas.

O que você pode fazer para ficar atento aos deepfakes nesta temporada eleitoral

Ao detectar deepfakes em seu feed social, você tem algumas ferramentas à sua disposição. Se você tiver sorte, a imagem ou o vídeo que você está vendo oferecerá uma tag de Credenciais de Conteúdo no canto, que pode informar rapidamente como algo foi feito. Empresas como a OpenAI, criadora do ChatGPT, prometeram usar ferramentas como essas em suas criações no futuro. Contudo, se você não vir a tag, execute uma pesquisa de imagem inversa para ver onde mais essa mídia reside. Além disso, não se esqueça de controlar seus vieses, diz Tarcizio. “Quando as comunidades são influenciadas pelo ódio ou preconceito, é mais provável que não verifiquem as informações quando veem algo que corrobora suas crenças”, diz ele. Não se esqueça de verificar, mesmo que algo corrobore sua visão de mundo.

Mas e os deepfakes em um nível mais pessoal? Como você se defende contra chamadas fraudulentas de seu chefe falso ou cônjuge falso dizendo "fique em casa hoje" ou "Faça uma transferência para mim" ou ambos? Ben diz que a resposta é IRL 2FA — ou seja, ter uma segunda maneira de confirmar com quem você está falando. "Use uma senha com sua família que só eles saberiam", diz Ben. “Use uma palavra secreta como 'banana' ou um time esportivo — não algo óbvio como os Knicks, se você é de Nova York. A ideia de adicionar autenticação de dois fatores às nossas comunicações diárias pode nos ajudar não só a confiar, mas também a confirmar a veracidade das informações." Simplificando, se o seu chefe ligar para mantê-lo longe das urnas e ele mencionar os Knicks e não bananas, é provável que seja um deepfake.

Os deepfakes estão explorando questões pessoais, bem a tempo das eleições

Escrito por: Xavier Harding

Editado por: Audrey Hingle, Kevin Zawacki, Lindsay Dearlove, Tracy Kariuki, Xavier Harding

Arte por: Shannon Zepeda


Conteúdo relacionado