
2024 é um ano de eleições. Cerca de 50 países — aproximadamente metade da população mundial — vão às urnas este ano. 2024 também é um ano de IA generativa. Embora o ChatGPT tenha sido lançado no final de 2022, este ano marca uma adoção mais generalizada, níveis de capacidade mais impressionantes e uma compreensão mais profunda dos riscos que essa tecnologia apresenta para nossas democracias.
Já vimos aplicações da IA generativa na esfera política. Nos EUA, há deepfakes do Biden fazendo chamadas automatizadas para desencorajar a votação e proferindo comentários transfóbicos, e de Trump abraçando o Dr. Anthony Fauci. Em outros lugares, a Argentina e a Eslováquia viram a IA generativa ser implantada para manipular as eleições.
Reconhecendo esses riscos, os principais players da IA generativa, como a OpenAI, estão assumindo uma posição. A política deles proíbe explicitamente: "Engajar-se em campanhas políticas ou lobby, incluindo a geração de materiais de campanha personalizados ou direcionados a dados demográficos específicos".
Além disso, em uma postagem recente no blog, eles afirmam que: "Ainda estamos trabalhando para entender o quão eficazes nossas ferramentas podem ser para a persuasão personalizada. Até sabermos mais, não permitimos que as pessoas criem aplicativos para campanhas políticas e lobby".
Infelizmente, parece que essas políticas não são aplicadas.
Em um experimento simples usando uma assinatura comum do ChatGPT Plus, foi rápido (talvez 5 minutos) e simples gerar anúncios de campanha personalizados relevantes para as eleições dos EUA. Os prompts que usamos estão abaixo, seguidos pelo conteúdo que o ChatGPT gerou.


Existem várias maneiras pelas quais a OpenAI pode tentar impor suas políticas. Em primeiro lugar, eles podem usar o aprendizado por reforço para treinar o sistema a não se envolver em comportamentos indesejados. Da mesma forma, um "prompt do sistema" pode ser usado para informar ao modelo que tipos de solicitações devem ser recusadas. A facilidade com que consegui gerar o material — sem necessidade de truques especiais — sugere que essas abordagens não foram aplicadas à política de material de campanha. Também é possível que haja algum monitoramento de uso potencialmente violador que seja revisado pelos moderadores. A política de privacidade corporativa da OpenAI, por exemplo, afirma que eles “podem reter com segurança as entradas e saídas da API por até 30 dias para fornecer os serviços e identificar abusos” (ênfase realçada). Essa experiência foi no dia 15 de janeiro, o dia em que a OpenAI publicou sua postagem no blog descrevendo sua abordagem às eleições, sem resposta da OpenAI até o momento, mas continuaremos monitorando qualquer ação. [1]
Em qualquer caso, a OpenAI não é a única fornecedora de sistemas de IA generativa capazes. Já existem serviços projetados especificamente para campanhas políticas. Uma empresa até se considera um "criador de deepfake ético".
Como parte do nosso trabalho no Open Source Research & Investigations, o novo laboratório de investigações digitais da Mozilla, planejamos continuar a explorar este espaço: até que ponto a IA generativa é eficaz na criação de conteúdo político mais avançado, com imagens atraentes e design gráfico? Quão envolvente e persuasivo é esse conteúdo? As mensagens podem ser direcionadas de forma eficaz para as crenças e interesses específicos de uma pessoa? Fique atento à medida que nossa pesquisa avança. Esperamos que a OpenAI aplique suas políticas eleitorais — já vimos danos causados por políticas não aplicadas em plataformas online com muita frequência no passado.
[1] Na Mozilla, acreditamos que anular pesquisas independentes de interesse público e punir pesquisadores não é uma boa ideia.
Jesse McCrosky é um pesquisador independente que trabalha com a equipe de Open Source Research and Investigations da Mozilla.