A tendência deepfake se recusa a diminuir. Imagens, áudio e vídeo fabricados estão se tornando mais fáceis de gerar e mais difíceis de detectar. O presidente Biden realmente entrou em contato com os eleitores dizendo para não votarem, ou foi uma farsa? Donald Trump realmente fez pose com aquela multidão de pessoas ou a foto era falsa? Com as eleições se aproximando, muitos se preocupam com as consequências que o conteúdo deepfaked terá na sociedade este ano. Enter: Ferramenta de detecção de deepfake do OpenAI.
O criador do ChatGPT, Open AI, está criando um software de detecção de deepfake e, por enquanto — como sua ferramenta de vídeo gerada por IA, Sora — está lançando-o apenas para alguns dos primeiros testadores. A ferramenta de detecção de deepfake procurará metadados escondidos dentro de imagens feitas pelo Dall-E 3 da OpenAI. Os metadados geralmente são pontos como o título da música de um MP3 ou dados de localização anexados a uma foto. Neste caso, são informações que revelam se um arquivo foi feito por IA ou não. Quando a ferramenta de vídeo Sora for lançada, esses vídeos também conterão o mesmo tipo de metadados.
Como saber se uma imagem ou vídeo é um deepfake
A ferramenta de detecção de deepfake do OpenAI é apenas metade da história. A outra metade é a OpenAI se juntando à Coalition for Content Provenance and Authenticity (também conhecida como C2PA). O grupo tem uma leitura padronizada do estilo "rótulo nutricional" que indica a validade de um conteúdo. A OpenAI é acompanhada por grandes empresas, incluindo Adobe, BBC, Intel e Google, que ajudarão a popularizar o rótulo nutricional do C2PA.
O site C2PA oferece um exemplo de seu rótulo nutricional que eles chamam de Credenciais de Conteúdo. Clique ou toque no logotipo "cr" e a imagem revelará onde e como foi feita.
O software de detecção Deepfake é mesmo possível?
Em uma pesquisa recente da Mozilla, descobrimos que as tecnologias atuais para ajudar os usuários da Internet a distinguir conteúdo sintético — como marca d'água e rotulagem — não podem identificar com segurança conteúdo sintético não revelado. Exames mais recentes de ferramentas de detecção de IA levaram ao mesmo resultado. No caso da ferramenta OpenAI, a empresa parece confiante de que sua ferramenta pode detectar enganos de IA criados usando o software OpenAI. A resposta está nos metadados. A OpenAI diz que pode identificar imagens feitas por IA a partir de seu modelo DALL-E 98,8% das vezes, graças aos metadados ocultos na foto. Embora geralmente seja fácil editar os metadados de um arquivo, a OpenAI afirma que os metadados anexados ao arquivo resultante neste caso são "invioláveis". "No mínimo, o método parece mais inviolável do que adicionar uma marca d'água no canto inferior direito de uma foto ou vídeo.
As preocupações com deepfakes continuarão a atormentar os especialistas à medida que as imagens falsas se tornarem mais prevalentes. Embora esteja claro que as imagens geradas por IA podem afetar negativamente as eleições de 2024, as próximas ferramentas de detecção de deepfake da OpenAI podem oferecer um voto de confiança.
Aplicativo Deepfake Detector? O criador do ChatGPT pode ter um a caminho
Escrito por: Xavier Harding
Editado por: Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding
Arte por: Shannon Zepeda