La tendencia de las deepfakes no se detiene. Cada vez es más fácil generar imágenes, audios y vídeos, y cada vez es más difícil distinguirlos de los reales. ¿El presidente Biden realmente llamó a los votantes para decirles que no votaran o era un audio falso? ¿Donald Trump realmente posó con esa multitud de personas o era una foto falsa? Con las elecciones en el horizonte, muchos están preocupados por las consecuencias más graves que los contenidos falsificados tendrán en la sociedad en este año. Ingresa: la herramienta de detección de deepfakes de OpenAI.

La empresa creadora de ChatGPT, Open AI, está desarrollando un software de detección de deepfakes y, de momento, lo está lanzando solo a unos pocos evaluadores iniciales, al igual que su herramienta para generar vídeos con IA, Sora. Esta herramienta de detección de deepfakes buscará metadatos ocultos dentro de las imágenes creadas por Dall-E 3 de OpenAI. Los metadatos suelen ser puntos de datos como el título de una canción en MP3 o la información de ubicación adjuntos a una foto. En este caso, se trata de información que revela si un archivo fue creado por IA o no. Cuando se lance la herramienta Sora para generar vídeos, sus vídeos también contendrán el mismo tipo de metadatos.

Cómo saber si una imagen o un vídeo es un deepfake

La herramienta de detección de deepfakes de OpenAI es solo una parte de la historia. La otra parte es que OpenAI se ha unido a la Coalición para la Procedencia y Autenticidad del Contenido (también conocida como C2PA). Este grupo cuenta con etiquetas al estilo de las etiquetas de información nutricional que suele usarse en los alimentos, que indican la validez de un contenido. Además de OpenAI, se unen grandes empresas como Adobe, BBC, Intel y Google, que ayudarán a popularizar las etiquetas de la C2PA.

El sitio de la C2PA ofrece un ejemplo de sus etiquetas, a las que llaman credenciales de contenido. Haz clic o toca en el logotipo «cr» y la imagen te revelará dónde y cómo fue hecha.

¿Es posible crear software de detección de deepfakes?

En una investigación reciente de Mozilla, descubrimos que las tecnologías actuales para ayudar a los usuarios de Internet a distinguir los contenidos sintéticos –como las marcas de agua y el etiquetado– no son capaces de identificar de manera confiable los contenidos sintéticos no revelados. Revisiones más recientes de las herramientas de detección de IA han llevado al mismo resultado. En el caso de la herramienta de OpenAI, la empresa parece estar convencida de que puede detectar contenidos creados con el software de OpenAI. La respuesta está en los metadatos. OpenAI asegura que puede identificar imágenes creadas por la IA de su modelo DALL-E el 98,8 % de las veces, gracias a los metadatos ocultos dentro de la foto. Aunque generalmente es fácil editar los metadatos de un archivo, OpenAI afirma que los metadatos adjuntos al archivo resultante en este caso son «a prueba de manipulaciones». Este método al menos parece más resistente a las manipulaciones que añadir una marca de agua en la parte inferior derecha de una foto o un vídeo.

Las falsificaciones seguirán preocupando a los expertos mientras sigan siendo más y más frecuentes. Si bien está claro que las imágenes generadas por IA pueden afectar negativamente las elecciones de 2024, las futuras herramientas para la detección de deepfakes de OpenAI podrían ofrecer un voto de confianza.

¿Una aplicación para detectar deepfakes? Los creadores de ChatGPT podrían tener una en marcha

Redactado por: Xavier Harding

Editado por: Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding

Arte por: Shannon Zepeda


Contenido relacionado