Partout dans le monde, des États-Unis au Royaume-Uni en passant par le Panama et le Brésil, 2024 est une année électorale décisive. Le plus inquiétant, c’est que l’IA générative commence à devenir très performante. Si bien qu’il n’a jamais été aussi facile de générer une image ou une vidéo falsifiée et convaincante d’une personnalité publique. Il en va de même pour les individus qui ne sont pas des personnalités publiques, comme les membres de votre famille ou vos collègues. Le potentiel de malveillance est à la fois flagrant et préoccupant.
Comment ces problèmes se matérialisent-ils dans le monde réel ? Parmi les exemples les plus évidents, citons les deepfakes montrant le président Biden incitant les gens à ne pas voter, les images trafiquées de Trump aux côtés d’électeurs noirs et une fausse vidéo de Poutine avertissant les électeurs en anglais de la possibilité d’une ingérence dans leurs élections. « Auparavant, il fallait être informaticien pour réussir à créer un virus ou un ransomware, mais avec l’apparition des deepfakes dans les médias grand public, plus de 100 000 outils sont accessibles en ligne par une simple recherche Google », explique Ben Coleman, directeur général de Reality Defender. Les collaborateurs de Reality Defender se sont donné pour mission de débusquer les deepfakes (fait amusant, l’entreprise utilise les données libres de Common Voice de Mozilla pour perfectionner ses outils).
« Nous avons lancé Reality Defender en 2021 et nous avons l’impression d’avoir eu la bonne idée, mais au mauvais moment », explique Ben Coleman. « Nous pensions que les deepfakes poseraient un problème lors des dernières élections, mais ce n’était pas le cas. Mais à présent, l’informatique dans le cloud est accessible à tout le monde », selon Ben Coleman (l’informatique dans le cloud permet d’avoir un accès à distance à du matériel informatique très puissant). « Vous pouvez reproduire la voix de quelqu’un à l’aide de l’un des milliers d’outils gratuits ou peu coûteux en quelques secondes seulement. La menace des deepfakes prend une ampleur considérable ».
De quels types de deepfake faut-il se méfier pendant la période électorale de 2024 ?
Les deepfakes se déclinent sous toutes les formes. De nos jours, ils peuvent se manifester autrement que par des vidéos dans lesquelles une personne célèbre dit quelque chose d’inimaginable. Tarcizio Silva, Senior Fellow de Mozilla, évoque des exemples tout aussi inquiétants de messages truqués. « Avant les dernières élections présidentielles de 2022, une vidéo simulant le journal télévisé brésilien Jornal Nacional a circulé sur WhatsApp », raconte Tarcizio Silva. « Les présentateurs de la chaîne affirmaient que Bolsonaro était en tête des sondages, alors que c’était tout le contraire ». Tarcizio Silva note que les deepfakes ont été créés pour discréditer les machines de vote utilisées lors de l’élection, alors qu’en réalité, les machines sont réputées pour être très fiables.
Vous devriez également vous méfier de votre partenaire, ou plutôt des deepfakes le mettant en scène. Selon Ben Coleman, de nombreuses escroqueries basées sur les deepfakes peuvent commencer de cette manière. « Imaginez une demande de rançon au cours de laquelle un proche vous dit : j’ai des problèmes, mais si tu me vires un peu d’argent, je vais m’en sortir », explique Ben Coleman. « Si cela devait arriver à un proche ou à l’un de mes deux enfants, je me douterais bien qu’il s’agit d’un faux. Cependant, est-ce que je serais prêt à prendre le risque que ce ne soit pas le cas ? ».
Les faux appels téléphoniques peuvent être difficiles à démasquer si l’on ne connaît pas les éléments à surveiller. Quand bien même vous les connaîtriez, il vous faudrait les identifier activement. Quand vous recevez un appel téléphonique, pensez-vous souvent devoir vérifier si la personne à l’autre bout du fil est une IA ou une personne réelle ? Vous pouvez être enclin à être méfiant lorsque vous voyez le président dire quelque chose d’étrange sur vos réseaux sociaux, mais feriez-vous preuve du même scepticisme si vous receviez, par exemple, un appel de votre travail ? Imaginez que vous soyez un employé de bureau de vote et que votre patron vous appelle pour vous dire : ne venez pas aujourd’hui, nous fermons le bureau de vote », explique Ben Coleman. Les élections peuvent être compromises de toutes sortes de façons.
Que pouvez-vous faire pour repérer les deepfakes en cette période électorale ?
Pour repérer les deepfakes sur votre fil d’actualité, vous disposez de quelques outils. Si vous avez de la chance, l’image ou la vidéo que vous regardez comporte une balise Content Credentials dans le coin, qui peut rapidement vous révéler qu’il s’agit de contenus qui ont été créés. Des sociétés telles qu’OpenAI, à l’origine de ChatGPT, ont promis de recourir à l’avenir à des outils de ce type dans les contenus issus de leurs applications. Si vous ne voyez pas la balise, lancez une recherche d’image inversée pour essayer de retrouver le contenu en question. Par ailleurs, pensez à nuancer vos partis pris, précise Tarcizio Silva. « Lorsque les membres d’une communauté sont influencés par la haine ou les préjugés, il est plus probable qu’ils ne vérifient pas deux fois les informations lorsqu’ils voient quelque chose qui va dans le sens de leurs croyances », explique-t-il. N’oubliez pas de vérifier, même si une information va dans le sens de votre vision du monde.
Mais qu’en est-il des deepfakes dans un contexte plus personnel ? Comment se défendre contre les appels frauduleux de votre faux patron ou de votre faux conjoint qui vous demandent de rester chez vous ou de leur virer de l’argent, ou même les deux ? Selon Ben Coleman, la réponse réside dans l’authentification à deux facteurs dans la vie réelle, c’est-à-dire qu’il faut avoir un deuxième moyen de confirmer l’identité de la personne à qui l’on parle. « Avec les membres de votre famille, utilisez une phrase secrète qu’ils sont les seuls à connaître », explique Ben Coleman. « Employez une expression secrète comme « banane » ou le nom d’une équipe sportive, de préférence pas quelque chose d’évident comme les Knicks si vous êtes originaire de New York ». L’idée d’ajouter une authentification à deux ou plusieurs facteurs à nos communications régulières peut nous permettre de faire confiance mais aussi de procéder à une vérification ». En d’autres termes, si votre patronne vous appelle pour vous éloigner des bureaux de vote et qu’elle mentionne les Knicks en oubliant les bananes, il y a de fortes chances qu’il s’agisse d’une supercherie.
Les deepfake arrivent juste à temps pour s’immiscer dans la période électorale
Rédigé par : Xavier Harding
Relu par : Audrey Hingle, Kevin Zawacki, Lindsay Dearlove, Tracy Kariuki, Xavier Harding
Illustration : Shannon Zepeda