L’année 2024 sera marquée par de multiples élections à travers le monde, à l’instar des Européennes du 9 juin ou des élections présidentielles américaines. Des échéances autour desquelles rode la menace des « deep fakes » à base d’intelligence artificielle, ces faux très difficilement décelables à l’œil ou l’oreille nue. Une alerte que relaie Keeex, acteur marseillais historique de l’authentification de contenus, spécialiste de la blockchain et des crypto, qui met ses propositions sur la table.
L’exemple slovaque
En amont des Européennes, un faux numérique a ébranlé le monde politique continental il y a peu. A l’automne 2023 se sont déroulées les élections législatives slovaques. L’avant-veille du scrutin, une conversation audio, entre une journaliste locale et le dirigeant d’un parti progressiste, fuite et génère le buzz sur les réseaux sociaux slovaques. Ses deux protagonistes y expliquent comment ils comptent organiser une fraude électorale. Peu de temps après, l’enregistrement est détecté comme étant un faux, et retiré des plates-formes. Mais trop tard, car après les élections.
Pointés du doigt au sujet des deep fakes, les grands du numérique tentent de mettre en place des contre-mesures. Adobe et Microsoft, rejoints entre autres ensuite par Google et OpenAI, ont mis en place une Coalition for Content Provenance and Authenticity (C2PA). « OpenAI a annoncé son intention de déployer C2PA sur tous les contenus qu’ils produisent . La C2PA démontre la valeur de nos idées, même si notre procédé va au-delà » explique Laurent Henocque, directeur général et fondateur de Keeex. Fêtant ses 10 ans, cette jeune société marseillaise exploite deux brevets sur l’intégrité des fichiers, appliqués par exemple à l’authentification des communiqués de presse de la Société Générale et d’Enedis. Après une période de creux, Keeex s’est relancé fin 2023 via une augmentation de capital de 500 000 euros réalisée auprès d’investisseurs particuliers.
Authentifier à la source
« Le problème de l’authentification se pose à la source plutôt qu’au niveau des réseaux sociaux. Néanmoins, ceux-ci pourraient avoir un rôle à jouer, en détectant qu’un contenu n’est pas signé valablement et en y ajoutant un avertissement poussant l’usager à faire une vérification », poursuit Laurent Henocque. A ses yeux, le problème doit se résoudre lors de la génération, en s’assurant par exemple que tous les outils de production de contenus via intelligence artificielle fassent signer les contenus qu’ils génèrent. « La personne [ou l’organisation, ndlr] qui fraudera signera alors sa fraude ».
Autre problème récurrent en période d’élections : la réutilisation d’un contenu ancien, présenté comme un contenu récent, et sorti de son contexte. Avec une authentification systématique, « on rend les contenus opposables sans limite de durée ». Des bonnes pratiques inapplicables à temps pour les élections européennes mais qui doivent donner à réfléchir pour les échéances suivantes.