L’intelligence artificielle d’Intel à la chasse aux « deepfakes ».

FakeCatcher est le nom d’un nouvel outil développé par Intel. Son principe est basé sur le classique « combattre le feu par le feu« . Si les créateurs de contenu ont l’intention de continuer à générer des deepfakes grâce à l’intelligence artificielle, l’entreprise utilisera ce même outil pour les détecter, les réfuter et les exposer au monde pour ce qu’ils sont.

Les efforts d’Intel ne sont pas vains. Ces derniers temps, le nombre de « deepfakes » qui pullulent sur Internet a considérablement augmenté. Le problème est qu’il ne s’agit plus d’actes anodins comme le fait de mettre le visage d’un acteur dans un film avec un autre. Aujourd’hui, il existe des vidéos qui simulent des entretiens d’embauche, diffusent de fausses informations en utilisant des hommes politiques connus, et produisent même de la pornographie avec le visage d’autres personnes qui n’ont manifestement pas donné leur consentement.

Intel a dévoilé son nouvel outil par le biais d’un message sur son site Web. Elle le présente ici comme un « détecteur d’imitations profondes en temps réel« , et la technologie qui le sous-tend est étonnante. La société a utilisé son expertise en biologie humaine pour développer son intelligence artificielle, et a réussi à atteindre une précision de 96 % dans ses résultats.

FakeCatcher, l’outil de démystification des « deepfakes » basé sur l’intelligence artificielle

Comment fonctionne exactement FakeCatcher ? Selon la société, son principe est basé sur quelque chose de très basique : le sang.

 

Ne paniquez pas. L’intelligence artificielle n’a pas besoin de sang physique. Ce qu’il faut, c’est un scan rapproché du visage proposé par le deepfake. En utilisant la même technologie de photopléthysmographie (PPG), une technique généralement utilisée pour surveiller le flux sanguin d’une personne, l’IA peut détecter si le visage qui se trouve devant elle est réel ou s’il a été implanté par un tiers.

FakeCatcher capture le flux sanguin perçu dans les pixels d’une vidéo deepfake, en se concentrant spécifiquement sur votre visage. Il traduit ainsi les signaux en cartes spatio-temporelles, que les algorithmes peuvent ensuite comparer à l’activité PPG chez l’homme. En fonction du résultat, l’algorithme détermine si l’image sur l’écran est réelle ou si elle a été modifiée.

Intel a consolidé sa croisade contre les deepfakes, et cet outil est un signe de la direction qu’ils sont prêts à prendre. Bien qu’il s’agisse d’une technologie impressionnante, les deepfakes ont commencé à échapper à tout contrôle, et même Google a interdit cette pratique dans le cadre de sa formation Colab.

L’Union européenne elle-même a dû s’impliquer dans toute cette affaire. Dans une déclaration, elle a averti les grandes entreprises telles que Meta, Twitter et d’autres que si elles ne prenaient pas de mesures contre les deepfakes sur leurs plateformes, ce serait à elles de prendre les mesures nécessaires pour les contrôler.