Deepfake, la double tromperie. Voici comment ils peuvent échapper aux contrôles


Si aujourd’hui il y a de plus en plus d’initiatives visant à contrer les soi-disant fausses nouvelles – articles, publications écrits avec des informations inventées, trompeurs et rendus publics par le biais des médias avec l’intention délibérée de désinformer – dans un proche avenir, nous devrons être de plus en plus attentifs aux deepfakes, technique de synthèse de l’image humaine basée sur l’intelligence artificielle toujours plus précise et précise grâce à l’amélioration des logiciels et au raffinement des algorithmes.

Il existe déjà de nombreuses initiatives et recherches visant à contrer les deepfakes. Les universités, les organisations et les géants de la technologie tels que Microsoft, Amazon et Facebook se sont depuis longtemps engagés dans le développement d’outils capables de les détecter dans le but d’empêcher leur utilisation et d’éviter la désinformation.

Selon un groupe d’informaticiens de l’UC San Diego, les détecteurs deepfake ils peuvent encore être dupés. L’équipe a montré comment les outils de détection peuvent être contournés en insérant des entrées appelées «exemples contradictoires» dans chaque image d’une vidéo. images manipulées pouvant provoquer des erreurs dans les systèmes d’intelligence artificielle.

La plupart des détecteurs fonctionnent en surveillant les visages dans les vidéos et en envoyant les données résultantes à un réseau neuronal qui a pour tâche de déterminer si une vidéo est authentique ou non en observant des éléments qui ne sont pas parfaitement reproduits en deepfakes, comme le clignotement des cils.

L’équipe a constaté qu’en créant des exemples contradictoires du visage et en les insérant dans chaque image de la vidéo, je “les détecteurs Deepfake les plus avancés” ils peuvent être trompés. De plus, la technique qu’ils ont développée fonctionne de la même manière avec la vidéo compressée, même s’ils n’ont pas un accès complet au modèle de détecteur. En gros, certains attaquants capables de reproduire cette même technique pourrait créer des deepfakes capables d’éluder même les meilleurs outils de détection jusqu’à présent disponible.

Sera-t-il alors possible de créer des détecteurs incontournables? L’équipe recommande d’utiliser un soi-disant “entraînement de l’adversaire” où un modèle d’adversaire continue de générer des deepfakes qui peuvent contourner le détecteur pendant l’entraînement afin qu’il puisse constamment s’améliorer dans la détection d’images non authentiques. Bref, il y aura beaucoup de travail à faire.