top of page

Photoguard : l'outil qui veut empêcher la manipulation des images par l'IA

Dernière mise à jour : 28 sept. 2023

Le Massachusetts Institute of Technology (1) a développé PhotoGuard afin de protéger les images de leurs manipulations par l'intelligence artificielle.


Les risques causés par les deepfake


Deepfake vient du mélange des mots anglais « deep learning » et « fake », faisant alors référence à de fausses créations - vidéos, audios, images ou autres, que l'intelligence artificielle peut générer à partir de contenus originaux. Apparus dès 2016, les deepfake se sont surtout fait connaître du grand public avec des vidéos comme celles reprenant le visage de Barack Obama ou encore de Tom Cruise. Mais les deepfake ont également pu être utilisés à des fins malveillantes, comme par exemple dans le cas de vidéos pornographiques (deepfake porn) diffusées sur Reddit et utilisant le visage de personnes plus ou moins connues.

« Dans des scénarios plus extrêmes, ces modèles pourraient simuler des voix et des images pour mettre en scène de faux crimes, infligeant une détresse psychologique et des pertes financières. La nature rapide de ces actions complique le problème. Même lorsque la tromperie est finalement découverte, les dommages - qu'ils soient de réputation, émotionnels ou financiers - se sont souvent déjà produits. C'est une réalité pour les victimes à tous les niveaux, des individus victimes d'intimidation à l'école à la manipulation à l'échelle de la société. » Using AI to protect against AI image manipulation, csail.mit.edu

L'outil Photoguard


Le MIT CSAIL (2) a développé un outil nommé PhotoGuard et dont l'objectif est d'empêcher la manipulation non-autorisée des images par l'intelligence artificielle. Il agit en modifiant les pixels d'une image afin de la rendre incompréhensible aux yeux de l'IA. On peut voir dans l'exemple ci-dessous les résultats attendus d'une telle protection :


« L'outil, appelé PhotoGuard , fonctionne comme un bouclier protecteur en modifiant les photos de manière minuscule qui est invisible à l'œil humain mais les empêche d'être manipulées. Si quelqu'un essaie d'utiliser une application d'édition basée sur un modèle d'IA génératif tel que Stable Diffusion pour manipuler une image qui a été "immunisée" par PhotoGuard, le résultat semblera irréaliste ou déformé. » This new tool could protect your pictures from AI manipulation, techonologyreview.com

-


(1) Le MIT est une communauté qui se décrit comme « animée par un objectif commun : créer un monde meilleur grâce à l'éducation , à la recherche et à l'innovation ». Source : site du MIT

(2) Le MIT CSAIL fait référence au « MIT's Computer Science and Artificial Intelligence Laboratory » qui se décrit comme « l'avant-garde de la recherche en informatique qui améliore la façon dont les gens travaillent, jouent et apprennent ». Source : site du MIT CSAIL

Photo de FLY:D sur Unsplash

Kommentare


bottom of page