En supposant que les artefacts et les éléments artificiels n'existent pas dans les médias en question et que les médias ne peuvent pas être distingués à l'œil humain, la seule façon de le faire est de remonter à la source des images.
Une analogie peut être établie avec l'attaque DoS (Denial of Service), où un nombre absurde de demandes sont envoyées d'une seule IP à un seul serveur, ce qui provoque son plantage - Une solution courante est un pot de miel, où un grand nombre de demandes provenant d'une seule L'IP est redirigé vers un serveur leurre où, même en cas de panne, la disponibilité n'est pas compromise. Des recherches ont été effectuées sur ces lignes où ce document parlait de vérifier la signature numérique d'une image ou celle-ci où ils proposaient une détection d'image falsifiée et une identification par caméra source.
Une fois remonté à une source, si un nombre absurde d'images potentiellement fausses provient d'une source singulière, il faut le questionner.
La peur commune survient lorsque nous traitons quelque chose, sur la base de l'analogie, comme une attaque DDoS (déni de service distribué) où chaque fausse demande provient d'une source distribuée - Network Security a trouvé des moyens de gérer cela, mais la sécurité et la détection de fraude en termes d'IA n'est tout simplement pas établie.
Essentiellement, pour un média artificiel bien pensé à des fins malveillantes spécifiques, il est aujourd'hui assez difficile d'être détecté - mais des travaux sont en cours sur la sécurité dans l'IA. Si vous prévoyez d'utiliser des supports artificiels à des fins malveillantes, je dirais que c'est probablement le meilleur moment.
Cette sécurité est un sujet de préoccupation depuis un petit moment maintenant. Un article écrit par un data scientist cite
Les Deepfakes ont déjà été utilisés pour tenter de harceler et d'humilier les femmes à travers de fausses vidéos porno. Le terme vient en fait du nom d'utilisateur d'un utilisateur de Reddit qui a créé ces vidéos en créant des réseaux contradictoires génératifs (GAN) à l'aide de TensorFlow. Maintenant, les responsables du renseignement parlent de la possibilité que Vladimir Poutine utilise de fausses vidéos pour influencer les élections présidentielles de 2020. Des recherches supplémentaires sont en cours sur les deepfakes en tant que menace pour la démocratie et la sécurité nationale, ainsi que sur la manière de les détecter.
Remarque - Je n'ai aucune idée de la sécurité du réseau, toutes mes connaissances proviennent d'une conversation avec un ami et j'ai pensé que ce serait une bonne analogie à utiliser ici. Pardonnez toute erreur dans l'analogie et corrigez-la si possible!
Les techniques que vous mentionnez utilisent des GAN. L'idée clé des GAN est que vous avez un générateur et un discriminateur. Le générateur génère un nouveau contenu, le discriminateur doit dire si le contenu provient des données réelles ou s'il a été généré.
Le discriminateur est beaucoup plus puissant. Il ne devrait pas être trop difficile de former un discriminateur pour détecter les contrefaçons. La formation d'un modèle capable d'identifier la manipulation et la compréhension de cela est une preuve de manipulation plus difficile. Il est impossible d'obtenir la preuve que quelque chose n'est pas manipulé.
À propos de la question de savoir comment traiter les images retouchées: vous examinez les différences de niveaux de compression dans l'image. Le mot-clé à rechercher est la criminalistique d'image: http://fotoforensics.com/tutorial-estq.php
la source