"Il est presque certain que les acteurs malveillants tireront parti du contenu synthétique (y compris les deep fakes) pour des opérations de cyberinfluence et d'influence étrangère dans les 12 à 18 prochains mois". Cette citation de mars 2021 du Federal Bureau of Investigation américain (FBI), a de quoi faire peur. Pourtant, comme l'indique Christophe Deschamps, consultant et formateur en intelligence économique et en veille stratégique, la fabrication de fausses informations n'est pas nouvelle. Elle a même connu un véritable essor en 2017, qui constitue une année pivot en la matière, notamment avec l'apparition des deep fakes.
Les possibilités infinies des IA génératives
"Les IA génératives sont capables de générer de fausses vidéos, de faux visages, des représentations de corps humains synthétiques complets (puppeteering), de cloner des voix, de produire de vraies/fausses images satellites, des images médicales, des jeux de données divers (synthetic data)", poursuit Christophe Deschamps. "Et bien sûr, elles sont capables de générer automatiquement des textes". Selon lui, leurs possibilités sont infinies et limitées à la seule imagination.
Recommandations pour les professionnels de l'information
Comment les veilleurs et les professionnels de l'information peuvent-ils se défendre ? Christophe Deschamps livre ses recommandations concernant les différents types de détection possibles, les mises en oeuvre envisageables et les outils dédiés. La détection par l'humain assisté par l'IA ayant sa préférence :
- Détection technique :
Mise en oeuvre : détection d'éléments spécifiques au support utilisé (métadonnées, trame de l'image, certificat de hachage, etc.)
ex : Microsoft Video Authentificator
- Détection de l'infrastructure de communication :
Mise en oeuvre : analyser l'infrastructure utilisée pour propager les messages de la campagne (faux comptes, numéros de téléphone utilisés pour créer de faux comptes, cartes de crédit, etc.)
ex : Algorithme de détection de comportements trompeurs CIB croisant plus de 150 critères. Par l'équipe sécurité de Facebook (Gleicher et al., 2021).
- Détection par l'IA :
Mise en oeuvre : Utiliser le machine learning pour détecter des anomalies dans des vidéos, images, textes, etc).
ex : GAN-Scanner atteint une précision de 95 % dans l'identification des images synthétiques (Luebke, 2021) / GLTR aide à détecter si un texte a été généré à l'aide du machine learning (GPT-2, GPT-3, etc).
- Détection par l'humain assisté par l'IA :
Mêler esprit critique, factchecking et "outil" d'aide à la détection assistée par l'IA.
ex : Solutions commerciales : Primer.ai, Sensity.ai, Deepnews.ai, Quantum Integrity, etc.
L'Osint pour contredire ou confirmer
Xavier Tytelman, consultant aéronautique et défense chez Air&Cosmos, spécialiste de l'Osint, insiste de son côté : "En Osint, il y a toujours la réversibilité de la preuve". En effet, il rappelle qu'il est possible en la matière de se servir des sources pour l'analyse mais aussi pour contredire ou confirmer certaines informations. Ce fut notamment le cas lors de tentatives de désinformation récentes, telle que la destruction du Moskva, le massacre de Kramatorsk, le sabotage de Nord Stream ou encore l'attaque du MH17.
Une enquêtrice Osint sur YouTube
De son côté, Wendy Boisnard, aka Wildeye Demon, est détective privée et enquêtrice Osint sur le web à ses heures perdues : elle diffuse ses enquêtes sur sa chaîne YouTube qui compte plus de 27 000 abonnés, auxquels elle entend prouver, grâce aux outils Osint, que ses "cibles" ne sont pas intouchables. Idriss Aberkane et Dany Conversano en ont déjà fait les frais. "J'ai suivi une formation pour l'Osint", explique-t-elle. "Utiliser les sources ouvertes et légales demande de la méthode, mais tout le monde peut essayer !". Selon Xavier Tytelman, la meilleure école pour se former est d'intégrer une communauté Osint via un thème qui nous tient à coeur et de commencer en contribuant.