Des experts en science des données explorent les subtilités des hypertrucages

Le Deepfakes Day 2022, qui s’est tenu en ligne la semaine dernière, était organisé par la division CERT (Computer Emergency Response Team) du Software Engineering Institute (SEI) de l’Université Carnegie Mellon, qui s’associe au gouvernement, à l’industrie, aux forces de l’ordre et aux universités pour améliorer la sécurité et la résilience des systèmes et réseaux informatiques, dans le but d’examiner la menace croissante des hypertrucages (deepfakes).

Le CERT décrit un hypertrucage comme un « fichier multimédia, généralement des vidéos, des images ou un discours représentant un sujet humain, qui a été modifié de manière trompeuse à l’aide de réseaux de neurones profonds pour altérer l’identité d’une personne. Les progrès de l’apprentissage automatique ont accéléré la disponibilité et la sophistication des outils de création de contenu hypertruqué. À mesure que la création d’hypertrucages augmente, les risques pour la confidentialité et la sécurité augmentent également ».

Au cours de la conférence d’ouverture, deux experts du centre de coordination de l’équipe d’intervention en cas d’urgence informatique (CERT) – la scientifique des données Shannon Gallagher et Thomas Scanlon, un ingénieur technique – ont emmené leur auditoire à travers une visite exploratoire d’une menace de sécurité croissante qui ne montre aucun signe de déclin.

« Une partie de la recherche dans ce domaine et de la sensibilisation aux hypertrucages consiste à protéger les gens de certains des cyber-défis et des défis de sécurité personnelle et de confidentialité que présentent les hypertrucages », a déclaré Scanlon.

Un article de blog du SEI publié en mars déclarait que « l’existence d’un large éventail d’outils de manipulation vidéo signifie qu’une vidéo découverte en ligne n’est pas toujours fiable. De plus, alors que le concept des hypertrucages a gagné en visibilité dans les médias populaires, la presse et les médias sociaux, une menace parallèle a émergé du soi-disant dividende du menteur – contester l’authenticité ou la véracité d’informations légitimes par le biais d’une fausse affirmation selon laquelle quelque chose est un hypertrucage même si ce n’est pas le cas.

Le séminaire comprenait une discussion sur l’utilisation criminelle des hypertrucages, citant des exemples, notamment des cybercriminels qui ont convaincu un PDG de virer 243 000 $US sur le compte bancaire d’un escroc en utilisant un hypertrucage, et des politiciens du Royaume-Uni, de Lettonie, d’Estonie et de Lituanie qui ont été dupés dans de fausses réunions avec des personnalités de l’opposition.

Les principaux points à retenir fournis par les deux experts en cybersécurité étaient les suivants :

Bonne nouvelle : Même en utilisant des outils déjà construits (Faceswap, DeepFace Lab, etc.), il faut encore beaucoup de temps et de ressources de processeur graphique (GPU) pour créer des hypertrucages même de qualité inférieure.

Mauvaise nouvelle : Les criminels bien financés peuvent engager des ressources pour créer des hypertrucages de meilleure qualité, en particulier pour des cibles de grande valeur.

Bonne nouvelle : Les hypertrucages ne sont principalement que des échanges de visage et des reconstitutions faciales.

Mauvaise nouvelle : À terme, les capacités technologiques s’étendront au-delà des visages.

Bonne nouvelle : Des avancées sont en cours dans la détection des hypertrucages.

Mauvaise nouvelle : La technologie de création d’hypertrucages continue de progresser ; ce sera probablement une bataille sans fin similaire à celle des logiciels antivirus contre les logiciels malveillants.

En termes de ce qu’une organisation peut faire pour éviter de devenir une victime, la clé, a déclaré Scanlon, réside dans la compréhension des capacités actuelles de création et de détection, et dans l’élaboration de programmes de formation et de sensibilisation.

Il est également important, a-t-il dit, de pouvoir détecter un hypertrucage, et les « indices pratiques » incluent le scintillement, les mouvements et les expressions non naturels, l’absence de clignement des yeux et les couleurs de cheveux et de peau non naturelles.

Pour plus de détails, l’article original (en anglais) est disponible sur IT World Canada, une publication sœur de Direction informatique.

Adaptation et traduction française par Renaud Larue-Langlois.

Paul Barker
Paul Barker
Paul est le fondateur de PBC Communications, une firme de rédaction spécialisée dans le journalisme indépendant. Son travail est apparu dans un certain nombre de magazines technologiques et en ligne sur des sujets allant des problèmes de cybersécurité et du monde en évolution de l'informatique de pointe à la gestion de l'information et aux progrès de l'intelligence artificielle.

Articles connexes

La gestion par Samsung de la recherche sur les hypertrucages remise en question

Un expert en cybersécurité est surpris par les récentes actions entreprises par un groupe de chercheurs travaillant au Samsung AI Center à Moscou, affirmant que leur travail pourrait inévitablement finir par faire plus de mal que de bien.

CTM Insights s’apprête à concéder sous licence ses avancées en détection d’images hypertruquées à Allure Security

Allure Security, une société de cybersécurité qui utilise un moteur d'intelligence artificielle (IA) breveté conçu pour fournir une protection de marque en ligne, a annoncé un accord de licence technologique avec CTM Insights, spécialisée dans la technologie avancée « d'empreintes digitales » d'images.

Inquiétudes croissantes au sujet des hypertrucages

Les hypertrucages sont de retour dans l'actualité après qu'il eut été rapporté qu'un groupe de chercheurs travaillant au Samsung AI Center de Moscou a lancé une initiative appelée Mega Portraits (portraits mégapixels).