Inquiétudes croissantes au sujet des hypertrucages

Les hypertrucages sont de retour dans l’actualité après qu’il eut été rapporté qu’un groupe de chercheurs travaillant au Samsung AI Center de Moscou a lancé une initiative appelée Mega Portraits (portraits mégapixels).

Dans un article de recherche, ils écrivent que les portraits sont basés sur un concept appelé « avatars de tête neuraux », qui offrent une nouvelle façon fascinante de créer des modèles de tête virtuels. Ils contournent la complexité de la modélisation réaliste basée sur la physique des avatars humains en apprenant la forme et l’apparence directement à partir des vidéos de personnes qui parlent.

La question qui préoccupe beaucoup est de savoir si une technologie comme celle-ci pourrait éventuellement conduire à une augmentation effrénée du nombre de cas d’hypertrucages.

Moscou est l’un des sept centres d’intelligence artificielle de Samsung dans le monde, les autres étant situés à Toronto, Montréal, New York, Cambridge (Royaume-Uni), Séoul et Mountain View, en Californie. Selon la société, les principaux projets sur lesquels on y tavaille actuellement sont la génération d’avatars humains photoréalistes, la modélisation 3D et les techniques de manipulation d’images.

Fin juin, le FBI Internet Crime Complaint Center (IC3) a mis en garde contre une augmentation des plaintes concernant l’utilisation d’hypertrucages et d’informations personnelles identifiables (IPI) volées pour postuler à divers emplois en télétravail et en travail à domicile.

Les hypertrucages, a déclaré le bureau dans un avis, contiennent une « vidéo, une image ou un enregistrement modifié et manipulé de manière convaincante pour représenter quelqu’un faisant ou disant quelque chose qui n’a pas été réellement fait ou dit ».

« Les plaintes font état de l’utilisation d’usurpation de voix, ou potentiellement d’hypertrucages vocaux, lors d’entretiens en ligne avec des candidats potentiels. Dans ces entretiens, les actions et le mouvement des lèvres de la personne vue interviewée à la caméra ne se coordonnent pas complètement avec l’audio de la personne qui parle. Parfois, des actions telles que tousser, éternuer ou d’autres actions auditives ne sont pas synchronisées avec ce qui est présenté visuellement.

En outre, dans un rapport publié en février par l’Institut canadien des affaires mondiales, l’auteur Abby MacDonald a prévenu qu’un « hypertrucage réaliste soigneusement créé et publié à un certain moment pourrait influencer le résultat d’une élection démocratique, inciter à la violence contre certains groupes ou exacerber les politiques et clivages sociaux ».

Le rapport indique que « la technologie repose sur deux percées importantes dans l’apprentissage automatique et l’intelligence artificielle. Le premier est un réseau de neurones. Plus ces algorithmes sont exposés à des informations, plus ils peuvent les répéter avec précision. Le second est les réseaux antagonistes génératifs (RAG), qui combinent essentiellement deux réseaux de neurones et les font se concurrencer pour produire un meilleur produit final ».

Pour plus de détails, l’article original (en anglais) peut être consulté sur IT World Canada, une publication sœur de Direction informatique.

Adaptation et traduction française par Renaud Larue-Langlois

Paul Barker
Paul Barker
Paul est le fondateur de PBC Communications, une firme de rédaction spécialisée dans le journalisme indépendant. Son travail est apparu dans un certain nombre de magazines technologiques et en ligne sur des sujets allant des problèmes de cybersécurité et du monde en évolution de l'informatique de pointe à la gestion de l'information et aux progrès de l'intelligence artificielle.

Articles connexes

Des experts en science des données explorent les subtilités des hypertrucages

Le Deepfakes Day 2022, qui s'est tenu en ligne la semaine dernière, était organisé par la division CERT (Computer Emergency Response Team) du Software Engineering Institute (SEI) de l'Université Carnegie Mellon, qui s'associe au gouvernement, à l'industrie, aux forces de l'ordre et aux universités pour améliorer la sécurité et la résilience des systèmes et réseaux informatiques, dans le but d’examiner la menace croissante des hypertrucages (deepfakes).

La gestion par Samsung de la recherche sur les hypertrucages remise en question

Un expert en cybersécurité est surpris par les récentes actions entreprises par un groupe de chercheurs travaillant au Samsung AI Center à Moscou, affirmant que leur travail pourrait inévitablement finir par faire plus de mal que de bien.

CTM Insights s’apprête à concéder sous licence ses avancées en détection d’images hypertruquées à Allure Security

Allure Security, une société de cybersécurité qui utilise un moteur d'intelligence artificielle (IA) breveté conçu pour fournir une protection de marque en ligne, a annoncé un accord de licence technologique avec CTM Insights, spécialisée dans la technologie avancée « d'empreintes digitales » d'images.

Menaces sur les systèmes de contrôle industriels

Les agences de cyber renseignement américaines préviennent que des groupes de cybermenaces non identifiés sont maintenant capables d’obtenir un accès complet à plusieurs systèmes de contrôle industriels (ICS) et à des appareils d’acquisition et de contrôle des données (SCADA).

Samsung vise le milieu de gamme avec le Galaxy A53

Le modèle de téléphone Galaxy A53 5G de Samsung pourrait être le meilleur appareil phare de milieu de gamme en 2022.