Conspiracy Watch | l'Observatoire du conspirationnisme
Conspiracy Watch | l'Observatoire du conspirationnisme

Contraction de deep learning (apprentissage profond, une forme d'intelligence artificielle) et fake (faux, en anglais), le terme deepfake (hypertrucage) désigne aussi bien le procédé (une technique de synthèse d'images basée sur l'intelligence artificielle pour créer des trucages très réalistes) que son résultat : des contenus vidéos ou audio trompeurs.

La falsification de sons, d’images et de vidéos, n’est pas un phénomène nouveau : des logiciels de montage et de retouche d'images permettaient déjà de manipuler images et vidéos.

La nouveauté réside dans le réalisme des trucages, dans leur sophistication (avec la simulation des mouvements faciaux), dans la relative facilité d’usage de ces outils et dans leur disponibilité.

À l’origine des deepfakes, il y a une technique inventée en 2014 par le chercheur Ian Goodfellow : les GAN (Generative Adversarial Networks ou réseaux antagonistes génératifs). Selon cette technologie, deux algorithmes s’entraînent mutuellement, l’un œuvrant à fabriquer une image tandis que l’autre cherche, en parallèle, à déterminer si cette image est fausse, entraînant de cette façon le premier à faire mieux.

  • Les techniques pour simuler des mouvements faciaux et les transposer sur une personne-cible ont été présentées en 2016. Elles permettaient de contrefaire, en temps quasi-réel, des expressions faciales dans des vidéos en 2D.
  • L'hypertrucage audio est apparu en novembre 2016, avec la présentation d'Adobe Voco, premier programme d'hypertrucage audio capable de reproduire la voix humaine.
  • En juillet 2017, la BBC diffuse un discours prononcé par une intelligence artificielle reproduisant la voix de Barack Obama, discours essentiellement indiscernable d'un vrai.
  • La pornographie hypertruquée est apparue sur Internet en 2017 : elle a depuis été interdite par Reddit, Twitter et Pornhub.
  • En janvier 2018 a été mise en ligne une application appelée FakeApp qui permet de créer facilement des vidéos où les visages ont été permutés et de les partager.
  • En août 2018, des chercheurs de l'université de Californie à Berkeley ont publié une étude sur la création de fausses vidéos de danseurs. Un individu peut être collé sur les mouvements d'un danseur professionnel.

Les hypertrucages ont dans un premier temps été utilisés afin de créer de fausses vidéos à caractère pornographique. La plupart des sites spécialisés concernés ainsi que les forums Reddit ou Discord, ou le réseau social Twitter, n’ont pas tardé à réagir, début 2018, en les bannissant de leurs plateformes. En octobre 2019, l’entreprise néerlandaise Deeptrace, spécialisée dans les risques en ligne, comptabilisait 15 000 vidéos fake porn en circulation sur internet au cours des sept derniers mois.

De nombreux deepfakes sont réalisés à des fins de divertissement ou de parodie comme cette vidéo qui substitue le visage d’Elon Musk à l’acteur principal de 2001, l’Odyssée de l’espace ou celle-ci qui remplace le visage de Jack Nicholson par celui de Jim Carrey dans le film Shining.

Les vidéos trafiquées se frayent aussi une place dans la communication publique. L’ONG Solidarité Sida a diffusé en octobre 2019 une vidéo de Donald Trump faisant une annonce historique, devant une rangée de drapeaux américains (« J’ai une grande nouvelle : aujourd’hui, nous avons éradiqué le sida »). Cette vidéo visait a mobiliser l’opinion et à faire pression sur les dirigeants mondiaux réunis à Lyon pour financer la lutte contre le sida, la tuberculose et le paludisme.

Le 23 septembre 2019, une chaîne de télévision italienne a diffusé une vidéo satirique de l'ancien président du Conseil italien, Matteo Renzi, insultant, bras d'honneur à l'appui, le président du Conseil Giuseppe Conte et le ministre des Affaires Etrangères Luigi Di Maio.

Le recours aux techniques de deepfake dans la sphère politique est encore rare.

Un rapport du Stern Center for Business and Human Rights de l’Université de New York en septembre 2019 mentionnait les deepfakes parmi les stratégies de propagation de fausses nouvelles qui pourraient voir le jour lors des élections de 2020. En avril 2018, Buzzfeed a mis en ligne une fausse vidéo mettant en scène Barack Obama traitant Donald Trump d’idiot. Réalisée dans un but préventif, cette vidéo avait pour but d’alerter l’opinion sur l’usage qui pourrait être fait de cette technique pour décrédibiliser des responsables politiques ou des candidats aux élections.

DeepFakes et CheapFakes

Il convient distinguer ici les deepfakes, qui sont le fruit de l’intelligence artificielle, des cheapfakes ou shallow fakes, qui reposent sur des techniques plus artisanales.

Les cheapfakes ne sont pas pour autant inoffensifs. Aux États-Unis, en mai 2019, une vidéo relayée par le Parti républicain, l’Alt-right et même par le président Donald Trump, montrait Nancy Pelosi « comme ivre » lors d’un discours. Le débit de paroles de la présidente de la Chambre des représentants avait été délibérément très ralenti sur la vidéo afin de faire croire que l’intéressée souffrait d’une addiction à l’alcool. Vu plus de deux millions de fois, ce cheapfake a été retiré de YouTube. Facebook l’a simplement déclassé, en y ajoutant un avertissement à l’attention de ses membres.

Le gouverneur de Californie a ratifié le 3 octobre deux lois contre les deepfakes. La première vise les deepfakes politiques. Désormais, en Californie, 60 jours avant une élection, il sera illégal de distribuer une vidéo manipulée pour discréditer un candidat. La seconde loi vise à encadrer l’usage de cette technique dans la pornographie. Selon le rapporteur de cette loi, Marc Berman, « les électeurs ont le droit de savoir quand la vidéo, l’audio et les images qu’on leur montre sont faites pour influencer leur vote lors d’une élection à venir, qu’ils sont manipulés, qu’on ne leur montre pas la réalité ».

Selon le chercheur en intelligence artificielle américain Alex Champandard, « tout le monde devrait être conscient de la rapidité à laquelle les choses peuvent être altérées aujourd'hui à l'aide de cette technique et que le problème ne doit pas venir de la technique mais plutôt être résolu par la confiance des personnes dans l'information et le journalisme. Le principal danger est de voir arriver le moment où les humains ne pourront plus déterminer si ce qui se trouve sur une vidéo correspond à la vérité ou non. »

Facebook a annoncé, début janvier 2020, sa politique vis-à-vis des deepfakes. La compagnie supprimera les contenus manipulés ou trompeurs a une double condition. La vidéo devra avoir été discrètement manipulée, au-delà des ajustements de luminosité ou de qualité d’image, afin d’induire « probablement quelqu'un en erreur en pensant qu’une personne a dit des mots qu'elle n'a pas réellement dits ». En outre, la manipulation devra avoir été le fruit de « l'intelligence artificielle ou du machine learning pour fusionner, remplacer ou superposer du contenu sur une vidéo, en donnant l'impression de son authenticité ».

Des chercheurs de l’University of Southern California (USC) ont annoncé qu’ils avaient mis au point une méthode pour détecter ces hypertrucages avec une précision de l’ordre de 96%.

 

Sources : Wikipedia ; La Revue européenne des médias et du numérique.

 

(Dernière mise à jour le 11/02/2020)

Cet article est en accès libre.
Pour qu’il le reste, Conspiracy Watch a besoin de vous.
Je suis d'accord, je fais un don
je continue ma lecture

Contraction de deep learning (apprentissage profond, une forme d'intelligence artificielle) et fake (faux, en anglais), le terme deepfake (hypertrucage) désigne aussi bien le procédé (une technique de synthèse d'images basée sur l'intelligence artificielle pour créer des trucages très réalistes) que son résultat : des contenus vidéos ou audio trompeurs.

La falsification de sons, d’images et de vidéos, n’est pas un phénomène nouveau : des logiciels de montage et de retouche d'images permettaient déjà de manipuler images et vidéos.

La nouveauté réside dans le réalisme des trucages, dans leur sophistication (avec la simulation des mouvements faciaux), dans la relative facilité d’usage de ces outils et dans leur disponibilité.

À l’origine des deepfakes, il y a une technique inventée en 2014 par le chercheur Ian Goodfellow : les GAN (Generative Adversarial Networks ou réseaux antagonistes génératifs). Selon cette technologie, deux algorithmes s’entraînent mutuellement, l’un œuvrant à fabriquer une image tandis que l’autre cherche, en parallèle, à déterminer si cette image est fausse, entraînant de cette façon le premier à faire mieux.

  • Les techniques pour simuler des mouvements faciaux et les transposer sur une personne-cible ont été présentées en 2016. Elles permettaient de contrefaire, en temps quasi-réel, des expressions faciales dans des vidéos en 2D.
  • L'hypertrucage audio est apparu en novembre 2016, avec la présentation d'Adobe Voco, premier programme d'hypertrucage audio capable de reproduire la voix humaine.
  • En juillet 2017, la BBC diffuse un discours prononcé par une intelligence artificielle reproduisant la voix de Barack Obama, discours essentiellement indiscernable d'un vrai.
  • La pornographie hypertruquée est apparue sur Internet en 2017 : elle a depuis été interdite par Reddit, Twitter et Pornhub.
  • En janvier 2018 a été mise en ligne une application appelée FakeApp qui permet de créer facilement des vidéos où les visages ont été permutés et de les partager.
  • En août 2018, des chercheurs de l'université de Californie à Berkeley ont publié une étude sur la création de fausses vidéos de danseurs. Un individu peut être collé sur les mouvements d'un danseur professionnel.

Les hypertrucages ont dans un premier temps été utilisés afin de créer de fausses vidéos à caractère pornographique. La plupart des sites spécialisés concernés ainsi que les forums Reddit ou Discord, ou le réseau social Twitter, n’ont pas tardé à réagir, début 2018, en les bannissant de leurs plateformes. En octobre 2019, l’entreprise néerlandaise Deeptrace, spécialisée dans les risques en ligne, comptabilisait 15 000 vidéos fake porn en circulation sur internet au cours des sept derniers mois.

De nombreux deepfakes sont réalisés à des fins de divertissement ou de parodie comme cette vidéo qui substitue le visage d’Elon Musk à l’acteur principal de 2001, l’Odyssée de l’espace ou celle-ci qui remplace le visage de Jack Nicholson par celui de Jim Carrey dans le film Shining.

Les vidéos trafiquées se frayent aussi une place dans la communication publique. L’ONG Solidarité Sida a diffusé en octobre 2019 une vidéo de Donald Trump faisant une annonce historique, devant une rangée de drapeaux américains (« J’ai une grande nouvelle : aujourd’hui, nous avons éradiqué le sida »). Cette vidéo visait a mobiliser l’opinion et à faire pression sur les dirigeants mondiaux réunis à Lyon pour financer la lutte contre le sida, la tuberculose et le paludisme.

Le 23 septembre 2019, une chaîne de télévision italienne a diffusé une vidéo satirique de l'ancien président du Conseil italien, Matteo Renzi, insultant, bras d'honneur à l'appui, le président du Conseil Giuseppe Conte et le ministre des Affaires Etrangères Luigi Di Maio.

Le recours aux techniques de deepfake dans la sphère politique est encore rare.

Un rapport du Stern Center for Business and Human Rights de l’Université de New York en septembre 2019 mentionnait les deepfakes parmi les stratégies de propagation de fausses nouvelles qui pourraient voir le jour lors des élections de 2020. En avril 2018, Buzzfeed a mis en ligne une fausse vidéo mettant en scène Barack Obama traitant Donald Trump d’idiot. Réalisée dans un but préventif, cette vidéo avait pour but d’alerter l’opinion sur l’usage qui pourrait être fait de cette technique pour décrédibiliser des responsables politiques ou des candidats aux élections.

DeepFakes et CheapFakes

Il convient distinguer ici les deepfakes, qui sont le fruit de l’intelligence artificielle, des cheapfakes ou shallow fakes, qui reposent sur des techniques plus artisanales.

Les cheapfakes ne sont pas pour autant inoffensifs. Aux États-Unis, en mai 2019, une vidéo relayée par le Parti républicain, l’Alt-right et même par le président Donald Trump, montrait Nancy Pelosi « comme ivre » lors d’un discours. Le débit de paroles de la présidente de la Chambre des représentants avait été délibérément très ralenti sur la vidéo afin de faire croire que l’intéressée souffrait d’une addiction à l’alcool. Vu plus de deux millions de fois, ce cheapfake a été retiré de YouTube. Facebook l’a simplement déclassé, en y ajoutant un avertissement à l’attention de ses membres.

Le gouverneur de Californie a ratifié le 3 octobre deux lois contre les deepfakes. La première vise les deepfakes politiques. Désormais, en Californie, 60 jours avant une élection, il sera illégal de distribuer une vidéo manipulée pour discréditer un candidat. La seconde loi vise à encadrer l’usage de cette technique dans la pornographie. Selon le rapporteur de cette loi, Marc Berman, « les électeurs ont le droit de savoir quand la vidéo, l’audio et les images qu’on leur montre sont faites pour influencer leur vote lors d’une élection à venir, qu’ils sont manipulés, qu’on ne leur montre pas la réalité ».

Selon le chercheur en intelligence artificielle américain Alex Champandard, « tout le monde devrait être conscient de la rapidité à laquelle les choses peuvent être altérées aujourd'hui à l'aide de cette technique et que le problème ne doit pas venir de la technique mais plutôt être résolu par la confiance des personnes dans l'information et le journalisme. Le principal danger est de voir arriver le moment où les humains ne pourront plus déterminer si ce qui se trouve sur une vidéo correspond à la vérité ou non. »

Facebook a annoncé, début janvier 2020, sa politique vis-à-vis des deepfakes. La compagnie supprimera les contenus manipulés ou trompeurs a une double condition. La vidéo devra avoir été discrètement manipulée, au-delà des ajustements de luminosité ou de qualité d’image, afin d’induire « probablement quelqu'un en erreur en pensant qu’une personne a dit des mots qu'elle n'a pas réellement dits ». En outre, la manipulation devra avoir été le fruit de « l'intelligence artificielle ou du machine learning pour fusionner, remplacer ou superposer du contenu sur une vidéo, en donnant l'impression de son authenticité ».

Des chercheurs de l’University of Southern California (USC) ont annoncé qu’ils avaient mis au point une méthode pour détecter ces hypertrucages avec une précision de l’ordre de 96%.

 

Sources : Wikipedia ; La Revue européenne des médias et du numérique.

 

(Dernière mise à jour le 11/02/2020)

Depuis seize ans, Conspiracy Watch contribue à sensibiliser aux dangers du complotisme en assurant un travail d’information et de veille critique sans équivalent. Pour pérenniser nos activités, le soutien de nos lecteurs est indispensable.  

Faire un don !
Partager :
Conspiracy Watch | l'Observatoire du conspirationnisme
© 2007-2024 Conspiracy Watch | Une réalisation de l'Observatoire du conspirationnisme (association loi de 1901) avec le soutien de la Fondation pour la Mémoire de la Shoah.
cross