Deepfake : Faut-il avoir peur de cette technologie

Deepfake.
Technologie

Si vous pensiez que le phénomène des « fake news » ne pouvait pas empirer, l’arrivée de ce que l’on appelle le « deepfake » risque de vous tenir en haleine. Alors, qu’est-ce qu’un deepfake et devrions nous en avoir peur ?

Qu’est-ce que le deepfake ?

Un deepfake est une vidéo qui a été habilement manipulée pour remplacer la personne dans la vidéo par quelqu’un d’autre, dans la plupart des cas, une célébrité ou un homme politique. Ils sont généralement incroyablement réalistes et peuvent être difficiles à repérer comme faux. Tom Cruise a été une victime récente de ce qui a été présenté par les médias comme « le plus réaliste à ce jour ».

L’élément le plus troublant du deepfake est qu’il conduit à des taux très élevés de pornographie deepfake non consensuelle – visant principalement les femmes. En fait, en 2020, une société de surveillance des deepfakes, Sensity a découvert que l’application de messagerie Telegram avait été utilisée comme plateforme pour diffuser des milliers d’images nus non consensuels de femmes – et dans certains cas, de jeunes filles mineures.

Vrai ou faux ?

Il est relativement facile de détecter un deepfake amateur : les bords peuvent être flous, le son incohérent ou la vidéo n’a tout simplement pas l’air naturelle. Mais un deepfake plus crédible, créé à l’aide de réseaux neuronaux, sera beaucoup plus difficile à repérer et il faudra peut-être même recourir à des machines ou à la criminalistique numérique pour l’identifier. Et c’est là que réside le problème : s’il semble tout à fait crédible, comment la victime pourra-t-elle prouver qu’il n’est pas réel ?

Un risque croissant

Ces deux dernières années, on a assisté à une augmentation du nombre d’applications telles que Fakeapp, qui permettent à toute personne disposant de compétences techniques raisonnables de créer un faux visage. Faceswap est un autre exemple populaire qui, comme son nom l’indique, donne aux utilisateurs la possibilité de mettre un visage différent sur quelqu’un d’autre.

Les créateurs d’applications les présentent comme une façon amusante et légère de passer le temps, et pour la plupart des gens, c’est exactement le cas. Mais pour ceux qui ont des intentions malveillantes, le potentiel de nuisance est réel.

Les mécanismes permettant de créer de telles vidéos sont de plus en plus faciles d’accès et le résultat devient de plus en plus réaliste, ce qui augmente le niveau de risque. Il s’agit désormais d’une véritable préoccupation pour toutes les femmes dont les images sont dans le domaine public, et pas seulement pour les célébrités et les influenceurs – bien qu’ils puissent être touchés en premier.

Endiguer la marée

Le domaine de la pornographie non consensuelle reste un problème affligeant : selon la société d’IA Sensity, 96 % des deepfakes sont pornographiques et utilisés pour cibler les femmes, et le nombre de clips pornographiques deepfakes double tous les six mois. Cela signifie que d’ici l’été 2021, il pourrait y avoir jusqu’à 180 000 vidéos pornographiques « mettant en scène » des personnes innocentes en ligne.

Pour mettre un terme à cette vague de « deepfakes », il faudra que les entreprises technologiques investissent dans ce domaine et y consacrent des efforts constants si l’on veut que de réels progrès soient réalisés. En plus de faire de la détection des « deepfakes » une priorité, les entreprises technologiques doivent commencer à les supprimer de leur plateforme et à demander aux auteurs de ces actes de rendre compte de leurs actions (interdiction à vie, par exemple).

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *