Angoisse, jeux vidéo et Nicolas Cage : les secousses du fake porn

Devinez quoi : depuis le premier article de Motherboard, le fake porn ne s’est pas assagi, bien au contraire. Sur Reddit, les forumeurs plaquent encore le visage des célébrités sur des corps de pornstars. Médiatisé (et involontairement amplifié par cette exposition) depuis des semaines, le phénomène échauffe les esprits et attise les craintes.

Fake porno à tous les étages

« Fake porn », « look a like porn » ou « face swap porn » – du nom de cette appli qui permet d’échanger les visages – peu importe le nom, l’idée est là. Lancé par le redditeur Deepfakes, l’algorithme permettant de superposer le visage des superstars sur celui des actrices X grâce à un ingénieux système de machine learning ne cesse d’attiser les fantasmes. Le fake porn prend à bras le corps la règle 34, l’étend à une zone considérable du star system (Scarlett Johansson, Taylor Swift, Aubrey Plaza, Gal Gadot, Maisie Williams, Emma Watson…) et le pousse désormais jusqu’à ses retranchements fétichistes : les redditteurs vont jusqu’à intégrer sur les faces des pornstars celles de leurs icônes vidéoludiques – issues de The Witcher ou d’Overwatch, par exemple. L’intelligence artificielle épouse l’adage Internet is for porn.

« It’s all really, really fucking weird » s’exclame Kotaku à propos de cette dernière trouvaille. La rencontre entre l’imaginaire jeu vidéo et le porno « en chair et en os » donne de perturbants résultats, à la fois troublants d’authenticité et irréels au possible. « Un désastre à la Frankenstein » déplore-t-on chez Kotaku : les performances d’alchimiste initiés par Deepfakes s’avèrent de plus en plus « nauséeuses« , formes pornos aléatoires gorgées « d’expressions faciales robotiques aux yeux morts » qu’on croirait tout droit issues « d’un film d’horreur« . C’est un sentiment d’angoisse qui hante ces bouts de chair animés.

Des conséquences dramatiques ?

On pourrait en rester au délire de niche. Oui mais voilà, la méthode risque de se démocratiser via la mise en ligne récente de l’application FakeApp, permettant de générer ce type de fake « artisanaux ». C’est ce que nous apprend Motherboard, pour qui l’accessibilité de l’appli pose les fondements d’une catastrophe en devenir. Cela « pourrait avoir des conséquences dramatiques sur la manière dont nous consommons les médias […] notre capacité toujours plus faible à distinguer les fausses informations des vraies, mais aussi la manière dont nous répandons l’information sur les médias sociaux » écrit la journaliste Samantha Cole. Cependant, FakeApp nécessite un processeur de qualité et un temps d’extraction des données – puis de conversion – d’une dizaine d’heures. Le degré de mimétisme souhaité, qu’il soit associé à Katy Perry, Alison Brie ou Megan Fox, n’est pas toujours absolu.

Il n’empêche, la sphère médiatique s’emballe. Shotlist trouve cette sensation numérique « terrifiante » et s’inquiète carrément des incidences politiques de cette manipulation technologique. « Imaginez qu’on politicien assoiffé de pouvoir mette en ligne une vidéo de son rival dans une situation vraisemblablement compromettante » suppose le média. « Nous atteignons un point où nous ne pouvons pas distinguer ce qui est vrai de ce qui est faux, c’est tout le marché de la vérité et de la vraisemblable qui se retrouve sens dessus dessous » s’inquiète dans le même article Virginia Johnson, professeur d’éthique à l’Université de Virginie. Du côté de Gizmodo, on voit déjà poindre les prémices d’un harcèlement en ligne massif et l’incitation délibérée à une violation du consentement numérique.

Nicolas Cage-porn

Ce n’est toujours pas Motherboard qui contredira ces dires, puisque, détaille le site, de nombreux forumeurs cherchent déjà à exploiter l’outil de reconnaissance faciale pour y introduire des photos de leurs collègues de classe ou de leurs exs. Chez Wired, plutôt que de s’angoisser, on s’échine à rappeler le traitement juridique des conséquences qu’un tel outil pourrait engendrer – en terme de revenge porn par exemple. Le fake porn tombe précisément sous le coup de la diffamation, le plus dur étant cependant de prouver que le montage initial a été composé à des fins d’humiliation – sinuosités de la législation oblige. Délicat souci puisque tout se joue sur « un étroit entre-deux« , déplore Danielle Citron, professeur de droit à l’Université du Maryland, « dans la mesure où l’on ne voit pas le vrai corps de la victime ».

Sorte de « porno non consensuel » voué à intentionnellement susciter « la détresse émotionnelle » d’éventuelles victimes selon The Verge, le fake porn chamboule moins la rédaction de Melty. Destiné  aux « vicelards du net« , l’article en question s’achève sur une curieuse supposition : « Comme pour les fake news, il va désormais falloir trier le vrai du faux quand on voudra se tirer une queue. A moins que le fake porn soit ta came, et dans ce cas-là, on te fait confiance pour trouver les bonnes adresses…« . Hum. Alors que certains tirent la sonnette d’alarme, d’autres subvertissent l’usage de l’application. Des génies du web utilisent ainsi FakeApp pour coller la tronche cabotine de Nicolas Cage sur tout et n’importe quoi. Indiana Jones, James Bond ou le Saturday Night Live, elle traîne partout, on vous dit ! L’humour reprend le dessus. Du bon usage d’une technique particulièrement retorse.

 

Aucun commentaire. Laisser un commentaire

Laisser un commentaire