Les dangers du fake porn en deep learning

Un algorithme peut-il être capable de créer du « look a like porn » ? Oui, à en lire Motherboard Vice,  qui nous apprend qu’une intelligence artificielle est parvenue à superposer le visage de l’actrice Gal Gadot (alias Wonder Woman) sur celui d’une pornstar. Inquiétant délire.

Quand le deep learning rencontre le « fake porn »

C’est sur le forum Reddit que tout cela se passe. L’extrait d’un POV tout ce qu’il y a de plus basique, sombre histoire de beau frère issue du site pour adultes Step Siblings Caught (Nubiles) et diffusé sur la plateforme SendVid nous dévoile la face d’une Gal Gadot plus vraie que nature…incrustée sur le corps d’une actrice pornographique. Une fantaisie geek comme tant d’autres : Internet regorge de « fake » et autres photoshopages bien dégueux et dégradants (Emma Watson en sait quelque chose). Sauf que cette transmutation a été créée par le biais d’un algorithme disponible en open source, exploitant et confrontant des données (vidéos et photos) afin d’engendrer un résultat saisissant de réalisme. Soit un outil d’apprentissage automatique (machine learning) similaire à des applis facilement trouvables sur la Toile – celles d’Adobe, TensorFlow ou Face2Face. Ce qui nous amène dans un concept beaucoup plus réel que la simple idée de Fuxtaposition ou les selfies SFW en réalité augmentée des filtres de mélange de visages proposés par Snapchat ou Instagram.

Responsable du montage, l’internaute deepfakes s’est également plu à intégrer au sein de scènes hardcore les visages de Scarlett Johansson, Taylor Swift, Aubrey Plaza et Maisie Williams. Sa technique ? Le deep learning, méthode d’apprentissage et d’assimilation des formes et du langage par un programme informatique. A l’image de Siri par exemple, qui reconnaît notre voix. Pour compiler les visages d’actrices, le Redditer s’est servi de de Google Images, YouTube et Shutterstock. On entend le caractère malsain de la chose : violer le consentement et l’intimité d’une actrice, détériorer son image publique, inciter au slut shaming, la triturer comme un gif. Mais cet « Internet is for porn » nous concerne tout autant : et si n’importe quel gus était capable d’insérer notre visage dans une vidéo X ?

« Les risques de revenge porn sont considérables »

Capture d’écran SendVids

« L’aisance avec laquelle il est possible de faire cela est effrayante » déclare Alex Champandard. Ce chercheur en intelligence artificielle nous rappelle que « 24 milliards de selfies [ont été] dénombrés sur Google Photos entre 2015 et 2016« . De quoi constituer une database aisément exploitable, propice à d’indénombrables et malveillants face-swap (échange de visages). Interrogée par The Verge, l’experte en sexualité Kate Devlin tire la sonnette d’alarme : « les risques de fake news et de revenge porn sont considérables« . Champandard, lui, parle carrément d’une nouvelle forme de « propagande » permise par l’intelligence artificielle. Derrière la paranoïa, Motherboard tient à relativiser les choses. Les montages de deepfakes ne sont pas parfaits. Il arrive que le visage se déforme et vire de traviole. On est loin d’une Carrie Fisher ou d’un Paul Walker numériques. N’empêche, les faits sont là. Les liaisons entre nouvelles technologies et porno sont parfois excitantes, parfois dangereuses. Reste à savoir jusqu’où s’étendra cette lubie du fake ultraperfectionné…

 

1 commentaire Voir les commentaires

Laisser un commentaire