Ecoutez Radio Sputnik
    Intelligence artificielle

    Politiques, humoristiques, pornographiques… les deepfakes, armes de désinformation massive?

    CC0 / Pixabay
    International
    URL courte
    Par
    10193
    S'abonner

    Faire dire n’importe quoi, à n’importe qui. Le phénomène du deepfake prend de l’ampleur et inquiète. En cause? La difficulté de distinguer ces fausses vidéos en raison d’un niveau de réalisme toujours plus grand. Sputnik s’est entretenu avec Yannick Harrel, expert en cyberstratégie, afin de comprendre les problèmes posés par cette technologie.

    Les deepfakes n’en finissent plus de faire parler. Depuis quelques jours, l’application chinoise ZAO, qui permet à ses utilisateurs de remplacer dans une séquence vidéo, le visage d’une célébrité par le vôtre, ou celui d’un ami, fait un véritable tabac. Un succès qui soulève, outre la question de la protection des données, de nombreuses questions.

    En effet, le face-swapping est un exemple de deepfake (combinaison de Deep Learning et fake) qui consiste à générer ou manipuler, de manière très réaliste, une vidéo grâce à l’intelligence artificielle. Plus particulièrement, les deepfakes reposent sur la technique des réseaux adversatifs générateurs (GAN), une technique de Machine learning. Le principe est simple: à partir d’images données, un premier algorithme tente de générer une image fausse mais réaliste, tandis qu’un second algorithme cherche à détecter si celle-ci est fausse. Les deux algorithmes s’entraînent et progressent mutuellement jusqu’au moment où le premier algorithme produit de fausses vidéos si réelles que le second n’arrive plus à détecter l’imposture.

    La chaîne YouTube Ctrl Shift Face donne un aperçu des possibilités du deepfake. Par exemple, une des vidéos transforme l’acteur Bill Hader en Arnold Schwarzenegger.

    Néanmoins, si ce type de montage, bien que troublant, reste divertissant et inoffensif, d’autres applications ont, quant à elles, dépassé les limites. On pense notamment au phénomène du fake porn qui fait «participer» des célébrités comme Gal Gadot (Wonder Woman) ou Scarlett Johansson dans des films à caractère pornographique, en plaquant leur visage sur celui de véritables actrices de film X.

    À croire que le deepfake et le sexe font malheureusement bon ménage, l’application Deep nude, récemment censurée, permettait à ses utilisateurs de «déshabiller» virtuellement des femmes lambda en prenant simplement un cliché d’elles dans la rue. L’algorithme de l’application, utilisant des analyses poussées, proposait de dévoiler une version potentielle de leurs parties intimes.

    Malgré le caractère dérangeant de ce type d’application, les conséquences des deepfakes d’un point de vue politique, voire géopolitique, pourraient être beaucoup plus graves. En effet, on se rappelle la vidéo partagée par le média Buzzfeed, où des termes injurieux à l'égard de Donald Trump sont énoncés par un faux Barack Obama.

    Yannick Harrel, expert et chargé de cours en cyberstratégie, auteur de nombreux ouvrages sur le cyberespace et de stratégies de la donnée, a détaillé à Sputnik les écueils de cette technologie.

    Sputnik France: on sait que la diffusion massive de fake news repose en grande partie sur des biais de confirmation. Avec des vidéos créées grâce à des IA qui permettent de faire tenir tel ou tel propos à une personnalité publique ou politique, le deep fake est-il un phénomène plus préoccupant que celui des infox?

    Yannick Harrel: «le "deepfaking" est une évolution de ce qui existait déjà depuis de nombreuses années. Pourtant, deux éléments lui ont permis de franchir un cap tant qualitatif que quantitatif: la datamasse et l'intelligence artificielle auxquels vous ajoutez une puissance de calcul démultipliée linéairement depuis les années 1970 (loi de Moore) […] Sur le principe donc, rien de nouveau depuis l'avènement de l'enregistrement des données visuelles. On peut citer de nombreuses retouches photographiques sur différents supports. Par exemple, en 1864 avec le général Ulysse S.Grant au front pendant la guerre de Sécession (association de trois photographies différentes pour en créer une), le requin qui émerge de l'eau à proximité d'un homme de l'US Air Force hélitreuillé.

    ​On pourrait également parler de l'effacement de Léon Trotski et Lev Kamenev en 1920 ou encore le tir de quatre Shahab-3 iraniens en lieu et place de trois en 2008. […]

    Néanmoins, là où le procédé est toutefois plus complexe et remarquable, c’est que les retouches sont désormais réalisées en temps réel à l’image des réalisations du vidéaste Ctrl Shift Face.

    Et pour cause, on passe de l'image fixe à de l'image en mouvement, la difficulté est donc accrue. De ce fait, on pourrait être susceptible de donner encore plus de crédibilité à ce qui est techniquement plus compliqué. D'où le risque de méprise en visionnant certaines vidéos puisque leur manipulation est censée être bien plus improbable que de simples photographies.»

    «N'oublions pas l'aspect psychologique pour de nombreux spectateurs crédules qui se traduirait par: je ne crois que ce que je vois ».

    Sputnik France: quelles sont les utilisations potentielles du deepfaking?

    Yannick Harrel: «elles sont pléthore: politique, humoristique, pornographique, pédagogique, etc. Le plus compliqué est de discerner les productions du deepfaking. À ce titre, on peut conjecturer que l'intelligence artificielle sera une réponse à cette problématique, et ce de façon ironique puisque ce procédé technique n'aurait pu connaître cet essor sans son apport. Cela laisse entrevoir, dans le futur, une lutte entre intelligences artificielles dont on peine à mesurer les conséquences plus larges.»

    Sputnik France: Comment peut-on réussir à se prémunir contre ce phénomène?

    Yannick Harrel: «pour se prémunir contre ce phénomène, le mieux est déjà de ne pas diffuser ses photographies sur de multiples réseaux sociaux. Nous savons pertinemment que ceux-ci exploitent ces données, y compris graphiques, à leur profit ou au profit de partenaires commerciaux.

    Lutter a posteriori contre ces pratiques de deepfaking est très compliqué. En effet, cela nécessite de la part de l’intéressé d'opérer un démenti officiel, de tenter une conciliation avec la plateforme éditrice, de saisir la CNIL (Commission Nationale Informatique et Libertés) pour un constat et une médiation assortie d'une sanction en cas de refus et, solution extrême, de saisir la justice.

    Ce procédé technique a le mérite de nous rappeler que notre patrimoine ne se limite pas simplement à nos biens matériels ou immatériels mais aussi à notre personne. Selon les pays, le droit à l'image est protégé plus ou moins fortement mais il existe, et peut justifier l'intervention de la justice. Cependant, je rappelle qu'un minimum de précaution est nécessaire avant toute diffusion volontaire de sa représentation visuelle et qu'une entreprise ou une administration employant illégalement ou transférant celle-ci est susceptible de poursuites.»

    Sputnik France: selon vous, les deepfakes peuvent-elles devenir une «arme» pour des gouvernements dans une optique de guerre informationnelle?

    Yannick Harrel: «Bien évidemment, le deepfake est une arme informationnelle comme les autres pouvant servir à divers desseins des gouvernements, soit à destination interne, soit à destination externe. C’est une arme d'autant plus crédible que les moyens mis en service peuvent être ridicules eu égard aux effets attendus selon les individus visés et les situations souhaitées (confusion, altération, aggravation ou éviction).

    Or, par le passé, comme rappelé précédemment, certaines photographies retouchées avaient été employées à remonter le moral des troupes, discréditer une section politique dissidente ou attribuer indûment un évènement à une puissance concurrente. Toute cyberpuissance intervient sur les trois couches disponibles: logicielle, matérielle et informationnelle.»

    «Si certains utilisateurs emploient le deepfaking pour assouvir de bas instincts, certains États l'emploient pour assouvir de basses œuvres.»

    Tags:
    big data, IA, deep nude, Fake porn
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik