Deep fakes: pourquoi il faut agir maintenant edit

16 décembre 2020

Une même réalité est appréhendée différemment selon son degré de cohérence avec nos systèmes de valeurs et de croyances : c’est un biais cognitif bien connu aujourd’hui. Comme le montrent des chercheurs en psychologie politique[1], nous avons une meilleure connaissance des faits qui corroborent nos vues personnelles ; inversement, nous tendons à ignorer les faits qui dérangent notre vision du monde.

C’est cette même disposition naturelle qui est flattée par les fake news : plutôt que se frotter à la dure tâche d’éduquer et de convaincre, pourquoi ne pas manipuler l’opinion en caressant et en exacerbant ses plus bas instincts ? Avec les deepfakes, on va un cran plus loin et on atteint un stade où, avec la meilleure volonté du monde, on ne peut démêler le vrai du faux. On ne peut que constater avec effroi les risques de polarisation de la société et d’atteintes à la démocratie.

Vérité alternative

La « vérité alternative » est florissante : à côté des informations sérieuses se sont développées sur Internet (on notera que les réseaux sociaux sont la première source d’information pour les Français de moins de 34 ans), un nombre considérable de fausses informations ou « deepfakes » dont certaines sont générées par des algorithmes de création de contenu de plus en plus perfectionnés (notamment les Generative Adversarial Networks - ou “GANs”).

Les outils techniques de cette « vérité alternative » ne sont pas forcément utilisés à des fins malveillantes. Nombreux sont ceux qui ont déjà utilisé ces algorithmes de « réalité recréée » sans le savoir. Se voir vieillir de plusieurs années à l’aide de l’application russe FaceApp, mettre un filtre pour que sa photo se transforme en tableau de Van Gogh, générer une musique, créer des baskets à l’aide de l’Intelligence artificielle (comme celles commercialisées par le collectif Obvious en partenariat avec Nike) ou encore créer un « même » avec le visage de son meilleur ami dans une scène de film mythique sont des exemples d’applications populaires et ludiques de ces technologies.

Mais ces « réalités recréées » quand elles sont utilisées à des fins de manipulation, sont d’autant plus redoutables qu’elles sont difficiles à repérer. Quelques exemples : l'élaboration de faux profils Twitter ou Linkedin, la création de vidéos mensongères à des fins de manipulation politique ou de vengeance personnelle (le « revenge porn » commence à être interdit dans certains états américains), la génération de faux discours très crédibles à l’aide de seulement une minute d’échantillon de voix, comme le propose la start-up canadienne Lyrebird, et les premières arnaques à la voix à l’aide de deepfake audio apparues en septembre 2019.

Faut-il pour autant bannir la technologie à l’origine des deepfakes, notamment les Generative adversarial networks (ou GANs) ? Ce serait une option naïve, car non seulement car il n’est à la portée d’aucun gouvernement d’entraver durablement la marche du développement technologique, a fortiori sur des sujets qui ne demandent, au fond, que des capacités à coder et des heures de développement, les unes et les autres étant aujourd’hui distribuées en abondances sur la planète. Par ailleurs ces techniques peuvent avoir des applications utiles dans de vastes domaines, allant de l’amélioration des prédictions épidémiologiques à l’assistance au handicap en passant par le divertissement et la création.

La question est donc, pour les pouvoirs publics aux différentes échelles, de trouver à la fois un bon angle pour traiter ces questions, et une prise sur laquelle appuyer l’action publique.

Quelle action publique?

Cela passe d’abord par une bonne identification des outils, avec un travail de veille pour comprendre de quoi les GANs sont-ils capables aujourd’hui  et comment ils fonctionnent.

Il y a ensuite un travail d’éducation et de sensibilisation de la population, par exemple pour apprendre à reconnaître un contenu produit par un algorithme d’intelligence artificielle, mais aussi pour se repérer dans un monde d’information où se glisseront inévitablement des deep fakes. Un tel travail demande des médiations (l’École, les associations, les médias, etc.), mais aussi une prise en compte des différents niveaux de sagacité en matière numérique, en fonction de l’âge par exemple.

Mais une démarche publique doit aussi avoir des leviers d’action et un cadre juridique. Quel est le cadre légal existant, comment le faire évoluer pour l’adapter aux nouveaux algorithmes ? A qui imputer la responsabilité d’un deepfake quand les auteurs de contenu agissent de façon anonyme ? Faut-il à cet effet distinguer la création et la diffusion, en insistant particulièrement sur une responsabilité des diffuseurs (individus, influenceurs, plateformes) ? Comment mettre en place un arsenal préventif et répressif efficace sans porter atteinte à la liberté d’expression ?

Face à ces enjeux, on peut d’ores et déjà pointer quelques stratégies. La première est de travailler à la bonne échelle, qui n’est plus seulement nationale ici. L’Europe, qui avec la RGPD a commencé à se constituer en « marché unique numérique », peut devenir un leader dans la lutte contre les deepfakes en se dotant de techniques de classification de contenu, en définissant des standards européens, en soutenant la recherche scientifique dans le domaine des algorithmes de génération de contenu et en favorisant les partenariats européens.

Deuxième stratégie, parmi les « diffuseurs », des individus aux multinationales, il en est un dont on peut renforcer la vigilance et la responsabilité, à l’échelle européenne là encore : les plateformes. L’UE a l’autorité et le poids nécessaires pour imposer à chaque plateforme la mise en place d’une structure de gouvernance interne sous supervision européenne, pour durcir les sanctions contre les diffuseurs en leur en imposant, entre autres, de communiquer aux autorités judiciaires les informations qu’elles détiennent.

La troisième stratégie est de construire un environnement réglementaire adapté à une lutte efficace contre les deepfakes en favorisant l’accès au droit des victimes, en réévaluant les sanctions pénales existantes contre les auteurs de deepfakes, et en renforçant au niveau national et supranational la responsabilité des plateformes.

L’Union européenne s’est construite en grande partie sur la protection de ses citoyens et consommateurs. Elle peut ici s’inscrire dans sa mission historique en s’attachant à protéger les citoyens de l’impact des deepfakes en faisant de leur répression un objectif européen pour 2021 mettant en place des campagnes de sensibilisation et en impliquant la société civile. 

Il est urgent en tout cas de réveiller les consciences sur l’enjeu que représente le développement non contrôlé des algorithmes de générations de contenu. Le cadre du Digital Services Act européen offre un espace pour développer ces stratégies.

[1] Jerit, Jennifer, et Jason Barabas. 2012. “Partisan Perceptual Bias and the Information Environment.” Journal of Politics 74 (3): 672–84.