Au cours de la campagne électorale fédérale de 2015 au Canada, un certain nombre de candidats se sont retirés après que des vidéos compromettantes et des messages affichés dans le passé sur les médias sociaux ont été rendus publics en ligne 1. Leur contenu variait, mais les vidéos et les messages affichés avaient au moins une chose en commun : les candidats ne niaient pas la véracité de leur contenu.
Aujourd'hui, cependant, en raison du développement rapide de ce que l'on appelle la technologie d'hypertrucage ou de permutation intelligente de visages, les Canadiens ne peuvent pas nécessairement faire confiance aux vidéos qu'ils regardent ou aux extraits audio qu'ils entendent.
La technologie d'hypertrucage, selon une définition, « met à profit les algorithmes d'apprentissage automatique pour insérer des visages et des voix dans des enregistrements vidéo et audio de personnes réelles, et permet la création d'impostures réalistes 2 ». Autrement dit, la technologie « fait qu'il est possible de créer des enregistrements audio et vidéo de vraies personnes en train de dire et de faire certaines choses qu'elles n'ont jamais dites ou faites 3 ».
Alors qu'auparavant, seule la communauté de recherche sur l'intelligence artificielle s'y intéressait, la technologie de permutation intelligente de visages a retenu l'attention du public pour la première fois en décembre 2017, lorsqu'un utilisateur anonyme du forum en ligne Reddit, sous le pseudonyme « Deepfakes », a commencé à afficher des vidéos pornographiques de synthèse dans lesquelles les visages de célébrités étaient superposés de façon convaincante à ceux des acteurs et actrices originaux 4. Au cours de la même période, le même utilisateur a lancé une trousse logicielle qui permettait à d'autres personnes de produire leurs propres vidéos de synthèse 5. La Defence Advanced Research Projects Agency (DARPA) – un organe du ministère de la Défense des États-Unis – est d'avis qu'aujourd'hui, même une personne relativement peu qualifiée peut « manipuler et déformer le message des médias visuels 6 ».
Le grand public a été prévenu pour la première fois des répercussions possiblement subversives de la technologie d'hypertrucage en juillet 2017, lorsque des chercheurs de l'Université de Washington ont publié une vidéo synthétique de l'ancien président américain Barack Obama 7. Mais c'est sans contredit une vidéo hypertruquée du président Donald Trump qui a démontré la facilité avec laquelle la technologie pouvait servir à duper les électeurs. Cette vidéo, intentionnellement de piètre qualité, dans laquelle le président américain conseillait aux Belges de se retirer de l'Accord de Paris sur le climat, a été diffusée dans les médias sociaux en mai 2018 par un parti politique belge 8.
Comme l'ont signalé les professeurs de droit américains Robert Chesney et Danielle Citron dans un article rédigé en juillet 2018, « la possibilité d'influencer le résultat d'une élection est très réelle, en particulier si l'attaquant est en mesure de procéder à la distribution au bon moment, de sorte que la fausse vidéo puisse circuler suffisamment longtemps sans que la victime n'ait le temps de la réfuter efficacement 9 ».
La communauté juridique canadienne a lentement commencé à s'intéresser à la façon dont le droit canadien peut s'attaquer à l'utilisation potentiellement malveillante de la technologie de permutation intelligente de visages.
L'article de Chesney et Citron, même s'il présente une évaluation exhaustive d'éventuelles solutions d'ordre juridique et non juridique à l'hypertrucage, porte entièrement sur le contexte américain 10. Au moment de la rédaction de la présente publication, les équivalents canadiens les plus proches de ce travail étaient trois courts articles publiés par deux cabinets juridiques différents 11.
Un des articles résume un certain nombre de motifs d'action 12 prévus dans le droit canadien actuel qui pourraient être utilisés « pour réparer les torts causés par le mauvais emploi ou l'abus de la technologie d'hypertrucage par un individu 13 ». Voici quelques exemples tirés de cet article :
Bien que les parlementaires et les personnes qui aspirent à être élues puissent se tourner vers ces motifs d'action s'ils sont victimes d'une utilisation abusive de la technologie de permutation intelligente de visages, la Loi électorale du Canada 18 contient des dispositions qui visent plus directement les scénarios où la technologie est utilisée pour influencer ou perturber une élection canadienne. Comme l'un des auteurs des articles mentionnés plus haut, Pablo Jorge Tseng, l'a expliqué lors de sa comparution devant le Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes en octobre 2018 :
En ce qui concerne les élections, nous voulons souligner que le Parlement a été avant-gardiste. En effet, en 2014, il a ajouté à la Loi électorale [du Canada] une disposition sur l'usurpation d'identité de certains types de personnes dans le cadre du processus électoral. Même si de telles dispositions ne ciblent pas précisément les deepfakes vidéos, de telles vidéos pourraient très bien être visées par la disposition en question 19.
M. Tseng faisait référence à l'article 480.1 de la Loi électorale du Canada (qui a été modifié en décembre 2018 et est devenu le par. 480.1(1)) 20. Cet article, ajouté par la Loi sur l'intégrité des élections de 2014, porte sur l'usurpation de qualité, mais d'autres motifs pourraient être invoqués en vertu de la Loi afin de poursuivre les auteurs d'hypertrucages, notamment de nouvelles dispositions créées par la plus récente Loi sur la modernisation des élections, comme la publication de fausses déclarations pour influencer le résultat d'une élection (par. 91(1)) et la distribution, la transmission ou la production de publications trompeuses (par. 481(1)) 21.
Une déclaration de culpabilité pour certaines de ces infractions peut entraîner une amende maximale de 50 000 $ et une peine d'emprisonnement de cinq ans, ou l'une de ces peines. Autrement dit, la Loi électorale du Canada contient des dispositions qui, dans une certaine mesure, abordent de façon proactive la menace posée par l'hypertrucage.
À l'instar de M. Tseng, Michael Pal, professeur à l'Université d'Ottawa spécialisé en droit électoral, a soulevé la possibilité que les dispositions relatives à l'usurpation de qualité de la Loi électorale du Canada (art. 480.1) puissent s'appliquer à l'hypertrucage. Dans un balado du 28 novembre 2018, M. Pal fait écho à l'argument de M. Tseng au sujet de l'article 480.1, mais ajoute qu'il est loin d'être évident que l'hypertrucage pourrait être visé par ces dispositions 22.
M. Pal souligne également que les exceptions aux fins de « parodie ou de satire » ajoutées à l'article 480.1, bien que nécessaires pour protéger la liberté d'expression, rendent les poursuites d'autant plus improbables du fait du niveau élevé de subjectivité entourant cette distinction 23. Mentionnons que le nouvel article 481 sur les publications trompeuses de la Loi électorale du Canada contient également une exception aux fins de parodie et de satire.
À première vue, les dispositions du paragraphe 91(1) de la Loi électorale du Canada qui visent la publication de fausses déclarations pour influencer le résultat d'une élection pourraient aussi être invoquées pour engager des poursuites en cas d'utilisation malveillante d'hypertrucages au cours d'une campagne électorale. Même si ce paragraphe de la Loi électorale du Canada était auparavant libellé en termes généraux, les modifications apportées au libellé par la Loi sur la modernisation des élections circonscrivent les types de fausses déclarations qui sont interdits.
Publication de fausses déclarations pour influencer le résultat d'une élection
91 (1) Il est interdit à toute personne ou entité, pendant la période électorale, de faire ou de publier avec l'intention d'influencer les résultats d'une élection,
- une fausse déclaration selon laquelle un candidat, une personne qui désire se porter candidat, le chef d'un parti politique ou une personnalité publique associée à un parti politique a commis une infraction à une loi fédérale ou provinciale ou à un règlement d'une telle loi, a été accusé d'une telle infraction ou fait l'objet d'une enquête relativement à une telle infraction;
- une fausse déclaration concernant la citoyenneté, le lieu de naissance, les études, les qualifications professionnelles ou l'appartenance à un groupe ou à une association d'un candidat, d'une personne qui désire se porter candidat, du chef d'un parti politique ou d'une personnalité publique associée à un parti politique.
Dans ses notes d'allocution pour une comparution devant le Comité plénier du Sénat du Canada le 6 novembre 2018, le commissaire aux élections fédérales, Yves Côté, qui a pour fonction de faire appliquer la Loi électorale du Canada, a prévenu, sans faire expressément mention de l'hypertrucage, que les modifications apportées à l'article 91 étaient « indûment restrictive[s] » et qu'elles pouvaient limiter les fausses déclarations à des faussetés bien précises, par exemple la citoyenneté ou le lieu de naissance d'un candidat 24. Il a également indiqué ce qui suit :
Toute une gamme de fausses déclarations qui sont visées par l'infraction actuelle prévue à l'article 91 ne le seraient plus.
Plus spécifiquement, les fausses allégations portant sur un acte ou une conduite qui viole clairement les normes acceptées de la communauté sans toutefois constituer un acte criminel, seraient dorénavant exclues de la portée de l'infraction 25.
Le 30 janvier 2019, le gouvernement du Canada a dévoilé son « plan pour protéger l'élection canadienne de 2019 » lequel comprend plusieurs éléments qui pourraient être utilisés pour atténuer l'impact de la technologie d'hypertrucage 26. L'un de ces éléments est le Protocole public en cas d'incident électoral majeur, un processus qui comprend un groupe d'experts non partisan composé du greffier du Conseil privé, du conseiller à la sécurité nationale et au renseignement et des sous-ministres de la Justice, de la Sécurité publique et d'Affaires mondiales Canada 27. Ce protocole « serait utilisé en réponse à des incidents graves atteignant un seuil d'intervention élevé, qui se produisent pendant la période électorale et qui ne relèvent pas des domaines de responsabilité d'Élections Canada pour l'administration efficace des élections 28 ». Si, par exemple, le gouvernement du Canada prenait connaissance de matériel hypertruqué considéré comme une tentative d'ingérence dans une élection, les chefs des organismes de sécurité nationale du Canada en aviseraient le groupe responsable de la mise en œuvre du Protocole public en cas d'incident électoral majeur, qui déciderait alors de la marche à suivre.
Le plan pour protéger l'élection consacre 7 millions de dollars à l'appui des programmes de connaissance numérique, médiatique et civique. Il met aussi en place de façon permanente un Groupe de travail sur les menaces en matière de sécurité et de renseignements visant les élections, composé du Service canadien du renseignement de sécurité, de la Gendarmerie royale du Canada, d'Affaires mondiales Canada et du Centre de la sécurité des télécommunications, dont l'objectif est d'empêcher que des « activités secrètes, clandestines ou criminelles […] entravent ou influencent les processus électoraux du Canada 29 ».
Outre son apport auprès du nouveau Groupe de travail sur les menaces en matière de sécurité et de renseignements visant les élections, le Centre canadien pour la cybersécurité, hébergé par le Centre de la sécurité des télécommunications, a publié le 8 avril 2019 une mise à jour de son rapport du mois de juin 2017, intitulé Cybermenaces contre le processus démocratique du Canada. Le rapport initial ne mentionnait pas la technologie de permutation intelligente de visages et n'abordait que brièvement et de façon générale les efforts déployés par l'organisme pour atténuer d'autres cybermenaces. La mise à jour, cependant, fait observer ce qui suit :
Une nouvelle technologie a donné lieu à une menace émergente : la permutation intelligente des visages, qui permet de créer des vidéos de synthèse souvent impossibles à distinguer des séquences réelles. Les adversaires étrangers peuvent se servir de cette nouvelle technologie pour tenter de discréditer les candidats et d'influencer les électeurs, par exemple en créant une fausse vidéo d'un candidat donnant un discours controversé ou le montrant dans une situation embarrassante.
Les améliorations dans le domaine de l'intelligence artificielle sont susceptibles de renforcer les activités d'ingérence en plus d'en augmenter la précision et d'en améliorer le rapport coût-efficacité. Les technologies en évolution fondées sur l'intelligence artificielle, comme la permutation intelligente des visages, permettront presque certainement aux auteurs de menace de créer, avec plus de souplesse et d'efficacité, du contenu faux ou trompeur visant à influencer les électeurs, et rendront les activités d'ingérence étrangère en ligne plus difficiles à détecter et à atténuer 30.
En dernier lieu, le 11 décembre 2018, le Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes a publié un rapport qui comportait une recommandation au sujet de l'hypertrucage : que les plateformes de médias sociaux – le principal instrument utilisé pour faire circuler du contenu vidéo ou audio hypertruqué – respectent un code de pratique les obligeant à retirer « le contenu diffamatoire, frauduleux et manipulé à des fins malveillantes (p. ex., les vidéos contrefaites appelées “deep fake”) 31 ». Le Comité a demandé une réponse du gouvernement à ce rapport, qui a été soumise à la Chambre des communes le 10 avril 2019. Dans sa réponse, le gouvernement a déclaré qu'« ([i]l incombe toutefois aux responsables de ces plateformes de s'assurer qu'elles ne deviennent pas, entre les mains d'acteurs malveillants, des moyens d'ingérence dans les processus démocratiques », que le gouvernement continuera de surveiller leur comportement, et qu'il « compte sur les plateformes pour qu'elles agissent et adoptent des mesures particulières pour augmenter la transparence, l'authenticité, l'intégrité et pour lutter contre la propagation de la désinformation 32 ».
Aux États-Unis, une percée prometteuse est la mise en œuvre du programme d'examen judiciaire des médias (MediFor) de la DARPA, qui tente de contrer la menace de l'hypertrucage en temps réel. Selon l'agence,
si elle est couronnée de succès, la plateforme de MediFor détectera automatiquement les manipulations, fournira des renseignements détaillés sur la façon dont ces manipulations ont été exécutées, et examinera l'intégrité globale du média visuel pour faciliter la prise de décisions concernant l'utilisation de toute image ou vidéo douteuse 33.
À l'heure actuelle, cependant, la DARPA croit que le contexte favorise les manipulateurs de contenu audio et vidéo qui peuvent de plus en plus être à peu près n'importe qui 34. « Ces manipulations pourraient être le fait d'un pays tentant d'influencer une action politique ou militaire. Elles pourraient provenir d'un petit groupe aux ressources limitées » a expliqué Matt Turek, le directeur du programme MediFor, au magazine The New Yorker à la fin de 2018. « Théoriquement, elles pourraient être le fait d'un seul individu 35. »
Au cours de la campagne électorale fédérale de 2015, les partis politiques ont dû faire face à des canulars téléphoniques affichés sur la plateforme de partage de vidéos YouTube, à des enregistrements vidéo de comportements inappropriés en milieu de travail et à l'affichage de messages offensants dans les médias sociaux 36. Au cours de la campagne électorale fédérale de 2019, ils pourraient aussi devoir faire face à du contenu vidéo ou audio hypertruqué présenté comme provenant prétendument de leurs candidats.
Les modifications apportées à la Loi électorale du Canada qui ont permis d'ajouter les infractions d'usurpation de qualité et de publications trompeuses, de même que la mise en œuvre du Protocole public en cas d'incident électoral majeur et la création du Groupe de travail sur les menaces en matière de sécurité et de renseignements visant les élections, pourraient partiellement contrer la menace. Les travaux de recherche menés dans le cadre du programme MediFor aux États-Unis pourraient aboutir sur la mise en œuvre d'un outil qui s'avérera indispensable à l'avenir. Pour le moment, toutefois, il reste à voir si ces mesures seront suffisantes pour atténuer les répercussions du contenu vidéo ou audio hypertruqué 37.
* Étant donné la nouveauté de la technologie concernée, il n'existe pas encore de terme français reconnu à grande échelle pour la traduction du concept anglais de « deep fake ». On trouvera donc en français aussi bien « permutation intelligente de visages », « fausse vidéo plus vraie que nature », « hypercontrefaçon », « contrefaçon profonde », « deepfake », etc. Au moment de la rédaction de la présente publication, l'Office québécois de la langue française recommande l'utilisation du terme « hypertrucage ». C'est donc ce terme qui a été adopté ici. [ Retour au texte ]
† Les documents de la série En bref de la Bibliothèque du Parlement sont des survols de sujets d’actualité. Dans certains cas, ils donnent un aperçu de la question et renvoient le lecteur à des documents plus approfondis. Ils sont préparés par le Service d’information et de recherche parlementaires de la Bibliothèque, qui effectue des recherches et fournit des informations et des analyses aux parlementaires, ainsi qu’aux comités du Sénat et de la Chambre des communes et aux associations parlementaires, et ce, de façon objective et impartiale. [ Retour au texte ]
© Bibliothèque du Parlement