MONTRÉAL — Plus de 80 % des Canadiens sont inquiets des conséquences que pourrait avoir l’utilisation de l’intelligence artificielle (IA) dans un contexte d’élections, selon un récent sondage. Une inquiétude compréhensible, disent des experts.
«C’est une inquiétude qu’il est raisonnable d’avoir aujourd’hui par rapport aux progrès de l’intelligence artificielle», concède d’emblée Gaétan Marceau Caron, directeur principal en recherche appliquée en apprentissage automatique à l’Institut québécois d’intelligence artificielle.
Mais selon lui, cette inquiétude est trop vague et mériterait d’être précisée. C’est ainsi le rôle du chercheur de tenter de clarifier «où sont les réels dangers», quelles sont les capacités et les limites actuelles de l’IA, souligne-t-il.
M. Marceau Caron pense que c’est surtout en étant combinée avec les réseaux sociaux que la technologie de l’intelligence artificielle présente un grand risque en matière de désinformation. Alors que les réseaux sociaux permettent de propager des idées très rapidement, l’IA est capable de créer toutes sortes de contenus en un clin d’œil.
«Admettons qu’il y ait toujours 1 % des mèmes qui fonctionnent, au lieu d’en faire peut-être 100 par année, on peut en faire des millions avec une technologie qui est capable de générer un narratif», explique-t-il.
«Ensuite, cette description textuelle peut être utilisée pour créer des images, des interviews avec la parole, avec de la vidéo et générer vraiment des contenus qui vont venir (appuyer) ce narratif.»
Et ce sont ces contenus, tels que les fameuses vidéos truquées qu’on appelle les «deep fakes», qui sont de plus en plus difficiles à identifier comme faux ou mensongers. Le sondage Abacus Data commandé par CPAC rapporte d’ailleurs que 62 % des personnes sondées n’étaient pas sûres ou pas convaincues de pouvoir identifier le recours à l’IA pour la diffusion de fausses informations dans le cadre d’une élection.
Si des outils technologiques existent bel et bien pour distinguer le vrai du faux, l’IA est constamment en train de se perfectionner, souligne M. Marceau Caron.
«La technologie va continuer à progresser du moment qu’il y a des laboratoires de recherche et des compagnies qui veulent pousser cette technologie. On peut s’attendre dans les prochaines années à une amélioration constante ou même accélérée des capacités de cette technologie.»
Un climat de suspicion
Malgré une menace bien réelle, la directrice du Centre d’études sur les médias, Colette Brin, se demande si alerter le grand public sur les risques que représente l’IA peut parfois être contre-productif.
«On peut le voir du bon côté et se dire que les gens sont conscients que c’est un problème, ils sont conscients que leurs capacités sont limitées. Mais en même temps cette inquiétude peut être néfaste. (…) Ce qui inquiète beaucoup d’experts, c’est que le fait qu’on sait qu’il y a beaucoup de désinformation, ça nous fait douter de tout y compris des informations vérifiées», souligne-t-elle.
La spécialiste des médias note toutefois qu’au Canada francophone et au Québec, le contexte est différent de celui du reste du Canada ou des États-Unis. Ces communautés sont en effet rarement visées par des campagnes de désinformations utilisant l’IA, rapporte-t-elle.
«On est une population relativement petite et qui parle français. En plus, on a une façon de parler, des expressions locales spécifiques. Il faut que les producteurs de ‘deep fakes’ soient capables de reproduire cette façon de parler, ce qui n’est pas souvent le cas. C’est plus facile de détecter les faux», dit-elle.
La relation avec l’écosystème médiatique est aussi plus étroite, plus familière et la confiance demeure plus grande que dans le reste du Canada, même si elle décline comme ailleurs.
La préoccupation face à l’utilisation de l’IA dans un contexte d’élection est d’ailleurs moins grande au Québec que dans les autres provinces, même si elle est forte puisqu’elle s’exprime chez 77 % des répondants québécois.
L’enquête commandée par CPAC a été effectuée en avril 2024 et s’intitule «Désinformation, Démocratie et Culture». Abacus Data a interrogé 2001 résidants canadiens de 18 ans et plus. La marge d’erreur pour un échantillon de cette taille est de plus ou moins 2,19 %, 19 fois sur 20.