•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Ottawa fait-il fausse route avec sa loi sur l’IA?

Certains experts jugent que le ministère de l'Innovation manque d'impartialité dans sa gestion du dossier.

Le ministre de l'Innovation, des Sciences et de l'Industrie, François-Philippe Champagne.

Le ministre de l'Innovation, des Sciences et de l'Industrie, François-Philippe Champagne, a présenté lors de la conférence «All In sur l'intelligence artificielle», le « Code de conduite volontaire visant un développement et une gestion responsables des systèmes d'IA générative avancés », le 27 septembre 2023.

Photo : Radio-Canada / Ivanoh Demers

Qualifiée de « coquille vide » qui arrive « trop tard », la Loi sur l’intelligence artificielle et les données (LIAD), proposée par le gouvernement fédéral l’an dernier, n’est « pas du tout satisfaisante », selon des experts.

Alors que l’Europe et les États-Unis cherchent tant bien que mal à réguler l’industrie de l’intelligence artificielle, le Canada s'efforce lui aussi, avec la LIAD, d’établir des balises claires pour encadrer cette technologie, de son élaboration à ses usages en passant par sa mise en marché.

Toutefois, depuis le dépôt du projet de loi en Chambre, en juin 2022, des spécialistes de l’intelligence artificielle, des universitaires et des organisations ont soulevé de fortes inquiétudes quant à la portée et au contenu de cette loi.

Une des mesures phares de la loi est au cœur de leurs préoccupations : laisser à l'industrie de l'intelligence artificielle au Canada le rôle de s'autoréguler.

Qu’est-ce que la LIAD?

  • La Loi sur l’intelligence artificielle et les données (LIAD) est la troisième partie du projet de loi C-27.
  • Le projet de loi C-27 vise principalement à réformer la Charte canadienne du numérique et à renforcer la protection des données personnelles des Canadiens.
  • L'objectif et le « point fort » de la LIAD consistent à obliger juridiquement les entreprises qui œuvrent dans le secteur de l'IA à évaluer le niveau de risque que comportent leurs outils d'intelligence artificielle, et ce, dès leur conception.
  • Le gouvernement fédéral a déclaré que le projet de loi n'entrera pas en vigueur avant 2025.

Un projet de loi teinté pour soutenir l’innovation?

Ce n’est pas satisfaisant […], surtout dans des systèmes qui comportent des risques importants, affirme Andréanne Sabourin Laflamme, chercheuse à l'Observatoire international sur les impacts sociétaux de l'IA (OBVIA) et cofondatrice du Laboratoire d’éthique du numérique et de l’IA (LEN.IA). On ne peut pas faire confiance aux entreprises, compte tenu de [leurs] objectifs mercantiles, pour qu’elles puissent s'autoréguler de manière à protéger les citoyens.

Selon cette spécialiste, une mesure législative concrète pour encadrer les activités de ce secteur est nécessaire. Ça va prendre un coup de barre au niveau étatique, ajoute-t-elle.

Ses critiques s’ajoutent aux inquiétudes soulevées par la Ligue des droits et libertés et par 45 autres organisations dans une lettre adressée au gouvernement fédéral le 25 septembre dernier. (Nouvelle fenêtre)

Ces groupes déplorent entre autres le manque de consultations publiques et jugent qu’il est inopportun que la réglementation de l’intelligence artificielle soit entièrement placée sous les auspices d’Innovations, Sciences et Développement économique Canada (ISDE), dont le mandat est de soutenir le développement économique de l’industrie de l’intelligence artificielle.

On sent que [le Canada] veut encadrer, mais surtout, on ne veut pas freiner l’innovation. […] Le projet de loi est un peu teinté par cette volonté-là.

Une citation de Andréanne Sabourin Laflamme, professeure de philosophie et chercheuse spécialisée dans l'éthique de l'IA

De son côté, le cabinet du ministre de l’Innovation, des Sciences et de l’Industrie répond qu’il est essentiel de moderniser la protection des données personnelles des Canadiens et que le gouvernement fédéral s’attend à ce que les entreprises protègent adéquatement les données personnelles des Canadiens . La porte-parole du cabinet ajoute que le projet de loi C-27 confère au commissaire à la protection de la vie privée de nouveaux pouvoirs lui permettant d’ordonner aux entreprises aux règles de protection de la vie privée des Canadiens .

Contenir la désinfomation générée par l’IA

Alors que le Centre canadien de cybersécurité (CCC) désigne la désinformation comme des risques liés à l’intelligence artificielle générative, plusieurs experts sonnent l’alarme et encouragent le gouvernement à légiférer pour atténuer ces risques.

En mai dernier, durant la conférence C2 Montréal, l’expert en intelligence artificielle Yoshua Bengio a encouragé le gouvernement fédéral à inclure des dispositions à la loi canadienne pour combattre la menace de la désinformation causée par des images, des vidéos et des voix générées par l'intelligence artificielle, par exemple.

Yoshua Bengio discute lors d'une conférence à Montréal le 24 mai 2023.

Yoshua Bengio, vu ici à Montréal lors de la conférence C2 Montréal

Photo : (Christinne Muschi/The Canadian Press)

Le gouvernement fédéral semble avoir répondu à l'appel.

Le 26 septembre dernier, lors de l'examen du projet de loi C-27 par le Comité permanent de l'industrie, des sciences et de la technologie (INDU), le ministre François-Philippe Champagne a proposé des modifications à la Loi sur l'intelligence artificielle et les données (LIAD), y compris des modifications qui permettraient de s'assurer que les Canadiens puissent identifier le contenu généré par l'IA.

Ces modifications stipulent que l'industrie doit prendre des mesures pour aider le public canadien à bien repérer le contenu audiovisuel et les textes générés par l'IA.

Il y a un manque de transparence sur l'utilisation de l'IA, ce qui fait qu'on ne sait pas nécessairement s'il y a eu de l'IA générative pour [créer] des images, des vidéos ou des textes, explique Céline Castets-Renard, professeure titulaire de droit à l’Université d’Ottawa et titulaire de la Chaire de recherche de cette université sur l’intelligence artificielle responsable à l'échelle mondiale.

Ce qui change avec l'IA générative, c'est qu'une partie de la population n'est pas nécessairement au courant de l'existence de ces faux, et donc, pour une partie de la population, il y a toujours l'idée : "Si je le vois, si c'est dit, c'est que c'est vrai"­, ajoute la chercheuse.

Le ministre François-Philippe Champagne est revenu à la charge le 27 septembre dernier en annonçant un code de conduite volontaire pour l'industrie de l'intelligence artificielle. On y mentionne la capacité [d’acteurs malveillants] de produire des images et des vidéos réalistes ou de se faire passer pour de vraies personnes [de manière à] permettre des tromperies d'une envergure qui peut nuire à d'importantes institutions, notamment aux systèmes de justice démocratique et pénale.

Très sincèrement, je ne pense pas que ça va changer la donne, tranche Lahcen Fatah, doctorant et chercheur au Centre interuniversitaire de recherche sur la science et la technologie (CIRST).

Projet de loi canadien mal défini et beaucoup moins ambitieux qu’en Europe

Le dépôt du projet de loi canadien arrive dans la foulée d’autres initiatives de réglementation de l’intelligence artificielle à l'étranger, notamment en Europe avec la Loi sur l’IA de l’UE.

Avec son cadre législatif, l’Union européenne souhaite encadrer la conception et l’utilisation d’outils d’intelligence artificielle selon une analyse et une classification du risque que ces outils pourraient présenter. Par exemple, les outils d’IA qui classent les personnes selon un score social ainsi que les systèmes d’identification biométrique par l’IA représentent un risque inacceptable et seront interdits. Certains outils pourraient aussi être classés selon un risque élevé ou limité.

Le projet de loi [canadien] est beaucoup moins ambitieux que le projet de loi européen, explique Frédérick Bruneault, professeur à l’École des médias de l’UQAM et chercheur à l’OBVIA et au LEN.IA.

Thierry Breton.

Le commissaire européen du marché intérieur, Thierry Breton, lors d'une conférence de presse sur l'intelligence artificielle (IA) à Bruxelles le 21 avril 2021. Il est responsable des politiques européennes concernant le numérique, dont l'IA.

Photo : pool/afp via getty images / -

En revanche, le projet de loi [canadien] définit très peu les différents systèmes d’IA et comment ils seront utilisés, indique Frédérick Bruneault, professeur à l’École des médias de l’UQAM et chercheur à l’OBVIA et au LEN.IA.

En fait, dans la loi canadienne, le secteur de l'intelligence artificielle aura pour rôle d’évaluer si ces outils sont à incidence élevée et comportent des risques de préjudice ou de résultats biaisés, peut-on lire dans le texte du projet de loi.

Or, l'expression incidence élevée n’est même pas encore définie par la loi canadienne, déplore Mme Sabourin-Laflamme. Ce qui est prévu, c’est que ce concept soit défini ultérieurement par voie réglementaire.

Les modifications proposées par le ministre Champagne en comité parlementaire apportent des clarifications très attendues par les experts quant à la signification des systèmes à incidence élevée. Cette liste en sept points inclut, entre autres, les systèmes d'IA qui pourraient être utilisés pour prendre des décisions sur le marché de l'emploi ou encore les systèmes qui seraient utilisés dans le milieu de la santé ou par un tribunal.

Quant à lui, le projet de loi européen catégorise les niveaux de risque et présente aussi une liste exhaustive des systèmes d’intelligence artificielle considérés à haut risque par secteur d’activité, par exemple la justice, l’immigration, l’éducation, la sécurité nationale, etc.

Aller de l’avant, malgré les défauts du projet de loi

Malgré les critiques et malgré les failles du projet de loi, la chercheuse Céline Castets-Renard prône une approche plus pragmatique.

Elle dit ne pas être d'accord avec la proposition de certains organismes qui demandent de retirer la LIAD du projet de loi C-27 afin qu’il subisse une refonte.

Je préfère qu’on aille de l’avant [avec le projet de loi actuel] et que, pendant les débats parlementaires et les auditions en comité, les messages puissent être passés à ce moment-là.

Une citation de Céline Castets-Renard

Selon cette chercheuse, le ministre Champagne s’est présenté devant le Comité permanent de l'industrie, des sciences et de la technologie [INDU] et a fait quelques amendements [au projet de loi] afin de répondre aux inquiétudes de plusieurs acteurs.

Ça tient pas mal compte des critiques qui ont été faites, affirme-t-elle.

Questionnée sur les différences entre les approches européenne et canadienne pour réglementer l'IA, Mme Castets-Renard juge que le projet de loi canadien a l’avantage d’être plus flexible que l'initiative européenne. Bien qu'il s'agisse peut-être de la bonne approche, la chercheuse a des réserves.

Portrait de Céline Castets-Renard.

Céline Castets-Renard, titulaire de la Chaire de recherche sur l’intelligence artificielle responsable, Université d’Ottawa

Photo : Radio-Canada

Le ministre Champagne essaie de dire qu’il veut une réglementation agile pour ne pas avoir à recommencer tous les deux ans [à cause de la rapidité et de l'imprévisibilité du développement des technologies de l’IA], dit-elle. Mais encore faut-il savoir ce qui est visé, ce qu’on veut dire par système à "incidence élevée", par un véritable contrôle et [par une véritable mise à] exécution des lois.

À cause de la nature beaucoup plus spécifique du texte européen, notamment la classification des secteurs à risque, la chercheuse évalue que le risque d'obsolescence du droit est beaucoup plus élevé dans le règlement européen. Étant beaucoup plus précise, plus spécifique et plus restrictive, la loi européenne risque de ne pas avoir la possibilité de suivre les nouvelles innovations dans le secteur de l'IA.

Enfin, Céline Castets-Renard conteste les critiques de l’autorégulation des entreprises suscitées par le projet de loi canadien. Ce n’est pas de l’autorégulation, précise-t-elle. On pose une obligation [juridique] au privé de s’autoévaluer.

Toutefois, la chercheuse s’attend à ce que la loi canadienne comporte des mesures concrètes pour élaborer des contrôles et des sanctions et que ceux-ci soient véritablement appliqués, sinon ça ne fera peur à personne.

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Chargement en cours

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.