•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Le Canada à la traîne quant à l'encadrement de l'intelligence artificielle

Un homme pointe une infographie de cerveau.

Toute intelligence artificielle est d'abord entraînée par un être humain.

Photo : getty images/istockphoto / hwanchul

La Presse canadienne

Malgré son statut de chef de file dans l'intelligence artificielle, le Canada n'a pas encore mis en place un régime réglementaire pour traiter les problèmes de discrimination et d'imputabilité auxquels les systèmes robotiques seront confrontés. Plusieurs chefs d'entreprise réclament une réglementation.

Si l'on comprend assez bien le rôle de l'intelligence artificielle dans les suggestions de film de Netflix et les commandes vocales d'Alexa, on connaît moins sa part dans l'application de la loi, l'évaluation des candidats à l'immigration, les programmes militaires et dans d'autres domaines.

Nous avons besoin du gouvernement, nous avons besoin d'une réglementation au Canada, soutient Mahdi Amri, responsable des services d'intelligence artificielle chez Deloitte Canada.

L'absence de cadre juridique spécifique à l'intelligence artificielle mine la confiance dans la technologie et, potentiellement, l'imputabilité de ses fournisseurs, selon un rapport qu'il a coécrit.

En gros, il y a cette idée que les machines prendront toutes les décisions et que les humains n'auront rien à dire, et nous serons gouvernés par une obscure boîte noire quelque part.

Mahdi Amri, responsable des services d'intelligence artificielle chez Deloitte Canada

Si l'on ne retrouve encore les seigneurs-robots que dans le domaine de science-fiction, l'intelligence artificielle est de plus en plus impliquée dans les décisions qui ont des conséquences graves pour les individus.

Depuis 2015, les services de police de Vancouver, d'Edmonton, de Saskatoon et de London, ont mis en place ou expérimenté un système visant à prédire les crimes.

Selon une étude de Citizen Lab, le système fédéral d'immigration et de protection des réfugiés s'appuie sur des décisions fondées sur des algorithmes pour déterminer si un candidat est vraiment marié ou s'il représente un risque à la sécurité publique. L'organisme dit qu'une telle pratique viole les droits de la personne.

L'armée canadienne a aussi procédé à des essais d'intelligence artificielle, ce qui a incité les pionniers canadiens de ce domaine, comme Geoffrey Hinton et Yoshua Bengio, à mettre la population en garde contre les dangers des armes robotiques et l'idée de confier à des machines des décisions de vie et de mort. Ils réclament un accord international sur le déploiement des armes-robots.

Quand on utilise un système de boîte noire, on ne connaît pas les normes qui y ont été intégrées ou les données utilisées qui risquent de perpétuer des biais, souligne Rashida Richardson, directrice de la recherche sur les politiques à l'Institut AI Now de l'Université de New York.

Elle a évoqué des cas d'horreur, dont celle d'une stratégie policière visant à prédire des crimes à Chicago. Le problème est que sur la liste des criminels potentiels, on retrouvait une majorité de Noirs n'ayant jamais été arrêtés.

Selon un rapport de l'Institut, les gouvernements nationaux devraient superviser, vérifier et contrôler l'utilisation de l'intelligence artificielle dans des domaines comme la justice pénale, les soins de santé et l'éducation, car les structures de gouvernance interne de la plupart des entreprises technologiques ne garantissent pas l'imputabilité des systèmes.

« Une zone grise » 

Carolina Bessega, cofondatrice et directrice scientifique de Stradigi AI, une entreprise montréalaise, estime que ce vide réglementaire décourage les sociétés d'utiliser l'intelligence artificielle, ce qui freine l'innovation et l'efficacité, en particulier dans les hôpitaux et les cliniques.

Actuellement, c'est comme une zone grise, et tout le monde a peur de prendre la décision d'utiliser l'intelligence artificielle pour améliorer le diagnostic ou pour recommander un traitement pour un patient, déplore Mme Bessega.

Elle appelle à une réglementation très stricte en matière de traitement et de diagnostic. Elle souhaite aussi que la responsabilité de toute décision définitive revienne à un professionnel, et non à un logiciel.

Les détracteurs accusent le Canada d'être à la traîne aux États-Unis et à l'Union européenne. Si aucune juridiction n'a mis en place un cadre juridique complet, le Congrès et la commission du droit de l'Ontario ont écrit de nombreux rapports sur le sujet.

Il n'existe au Canada aucun cadre juridique pour guider l'utilisation de ces technologies ou leur articulation avec les droits fondamentaux liés à la régularité de la procédure, à l'équité administrative, aux droits de la personne et à la transparence du système judiciaire

Un rapport présenté par Citizen Lab, la Commission du droit de l'Ontario et d'autres organismes

Le ministre de l'Innovation, des Sciences et du Développement économique, Navdeep Bains, a déclaré à la Presse canadienne en avril qu'un rapport à ce sujet doit être remis dans les mois à venir. Selon lui, les changements législatifs qui devront être apportés devront faire l'objet d'un examen, non seulement de son ministère, mais de l'ensemble du gouvernement.

À compter du 1er avril 2020, les ministères qui souhaitent déployer un système de décision automatisé doivent d'abord effectuer une 'évaluation d'impact algorithmique' et afficher les résultats en ligne.

Toronto

Intelligence artificielle