1. Accueil
  2. Techno
  3. Intelligence artificielle

L’intelligence artificielle se fraie un chemin dans la fonction publique fédérale

Une personne utilise un programme d'intelligence artificielle sur un ordinateur.

Certains fonctionnaires fédéraux expérimentent déjà l'intelligence artificielle générative.

Photo : Radio-Canada / L'épicerie

Patrick Foucault
Patrick Foucault

L'intelligence artificielle (IA) est aux portes de l’appareil fédéral. Alors que des plateformes comme ChatGPT sont maintenant autorisées dans certains contextes pour les fonctionnaires canadiens, des voix appellent à la prudence face à la montée du phénomène dans la société.

Certains employés explorent les applications d'intelligence artificielle générative en ligne telles que ChatGPT, notamment leur capacité à rédiger des correspondances, confirme l’Agence du revenu du Canada par courriel. L’Agence évalue l'utilisation plus large des outils d'intelligence artificielle générative pour des tâches courantes afin d'identifier les utilisations à faible risque pour lesquelles ces outils sont les mieux adaptés.

À Innovation, Sciences et Développement économique Canada, on dit exploiter l'intelligence artificielle pour améliorer des processus tels que les brevets.

Du côté de la Défense nationale, certains employés font un usage limité de ChatGPT. Cela se fait dans des contextes administratifs à petite échelle, de manière contrôlée et éthique, assure le ministère.

Qu’est-ce que l’intelligence artificielle?

L’intelligence artificielle est une technologie qui imite l'intelligence humaine pour effectuer des tâches. On parle d'intelligence artificielle générative lorsqu'une technologie, telle que ChatGPT, est capable de créer de nouveaux contenus et de nouvelles idées, notamment des conversations, des histoires, des images, des vidéos et de la musique.

Une politique souvent réévaluée

Une dizaine de ministères contactés par Radio-Canada ont indiqué suivre la « Directive sur la prise de décision automatisée » (nouvelle fenêtre), élaborée par le Secrétariat du Conseil du Trésor (SCT). Mise à jour en avril dernier, cette directive agit essentiellement comme une marche à suivre pour les fonctionnaires sur les prises de décisions basées sur l’intelligence artificielle.

Parmi les critères, chaque prise de décision automatisée doit faire l’objet d’une évaluation de l’incidence algorithmique, c’est-à-dire un questionnaire qui détermine le niveau de risque de l’utilisation de l’intelligence artificielle selon le contexte.

Les éléments évalués comprennent :

  • l’importance de la décision pour la personne touchée;

  • la durée de l’impact potentiel;

  • les données utilisées;

  • leur méthode de collecte et leur type;

  • la nature de l’algorithme utilisé et son rôle dans le processus décisionnel.

Les résultats de ces évaluations doivent ensuite être rendus publics en ligne.

Le Conseil du Trésor entend mettre à jour sa directive à la fin de l'année et de nouveau en 2024.

De plus, certains ministères et agences, comme Affaires mondiales, la Défense nationale, Emploi et Développement social, Santé Canada, l’Agence du revenu du Canada et l’Agence des services frontaliers, disent être en train soit de préparer leur propre stratégie, soit d’étudier de leur côté les répercussions de l’utilisation de l’intelligence artificielle.

Aucun des ministères ou agences ne signale de cas d'employés ayant fait une mauvaise utilisation de l’intelligence artificielle dans leur travail.

Il y a urgence d’agir, croit une experte

Pour Karen Eltis, professeure de droit à l’Université d’Ottawa et spécialiste en cybersécurité, la montée de l’intelligence artificielle est inévitable et le gouvernement fait bien de réfléchir à son utilisation dans la fonction publique.

Comme avec les réseaux sociaux il y a plusieurs années et les programmes tels que Zoom ou Teams durant la pandémie, elle estime qu’il faut encadrer l’intelligence artificielle pour ne pas compromettre la sécurité des Canadiens.

Sur le plan de la démocratie, c’est extrêmement important et urgent qu’on développe des directives et des balises qui sont claires, explique Mme Eltis. Selon l’experte, en employant l’intelligence artificielle, le gouvernement dépend du privé pour des enjeux délicats liés, notamment, aux données personnelles.

La technologie est un outil, ce n’est pas une béquille. [...] Et il faut absolument que nous en gardions la maîtrise.
Une citation de Karen Eltis, professeure de droit à l’Université d’Ottawa et spécialiste en cybersécurité

Elle cite un exemple concret où l’utilisation de l’intelligence artificielle, aux Pays-Bas, a mené le gouvernement à accuser faussement 26 000 familles issues de l’immigration d’avoir fraudé l’État. À l’insu des employés du gouvernement néerlandais, l'algorithme utilisé pour analyser les dossiers ciblait notamment les origines ethniques des personnes afin de les accuser d’avoir touché des allocations familiales sans y avoir droit.

Karen Eltis affirme donc qu’il faut être prudent quant à l’urgence d’agir : Le plus grand danger, c’est qu’on le fasse de façon non réfléchie.

La professeure soutient que certaines décisions plus routinières peuvent être assistées par l’intelligence artificielle, à condition qu’elles demeurent soumises à un contrôle humain, qu’elles soient sujettes à des audits.

Des syndicats prudents

Deux grands syndicats de fonctionnaires reconnaissent l’importance de réfléchir à une utilisation de l’intelligence artificielle. Cette dernière pourrait, par exemple, être bénéfique en recherche scientifique et pour synthétiser certaines données. Ils émettent cependant quelques réserves.

L’Association canadienne des employés professionnels (ACEP), qui représente notamment des fonctionnaires en traduction, des analystes de politiques et des économistes, craint que l’utilisation croissante d’algorithmes devienne une menace pour leur emploi, selon son président, Camille Awada.

Il affirme qu’un groupe de travail a été mis en place à l’Association canadienne des employés professionnels pour faire de la recherche et transmettre des recommandations au gouvernement afin de s’assurer que la qualité du travail demeure, tout comme la protection des droits des travailleurs.

Même son de cloche à l’Institut professionnel de la fonction publique du Canada (IPFPC). Sa présidente, Jennifer Carr, déplore un manque de consultation du gouvernement avec les syndicats.

Cela peut avoir un impact important sur les fonctionnaires, dit-elle. L’intelligence artificielle peut changer le rôle des employés.

L’Institut professionnel de la fonction publique du Canada, tout comme l’Association canadienne des employés professionnels, n'est pas contre l’utilisation de l’intelligence artificielle, mais souhaite que son implantation soit faite de façon collaborative.

Du côté du Conseil du Trésor, on assure vouloir développer une approche basée sur l'humain et la responsabilité. Le gouvernement du Canada s’est engagé à mettre en œuvre l’intelligence artificielle (IA) de manière ouverte et à veiller à ce que son utilisation par le gouvernement soit régie par des valeurs, une éthique et des lois clairement définies, et en conformité avec les droits de la personne, fait-on savoir par courriel.

Patrick Foucault
Patrick Foucault

À la une