•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Ravy Por, celle qui démocratise l’éthique en intelligence artificielle

Photo portrait d'une femme d'affaires portant un veston bleu et regardant en haut sur le côté.

Ravy Por est une étoile montante de l'intelligence artificielle éthique.

Photo : @davidkidd

Stéphanie Dupuis

« J’ai écrit ma première ligne de code vers l’âge de 9 ans [...] et fait ma première page web au secondaire. » Née au Québec de parents qui ont fui le génocide au Cambodge, Ravy Por, aujourd’hui dans la mi-trentaine, l’admet : elle a appris le langage des mathématiques bien avant de maîtriser le français.

Cette ligne de code, elle veut toujours dire la même chose. Je trouve ça intéressant, car en français, un seul mot peut vouloir dire plein de choses, souligne la fondatrice de l’organisme Héros de chez nous, qui démocratise la littératie numérique chez les jeunes.

Jeune, Ravy Por s’identifiait moins à cette complexité de la langue de Miron, qui semblait si loin du cambodgien. Il faut dire que le cambodgien était l’unique langue parlée à la maison avec sa sœur aînée et ses parents, pour qui elle jouait la traductrice quotidiennement, notamment pour les factures.

La fameuse ligne de commande – qu’un proche lui a apprise – a été la première étincelle qui l’a menée vers le domaine des technologies, dans lequel elle fait carrière aujourd’hui.

Et cette petite étincelle, Ravy Por, aujourd’hui directrice exécutive de l’IA et des technologies émergentes du prestigieux cabinet comptable KPMG, met tout en œuvre pour la faire jaillir dans les yeux des jeunes du Québec avec Héros de chez nous.

Offrir des modèles aux jeunes

Avec cette organisation, la jeune femme – pour qui le bénévolat a toujours été important – démocratise depuis 2018 les technologies par la vulgarisation de la littératie numérique auprès des ados et des jeunes adultes.

Elle s’est entourée d’une équipe diversifiée, l’objectif étant de s’assurer d’offrir aux jeunes venant de groupes minoritaires des exemples différents de réussite liés aux technologies.

« En tant que jeune, avoir devant toi une personne qui ne te ressemble pas vraiment et qui parle de technologie, tu vas peut-être la trouver intéressante, mais tu ne vas pas nécessairement t'identifier à elle. Le fait d’avoir des modèles atypiques de succès permet de faire des associations avec l’intervenant. »

— Une citation de  Ravy Por

Ravy Por, lorsqu’elle dirige des ateliers, prêche par l’exemple et aborde son histoire, ses succès, mais aussi ses échecs, ce sujet tabou qui peut faire la différence pour aider les jeunes à s’ouvrir, selon elle.

Je parle des moments difficiles, mais surtout, de comment je m’en suis sortie, explique celle qui a grandi dans la pauvreté sans toutefois manquer de rien.

L'organisme planche en ce moment sur une série de capsules vidéo éducatives portant sur les technologies qui entourent les jeunes, des réseaux sociaux aux métiers des jeux vidéo en passant par les données recueillies par les géants du web. L’importante question de l’éthique des algorithmes en intelligence artificielle figure parmi les sujets abordés.

Combattre les biais des algorithmes

Lorsqu’une base de données compte seulement 10 % de femmes, mais qu’elle doit être représentative de la population, il faut rééquilibrer ça, résume la bachelière en mathématiques.

Ravy Por affirme qu’elle n’a aucun mal à rendre attrayante la question de l’éthique en technologie auprès des jeunes.

« Chaque fois, les questions sur l’éthique sortent en premier dans les ateliers avec les jeunes. »

— Une citation de  Ravy Por

Selon son expérience, les élèves sur les bancs d’école sont déjà au fait de ces enjeux, et possèdent même des lunettes sur la diversité que les adultes n’ont pas.

Les inégalités, l’iniquité, les biais... les ados sont très sensibles à ça. On le voit beaucoup dans les commentaires sur les réseaux sociaux, qui ont accéléré en quelque sorte le processus de l’activisme chez les jeunes, croit-elle.

Cet accompagnement réflexif que fait Ravy Por dans les classes est finalement la continuité du travail qu’elle fait auprès des adultes avec KPMG.

« Quand je suis arrivée à KMPG, j’ai tout de suite fait savoir que l’intelligence artificielle responsable et l’éthique sont des priorités pour moi. »

— Une citation de  Ravy Por

Et mieux vaut prévenir que guérir, martèle Ravy Por, qui s’assure toujours d’intégrer des équipes interdisciplinaires, des spécialistes de l’éthique et d’autres, en amont de la construction d’algorithmes d’intelligence artificielle.

Ce n'est pas un travail facile, ça prend peut-être plus de temps au début, mais ça permet de prévenir beaucoup de choses, croit-elle.

Le fait que les biais en intelligence artificielle, qu’ils soient raciaux ou sexistes, font souvent les manchettes lui allège aussi la tâche, car elle n’a plus autant à convaincre les autres de l’intérêt d’un algorithme responsable.

Une situation qui lui permet de confirmer, une fois de plus, que le travail de vulgarisation des technologies est utile, et que tous et toutes peuvent mettre la main à la pâte.

L’effet de communauté, ça fait en sorte que seul, tu avances plus vite, mais en groupe, tu avances plus loin, insiste-t-elle, en faisant référence à la communauté cambodgienne qui la gardait bénévolement lorsque ses parents travaillaient.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !