Des juges-robots au tribunal : entre fiction et appréhension

Quarante-cinq chercheurs internationaux rassemblés à Montréal viennent d’ailleurs d’entamer un projet de recherche de six ans qui vise à améliorer l’accès à la justice par l’entremise d’outils d’intelligence artificielle. Le Barreau du Québec a aussi créé, au cours de la dernière année, un comité de réflexion qui a pour mandat de commencer à préparer une possible arrivée de l’intelligence artificielle dans nos salles de cour.
Mais quels en seraient les avantages et les risques? Des spécialistes de la question se prononcent.

Avantages
Photo : Radio-Canada / Charles Fortier
Des juges plus objectifs
Oubliez tout de suite l’image du juge-robot. Les juges en chair et en os sont là pour rester.
Les experts consultés s’entendent pour dire qu’une décision qui peut jeter un individu en prison est trop délicate et implique trop de nuances pour être confiée à une machine. Mais la machine pourrait quand même se montrer utile en aidant les juges dans leur réflexion.
« On peut penser à des outils de justice prédictive, donc des outils qui vont aider le juge à formuler quelle devrait être la durée de la peine ou le montant d’une amende, explique Sébastien Gambs, professeur au Département d’informatique de l’Université du Québec à Montréal (UQAM). Ces outils-là pourraient permettre au juge de réfléchir de manière un peu plus impartiale en lui donnant des exemples de cas qui ressemblent à celui qu’il doit juger où il y a eu des décisions différentes, certaines favorables à la victime et d’autres non. Ça pourrait permettre au juge de prendre un peu de recul avant de rendre sa décision. »
Des recherches plus efficaces pour les avocats
Au-delà des plaidoyers bien sentis devant le tribunal qu’on peut voir dans les films, le travail des avocats est aussi fait de beaucoup de recherche. Une étape cruciale que des outils qui s’inspirent des principes d’intelligence artificielle pourraient permettre d’accélérer.
« Si vous avez 2500 textes de jurisprudence à éplucher et que, grâce à un moteur de recherche, on vous sort les 57 plus pertinents, c’est sûr que ça va vous faire gagner du temps. Et ce temps-là, les avocats vont pouvoir l’utiliser pour faire une analyse plus avancée du dossier. »
— Marie-Jean Meurs, professeure au Département d’informatique de l’UQAM
Les adjoints juridiques qui, entre autres, font ces recherches risquent-ils ainsi de perdre leur emploi? « Peut-être qu’à terme, oui, certains vont perdre leur emploi, répond Karim Benyekhlef, directeur du Laboratoire de cyberjustice. Il faudra donc envisager pour ceux-ci une reconversion qui pourrait passer notamment par la contribution au développement d’outils de cette nature. »
Au-delà des chambardements qu’ils pourraient créer, ces outils très performants pourraient aussi permettre un meilleur accès à la justice, selon le bâtonnier du Québec.
« Si on réussit à faire des recherches plus efficaces sur des questions plus complexes et que les avocats deviennent plus performants, est-ce qu’on peut prendre plus de dossiers et servir beaucoup plus de gens à un coût moindre en honoraires d’avocats? On espère que oui. »
Le public mieux orienté
Pas toujours simple de s’y retrouver dans le système juridique. L’intelligence artificielle (un robot conversationnel, par exemple) pourrait jouer le rôle d’agent de première ligne et indiquer aux citoyens où commencer leurs démarches.
« On pourrait imaginer un système qui va interagir avec un usager et qui va l’orienter vers les structures, les ressources ou les bases d’information qui seront pertinentes à son cas. Éventuellement même, il pourrait le guider vers des citoyens qui ont vécu des cas similaires et qui seraient potentiellement volontaires pour échanger avec les personnes qui se connectent au système. »
— Marie-Jean Meurs, professeure au Département d’informatique de l’UQAM
Ces robots conversationnels pourraient même désengorger le système en permettant d’évaluer si la situation vécue par un citoyen mérite des démarches juridiques.
Par exemple, vous trouvez que l’augmentation de votre loyer est trop élevée. Vous l’écrivez au robot. Le robot vous demande si des améliorations ont été apportées à votre logement dans la dernière année. Vous lui répondez que le propriétaire a seulement changé votre robinet de salle de bain.
À la lumière de cette information, le robot pourrait vous donner des exemples de cas semblables dans la jurisprudence, ce qui vous permettra de voir si votre cause est assez solide pour la porter devant le tribunal.
« L’individu pourrait alors se dire : “Je n’ai pas une bonne cause, je ne perdrai pas mon temps, j’abandonne”; ou alors : “Je préfère ne pas y aller seul, je crois que j’ai besoin d’un avocat”. »
— Karim Benyekhlef, directeur du Laboratoire de cyberjustice

Risques
Photo : Radio-Canada / Charles Fortier
Croire que ces outils ont la science infuse
Les experts consultés admettent qu’il peut être tentant de s’abandonner à cette technologie aussi impressionnante que mystérieuse qu’est l’intelligence artificielle. Mais ils parlent aussi d’une même voix pour relativiser les choses et souligner que la responsabilité restera toujours dans le camp de l’humain qui utilisera ces outils.
« Il faut absolument que les systèmes utilisés soient complètement transparents et que les professionnels aient une idée très précise de ce qu’ils utilisent, de ce que [l’outil] est capable de faire ou pas. Il faut que ce soit vu comme un outil comme un autre. C’est-à-dire que ce ne soit pas perçu comme étant le truc magique qui va apporter des réponses en dix minutes, là où il fallait dix heures auparavant. »
— Marie-Jean Meurs, professeure au Département d’informatique de l'UQAM
Des juges qui se fient trop sur la machine
Les juges pourraient succomber à la tentation de l’abandon. Imaginons qu’un algorithme fasse des recommandations de peine en fonction des décisions prises dans le passé dans des cas similaires. Imaginons que ces recommandations soient souvent considérées comme étant très pertinentes. Les juges seront-ils toujours capables de garder leur point de vue critique en se rappelant qu’il s’agit de recommandations et qu’ils ne sont en aucun cas obligés de les suivre?
« Si on arrive à une situation où le juge est habitué de suivre la recommandation de l’algorithme sans se poser de questions, peut-être qu’il va abandonner un peu sa prérogative qui est d’avoir un jugement impartial sur le dossier en délégant la décision à la machine. Si on prend des cas criminels, je pense que c’est vraiment important qu’un humain reste dans la boucle. »
— Sébastien Gambs, professeur au Département d’informatique de l’UQAM
Des systèmes qui amplifient les idées préconçues
Les systèmes d’intelligence artificielle qui seront utilisés dans les salles de cour se nourriront de données basées sur les cas judiciarisés dans le passé. Des données qui reflètent inévitablement les biais qui existent dans la société.
Par exemple, disons que les personnes issues d’un certain groupe ethnique sont surreprésentées en matière d’arrestations dans une région donnée. Il y a un danger que des algorithmes qui suggèrent des peines en se basant, entre autres, sur le risque de récidive en arrivent à la conclusion que les citoyens issus de ce groupe ethnique sont plus dangereux que les autres.
« Si nos données sont biaisées, il ne faut pas s’attendre à autre chose qu’à une reproduction des biais existants, voire même à une amplification. Il faut éviter que les systèmes soient biaisés envers une communauté en particulier. »
Le manque d’équité entre avocats
Pour le bâtonnier du Québec, on pourra seulement se réjouir des aspects positifs de l'arrivée de l’intelligence artificielle dans le monde juridique si les outils sont accessibles à tous.
« Il va falloir que ce ne soit pas juste l’apanage de ceux qui peuvent se le permettre. Il y a cette préoccupation-là chez nous. Il faut que la justice soit accessible à tous. Et si tout le monde n’a pas accès aux mêmes outils pour se rendre au tribunal par exemple, je pense qu’on assiste à des inégalités qui ne devraient pas avoir cours. »
— Me Paul-Matthieu Grondin, bâtonnier du Québec