•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Étudier un algorithme comme un rat dans une cage

Une illustration montrant un microscope stylisé sur lequel une souris à l'apparence robotique tente de s'enfuir.
Les algorithmes devraient-ils être étudiés comme des souris de laboratoire? Photo: MIT
Matthieu Dugal

CHRONIQUE - Automne 1995. Le leader des Smashing Pumpkins, Billy Corgan, hurle de sa voix nasillarde le refrain cathartique de Bullet With Butterfly Wings : « Despite all my rage I am still like a rat in a cage... » Un rat pris dans une cage, sur qui l'on expériemente. L'image est forte. Un groupe de chercheurs réclame qu'on étudie les algorithmes non pas seulement comme des lignes de codes, mais bien comme de véritables bêtes de laboratoire. Allez, viens par ici mon petit algorithme, on ne te fera pas mal.

La boîte de Skinner, c’est ce dispositif inventé au début des années 1930 par le psychologue behavioriste Frederic Skinner pour tester, dans un environnement contrôlé, les mécanismes du conditionnement des comportements. Le fils spirituel de Pavlov (avec son chien qui salivait au son d’une cloche), c’est lui.

Quatre-vingt-cinq ans plus tard, est-ce que la boîte de Skinner pourrait servir à mieux comprendre les algorithmes d’intelligence artificielle? C’est l’idée audacieuse que vient de lancer une équipe du Massachusetts Institute of Technology (MIT) menée par Iyad Rahwan et Manuel Cebrian.

Pour ces deux chercheurs, les algorithmes ont trop d’effets sur nos vies pour être laissés dans les seules mains d’ingénieurs et de mathématiciens. Point. Cette boîte pourrait permettre à des gens ne connaissant pas le code d’étudier les algorithmes comme s’ils étaient de petites bêtes. Ils en appellent même à la création d’une science des comportements… artificiels. Rien de moins!

Petite histoire de la créativité artificielle

Il y a deux ans, le programme d’apprentissage profond AphaGo battait un humain à un jeu réputé jusque-là absolument impossible à maîtriser par un ordinateur : le jeu de Go. Parce qu’en matière de calculs bruts, estimer tous les coups possibles n’avait tout simplement jamais été à la portée des ordinateurs, même les plus puissants.

En 2016, l’informaticien John Tromp avait réussi à calculer les différents coups possibles durant une partie sur un plateau de 19 points de côté. C’était la première fois dans l’histoire qu’on avait accès à une puissance informatique suffisante pour réaliser ce calcul.

Attention, le nombre de possibilités donne le vertige : 200 203 194 086 297 695 671 447 973 013 557 850 996 986 259 152 430 382 611 235 007 734 890 620 740 154 339 541 587 081 797 890 280 045 754 305 529 783 867 873 845 704 588 723 770 851 289 942 216 392 403 148 498 022 616 435 740 968 427 261.

En langage mathématique, on écrit ce nombre comme suit : 2x10170. C’est 2, suivi de 170 zéros. Calculer en temps réel toutes ces possibilités, c’est trop, même pour les machines les plus puissantes du monde.

AlphaGo avait utilisé deux réseaux neuronaux d'apprentissage profond pour gagner. Le premier réseau a appris grâce à la supervision de chercheurs et de joueurs professionnels, qui lui ont montré « seulement » 30 illions de coups. Le deuxième réseau a, quant à lui, été programmé pour apprendre seul. On lui a montré à jouer contre lui-même pour apprendre des stratégies gagnantes.

Lors de la seconde partie du championnat humain contre machine entre Lee Sedol et AlphaGo, en mars 2016, l’ordinateur a fait un coup à décrocher la mâchoire de tous les spécialistes présents. Un commentateur britannique, Michael Redmond, mentionnait en direct, un peu bouche bée : « Je ne sais pas si c’est un bon ou un mauvais coup, c’est vraiment étrange. » Son collègue Chris Garlock en a remis : « Je crois qu’il s’agit d’une erreur! »

Sedol était tout aussi ébranlé. Il n’avait, de toute sa carrière, jamais été confronté à ce coup. La machine avait fait montre d’un apprentissage nouveau, qui ne lui avait pas été expressément appris. On connaît la suite : victoire sans appel 4-1 pour AlphaGo.

La machine avait-elle fait montre de ce que l’on appelle, dans le règne animal, un « comportement »? Iyad Rahwan et Manuel Cebrian, les deux chercheurs du MIT, croient que oui.

L’algorithme, cet animal

Selon ces chercheurs, il est urgent qu’on analyse les algorithmes non pas comme des lignes de code, mais bien comme des entités artificielles semi-autonomes. L’étude des comportements est au moins aussi importante que l’étude de leurs composantes.

Comme l’a démontré l’exemple d’AlphaGo, on ne pouvait pas prédire le coup fumant de la machine simplement en « ouvrant le capot » et en regardant son algorithme. Il fallait mettre AlphaGo dans son « environnement naturel » et le regarder aller.

Parce que tous les comportements ne sont pas écrits dans le code.

Parce que ce code est précisément programmé pour être capable de répondre aux changements de l’environnement en modulant ses paramètres intérieurs.

C’est un peu comme lorsque l’on se frotte vigoureusement les mains pour se réchauffer en hiver. Inutile de connaître la physique de la friction pour comprendre que ça fait du bien. Notre algorithme a appris que ça réchauffait, il le fait naturellement!

Et demander à un algorithme de réaliser une tâche ne veut pas nécessairement dire qu’il va la faire comme on le veut. Joel Lehman et Jeff Clune, du laboratoire d’intelligence artificielle d’Uber, ont récemment compilé les pires et les meilleures réalisations d’intelligences artificielles à partir de problèmes qu’on leur a soumis. Pensez à des enfants qui trouvent des solutions créatives pour ne pas faire ce que vous leur demandez...

Résultat?

Une intelligence artificielle à qui l’on demandait de créer un programme limitant la consommation d’un microprocesseur a mis au point une puce qui se trouve toujours en mode… sommeil. Ce n’était pas écrit dans l’algorithme, mais il l’a fait. Et c’est une très mauvaise idée.

De la boîte de Skinner à la boîte de Turing

Dans un article publié il y a quelques jours dans le magazine Nautilus, les chercheurs du MIT disent vouloir adapter les principes de la boîte de Skinner à l’intelligence artificielle au moyen de ce qu’ils ont nommé la boîte de Turing.

Comme la boîte de Skinner permettait de changer les stimuli pour observer le comportement, la boîte de Turing place l’algorithme dans un environnement contrôlé pour voir comment il fonctionne, sans nécessairement avoir à en connaître le code.

Les deux chercheurs soulignent que lorsqu’on laisse aux seuls ingénieurs le soin de créer des algorithmes, ceux-ci peuvent être extrêmement bien optimisés pour réaliser une tâche tout en discriminant un groupe de personnes. Et comme connaître le code n’est pas donné à toutes et à tous, pouvoir étudier les algorithmes en observant comment ils réagissent en présence de telles ou telles données permet d’observer leur biais.

Le but de l’opération? Il est double. D’une part, il s’agit de démocratiser l’étude de ce code qui a une influence majeure sur nos vies et dont le pouvoir tendra à augmenter. Il se peut qu’un codeur juge son algorithme parfait, mais dans les faits, sa créature pourrait être biaisée à cause des données avec lesquelles on l’aura nourrie.

Dans un futur très proche, par exemple, il se peut très bien que l’on vous refuse un emploi sur une base algorithmique. Vous aimeriez sûrement connaître, à ce moment, comment cet algorithme a réagi dans une boîte de Turing lorsqu’on lui a présenté divers profils d’emploi. Est-ce qu’il réagissait différemment en présence de gens de couleurs, de femmes, de gens ayant un surplus de poids, de banlieusards, d’hommes âgés, etc.?

D’autre part, cette boîte pourrait ultimement mener à un processus de certification fiable pour les algorithmes. Les réseaux neuronaux sont des bêtes dont le fonctionnement interne est souvent difficile à étudier.

Par exemple, l’algorithme de recommandation de Facebook, Edge Rank, est notoirement secret. La compagnie n’a jamais voulu ouvrir son capot. Secret-défense. Avant que les autorités réglementaires ne réussissent à les forcer à plus de transparence, il serait intéressant de le soumettre à une boîte de Turing.

Cela dit, même si l’on connaît le code d’un algorithme, il existe en son sein une sorte de boîte noire dont même les scientifiques ne connaissent pas encore tous les ressorts. En clair, ces algorithmes réussissent des tâches même si l’on ne comprend pas trop pourquoi. D’où l’importance de se concentrer davantage sur les effets visibles de ces codes. Les comportements.

Sommes-nous à l’aube de la création d’une science des comportements artificiels? Étudier les algorithmes comme des agents artificiels doués d’autonomie, comme de petits animaux, serait-il une manière de mieux les comprendre pour finalement mieux les encadrer? De toute façon, ils sont là pour de bon. Aussi bien s’y atteler, et le plus tôt sera le mieux. Comme le chantait Billy Corgan dans Zero, des Smashing Pumpkins, cher algorithme « wanna go for a ride? ».

Techno