•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Le problème de l’intelligence artificielle, c’est nous

Conférence sur l'intelligence artificielle, ProductTANK Montréal
Conférence sur l'intelligence artificielle, ProductTANK Montréal Photo: Radio-Canada / Martin Lessard
Martin Lessard

Montréal a depuis environ 6 mois la réputation d'être la nouvelle plaque tournante de l'intelligence artificielle (IA), même si plusieurs autres endroits sur la planète peuvent prétendre la même chose. Il y a tout de même un précieux avantage à cette notoriété soudaine : pouvoir faire partie de la conversation quant à la mise en place de l'IA dans la société.

Il n’y a pas une semaine dans la métropole québécoise sans qu’une rencontre ne porte sur l’intelligence artificielle, prise dans son sens large. C’est la rançon d’être une plaque tournante.

Ces rencontres sont des occasions de réfléchir à certains défis concrets dans l’application commerciale de l’IA.

Hier soir, à une rencontre mensuelle, appelée ProductTANK et organisée par Loris Dzagoyan, de BusBud, des intervenants ont apporté un éclairage sur les difficultés d’intégration de l’IA dans leur produit en parlant d’une limite du domaine : son acceptation par les clients.

Sommes-nous capables de faire confiance à ces nouveaux programmes d’aide à la décision ou de gestion des flux logistiques censés prendre les meilleures décisions à notre place? Les humains sont-ils capables d’accepter les réponses des machines sans sourciller? Pour l’instant, il semble que non.

Peut-on faire confiance à l’intelligence artificielle?

Jean-François Gagné, d’Element AI, nous met en garde contre la façon « d’entraîner les neurones artificiels », qui peuvent induire des biais.

Les neurones artificiels de l’IA sont en fait des algorithmes et ne ressemblent en rien à des neurones; on ne peut s’empêcher de faire de l’anthropomorphisme avec nos machines.

Jean-François Gagné, Element AI

Un algorithme d’IA a de particulier, il a besoin de beaucoup de données pour « être entraîné ». C’est en recevant des jeux de données bien précises que l’algorithme est capable de s’ajuster à sa tâche (reconnaître des objets dans une photo, par exemple).

« Aucun jeu de données n’est neutre. » M. Gagné suggère de bien comprendre quels sont les biais présents au départ dans tous jeux de données. Les données proviennent toujours d’une sélection, même celles qui semblent impartiales, qui trahit un a priori : le capteur enregistre telle donnée et pas une autre.

Ce choix, banal en apparence, reflète une vision du monde sous-jacente qu’il faut prendre en compte.

Les jeux de données varient aussi dans le temps, il faut donc en tout temps s’assurer de savoir si de nouveaux biais ont été introduits.

Jean-François Gagné, Element AI

Pour M. Gagné, c’est un facteur (parmi d’autres) qui peut nuire à l’acceptation sociale des produits usant d’intelligence artificielle. Le marché est basé sur la confiance. Si moindrement l’humain a un doute (justifié ou non) sur la pertinence de la réponse de l’IA, il a tendance à lui retirer sa confiance.

Une crainte de perdre le contrôle

Jason MacDonald, d’Acquisio (qui propose un outil d’optimisation de placement publicitaire en ligne), va plus loin.

Même si l’humain sait que l’IA a la bonne réponse, il ne lui fera pas confiance tant qu’il ne pourra pas s’expliquer comment elle l’a obtenue.

Il donne l’exemple de l’outil de stationnement automatique qu’il a dans sa voiture. « Ce bouton est tout simplement magique! » La voiture fait un créneau magnifique sans qu’on ait à lever le petit doigt. « C’est la raison pour laquelle j’ai acheté la voiture. » La chute de son histoire a suscité l’hilarité générale :

« Et savez-vous quoi? Malgré que je sais que ce bouton de stationnement automatique fonctionne à la perfection, jamais en deux ans je ne l’ai utilisé. Pourquoi? Êtes-vous fous? Je ne vais pas laisser la machine stationner pour moi! »

Il y aura une phase d’adaptation avant que nous laissions des produits d’IA prendre le contrôle dans certaines circonstances. C'est plus fort que nous.

J’ai vu un client prendre un temps fou pour analyser la décision de l’IA afin de comprendre comment elle est arrivée à prendre cette décision. Deux mois à démonter à rebours le mécanisme pour s’expliquer pourquoi il devrait lui faire confiance. C’est aussi long de faire l’ajustement d’un algorithme que d’essayer d’expliquer pourquoi il fonctionne bien.

Jason MacDonald, Acquisio

L’IA est bel et bien arrivée sur le marché, mais les points de frictions ne sont pas nécessairement là où on le pense. Pour l’IA, le problème, c’est nous

Gérer des attentes bien humaines

Gartner, une firme spécialisée dans la prospective technologique, a placé en 2016 sur son célèbre tableau du cycle des technologies émergentes l’IA au sommet de l’inflation médiatique, là où les attentes sont très élevées.

Pour être plus précis, Gartner ne parle pas d’IA en soi, mais d’apprentissage machine, de conseillers-experts cognitifs, de voitures autonomes, de maison connectée, de robots intelligents. Bref des applications dont on dit qu'ils vont changer le marché. Tous sont maintenant au sommet de la renommée... qui précède toujours la chute. Selon Gartner, si les promesses ne sont pas au rendez-vous, l’IA passera par cette phase des désillusions. Pour en sortir, les attentes des gens doivent devenir plus réalistes.

Et ce n’est pas un mal. L’intelligence artificielle sera vue à ce moment-là pour ce qu’elle est : artificielle, avant d’être une intelligence. Une fois cet ajustement fait, la confiance pourra peut-être revenir.

Techno