Cohabiter avec l’intelligence artificielle

Par Danny Lemieux de Découverte

La révolution de l’intelligence artificielle nous force à repenser la façon dont la société et le monde du travail sont organisés, ainsi que nos relations avec la machine. Réflexion avec trois experts.

La révolution de l’intelligence artificielle nous force à repenser la façon dont la société et le monde du travail sont organisés, ainsi que nos relations avec la machine. Réflexion avec trois experts.

  • Yann LeCun est directeur du laboratoire de recherche en intelligence artificielle de Facebook

  • Yoshua Bengio est directeur de l’Institut des algorithmes d’apprentissage (MILA) à l’UdeM

  • Geoffrey Hinton est professeur et chercheur à l’Université de Toronto et Google

1. Pourquoi doit-on, comme citoyen, s’intéresser au développement de l’intelligence artificielle?

Yann LeCun : L’intelligence artificielle va transformer la société très profondément, automatiser beaucoup de tâches qui sont pour l’instant dévolues aux humains, transformer, par exemple, tout ce qui est le transport, la santé, et puis la manière d’accéder à l’information, la manière d’interagir avec d’autres personnes, même la manière de créer. Donc, ça va transformer la vie, de même qu’Internet a transformé la vie, la voiture, le téléphone, toutes les technologies qui sont apparues ces dernières décennies. Ça concerne tout le monde.

Yoshua Bengio : C’est quelque chose qui va changer notre monde, qui va changer notre société, qui va apporter très probablement une nouvelle révolution industrielle, qui va impliquer des changements technologiques, évidemment, mais aussi économiques et sociaux. Ce sont des questions sur lesquelles doivent se pencher non seulement les chercheurs, mais aussi le commun des mortels parce que nos gouvernements auront des décisions à prendre et dans les démocraties, on doit réfléchir ensemble à ce qu’on veut pour l’avenir.

Il se passe quelque chose de particulier depuis un petit nombre d’années. C’est que les avancées scientifiques qui sont graduelles ont donné lieu à des progrès technologiques qui permettent des solutions à des problèmes qu’on ne savait pas résoudre avant. Et là, il y a un intérêt énorme de l’industrie, il y a beaucoup d’argent qui est investi. [...] Et c’est juste la pointe de l’iceberg. Il y a quelque chose qui est en train de changer. Et je pense que c’est important de se positionner et de prendre les bonnes décisions maintenant sur la direction dans laquelle on s’en va.

2. L’intelligence artificielle profitera-t-elle à tous?

Yoshua Bengio : Ce sont les gens les plus vulnérables, je pense, auxquels on doit réfléchir. Et les pays qui investissent dans la matière grise dans ce domaine-là risquent d’avoir une très grande avance par rapport à ceux qui ne le font pas.

Yann LeCun : Ça va certainement produire le même genre de transformation de la société qui est apparu avec les progrès technologiques précédents. Ce qui fait que c’est peut-être un peu différent par rapport au passé, ce n’est pas nécessairement l’intelligence artificielle à proprement parler, mais c’est l’accélération générale des progrès technologiques, vu qu’on est sur une espèce de courbe exponentielle de progrès. Et donc, ça devient de plus en plus difficile au niveau des transformations de la société de gérer ça, parce que les gens ne changent pas aussi vite que la technologie autour d’eux.

Geoffrey Hinton : Si la société est organisée de telle sorte que les améliorations et la productivité n’aident qu’un très petit nombre de personnes et nuisent à d’autres, ce n’est pas un problème lié à la technologie, mais un problème d’organisation de la société.

3. Plus performant, plus intelligent, l’ordinateur éclipsera les capacités intellectuelles de l’humain. Alors, que lui restera-t-il? Quelle sera son expertise face à l’intelligence artificielle?

Yoshua Bengio : Je pense que, pendant longtemps, on ne voudra pas donner à l’ordinateur une tâche qui requiert de l’humanité : tout ce qui concerne les relations entre les personnes, s’occuper des gens malades, des enfants, des personnes âgées... Je n’ai pas envie que mon coiffeur soit un ordinateur, même s’il ferait peut-être mieux la job, ou que mon massothérapeute soit un ordinateur.

Yann LeCun : C’est l’authenticité de la communication humaine, en fait, qui est irremplaçable dans l’automatisation. Il n’y a pas d’intérêt à aller à un concert de jazz si le musicien est une machine, parce que le jazz, c’est la communication de l’émotion en direct, à travers l’improvisation. Donc, ce genre d’activités de communication humaine va prendre plus de valeur, et c’est ce qui fait qu’on est humain.

Geoffrey Hinton : Je crois que les métiers qui mettront le plus de temps à être remplacés par un ordinateur, bien heureusement, sont ceux qui requièrent le plus de créativité, d’empathie. Par exemple, on remplacera les médecins avant de remplacer les infirmières. Je crois que les infirmières ont davantage d’interactions avec les personnes que, disons, les radiologistes, des médecins qui n’ont pas à parler aux patients, et qui examinent des photos.

4. L’emploi figure parmi les enjeux les plus importants à venir. Quels sont les autres enjeux sociaux?

Yoshua Bengio : Il y a la question de l’emploi, mais il y a une question dont on parle moins : l’utilisation de l’intelligence artificielle pour des buts qu’on pourrait peut-être remettre en question de manière éthique. Donc, évidemment, il y avait la question de l’utilisation militaire qui a été discutée dans les médias, mais moi, j’ajouterais l’utilisation de l’intelligence artificielle pour manipuler les gens.

C’est déjà le cas, par exemple, avec la publicité qui nous manipule, mais ça risque de l’être encore plus au fur et à mesure que l’ordinateur aura plus d’information sur nous et sera plus fort sur le plan de l’intelligence. Et, en général, je pense qu’il faut qu’on réfléchisse, comme pour n’importe quelle technologie puissante, comme le nucléaire, à ce qu’on veut bien en faire. Et là, je ne parle pas des limites à la recherche; je parle des limites à l’utilisation.

5. L’intelligence artificielle est appelée à prendre beaucoup d’espace dans nos sociétés. Pour maintenir l’harmonie, devrait-on lui inculquer des valeurs humaines?

Yann LeCun : En fait, l'intelligence des ordinateurs et leur motivation seront très, très différentes des intelligences humaines. On peut construire leurs motivations en particulier pour qu’elles soient alignées sur les valeurs humaines et non pas en opposition avec les valeurs humaines. Et on peut construire ces machines pour qu’elles n'aient pas d'ambition, pour qu'elles n'aient pas l'instinct de survie, pour qu'elles n'aient pas envie de devenir violentes si elles se sentent menacées et pour qu'elles ne soient pas déçues si on a envie de les éteindre.

Yoshua Bengio : Mais, quand on met au point des ordinateurs intelligents, ils ne sont pas programmés par l’évolution, ils n’auront pas un instinct de survie qui va faire qu’ils vont essayer de se défendre contre nous. Ils vont faire ce qu’on aura décidé dans leur programmation, ils auront les objectifs qu’on aura décidés pour eux.

6. La vitesse de calcul des ordinateurs évolue de manière exponentielle. À ce rythme, l’intelligence de la machine ne risque-t-elle pas de surpasser celle des humains?

Yann LeCun : En fait, on connaît déjà ce genre de situations. En tant qu'individu, quelquefois, on fait face à des organisations qui sont composées de plusieurs humains, et du fait qu’elles réunissent plusieurs êtres humains, elles sont plus intelligentes que nous. On doit interagir avec elles.

Et il y a quelque chose qu'il faut essayer de comprendre, c'est qu’il y a une espèce de peur qui vient de la science-fiction, de Hollywood, qui tend à suggérer que les machines intelligentes voudront contrôler le monde. Mais, en fait, c'est une projection des qualités et défauts de l'intelligence humaine vers les ordinateurs qui ne devrait pas être faite. En ce sens, on a du mal à imaginer une intelligence qui ne soit pas humaine, c'est-à-dire qui n'a pas les mêmes qualités et les mêmes défauts que l'intelligence humaine.

7. L’idée d’une intelligence artificielle devenue mal intentionnée a maintes fois été exploitée par la science-fiction. Qui doit-on craindre? L’intelligence artificielle ou l’humain qui la contrôle?

Yoshua Bengio : Je pense que beaucoup de craintes des gens ordinaires, et même des chercheurs, à propos de l’ordinateur viennent des craintes des humains par rapport à tout ce qui est étranger. Si on était, nous, l’intelligence supérieure, on ne serait peut-être pas bienveillants envers une intelligence inférieure. Donc, on s’imagine qu’une intelligence supérieure qui viendrait de l’intelligence artificielle ne serait peut-être pas gentille avec nous.

Mais tout ça, ce sont des projections psychologiques et viennent un peu du fait qu’on a été programmés par l’évolution pour veiller à notre survie et se défendre en attaquant les autres, en agissant pour notre survie personnelle. Je pense que beaucoup de craintes qu’on a ne sont pas justifiées.

8. L’armement autonome capable de choisir sa cible et de l’éliminer grâce à l’intelligence artificielle soulève des questions éthiques. Faudrait-il encadrer l'usage de l'intelligence artificielle pour éviter des dérapages futurs?

Yann LeCun : Il y a, je pense, un parallèle à faire avec les biotechnologies. Dans les années 70, les biologistes ont réalisé qu'ils pouvaient modifier le génome d'êtres vivants. Ça a conduit les biologistes de l'époque à se réunir et à réfléchir à la question et à dire : « Qu'est-ce qu'on va se permettre de faire et quel type de mesures de sécurité va-t-on prendre pour éviter que, par exemple, quelqu'un crée un supervirus qui va éliminer l'humanité ou utiliser ça comme arme ou peut-être concevoir des sous-humains ou des surhumains, etc.? » Donc, on s'est interdit de faire certaines choses, par exemple modifier le code génétique humain pour produire des humains modifiés.

On n’en est pas à ce niveau-là avec l'intelligence artificielle, dans le sens où ce n'est probablement pas potentiellement aussi dangereux, en tout cas certainement pas pour l'instant, et certainement pas pour les décennies qui viennent. Mais c’est une chose à laquelle il faut réfléchir. Il ne faut pas, bien sûr, jouer avec le feu, mais il faut réfléchir avant que le problème ne se pose de manière urgente.

9. L’intelligence artificielle permet-elle de voir et de comprendre les choses autrement?

Yann LeCun : Bien sûr, les systèmes peuvent voir les choses différemment, d’une part parce que leur architecture n’est pas exactement la même que l’architecture dans un contexte visuel. On peut manipuler leur architecture de façon qu’elles soient plus performantes pour certaines tâches.

Mais ce qu’on peut faire aussi, c’est de leur fournir des données qui sont différentes de celles qu’on peut percevoir à travers nos sens naturels. Donc, par exemple, pour l’imagerie médicale, on est toujours obligé, pour permettre à un radiologue d’interpréter l’image, d’afficher l’image sur un écran en deux dimensions, même si l’image elle-même est tridimensionnelle. [...] On est limité par le fait que notre perception visuelle est limitée.

Mais un système artificiel, un réseau de neurones artificiels, par exemple, pourrait voir l’image dans son volume complet et l’interpréter directement. Elle pourrait aussi prendre des données qui sont plus brutes que ce qu’on forme sur un écran, c’est-à-dire qui récupèrent des données qui sortent directement des capteurs.

On utilise aussi ça pour les voitures dont les systèmes de conduite automatique, en fait, intègrent les données qui viennent de caméras classiques, mais qui viennent aussi de radars, de ce qu’on appelle les lidars, des radars à base de lasers. Donc, ces systèmes peuvent intégrer des données, en fait, qui viennent de sens qui nous sont étrangers en tant qu’humains. Et ils peuvent aussi, par exemple. avoir une vision complètement panoramique, à 360 degrés, donc, sans angle mort.