L’intelligence artificielle vous parle

Par Tobie Lebel de Découverte

En cinq ans, l’apprentissage profond a permis de faire des bonds de géant dans la compréhension du langage. Si l’intelligence artificielle se concentre encore sur des tâches très spécialisées, plusieurs équipes travaillent à repousser les limites sur ce plan.

En cinq ans, l’apprentissage profond a permis de faire des bonds de géant dans la compréhension du langage. Si l’intelligence artificielle se concentre encore sur des tâches très spécialisées, plusieurs équipes travaillent à repousser les limites sur ce plan.

Nos premières interactions vocales avec la machine remontent à une époque où on ne qualifiait pas encore les téléphones d’intelligents, par exemple pour consulter l’annuaire ou naviguer dans des menus. Malgré notre patience et nos efforts de diction, les résultats étaient parfois décevants.

Mais les choses ont changé rapidement. Grâce, entre autres, à l’apprentissage profond, les meilleurs systèmes de reconnaissance vocale ont aujourd’hui des taux d’erreur très faibles, comparables à celui des humains, et les voix de synthèse imitent de mieux en mieux les voix humaines.

L’entreprise DeepMind, qui appartient à Google, a généré des échantillons de voix artificielle, montrant l’évolution de la technologie.

Voix artificielle classique (type 1)

Voix artificielle classique (type 2)

Voix artificielle générée grâce à l’apprentissage profond

Depuis quelques années, on assiste aussi à la multiplication des outils de conversation. Qu’ils soient intégrés à des pages web, à des téléphones intelligents ou à des bornes équipées de micros et de haut-parleurs, ces assistants personnels peuvent vous indiquer la météo, trouver un café ou éplucher votre agenda.

Amazon (à gauche, avec son Echo) et Google (à droite, avec son Home) rivalisent pour s’installer dans votre demeure. Photo : REUTERS/Beck Diefenbach - Peter Hobson

Certains agents virtuels peuvent mener à bien des dialogues entiers, à condition qu’ils portent sur des tâches simples, comme une transaction bancaire ou une livraison de nourriture. Pour que la magie opère, ces agents s’appuient sur des scénarios conçus par des humains, mais aussi sur un vocabulaire de travail appris et organisé au préalable. Et malgré tous ces efforts, il est rare qu’ils soient entièrement autonomes.

Les systèmes actuels, comme ceux utilisés par les banques, sont très complexes, et chaque génération d'utilisateur interagit avec eux de façon différente, explique Richard Lajoie, vice-président recherche et développement à Nuance Communications.

Mais l’interaction vocale peut créer une illusion : si l’ordinateur entend très bien ce qu’on dit, il n’en saisit pas véritablement le sens. Sa compréhension du langage est encore très superficielle.

Facebook au pays des merveilles

Pour apprendre le langage humain, rien de tel que des histoires pour enfants. C’était l’hypothèse de départ dans les laboratoires d’intelligence artificielle de Facebook à New York. On y a conçu un test, qui est devenu une référence : présenter à l’ordinateur des blocs de 20 phrases tirées d’un livre, puis dans la 21e, retirer un mot que la machine doit deviner.

Antoine Bordes, de Facebook, teste l’intelligence artificielle à l’aide de contes. Photo : Radio-Canada

Après un entraînement intensif sur 98 classiques de la littérature pour enfants, on le met à l’épreuve sur 5 livres qu’il n’a jamais lus. Les personnages et les décors sont nouveaux, mais certains concepts restent les mêmes : le temps s’écoule, les personnages dialoguent tour à tour ou changent de lieu.

L’objectif est justement de vérifier si l’ordinateur arrive à analyser le contexte entourant les mots pour en déduire ce qui s’apparente à un raisonnement.

Le résultat? Les performances de l’ordinateur restent inférieures à celles de l’humain et elles sont limitées au domaine spécifique de leur entraînement : difficile d’appliquer à Wikipédia ce qu’on a appris en lisant Alice au pays des merveilles.

« Notre hypothèse de travail, que les contes pour enfants étaient plus simples que les textes de nouvelles ou encyclopédiques, était, je pense, une erreur », confie Antoine Bordes, chercheur au laboratoire d’intelligence artificielle de Facebook. Le vocabulaire et les histoires sont assez simples, mais il y a beaucoup de métaphores et de mots qui ne sont pas employés dans leur sens premier, précise-t-il.

La syntaxe et l’écriture de Lewis Carroll sont aussi très compliquées, ajoute le chercheur, qui reconnaît qu’Alice au pays des merveilles lui aura permis de tirer des leçons bien différentes que s’il avait travaillé avec Wikipédia.

Certains livres donnent des maux de tête à une intelligence artificielle. Photo : Radio-Canada

Comprendre : mission accomplie?

En 2011, l’ordinateur Watson est conçu par IBM fait mordre la poussière à deux champions humains du jeu télévisé Jeopardy. Ce coup d’éclat marque l’imaginaire : la machine a désormais réponse à tout.

S’il y a toutes les raisons de s’émerveiller de cette prouesse technologique et de ses retombées, une nuance s’impose : la force de Watson est d’analyser d’immenses quantités d’informations déjà triées et cataloguées pour y cibler rapidement sa réponse. Il s’agit avant tout de faire des recoupements entre de multiples sources.

Le défi de ce qu’on appelle la compréhension du langage naturel, c’est d’extraire le sens d’un seul texte, d’un seul passage ou même d’une seule question. Une tâche bien différente.

Watson se mesure à des participants humains au jeu-questionnaire Jeopardy en janvier 2011. Photo : AP/PCF/Seth Wenig

Faire des ponts entre les idées

L’idée, bien sûr, ce n’est pas que l’ordinateur décrypte l’oeuvre de Lewis Carroll, mais qu’il puisse trouver les réponses aux questions qu’on lui pose au quotidien.

Pour le moment, cette capacité se limite à des requêtes très simples, comme celle de trouver l’âge d’un acteur célèbre ou d’un chef d’État. Dès que les choses se corsent un peu, l’ordinateur se contente d’offrir une liste de pages à explorer, principalement créée à partir des mots-clés de la question.

La petite entreprise Maluuba, acquise récemment par Microsoft, mise sur l’apprentissage profond pour repousser les limites. Elle élabore un outil capable d’interpréter des questions formulées en langage naturel et de cibler les réponses dans un document, aussi volumineux soit-il : un rapport annuel, un compte-rendu de réunion ou tout simplement le mode d’emploi d’un nouveau téléviseur.

« Et nous, on ne fait rien, on est juste un peu comme des architectes qui spécifient l’architecture qui peut marcher », poursuit le chercheur.

À terme, l’objectif est de créer un algorithme capable de synthétiser des éléments d’informations trouvés ici et là pour formuler sa réponse.

Contourner les règles

La traduction de textes offre une des démonstrations les plus éloquentes de la puissance de l’apprentissage profond.

Pendant des décennies, les programmeurs ont tenté de traduire la linguistique en lignes de code. Inspirés par l’idée d’une « grammaire universelle », ils ont tenté de réduire la complexité propre à chaque langue et de découvrir un terrain neutre qui serve de passerelle entre les langues. Cela a été un cul-de-sac.

L’apprentissage profond a permis de contourner le problème : en abreuvant l’ordinateur de milliards de phrases déjà traduites, il en déduit de lui-même les correspondances entre deux langues. Les statistiques volent la vedette à la linguistique.

En recoupant ces percées avec celles dans le domaine de la vision, Google offre désormais de superposer une traduction en français sur un texte dans une autre langue. Il suffit de placer son téléphone devant une affiche ou un menu de restaurant pour les « voir » en français – quelques fautes en prime!

Photo : Radio-Canada

Vers une intelligence générale

Entendre, comprendre, faire des liens, traduire : l’ordinateur a fait des progrès spectaculaires dans le domaine du langage, ce qui ouvre la porte à une foule d’applications spécialisées.

Le rêve de bien des chercheurs, c’est de créer une intelligence artificielle qui combine ces différentes facultés, qui soit capable de tout lire, de tout comprendre et un jour, d’apprendre par elle-même.

Toutefois, il reste d’immenses défis à surmonter : alléger les méthodes d’apprentissage, transférer les acquis d’un domaine à l’autre, doter l’ordinateur de sens commun, d’une certaine expérience du monde, de règles morales… Le génie humain a encore de belles années devant lui!