Montrez-lui des milliers d’images de cancer de la peau, elle fera mieux que les dermatologues. Présentez-lui vos habitudes de consommation, elle devinera ce que vous achèterez. L’intelligence artificielle exploite mieux que jamais les quantités de données accumulées.
Les grands chercheurs de l’intelligence artificielle s’entendent pour le dire : la radiologie est l’un des premiers domaines où la nouvelle révolution se fera sentir.
Les radiologues sont aujourd’hui ensevelis sous les données. « Lorsque j’ai commencé ma carrière, il y a 25 ans, un examen d’imagerie cérébrale générait 10 images. Nous les regardions une à une. Aujourd’hui, un tel examen génère jusqu’à 300 images », explique Benoît Gallix, chef du département de radiologie au centre universitaire de santé McGill (CUSM). Un radiologue peut regarder 30 000 à 40 000 images dans une journée, chaque image comportant des informations très complexes et, souvent, une information vitale pour un patient.
La donne risque toutefois de changer. La jeune entreprise montréalaise Imagia entraîne un logiciel à l’oeil de lynx, imperturbable, infatigable. En cours d’élaboration depuis deux ans seulement, son logiciel rivalise déjà avec les meilleurs radiologues dans la détection de plusieurs types de cancers, dont ceux du poumon, du côlon et du sein.

Les ordinateurs bénéficient de l’expérience tirée des cas passés dont le diagnostic est connu grâce à, par exemple, des biopsies. On leur présente des milliers, voire des millions, d’images médicales et les diagnostics, et on les laisse ensuite construire leur propre définition d’une tumeur. Une définition bien plus riche, complète et précise que ce qu’un humain aurait pu programmer.
C’est pourtant ce que les scientifiques ont tenté de faire pendant des décennies, avant l’apprentissage profond. Des experts essayaient laborieusement de traduire leur compréhension de ce qu’était une tumeur en consignes à l’ordinateur : les tumeurs sont parfois grosses, mais pas toujours, parfois opaques, parfois diaphanes, etc.
« Ces anciennes techniques permettaient un taux de détection d’environ 80 %. L’apprentissage profond fait gagner un cap, ce qui est nécessaire pour aider des professionnels qui ont 20 ans d’expérience, 10 ans d’études », explique Alexandre Le Bouthillier.
Dans des tests préliminaires, les concepteurs de logiciels ont présenté au logiciel des radiographies du poumon sur lesquelles des lésions étaient si subtiles que seulement les deux tiers des radiologues étaient capables de les déceler. Le logiciel les a détectées dans 95 % des cas.
L’intuition d’AlphaGo
La force de l’apprentissage profond réside dans la capacité d’enregistrer de grandes quantités de motifs récurrents, parfois imperceptibles pour l’humain. C’est cette aptitude qui a permis à AlphaGo, le logiciel de Google Deep Mind, en mars 2016, de vaincre au jeu de go le champion du monde sud-coréen Lee Sedol, une victoire qui n’était pas attendue avant une quinzaine d’années.
Pour battre des humains au jeu de go, la simple puissance de calcul des ordinateurs ne suffit pas, car à chaque tour, des centaines de coups sont possibles. Le nombre d'enchaînements qui en découle est inimaginable et, donc, incalculable dans des temps acceptables. Pour vaincre les meilleurs joueurs de go, l’intelligence artificielle devait se forger une forme d’intuition. « Pour battre des humains, il fallait une forme de reconnaissance intuitive des motifs des pierres. Et AlphaGo a démontré que c’était possible », dit Nicolas Chapados, cofondateur d’Imagia.
Pour y parvenir, l’ordinateur a analysé 150 000 parties. Puis, il a joué contre lui-même, s’améliorant subtilement entre chaque partie. Pendant cet apprentissage, il retenait un grand nombre d’assemblages de pierres. Il a ensuite appris lesquels étaient associés à des positions avantageuses ou désavantageuses.
« L’ordinateur peut analyser de fond en comble des quantités phénoménales de données », explique Geoffrey Hinton, professeur à l’Université de Toronto. « L’ordinateur peut ainsi saisir des indices subtils et les associer à diverses issues de manière probabiliste, alors que l’humain a besoin d’énormément d’expérience pour établir ces liens. »

Des images parlantes
C’est cette intuition artificielle qui permet au logiciel d’Imagia de prédire si un nodule au poumon est malin, à partir d’un seul examen de tomodensitométrie. Il y parvient environ deux ans avant tout radiologue, avec un taux de confiance de 90 %.
« En ce moment, si un patient se présente avec un nodule au poumon de quelques millimètres, nous ne pourrons faire autrement que lui demander de revenir tous les six mois, parfois pendant plusieurs années », explique le Dr Gallix.
L’intelligence artificielle pourrait même percevoir dans une radiographie ou une image médicale des indices lui permettant d’identifier le profil génétique d’une tumeur et des résistances à certains médicaments. Pour y parvenir, il faudra toutefois entraîner les logiciels sur beaucoup de données et un grand nombre de cas.
La radiologie n’est qu’un exemple parmi d’autres. « La capacité de reconnaître des motifs récurrents dans des jeux de données aura des répercussions dans tous les domaines de la société où on accumule des données », observe Nicolas Chapados.
Elle commence par exemple à être utilisée sur des sites comme Netflix, YouTube ou Amazon, où les habitudes de consommation servent à prédire quels produits peuvent intéresser les consommateurs. À long terme, cette aptitude pourrait, par exemple, servir à personnaliser des parcours scolaires aux forces et aux faiblesses de chaque élève, en encore à prédire où et quand des crimes risquent de se produire, de quelle ampleur seront les congestions routières à venir, de même que l’évolution de la réputation d’une marque et de son cours en bourse.
Cette nouvelle utilisation des données peut aussi réserver des surprises. « Par exemple, AlphaGo a découvert des stratégies que les experts ne connaissaient pas », raconte Yoshua Bengio, directeur de l’Institut des algorithmes d’apprentissage (MILA) à Université de Montréal. La nouvelle intelligence artificielle est particulièrement utile en recherche.
Watson devint un assistant de recherche
C’est précisément la réflexion qu’a eue le bio-informaticien Olivier Lichtarge, professeur au Baylor College of Medicine, à Houston, lorsqu’il a appris la victoire de Watson, l’ordinateur d’IBM, contre des champions du jeu-questionnaire télévisé Jeopardy. La force de Watson? La capacité de comprendre – de manière limitée – le langage naturel et de traiter des millions de documents et d’encyclopédies. Le chercheur s’est donc demandé s’il était possible de former Watson à la lecture de publications scientifiques en biologie, un domaine où paraissent des millions d’articles par année.
Le chercheur a pris contact avec IBM. « J’étais très sceptique, car Watson a été conçu pour répondre à des questions en cherchant de l’information. Il n’était pas conçu pour être un scientifique. La demande me semblait tirée par les cheveux », se souvient Scott Spangler, spécialiste de la gestion des données pour Watson Health.
Watson est alors initié à la biologie, il apprend les relations entre les protéines, les gènes et les cellules, les symptômes et les maladies, etc. Pour débuter, il se concentre sur la protéine p53, une des plus étudiées en cancérologie. C’est la gardienne du bon fonctionnement des cellules. Dans plus de la moitié des cancers, elle est déréglée.
L’objectif de Watson : trouver de nouvelles molécules qui modifient p53 à travers 24 millions de publications scientifiques. « C’était un gène qui représentait bien l’impossibilité de lire tous les articles pertinents. On a publié plus de 70 000 articles seulement à son sujet », remarque Olivier Lichtarge.

Pour tester Watson, les chercheurs lui présentent seulement les publications d’avant 2003. Watson a alors anticipé presque toutes les kinases - un type de protéines clés du corps humain - découvertes dans les laboratoires des biologistes après 2003. « En environ 30 ans, 28 kinases ont été découvertes [...] par tous les biologistes dans le monde, ce qui représente un effort de recherche important », note Scott Spangler.
Depuis cette expérience, Watson a beaucoup changé. Il est devenu un ensemble d’outils commercialisé par IBM, allant de la reconnaissance de la parole, à l’analyse d’humeur sur les réseaux sociaux. Ses modules intègrent de plus en plus l’apprentissage profond. Un travail immense dans lequel IBM a investi plus d’une dizaine de milliards de dollars.
Depuis, Watson a étendu ses connaissances et sa compréhension de la science. Il fait de la recherche en génomique, en biologie, en neuroscience. Des compagnies pharmaceutiques comme Sanofi lui ont ouvert leurs données pour tenter, par exemple, de trouver de nouvelles fonctions à des médicaments existants. Il aide même les oncologues dans des dizaines d’hôpitaux à choisir les meilleurs traitements.
Si l’intelligence artificielle est capable de réaliser des prouesses, elle n’est utilisée que pour des tâches très spécifiques. « Il est important de la qualifier d’artificielle et de très étroite », dit Nicolas Chapados.
De quoi cette intelligence a-t-elle besoin pour progresser? Encore plus de puissance, beaucoup de données de qualité pour diversifier ses connaissances, mais surtout, bien des développements théoriques, c’est-à-dire beaucoup de savoir-faire et d’intelligence… humaine.