1. Accueil
  2. Techno
  3. Intelligence artificielle

L’IA pose des « risques d’extinction », s’alarment des chercheurs et grands patrons

Samuel Altman.

Samuel Altman, patron de l'entreprise Open AI, fait partie des plus de 350 signataires d'une déclaration selon laquelle les risques associés à l'intelligence artificielle devraient être une priorité mondiale.

Photo : Getty Images / Win McNamee

Philippe Robitaille-Grou

Une vingtaine de mots. C’est la longueur de la déclaration publiée mercredi sur les risques de l’intelligence artificielle (IA), signée par des sommités mondiales telles que Yoshua Bengio, pionnier dans le domaine ayant fondé l’Institut québécois d’intelligence artificielle (Mila), Geoffrey Hinton, l’un des pères de l’intelligence artificielle, et les dirigeants de trois des plus importantes entreprises développant ces technologies : Sam Altman d’OpenAI (derrière l’agent conversationnel ChatGPT), Demis Hassabis, de DeepMind, et Dario Amodei, d’Anthropic.

Une vingtaine de mots qui, néanmoins, en disent long : La mitigation des risques d’extinction liés à l’intelligence artificielle devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires.

Selon l’organisme à but non lucratif Center for AI Safety (CAIS), à l’origine de ce nouveau coup d’éclat, l’énoncé succinct vise à ouvrir la discussion sur les dangers les plus graves que pose l’intelligence artificielle, en résumant de manière brève et claire certains d’entre eux.

Le Center for AI Safety dit souhaiter informer le grand public du nombre croissant d'experts et de personnalités publiques qui prennent également au sérieux certains des risques les plus graves de l'intelligence artificielle avancée.

La déclaration unit les voix de plus de 350 signataires, principalement des chercheurs et grands patrons de l’industrie.

Nouvel épisode d'une longue saga

Depuis plusieurs mois, la pression monte pour les dirigeants du monde afin de mieux réguler l’essor fulgurant de l'intelligence artificielle.

Plus tôt en mai, le président des États-Unis, Joe Biden, et la vice-présidente, Kamala Harris, ont rencontré les têtes dirigeantes d’OpenAI, de DeepMind et d’Antrhopic afin de discuter de l'encadrement de ces technologies.

Nous pensons que des interventions des gouvernements seront essentielles pour atténuer les risques associés à des modèles de plus en plus puissants, avait alors affirmé Sam Altman d’OpenAI, proposant notamment la création d’une agence responsable d’émettre des licences pour le développement de produits à grande échelle utilisant l’intelligence artificielle.

Je pense que si cette technologie tourne mal, cela peut très mal virer. Et [...] nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise.
Une citation de Sam Altman, patron d'OpenAI

En mars dernier, quelque 1000 grandes figures mondiales dans le domaine ont signé une lettre (nouvelle fenêtre) demandant la suspension durant six mois de toute recherche en intelligence artificielle qui s'inscrirait dans le développement de systèmes plus puissants que le modèle GPT-4 d’OpenAI. Yoshua Bengio, l’entrepreneur Elon Musk et le cofondateur d’Apple, Steve Wozniak, figuraient parmi les signataires.

Dans les derniers mois, les laboratoires d’intelligence artificielle se sont engagés dans une course effrénée pour développer et déployer des systèmes numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable, pouvait-on y lire.

Questions posées dans la lettre publiée en mars :

  • Devrions-nous laisser les machines inonder nos canaux d'information de propagande et de contrevérité?

  • Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes?

  • Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents et nous remplacer?

  • Devrions-nous risquer de perdre le contrôle de notre civilisation ?

Également en mars, l’Organisation des Nations unies pour l'éducation, la science et la culture et le Institut québécois d’intelligence artificielle publiaient conjointement un livre (nouvelle fenêtre) visant à réfléchir au rôle que l’on souhaite accorder à l’intelligence artificielle au sein de la société.

Yoshua Bengio évoquait déjà, au moment du lancement, un danger pour les démocraties et des risques pouvant prendre l’ampleur de la menace nucléaire. Et si seulement quelques personnes avaient ce pouvoir? avait-il demandé.

Cette semaine, ce sera au tour des dirigeants du G7 de s’unir pour réfléchir à la question. Un nouveau groupe de travail se rencontre pour la première fois mercredi, afin de discuter entre autres de gouvernance de l’intelligence artificielle et de protection de la propriété intellectuelle.

Philippe Robitaille-Grou

À la une