1. Accueil
  2. Techno
  3. Intelligence artificielle

Des sommités de la technologie demandent un moratoire sur le développement de l’IA

Concept de l'intelligence artificielle. Une silhouette humaine avec un design de circuit imprimé et des lignes de code qui flottent par-dessus.

Ce sont les systèmes très puissants comme ChatGPT qui préoccupent les signataires de la lettre.

Photo : getty images/istockphoto / monsitj

Dominique Degré

Des centaines de grands noms du monde des technologies demandent dans une lettre ouverte de suspendre temporairement le développement de certains systèmes avancés d’intelligence artificielle (IA).

Les systèmes d’intelligence artificielle pouvant rivaliser avec l’intelligence humaine peuvent poser un grand risque pour l’humanité, plaident les quelque 1000 signataires de la lettre publiée par le Future of Life Institute, un organisme qui cherche à limiter les risques associés au développement des nouvelles technologies.

On compte parmi les signataires des spécialistes chevronnés comme le Montréalais Yoshua Bengio (nouvelle fenêtre), ou encore des chefs d’entreprise comme Elon Musk et Steve Wozniak, cofondateur d’Apple.

Ils ne demandent pas à suspendre l’ensemble de la recherche sur l’intelligence artificielle, mais plutôt ce qui touche au développement des systèmes plus puissants que GPT-4 pendant au moins six mois. En très peu de temps, ChatGPT (nouvelle fenêtre), développé par la firme OpenAI, a rapidement gagné en popularité grâce à ses capacités étonnantes… et ses ratés (nouvelle fenêtre). Des recettes (nouvelle fenêtre) aux travaux universitaires (nouvelle fenêtre), le grand public a pu constater que ChatGPT est capable de comprendre des tâches qu’on croyait jusqu’ici être réservées au cerveau humain.

Dans les derniers mois, les laboratoires d’intelligence artificielle se sont engagés dans une course effrénée pour développer et déployer des systèmes numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.
Une citation de Extrait de la lettre ouverte

Selon le registre de la transparence de l’Union européenne, le Future of Life Institute est principalement financé par la Musk Foundation, mais également par le groupe Founders Pledge et par la Silicon Valley Community Foundation. Le Future of Life Institute est lié à un organisme adepte de l’approche à très long terme (longtermism en anglais).

Le moratoire temporaire exigé par les signataires devrait être utilisé pour élaborer des protocoles de sécurité pour la conception et le développement de l’intelligence artificielle, comme la création d’entités pour réguler l’intelligence artificielle, des systèmes pour distinguer clairement le vrai du synthétique et des mécanismes pour déterminer à qui revient la responsabilité dans des cas où l’intelligence artificielle causerait des méfaits ou du tort.

« Ça va prendre des années »

À l'occasion d'une conférence de presse mercredi, le scientifique Yoshua Bengio, chercheur et fondateur de l'Institut québécois en intelligence artificielle (IA) Mila, a affirmé qu'une législation à l'échelle internationale est nécessaire : Ça va prendre des années, mais vu la vitesse à laquelle la technologie évolue, il faut commencer le plus tôt possible.

Il y a des risques, il y a des dangers. C’est vraiment important de ne pas laisser ça à l’autorégulation, ce n’est pas suffisant. [...] Il faut que les compagnies puissent jouer sur le même terrain de jeu et cela demande que les gouvernements mettent des balises, mettent en place des mécanismes de surveillance, etc.
Une citation de Yoshua Bengio, spécialiste de l'intelligence artificielle

Selon lui, le problème de l'intelligence artificielle est comparable à la lutte contre les changements climatiques : Ça peut avoir l’air décourageant des fois, mais on a un devoir de faire tout ce qu’on peut pour essayer de réduire les risques et faire bouger la société dans le bon sens.

Dave Anctil, chercheur en intelligence artificielle et professeur de philosophie au Collège Jean-de-Brébeuf, croit que la réglementation de ces outils ne relève pas de l'utopie, mais il faut commencer quelque part. Selon lui, une trêve est nécessaire, car la société n'est pas prête à utiliser ces outils [...] [alors] qu'il y a une absence de réglementation et de législation.

Il faut qu’il y ait une prise de conscience collective [...] qu’on est à un moment vraiment révolutionnaire dans la technologie de l’IA, parce qu’on a développé des outils très puissants et ça demande une réponse proportionnelle à ces capacités.
Une citation de Dave Anctil, chercheur en intelligence artificielle

De tels mécanismes sont d’autant plus importants que c'est l'une des industries les plus concentrées dans le monde, soulignait la semaine (nouvelle fenêtre) dernière Kate Crawford, spécialiste des implications sociales et politiques de l'intelligence artificielle, à l'occasion du lancement d’un livre intitulé Angles morts de la gouvernance de l'intelligence artificielle, publié conjointement par l'Organisation des Nations unies pour l'éducation, la science et la culture et le Mila.

Selon Mme Crawford, six entreprises se partagent la vaste majorité de ce secteur.

À cela s’ajoutent les nombreuses questions éthiques soulevées par les logiciels d'hypertrucage (deep fakes), les systèmes qui génèrent des œuvres d’art (nouvelle fenêtre) en synthétisant des informations à partir d’œuvres existantes, les biais implicites (notamment raciaux) que peuvent assimiler les intelligence artificielle et les systèmes militaires pouvant localiser des cibles de manière autonome.

Dominique Degré

À la une