•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

OpenAI : « Ce n’était pas une bataille d’entreprise ordinaire »

Une femme aux cheveux blanc, tout sourire, prend la pose dans un veston blanc.

Professeure de droit et de gestion stratégique, Gillian Hadfield dirige l’Institut Schwartz Reisman pour la technologie et la société à l’Université de Toronto.

Photo : UWE DETTMAR

Après la crise, une bougie. ChatGPT célèbre son premier anniversaire au lendemain d’une saga qui a ébranlé les piliers d’OpenAI, l’entreprise qui l’a créé. Gillian Hadfield, directrice de l’Institut Schwartz Reisman pour la technologie et la société à l’Université de Toronto, a suivi de près les événements. Elle était jusqu’à octobre dernier conseillère principale en politique pour OpenAI. Entrevue.

Les récents déboires d’OpenAI ont fait couler beaucoup d’encre. En quelques jours, Sam Altman a perdu puis retrouvé son poste à la tête de l'entreprise dans une série de rebondissements. Qu’est-ce qui a retenu votre attention?

Il faut se souvenir que ce n’était pas une bataille d’entreprise ordinaire. Cela allait au-delà des luttes internes pour maximiser les profits. À l’origine, OpenAI a été fondée comme une entreprise à but non lucratif. À l'origine de ces événements, il y a un conflit dans un conseil d’administration qui a dit : Notre mandat n’est pas d'augmenter les revenus des actionnaires, mais de nous assurer que l’intelligence artificielle est construite de manière sécuritaire et bénéfique pour l’humanité.

Une émission spéciale sur l’intelligence artificielle sera diffusée le 7 décembre à 20 h sur les ondes d’ICI RADIO-CANADA TÉLÉ, ICI RDI et sur nos plateformes numériques.

Quand j’ai commencé à travailler avec l'équipe de recherche en politiques il y a cinq ans, c’était un laboratoire de recherche. Ma principale mission était de contribuer à des études sur la réglementation de l’intelligence artificielle. Comment établir des standards? Quels sont les dangers de la compétition entre les laboratoires? Comment rendre ces systèmes dignes de confiance? L’organisation était beaucoup plus petite et uniquement à but non lucratif.

Ce qui m’a marquée dès le début, c’est le dévouement des membres du personnel pour trouver des solutions afin de construire, de déployer et d'encadrer cette technologie de manière sécuritaire. J’ai donc été surprise par tout ce qui est arrivé dernièrement. Ce serait triste que cette culture d'entreprise et cet engagement pour le développement responsable en ressortent altérés.

Au début du mois de novembre, OpenAI a lancé les GPT. Cette fonctionnalité permet aux utilisateurs et utilisatrices de créer leur propre déclinaison de ChatGPT, ce qui pourrait engendrer de nouveaux risques. Voyez-vous un lien avec le renvoi de Sam Altman, qui est survenu peu de temps après?

Les raisons exactes de cette crise restent obscures. Cela dit, ChatGPT a été lancé il y a un an. Ensuite, ça a été le tour de GPT-4, puis des plugiciels (plug-ins) qui ont donné à ChatGPT accès à Internet. Récemment, ça a été au tour des GPT.

J’ai travaillé avec OpenAI de façon contractuelle depuis 2018 jusqu’au mois d’octobre de cette année. Quand j’ai vu ce lancement, c’était la première fois que je me disais que ça allait trop vite.

Une citation de Gillian Hadfield, ancienne conseillère d'OpenAI

Nous avons besoin de plus de temps pour absorber ce qui se passe et mettre en place une infrastructure réglementaire afin de s'assurer que tout cela évolue dans le bon sens.

Il semble justement y avoir une accélération du côté réglementaire. En tant que spécialiste de la réglementation de l'intelligence artificielle, trouvez-vous que le rythme de l’action politique est encourageant?

Oui, vraiment. ChatGPT a changé le monde sur les plans technologique et réglementaire. Dans la dernière année, j’ai vu des gouvernements faire des choses dans un laps de temps que je n’aurais pas cru possible, jusqu’à la publication du décret présidentiel sur l’intelligence artificielle à la fin du mois d’octobre aux États-Unis.

J’ai signé la lettre demandant une pause [dans le développement des modèles avancés d’intelligence artificielle] le printemps dernier, puis unelettre qui parlait du risque d’extinction – un terme que je n’apprécie pas particulièrement. Je l’ai fait parce que je croyais qu’il fallait que le gouvernement et le public soient interpellés.

Je pense que l’objectif a été atteint. Aujourd’hui, on voit des gouvernements qui prennent au sérieux le fait que nous assistons à ce qui est peut-être l'une des transformations les plus rapides et spectaculaires de nos économies et de nos sociétés.

Quel signal le retour de Sam Altman à la tête d’OpenAI, avec l’appui de Microsoft qui a investi massivement dans l'entreprise, envoie-t-il aux personnes qui voudraient encadrer le développement de cette technologie?

Je crois que le dernier chapitre n’a pas encore été écrit, mais une des leçons les plus importantes de cette histoire, c’est que ce type de mécanisme de contrôle interne au sein d’une entreprise n’est peut-être pas assez robuste. Ça ne devrait pas uniquement reposer sur les épaules de quelques individus, même s’ils sont bien intentionnés et compétents. Les gouvernements ont une responsabilité.

Les bénéfices potentiels de l’intelligence artificielle me rendent enthousiaste, mais cette innovation frappe notre société de plein fouet. C’est donc étrange que ce développement se fasse sous le contrôle de firmes privées sans qu’on sache exactement ce qui se passe. Ce manque de visibilité pour le public est l’une des plus grandes menaces actuellement.

J’ai fait une proposition qui a partiellement été reprise dans le décret présidentiel américain pour exiger plus de transparence dans le développement des modèles d’intelligence artificielle les plus puissants. Qu’est-ce qui est construit? Quelle est la taille du modèle? Quelles sont ses capacités? Quels tests ont été faits?

Ce que nous voulons, ce sont des politiques intelligentes qui équilibrent les bénéfices réels et les risques réels.

Le problème en ce moment, c’est qu’on n’est pas capables de bien évaluer les risques parce qu’on ne sait pas vraiment ce que les entreprises construisent.

Une citation de Gillian Hadfield, ancienne conseillère d'OpenAI

Le premier pas serait donc de s’assurer que les gouvernements aient accès aux informations nécessaires pour avoir une vue plus claire de l’horizon.

Vous dites que le dernier chapitre de cet épisode n'a pas encore été écrit pour OpenAI. Que doit-on surveiller pour la suite?

Il faudrait garder un œil sur la composition du nouveau conseil d’administration d’OpenAI. Il faudrait également voir s’il y aura ou non un effort pour redéfinir la structure de gouvernance de l’organisation.

Prenons le cas d’Anthropic, qui conçoit le robot conversationnel Claude. Cette entreprise tente elle aussi de développer l’intelligence artificielle générale. Elle a été formée par un groupe de personnes qui a quitté OpenAI et qui a choisi une autre stratégie pour trouver un équilibre entre les incitatifs commerciaux et l’engagement pour le bien commun.

C’est une fiducie à long terme qui possède des actions dans l'entreprise et elle a le pouvoir de nommer les membres du conseil d'administration. C’est une autre forme de gouvernance innovante.

En fin de compte, j’espère qu’on comprendra que nos gouvernements doivent trouver des solutions à ces problèmes et qu'ils ne peuvent pas les laisser entre les mains du secteur privé.

Devant la nouveauté de cette technologie, il va falloir penser de manière extraordinairement créative, concevoir des technologies qui nous aideront elles-mêmes à créer une nouvelle structure légale et réglementaire. Des solutions existent. L’intelligence artificielle peut servir à encadrer le déploiement de l’intelligence artificielle.

Nous faisons preuve d’innovation pour la technologie. Il faudra en faire autant pour sa réglementation.

Les propos ont été édités à des fins de clarté ou de concision.

La section Commentaires est fermée

Les commentaires sont modérés et publiés du lundi au vendredi entre 6 h et 23 h 30 (heure de l’est).

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Chargement en cours

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.