Mira Murati, CTO d’OpenAI, rejoint la vague de sortie : qu’est-ce qui se cache derrière les récents départs ?

Written by
Translated by
Written on Sep 26, 2024
Reading time 6 minutes
  • Chief research officer Bob McGrew and vice president of research Barret Zoph also announced their exits.
  • Leadership exits come amid OpenAI’s transition to a more traditional for-profit tech company.
  • Earlier, a string of exiting executives and researchers questioned OpenAI's safety standards.

La directrice technique d’OpenAI, Mira Murati, a annoncé sa démission mercredi, marquant un autre départ important de la direction alors que la puissance de l’intelligence artificielle subit des changements organisationnels substantiels.

Murati, une figure centrale derrière le développement de ChatGPT et de DALL-E, a déclaré dans une note adressée à l’équipe OpenAI publiée sur X (anciennement Twitter) :

Mes six ans et demi au sein de l’équipe OpenAI ont été un privilège extraordinaire. Il n’y a jamais de moment idéal pour quitter un endroit que l’on chérit, mais ce moment semble être le bon.

Le départ de Murati est particulièrement choquant car elle a été choisie pour remplacer Sam Altman en tant que PDG par intérim en novembre dernier, lorsque Altman a été évincé pendant une brève période, puis rétabli dans ses fonctions quelques jours plus tard.

Elle a également joué un rôle important en tant que visage public de la start-up, faisant régulièrement des apparitions pour discuter de sa technologie.

Son départ fait suite à une série de démissions très médiatisées au sein de l’entreprise, signalant des changements plus larges au sein de la direction d’OpenAI alors qu’elle navigue sur son chemin controversé vers la rentabilité.

Le départ de Mira Murati n’est pas un incident isolé. Quelques heures après sa démission, le directeur de la recherche d’OpenAI, Bob McGrew, et le vice-président de la recherche, Barret Zoph, ont également annoncé leur intention de quitter l’entreprise.

Dans des publications sur X, McGrew a noté qu’il était « temps pour moi de faire une pause », tandis que Zoph a partagé qu’il « explorait de nouvelles opportunités ».

Les sorties coïncident avec les plans de l’entreprise pour la rendre rentable

Copy link to section

Ces départs interviennent après une année mouvementée pour OpenAI, marquée par la révocation soudaine du PDG Sam Altman de son poste, suivie de sa réintégration cinq jours plus tard seulement.

Le New York Times a rapporté que les départs de dirigeants d’OpenAI coïncident avec les efforts d’Altman et de son équipe pour transformer le modèle commercial de l’entreprise.

Bien qu’OpenAI ait été initialement fondé en tant que laboratoire de recherche à but non lucratif, des initiatives récentes suggèrent une évolution vers l’augmentation des revenus et la mise à l’échelle de l’entreprise.

OpenAI est actuellement contrôlée par le conseil d’administration d’une organisation à but non lucratif, mais la société étudierait des options pour passer à une structure à but lucratif plus traditionnelle d’ici l’année prochaine.

Dans le cadre de cette stratégie, OpenAI est en pourparlers pour un nouveau cycle d’investissement qui pourrait valoriser l’entreprise jusqu’à 150 milliards de dollars, ont rapporté Bloomberg et d’autres.

Les investisseurs potentiels incluent des acteurs de premier plan tels que Microsoft, Nvidia, Apple, Tiger Global et MGX, une société d’investissement technologique des Émirats arabes unis.

La valorisation précédente d’OpenAI était de 80 milliards de dollars, ce qui souligne la croissance rapide de l’entreprise et l’intérêt croissant des investisseurs mondiaux.

Malgré ses réalisations significatives, notamment le succès généralisé de ChatGPT et de DALL-E, les coûts d’OpenAI dépassent ses revenus.

L’entreprise génère plus de 3 milliards de dollars de ventes par an, mais dépenserait environ 7 milliards de dollars par an, selon le NYT.

Le déficit financier a intensifié le besoin de financement supplémentaire de l’entreprise, ce qui a alimenté les discussions d’investissement en cours.

Des « produits brillants » pour des raisons de sécurité

Copy link to section

En mai, deux personnalités clés, Ilya Sutskever et Jan Leike, ont quitté l’entreprise après avoir dirigé l’équipe Superalignment d’OpenAI, chargée de garantir la sécurité de l’intelligence artificielle générale (AGI).

Leike a ensuite critiqué OpenAI pour avoir donné la priorité aux « produits brillants » au détriment des problèmes de sécurité et a déclaré que les contraintes de ressources entravaient la capacité de l’équipe à mener à bien des recherches critiques.

Gretchen Krueger, ancienne chercheuse en politique, qui a également récemment démissionné d’OpenAI, a exprimé ses inquiétudes quant au manque de transparence et de responsabilité au sein de l’organisation.

Elle a souligné la nécessité d’améliorer les processus de prise de décision, d’utiliser judicieusement la technologie de l’IA et d’atténuer les impacts sur les inégalités, les droits et l’environnement.

« Ce sont des préoccupations partagées par de nombreuses personnes et communautés et ne doivent pas être interprétées à tort comme étant étroites ou spéculatives », a écrit Krueger dans sa note de démission.

Ces départs ont suivi ceux de deux autres chercheurs en sécurité, Daniel Kokotajlo et William Saunders, qui sont partis pour des raisons similaires.

Kokotajlo a déclaré qu’il était parti après avoir « perdu confiance dans le fait qu’OpenAI se comporterait de manière responsable à l’époque de l’AGI ».

En août, John Schulman, un autre cofondateur d’OpenAI, a démissionné pour rejoindre la société d’IA rivale Anthropic.

Alors qu’OpenAI s’oriente vers une entreprise davantage axée sur le profit, la tension entre le développement éthique de l’IA et les intérêts commerciaux reste un point de discorde tant au sein de l’organisation que dans l’industrie au sens large.

Avec le départ de personnalités de premier plan comme Murati, Sutskever et Schulman, le monde de l’IA observera de près l’évolution d’OpenAI dans les mois à venir.

Alors que l’entreprise continue de repousser les limites de ce qui est possible avec l’intelligence artificielle, la dynamique interne et les changements de direction suggèrent que son chemin à suivre pourrait ne pas être sans défis.

Cet article a été traduit de l'anglais à l'aide d'outils d'intelligence artificielle, puis relu et corrigé par un traducteur local.