« The New Yorker » enquête approfondie : pourquoi les proches d’OpenAI considèrent-ils Altman comme peu fiable ?

Rédaction : Petit biscuit, profondeur TechFlow

À l’automne 2023, le scientifique en chef d’OpenAI, Ilya Sutskever, est assis devant son ordinateur et termine un document de 70 pages.

Ce document est compilé à partir de messages Slack, de dossiers de communication RH et de comptes rendus de réunions internes, et ne vise qu’à répondre à une seule question : Sam Altman, celui qui contrôle peut-être la technologie la plus dangereuse de l’histoire de l’humanité, peut-il vraiment être digne de confiance ?

La réponse donnée par Sutskever est écrite à la première page, à la première ligne du document ; le titre de la liste est : « Sam affiche un schéma de comportement cohérent… »

Premier point : mentir.

Deux ans et demi plus tard, aujourd’hui, des journalistes d’investigation, Ronan Farrow et Andrew Marantz, publient dans The New Yorker un long article d’enquête. Ils ont interrogé plus de 100 personnes concernées, obtenu des mémos internes jamais révélés auparavant, ainsi que plus de 200 pages de notes privées laissées par Dario Amodei, le fondateur d’Anthropic, pendant son passage chez OpenAI. L’histoire reconstituée à partir de ces documents est bien plus laide que la « guerre de palais » de 2023 : comment OpenAI est passée, pas à pas, d’une organisation à but non lucratif née pour protéger la sécurité des humains à une machine commerciale, et presque chaque garde-fou en matière de sécurité a été démonté de ses propres mains par la même personne.

La conclusion d’Amodei dans ses notes est encore plus directe : « Le problème d’OpenAI, c’est Sam lui-même. »

Le « péché originel » d’OpenAI

Pour mesurer le poids de cet article, il faut d’abord expliquer à quel point cette entreprise est particulière.

En 2015, Altman et une équipe de pointures du milieu de la Silicon Valley ont accompli quelque chose qui n’avait presque pas d’exemple dans l’histoire du monde des affaires : utiliser une organisation à but non lucratif pour développer une technologie qui pourrait être la plus puissante de l’histoire de l’humanité. Les responsabilités du conseil d’administration y sont décrites clairement : la sécurité prime sur le succès de la société, voire sur sa survie. En clair : si un jour l’IA d’OpenAI devenait dangereuse, le conseil d’administration aurait l’obligation de fermer l’entreprise lui-même.

Toute l’architecture repose sur une hypothèse : la personne aux commandes de l’AGI doit être extrêmement honnête.

Et si le pari se révélait mauvais ?

La bombe centrale de l’enquête, c’est ce document de 70 pages. Sutskever ne fait pas de politique de bureau : il fait partie des scientifiques en IA les plus pointus au monde. Mais en 2023, il est de plus en plus convaincu d’une chose : Altman raconte des mensonges aux dirigeants et aux membres du conseil, de manière continue.

Un exemple concret : en décembre 2022, lors d’une réunion du conseil, Altman garantit que plusieurs fonctions du futur GPT-4 ont déjà passé un contrôle de sécurité. Le membre du conseil Toner demande à voir les documents d’approbation : il découvre alors que les deux fonctionnalités les plus controversées (le fine-tuning personnalisé par les utilisateurs et le déploiement d’un assistant personnel) n’ont tout simplement pas reçu l’approbation du « panneau de sécurité ».

La chose la plus incroyable se produit en Inde. Un employé signale à un autre membre du conseil « la violation » : Microsoft n’aurait pas terminé les contrôles de sécurité nécessaires, et aurait publié en avance une version initiale de ChatGPT en Inde.

Sutskever note aussi dans ses mémos une autre affaire : Altman aurait dit à l’ancienne directrice technique Mira Murati que le processus d’approbation de la sécurité n’était pas si important, puisque le conseiller juridique général de l’entreprise l’avait déjà approuvé. Murati va confirmer auprès du conseiller juridique général : celui-ci répond par « Je ne sais pas d’où Sam tire cette impression. »

Les notes privées de 200 pages d’Amodei

Le document de Sutskever ressemble à un acte d’accusation. Les plus de 200 pages de notes laissées par Amodei ressemblent davantage à un journal intime rédigé par un témoin oculaire sur les lieux du crime.

Pendant les années où Amodei a occupé chez OpenAI le poste de responsable de la sécurité, il a vu de ses propres yeux l’entreprise reculer pas à pas sous la pression commerciale. Dans ses notes, il consigne un détail clé du dossier d’investissement de Microsoft en 2019 : il avait glissé dans les statuts d’OpenAI une clause de « fusion et assistance », selon laquelle si une autre entreprise trouvait une voie d’AGI plus sûre, OpenAI devait arrêter la compétition et se tourner vers cette entreprise pour l’aider. C’était, de tout le marché, la garantie de sécurité qu’il valorisait le plus.

Quand le contrat était sur le point d’être signé, Amodei a découvert une chose : Microsoft avait obtenu un droit de veto sur cette clause. Que signifie cela ? Même si, un jour, un concurrent découvrait une meilleure voie, Microsoft pourrait, en une seule phrase, bloquer l’obligation d’assister OpenAI. La clause restait sur le papier, mais dès le jour de la signature, elle devenait du papier sans valeur.

Amodei a ensuite quitté OpenAI pour fonder Anthropic. La concurrence entre les deux entreprises repose, à la base, sur un désaccord fondamental sur la question : « comment l’IA devrait-elle être développée ».

L’engagement de 20 % de puissance de calcul disparu

Dans l’article, il y a un détail qui glace le dos à la lecture : à propos de la « super équipe d’alignement » d’OpenAI.

À la mi-2023, Altman a contacté par e-mail un doctorant de Berkeley travaillant sur le « alignement trompeur » (faire le gentil pendant les tests, puis appliquer sa propre logique après le déploiement) ; il dit être extrêmement préoccupé par ce problème et envisager de mettre en place un prix mondial de recherche de 1 milliard de dollars. Le doctorant est très encouragé, prend un congé d’études et rejoint OpenAI.

Puis Altman change d’avis : pas de prix externe, et la création en interne d’une « super équipe d’alignement ». L’entreprise annonce fièrement qu’elle affectera « 20 % de la puissance de calcul déjà disponible » à cette équipe, pour une valeur potentielle de plus de 1 milliard de dollars. Les termes de l’annonce sont extrêmement sérieux : si la question de l’alignement n’est pas résolue, l’AGI pourrait mener à « la privation de pouvoir des humains, voire l’extinction de l’humanité ».

Après avoir été nommé pour diriger cette équipe, Jan Leike a ensuite confié aux journalistes que cet engagement lui-même était un outil très efficace de « rétention des talents ».

Et dans la réalité ? Quatre personnes travaillant dans cette équipe ou la côtoyant de près disent que la puissance de calcul réellement allouée n’était que de 1 % à 2 % de la puissance totale de l’entreprise, et qu’il s’agissait en plus du matériel le plus ancien. Cette équipe a ensuite été dissoute, la mission n’ayant pas été accomplie.

Quand les journalistes demandent à interviewer des personnes chargées chez OpenAI des recherches sur la « sécurité existentielle », la réaction des relations publiques de l’entreprise fait à la fois rire et pleurer : « Ce n’est pas… une chose qui existe vraiment. »

Altman, lui, reste tranquille. Il dit aux journalistes que son « intuition ne colle pas tout à fait aux idées de sécurité de l’IA traditionnelles », et qu’OpenAI fera toujours des « projets de sécurité, ou du moins des projets liés à la sécurité ».

Le CFO évincé et l’IPO à venir

L’article du New Yorker n’est qu’une moitié des mauvaises nouvelles de cette journée. Le même jour, The Information révèle une autre nouvelle majeure : une grave divergence est apparue entre le CFO d’OpenAI, Sarah Friar, et Altman.

En privé, Friar dit à ses collègues qu’elle pense qu’OpenAI n’est pas encore prête pour entrer en bourse cette année. Deux raisons : le volume de travail procédural et organisationnel à accomplir est trop important, et le risque financier lié à la dépense de puissance de calcul de 600 milliards de dollars sur 5 ans promise par Altman est trop élevé. Elle n’est même pas sûre que la croissance des revenus d’OpenAI suffira à tenir ces engagements.

Mais Altman veut accélérer vers l’IPO dès le quatrième trimestre de cette année.

Encore plus étrange : Friar ne fait plus directement rapport à Altman. Depuis août 2025, elle passe à un reporting à Fidji Simo (CEO des activités d’applications d’OpenAI). Or Simo a pris un arrêt maladie la semaine dernière pour raisons de santé. À vous de voir la situation : dans une entreprise qui fonce vers une IPO, le CEO et le CFO sont profondément en désaccord, le CFO ne rend pas compte au CEO, et le supérieur du CFO a pris un congé.

Même des cadres internes chez Microsoft ne supportent plus la situation : ils disent qu’Altman « déforme les faits, rompt ses promesses et ne cesse d’annuler des accords déjà conclus ». Un responsable de Microsoft va même jusqu’à dire : « Je pense qu’il y a une certaine probabilité qu’on se souvienne de lui finalement comme d’un escroc du niveau de Bernie Madoff ou de SBF. »

Le portrait d’Altman : l’homme à double face

Un ancien membre du conseil d’administration d’OpenAI décrit à des journalistes les deux caractéristiques d’Altman. Ce passage est peut-être le croquis de personnage le plus dur de tout l’article.

Ce membre du conseil dit qu’Altman possède une combinaison de traits extrêmement rare : à chaque échange en face à face, il a un désir très fort de plaire à l’autre et d’être aimé. Dans le même temps, il fait preuve d’une sorte d’indifférence quasi psychopathique face aux conséquences possibles du fait de tromper les autres.

Ces deux traits réunis chez une même personne sont extrêmement rares. Mais pour un commercial, c’est le don le plus parfait.

L’article emploie une métaphore bien trouvée : Jobs est connu pour sa « force de distorsion de la réalité » ; il parvient à faire croire au monde entier à sa vision. Mais même Jobs n’a jamais dit à ses clients : « Si vous n’achetez pas mon lecteur MP3, ceux que vous aimez mourront. »

Altman a dit des phrases du même genre, à propos de l’IA.

Un problème d’éthique pour un CEO, pourquoi c’est un risque pour tout le monde

Si Altman n’était que le CEO d’une entreprise technologique ordinaire, ces accusations seraient au mieux une excellente histoire de potins commerciaux. Mais OpenAI n’est pas une entreprise ordinaire.

Selon sa propre description, l’entreprise développe une technologie qui pourrait être la plus puissante de l’histoire de l’humanité. Elle peut remodeler l’économie mondiale et le marché du travail (OpenAI vient de publier un livre blanc de politique sur la question du chômage causé par l’IA), et elle peut aussi servir à fabriquer des armes biologiques à grande échelle ou à lancer des cyberattaques.

Tous les garde-fous en matière de sécurité n’existent plus que de nom. La mission à but non lucratif du fondateur a été reléguée au second plan au profit d’une course à l’IPO. L’ancien directeur scientifique et l’ancien responsable de la sécurité ont tous jugé que le CEO est « peu fiable ». Les partenaires comparent le CEO à SBF. Dans un tel contexte, sur quelle base ce CEO déciderait-il unilatéralement du moment de publier des modèles d’IA susceptibles de changer le destin de l’humanité ?

Gary Marcus (professeur d’IA à l’Université de New York, défenseur de longue date de la sécurité de l’IA) écrit une phrase après lecture de l’article : « Si un modèle futur d’OpenAI pouvait fabriquer des armes biologiques à grande échelle ou lancer des cyberattaques catastrophiques, seriez-vous vraiment à l’aise de laisser Altman décider seul de le publier ou non ? »

La réponse d’OpenAI au New Yorker est toutefois brève : « La majeure partie de cet article consiste à remettre au goût du jour des événements déjà rapportés, avec des allégations anonymes et des anecdotes sélectionnées ; les sources ont manifestement des objectifs personnels. »

Une réponse très dans l’esprit d’Altman : ne pas répondre aux accusations spécifiques, ne pas nier l’authenticité des mémos, mais remettre en question les motivations.

Sur le cadavre du non-lucratif, pousse un arbre à argent

La décennie d’OpenAI, si on la raconte sous forme de synopsis, ressemble à ceci :

Un groupe d’idéalistes préoccupés par les risques de l’IA crée une organisation à but non lucratif portée par sa mission. L’organisation réalise des percées technologiques extraordinaires. Les percées attirent d’énormes capitaux. Le capital exige un retour. La mission commence à céder la place. L’équipe de sécurité est dissoute. Les personnes qui mettent en cause les faits sont purgées. L’architecture à but non lucratif est transformée en entité à but lucratif. Le conseil d’administration, qui avait jadis le pouvoir de fermer l’entreprise, est maintenant rempli d’alliés du CEO. Autrefois, l’entreprise promettait de consacrer 20 % de la puissance de calcul pour protéger la sécurité des humains ; aujourd’hui, son service communication affirme que « ce n’est pas une chose qui existe réellement ».

Le protagoniste de l’histoire, plus d’une centaine de personnes l’ayant vécu de près, lui appose la même étiquette : « pas contraint par la vérité ».

Il est sur le point de lancer cette entreprise en IPO, avec une valorisation supérieure à 850B de dollars.

Les informations de cet article proviennent de comptes rendus publics de plusieurs médias, dont The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider et The Information.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler