« Absolument pas digne de confiance » : dans les rangs d’OpenAI, vague de critiques autour du « sociopathe » Sam Altman

il y a 1 day 1

Peut-on faire confiance à Sam Altman ? C’est, en substance, la question qui a été posée à une centaine d’employés d’OpenAI, questionnés sur leur patron, lequel a toujours promis de faire passer l’humain avant l’essor de l’intelligence artificielle. Les résultats de l’enquête du New Yorker, pourtant, dressent un portrait peu flatteur du personnage.

Premier constat largement partagé : Altman est un « sociopathe », assure un membre du conseil d’administration d’OpenAI. « Il possède deux traits de caractère qu’on ne rencontre presque jamais chez une même personne. Le premier est un désir profond de plaire, d’être apprécié en toutes circonstances. Le second est une indifférence quasi sociopathique aux conséquences que peut engendrer la tromperie », appuie une autre source.

Afin de consolider son leadership, l’entrepreneur aurait la fâcheuse tendance de « s’affranchir de toute contrainte liée à la vérité ». Quitte à « déformer la réalité, renégocier les faits, renier ses engagements », souffle un ancien collaborateur. Ainsi, Altman aurait par exemple secrètement ajouté une clause lors de négociations avec Microsoft en 2019 pour un investissement d’un milliard de dollars. Confronté, il aurait nié en bloc.

« Manipulation mentale »

« Sam a tendance à mentir de façon systématique », est-il inscrit dans une note de service secrète, tandis que l’informaticien Aaron Swartz dépeignait Altman comme « absolument pas digne de confiance ». Lors d’une réunion du conseil d’administration en 2022, l’entrepreneur aurait certifié que des fonctionnalités controversées de GPT-4 avaient été validées par un comité de sécurité. Elles n’ont, en réalité, jamais été approuvées.

Un chercheur d’OpenAI, interrogé par le magazine américain, explique que son patron est un adepte des « solutions temporaires », qui viseraient à surmonter des problèmes à un instant T. Il mettrait en place des projets contraignants sur le papier, avant de les « mettre à la poubelle » au moment venu. De quoi susciter l’inquiétude de ses collaborateurs, qui craignent le développement d’une IA trop débridée.

VidéoSommet de l’IA : pourquoi ces deux géants de la tech refusent de se tenir la main ?

Pourtant, la création d’OpenAI, en 2015, qui était alors une entité à but non lucratif, visait alors à contrecarrer ces risques. Mais voilà, plus de 10 ans après, Altman est toujours à la tête de la structure, dépeint davantage comme un homme d’affaires que comme un ingénieur soucieux de l’éthique. « Il est incroyablement persuasif », note un cadre du secteur technologique, rebuté par ses capacités de « manipulation mentale ».

« Relations transactionnelles » aux Émirats

Dans la Silicon Valley comme à Washington, les critiques ciblent également le carnet d’adresses de l’entrepreneur américain. Altman aurait continué d’entretenir des relations personnelles avec des plusieurs magnats saoudiens controversés et proches du pouvoir, mais prompts à financer ses projets, même après l’assassinat du journaliste Jamal Khashoggi en 2018.

Le PDG d’OpenAI « privilégiait ces relations transactionnelles, principalement avec les Émiratis, ce qui a suscité de vives inquiétudes chez certains d’entre nous. Beaucoup de personnes au sein de l’administration ne lui faisaient pas entièrement confiance », a fait savoir un haut responsable de l’administration Biden, en poste à l’époque, auprès du New Yorker.

Au cours de rencontres avec des responsables du renseignement américain, Sam Altman assure que la Chine lance un « projet Manhattan (du nom d’un ancien projet de recherche américain pour produire une bombe atomique) d’intelligence artificielle générale », sorte de graal technologique encore largement hypothétique. Le tout afin d’obtenir des financements gouvernementaux. Sans fournir aucune preuve de ce qu’il avance.

Collaboration avec le Pentagone

Un épisode plus récent a écœuré certains de ses plus proches collaborateurs. En février, La société à l’origine de ChatGPT a obtenu un contrat avec le Pentagone en février, quelques heures après que son concurrent Anthropic a refusé de céder à un ultimatum du gouvernement exigeant qu’elle accorde à l’armée américaine une utilisation sans restriction de Claude, son assistant IA.

De nombreux utilisateurs décident alors de désinstaller leur application ChatGPT pour marquer leurs désaccords, tandis qu’une dirigeante de l’entreprise démissionne. Lors d’une réunion du personnel, Altman aurait asséné aux employés inquiets par ce nouveau partenariat : « Vous n’avez pas votre mot à dire là-dessus. »

Lire l’article en entier