Le PDG d'OpenAI confie sa crainte face à GPT-5

Sam Altman and ChatGPT logo.
(Crédit photo: Shutterstock/ DIA TV)

  • Le PDG d’OpenAI, Sam Altman, a récemment déclaré lors d’une interview que les tests de GPT‑5 l’avaient profondément inquiété
  • Il a comparé GPT‑5 au projet Manhattan
  • Il a mis en garde contre la vitesse fulgurante des avancées en intelligence artificielle, qui ne sont selon lui accompagnées d’aucune véritable supervision

Le patron d’OpenAI, Sam Altman, a dressé un portrait de GPT‑5 qui s’apparente davantage à un thriller qu’à une simple présentation produit. Dans un épisode récent du podcast This Past Weekend with Theo Von, il a décrit les phases de test du modèle avec un ton haletant, laissant entrevoir davantage de scepticisme que l’alerte qu’il semblait vouloir transmettre.

Selon Altman, GPT‑5 « semble très rapide », tout en rapportant des moments où un malaise profond s’est fait ressentir. Bien qu’il soit à l’origine du développement de GPT‑5, il a affirmé que lors de certaines sessions, il en était venu à comparer le modèle au projet Manhattan.

Altman a également dénoncé avec virulence l’absence de régulation dans le domaine de l’IA, suggérant que « personne ne tient réellement les rênes » et que la supervision peine à suivre l’accélération des progrès. Une manière étrange de présenter un produit censé marquer un tournant vers une intelligence artificielle générale. Pointer les risques est une chose ; affirmer ne pas maîtriser les performances de GPT‑5 en est une autre, et donne une impression de duplicité.

OpenAI CEO Sam Altman: "It feels very fast." - "While testing GPT5 I got scared" - "Looking at it thinking: What have we done... like in the Manhattan Project"- "There are NO ADULTS IN THE ROOM" from r/ChatGPT

Les peurs existentielles autour de GPT‑5

Ce qui a réellement effrayé Sam Altman reste flou. Aucun détail technique n’a été fourni. L’évocation du projet Manhattan relève une nouvelle fois d’une comparaison excessive. Parler de bouleversement irréversible aux enjeux planétaires paraît disproportionné face à ce qui reste un système avancé de génération automatique de texte. Affirmer que l’outil a été créé sans être entièrement compris pourrait faire passer OpenAI pour une structure imprudente, voire irresponsable.

La sortie de GPT‑5 est attendue prochainement, et des indices laissent entendre qu’il ira bien au-delà des capacités de GPT‑4. La notion d’« esprit numérique » évoquée dans les propos d’Altman pourrait effectivement refléter une transformation de la manière dont les concepteurs envisagent leur travail, mais ce discours quasi messianique ou apocalyptique semble décalé. Le débat public sur l’IA oscille entre optimisme béat et angoisse existentielle, mais un positionnement plus nuancé serait sans doute plus pertinent.

Ce n’est pas la première fois qu’Altman admet publiquement son inconfort face à la course à l’intelligence artificielle. Il a déjà affirmé que l’IA pouvait « très mal tourner » et que la responsabilité devait primer, tout en continuant à livrer des produits performants.

Même si GPT‑5 s’accompagne d’outils plus efficaces, d’interfaces plus intuitives et d’un logo légèrement revisité, la question centrale reste celle du pouvoir.

Si cette nouvelle génération d’IA s’avère plus rapide, plus intelligente et plus intuitive, elle se verra confier encore davantage de responsabilités. Et cela représenterait un réel danger au vu des propos mêmes d’Altman. Même en cas d’exagération de sa part, ce n’est probablement pas à une telle entreprise qu’il faudrait confier les leviers d’un tel pouvoir.

Vous aimerez aussi

TOPICS
Adrien Bar Hiyé
Senior Editor

Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.

Avec la contribution de