Aller au contenu

OpenAI fixe un calendrier vers la superintelligence : assistants-chercheurs en 2026, chercheurs autonomes en 2028

Publié le 6 novembre 2025 • Intelligence Artificielle

OpenAI fixe un calendrier vers la superintelligence

Lors d’une conférence en direct, Sam Altman, PDG d’OpenAI, et Jakub Pachocki, scientifique en chef, ont présenté pour la première fois une feuille de route chiffrée visant à transformer les modèles de conversation en acteurs de la découverte scientifique. L’objectif affiché va au‑delà des produits grand public comme ChatGPT : il s’agit de faire évoluer l’IA d’un assistant répondeur vers un véritable partenaire de recherche.

Un calendrier en deux étapes

OpenAI détaille deux jalons principaux :

  • Septembre 2026 – déploiement d’assistants-chercheurs : des modèles dotés de capacités de raisonnement étendues, capables de lire et comparer des travaux, de mettre en évidence des nouveautés ou des failles, et de proposer des pistes utiles pour accélérer le travail des chercheurs humains.
  • Mars 2028 – chercheurs IA entièrement autonomes : des systèmes agissant comme des scientifiques à part entière, capables de concevoir et tester des expériences de manière indépendante, puis de rapporter leurs résultats à des humains.

Une infrastructure ambitieuse

Pour soutenir cette trajectoire, OpenAI prévoit des investissements massifs. L’entreprise indique avoir déjà engagé plus de 30 gigawatts (GW) d’infrastructures et évoque un engagement initial de 1 400 milliards de dollars pour développer les capacités nécessaires. Sa feuille de route vise à créer des « usines d’infrastructure » capables de produire l’équivalent d’1 GW par semaine, une puissance jugée indispensable pour entraîner des modèles toujours plus complexes.

Un cadre de sécurité en cinq niveaux

Conscient des risques associés à des systèmes très puissants, Jakub Pachocki a présenté un cadre de sécurité composé de plusieurs couches visant à encadrer le comportement et l’accès des modèles :

  • Alignement des valeurs : garantir que les objectifs profonds de l’IA restent bénéfiques pour l’humanité, même pour des problèmes hors de notre portée.
  • Fiabilité : assurer un comportement prévisible et conforme aux attentes.
  • Robustesse face aux attaques : protéger les modèles contre des manipulations et des usages malveillants.
  • Sécurité systémique : prévenir les risques à large échelle liés à l’intégration de ces systèmes dans des infrastructures critiques.
  • Encadrement des accès : contrôler l’accès de l’IA aux données et aux outils externes.

Conséquences et incertitudes

Sam Altman a insisté sur le fait que l’émergence d’une intelligence artificielle générale (AGI) sera une transition étalée sur plusieurs années plutôt qu’un événement unique. Si cette feuille de route vise à prédire et construire l’avenir, elle soulève aussi des questions profondes sur le rôle des humains dans la recherche, l’organisation du travail et la gouvernance des technologies.

Reste enfin l’incertitude économique : il n’est pas acquis que les investisseurs suivent sans réserve des plans reposant sur des engagements financiers colossaux, alors que certains évoquent déjà le risque d’une bulle spéculative autour de l’IA.

Articles connexes

Laisser un commentaire

Votre adresse e‑mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *