OpenAI fixe un calendrier vers la superintelligence : assistants-chercheurs en 2026, chercheurs autonomes en 2028
OpenAI fixe un calendrier vers la superintelligence
Lors d’une conférence en direct, Sam Altman, PDG d’OpenAI, et Jakub Pachocki, scientifique en chef, ont présenté pour la première fois une feuille de route chiffrée visant à transformer les modèles de conversation en acteurs de la découverte scientifique. L’objectif affiché va au‑delà des produits grand public comme ChatGPT : il s’agit de faire évoluer l’IA d’un assistant répondeur vers un véritable partenaire de recherche.
Un calendrier en deux étapes
OpenAI détaille deux jalons principaux :
- Septembre 2026 – déploiement d’assistants-chercheurs : des modèles dotés de capacités de raisonnement étendues, capables de lire et comparer des travaux, de mettre en évidence des nouveautés ou des failles, et de proposer des pistes utiles pour accélérer le travail des chercheurs humains.
- Mars 2028 – chercheurs IA entièrement autonomes : des systèmes agissant comme des scientifiques à part entière, capables de concevoir et tester des expériences de manière indépendante, puis de rapporter leurs résultats à des humains.
Une infrastructure ambitieuse
Pour soutenir cette trajectoire, OpenAI prévoit des investissements massifs. L’entreprise indique avoir déjà engagé plus de 30 gigawatts (GW) d’infrastructures et évoque un engagement initial de 1 400 milliards de dollars pour développer les capacités nécessaires. Sa feuille de route vise à créer des « usines d’infrastructure » capables de produire l’équivalent d’1 GW par semaine, une puissance jugée indispensable pour entraîner des modèles toujours plus complexes.
Un cadre de sécurité en cinq niveaux
Conscient des risques associés à des systèmes très puissants, Jakub Pachocki a présenté un cadre de sécurité composé de plusieurs couches visant à encadrer le comportement et l’accès des modèles :
- Alignement des valeurs : garantir que les objectifs profonds de l’IA restent bénéfiques pour l’humanité, même pour des problèmes hors de notre portée.
- Fiabilité : assurer un comportement prévisible et conforme aux attentes.
- Robustesse face aux attaques : protéger les modèles contre des manipulations et des usages malveillants.
- Sécurité systémique : prévenir les risques à large échelle liés à l’intégration de ces systèmes dans des infrastructures critiques.
- Encadrement des accès : contrôler l’accès de l’IA aux données et aux outils externes.
Conséquences et incertitudes
Sam Altman a insisté sur le fait que l’émergence d’une intelligence artificielle générale (AGI) sera une transition étalée sur plusieurs années plutôt qu’un événement unique. Si cette feuille de route vise à prédire et construire l’avenir, elle soulève aussi des questions profondes sur le rôle des humains dans la recherche, l’organisation du travail et la gouvernance des technologies.
Reste enfin l’incertitude économique : il n’est pas acquis que les investisseurs suivent sans réserve des plans reposant sur des engagements financiers colossaux, alors que certains évoquent déjà le risque d’une bulle spéculative autour de l’IA.
Articles connexes
Gemini 3 : premières impressions – ce qui marche et ce qui coince
Gemini 3 : premires impressions – ce qui marche et ce qui coinceObjectif de cet article : partager mes premires impressions en utilisant Gemini 3, en soulignant ce qui fonctionne bien et ce qui fonctionne moins bien. J’explique mon exprience dans la console puis lors de sessions de codage.Pourquoi utiliser Gemini 3Avant la sortie de […]
Gemini 3 Pro : Google lance la nouvelle génération d’IA multimodale
Gemini 3 Pro : Google lance la nouvelle generation d’IA multimodaleMoins de deux ans apres le lancement de l’ere Gemini, Google a annonce Gemini 3, une nouvelle famille de modeles d’intelligence artificielle qu’il presente comme la plus performante jamais conçue par le groupe. La premiere version, Gemini 3 Pro, est disponible immediatement en preview et […]
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoire
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoireLes investissements massifs dans les centres de donnees pour l’intelligence artificielle alimentent une demande croissante en puces, en energie et en memoires. Selon plusieurs acteurs du secteur, cette demande porte en particulier sur les puces memoires et menace d’entrainer des penuries et des […]