IA avancée : le Future of Life Institute relance l’appel à l’interdiction, quelles conséquences ?
Un an et demi après un premier appel en faveur d’un moratoire sur les systèmes plus puissants que GPT-4, le Future of Life Institute publie de nouveau une pétition demandant l’interdiction du développement d’une » IA avancée « . Plus de 850 personnalités ont signé ce texte, qui met en garde contre le risque que ces systèmes » compromettent le système d’exploitation de la civilisation humaine « .
Définition et craintes principales
Le texte définit l’IA avancée ou » superintelligence » comme une intelligence » surpassant significativement tous les humains dans l’ensemble des tâches cognitives « , bien au-delà des chatbots et outils d’automatisation actuels. Les signataires redoutent que de tels systèmes puissent prendre des décisions stratégiques, réécrire leur code et échapper au contrôle humain.
Une coalition large, sans les grands fournisseurs
Parmi les signataires figurent des figures reconnues du domaine et au-delà : Geoffrey Hinton, Yoshua Bengio, le co-fondateur d’Apple Steve Wozniak, la conseillère à la sécurité nationale Susan Rice, l’historien Yuval Noah Harari, ainsi que des lauréats du prix Nobel. Harari estime que la technologie pourrait » briser le système d’exploitation même de la civilisation humaine « , tout en plaidant pour des outils d’IA » contrôlables et utiles dès aujourd’hui « .
En revanche, les dirigeants des grandes entreprises du secteur – OpenAI, Anthropic, Google, Meta, Microsoft – n’ont pas rejoint l’initiative. Les travaux de ces groupes se poursuivent : Meta a créé en juin un laboratoire dédié après avoir investi 14,3 Md$ dans Scale AI (laboratoire qui a depuis supprimé 600 postes), et Sam Altman, CEO d’OpenAI, a annoncé en janvier un recentrage des activités sur ce thème.
Un enjeu perçu comme lointain par les entreprises
Pour de nombreux analystes, l’IA avancée reste un risque théorique à long terme, et non une priorité opérationnelle pour la planification IT à court terme. » Elle constitue un risque théorique à horizon lointain, non un enjeu opérationnel dans la fenêtre de planification 2025-2028 « , explique Sanchit Vir Gogia, CEO de Greyhound Research. Selon lui, les directeurs des systèmes d’information doivent distinguer l’ambition des fournisseurs de l’utilité réelle pour l’entreprise, et se concentrer aujourd’hui sur la gouvernance des données, l’explicabilité des modèles et les pratiques de validation.
L’appel insiste toutefois sur la nécessité d’un consensus scientifique et d’un soutien public avant de poursuivre le développement d’IA potentiellement incontrôlables : » Nous appelons à interdire le développement de l’IA avancée tant qu’il n’existe pas de consensus scientifique sur sa sécurité et son contrôle, et qu’un soutien public solide n’est pas établi. «
Le problème central : l’alignement
L’enjeu majeur est le problème d’alignement : comment s’assurer que des systèmes plus intelligents que les humains poursuivent des objectifs compatibles avec les valeurs humaines. Les techniques actuelles suffisent pour l’IA contemporaine, mais pourraient être insuffisantes face à des systèmes dépassant l’intelligence humaine, selon des recherches citées, notamment d’IBM.
Une IA qui transforme déjà l’emploi et les investissements
Indépendamment des débats sur la superintelligence, l’IA actuelle bouscule déjà le marché du travail et l’économie :
- Un rapport d’Indeed indique que 26 % des offres d’emploi publiées en un an pourraient être affectées par l’IA générative, en particulier dans les secteurs IT et financier.
- Goldman Sachs Research estime que, si les usages actuels de l’IA se généralisent, 2,5 % des emplois américains pourraient être supprimés.
- Chez Salesforce, les équipes de support client sont passées de 9 000 à 5 000 postes grâce à l’automatisation.
Les investissements restent élevés : Gartner prévoit 1,5 billion de dollars de dépenses mondiales en IA en 2025, puis plus de 2 billions en 2026. Le FMI anticipe une hausse du PIB mondial de 0,5 % par an entre 2025 et 2030 liée à l’adoption de ces technologies.
Conséquences d’une interdiction et gouvernance d’entreprise
Une interdiction du développement d’une IA avancée aurait des effets importants sur l’écosystème. Selon Sanchit Vir Gogia, un ralentissement réglementaire favoriserait des architectures spécialisées, » contrôlables et vérifiables « . De fait, de nombreuses entreprises s’orientent déjà vers des modèles » suffisants mais traçables « , adaptés aux environnements soumis à une forte réglementation.
À l’inverse, une interdiction unilatérale pourrait bénéficier à des acteurs étrangers : malgré les restrictions américaines, des groupes comme DeepSeek ou Alibaba publient déjà des modèles open source compétitifs, ce qui pourrait accélérer une » course » à l’échelle internationale.
Si l’appel échoue comme en 2023, la gouvernance de l’IA pourrait devenir une responsabilité de premier plan pour les entreprises. En l’absence de règles mondiales contraignantes, la responsabilité se décentralise. Les recommandations opérationnelles incluent :
- La formalisation de conseils IA au niveau stratégique ;
- L’intégration de protocoles de réponse aux incidents liés à l’IA ;
- L’inclusion dans les contrats fournisseurs d’obligations spécifiques : transparence des jeux de données, droit à l’audit, exigences de vérifiabilité.
Ces mesures visent à concilier l’exploitation des bénéfices économiques de l’IA actuelle et la maîtrise des risques potentiels, qu’ils soient proches ou lointains.
Articles connexes
IA et Immobilier : Comment l’Intelligence Artificielle Révolutionne le Secteur
Découvrez comment l’intelligence artificielle (IA) transforme le secteur immobilier, offrant des opportunités considérables et renforçant l’expertise humaine. L’IA est l’avenir !
Fusion Coursera Udemy : création d’un géant des MOOC
La fusion Coursera Udemy propose de créer un leader des MOOC valorisé 2,5 milliards. Détails sur synergies, impact IA, calendrier et étapes d’approbation.
HashJack : comment le fragment d’URL peut tromper les assistants IA des navigateurs
HashJack : comment le fragment d’URL peut tromper les assistants IA des navigateursDes chercheurs de Cato Networks ont identifié une vulnérabilite nommee HashJack qui exploite une partie souvent ignoree des adresses web : le fragment d’URL, situe apres le signe ‘#’. Cette faille permettrait de diffuser des instructions malicieuses localement dans le navigateur, que certains […]