PROMPTFLUX : un malware qui exploite Gemini pour recrire son code et eviter la detection
Un malware qui se recompose via l’IA
Google a publié le 5 novembre 2025 un rapport sur les usages malveillants de son assistant conversationnel Gemini, en particulier l’integration de modeles de langage dans des logiciels malveillants. Le document recense plusieurs menaces, dont des ransomwares generant et executant des scripts de chiffrement, des shells inverses capables de contourner des protections, et un malware surnomme PROMPTFLUX qui attire l’attention par sa capacite d’auto-modification.
PROMPTFLUX, en constante renaissance
PROMPTFLUX est un data mining malware destine a infiltrer un systeme pour y collecter de grandes quantites de donnees. Son element le plus innovant est un module baptise « Thinking Robot » qui interroge periodiquement l’API Gemini pour obtenir du code permettant de contourner les antivirus.
Programme en VBScript, le malware utilise l’API de Gemini pour demander en temps reel des techniques d’obfuscation et d’evasion adaptees aux outils de detection rencontres. Selon les chercheurs de Google Threat Intelligence, certaines variantes contiennent un prompt demandant au modele de re-ecrire l’integralite du code source toutes les heures afin d’echapper a la detection.
Fonctionnement et techniques observees
- Module « Thinking Robot » : interroge Gemini pour generer du code d’obfuscation et des methodes d’evasion.
- Auto-modification juste a temps : re-ecriture periodique du code pour varier la signature du malware.
- Ingenierie sociale : certains acteurs se presentent comme etudiants ou chercheurs pour eluder les garde-fous et obtenir des reponses refusees en conditions normales.
Contexte et evolution
Ce n’est pas la premiere detection d’un malware capable de s’appuyer sur l’IA pour generer son propre code. En aout 2025, les equipes d’ESET avaient presente PromptLock, une preuve de concept de ransomware autonome et adaptatif. L’analyse des echantillons de PROMPTFLUX montre toutefois que cette famille est encore en phase de developpement ou de test : dans son etat actuel, elle ne permet pas de compromettre un reseau ou un appareil a grande echelle.
Reponse et suivi
Google indique avoir pris des mesures pour desactiver les comptes associes au developpement de ces outils malveillants. Les equipes de cyberscurite restent vigilantes, car la combinaison d’outils LLM et de modules d’auto-modification ouvre un nouveau champ de menaces qui evolue rapidement.
Les chercheurs soulignent l’importance de renforcer les garde-fous dans les systemes d’IA et d’ameliorer la detection des logiciels capables de modifier leur code en temps reel.
Articles connexes
Gemini 3 : premières impressions – ce qui marche et ce qui coince
Gemini 3 : premires impressions – ce qui marche et ce qui coinceObjectif de cet article : partager mes premires impressions en utilisant Gemini 3, en soulignant ce qui fonctionne bien et ce qui fonctionne moins bien. J’explique mon exprience dans la console puis lors de sessions de codage.Pourquoi utiliser Gemini 3Avant la sortie de […]
Gemini 3 Pro : Google lance la nouvelle génération d’IA multimodale
Gemini 3 Pro : Google lance la nouvelle generation d’IA multimodaleMoins de deux ans apres le lancement de l’ere Gemini, Google a annonce Gemini 3, une nouvelle famille de modeles d’intelligence artificielle qu’il presente comme la plus performante jamais conçue par le groupe. La premiere version, Gemini 3 Pro, est disponible immediatement en preview et […]
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoire
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoireLes investissements massifs dans les centres de donnees pour l’intelligence artificielle alimentent une demande croissante en puces, en energie et en memoires. Selon plusieurs acteurs du secteur, cette demande porte en particulier sur les puces memoires et menace d’entrainer des penuries et des […]