Gemini 3 : premières impressions – ce qui marche et ce qui coince
Gemini 3 : premires impressions – ce qui marche et ce qui coince
Objectif de cet article : partager mes premires impressions en utilisant Gemini 3, en soulignant ce qui fonctionne bien et ce qui fonctionne moins bien. J’explique mon exprience dans la console puis lors de sessions de codage.
Pourquoi utiliser Gemini 3
Avant la sortie de Gemini 3, Gemini 2.5 Pro tait, selon moi, le meilleur LLM conversationnel hors-coding. Seul Claude Sonnet 4.5 me paraissait suprieur pour des tches de programmation.
Je valorise chez un LLM les qualits suivantes :
- capacit d’identifier efficacement l’information pertinente,
- volont de me contredire quand je me trompe.
Le dernier point est, mon sens, crucial : pour rsoudre des problmes on prfre un assistant qui va droit au but et qui corrige les erreurs, plutt qu’un interlocuteur uniquement chaleureux. tant donn que Google disposait d’un des meilleurs LLM, la sortie d’une nouvelle version m’a automatiquement intress et je l’ai teste9e rapidement.
Remarque : Google a publi Gemini 3 Pro ; un modle « flash » n’a pas encore t annonc mais il est probable qu’il arrive. Je ne suis pas sponsoris par Google pour cet article.
Gemini 3 dans la console
Mes premiers tests se sont faits dans la console. Les constats principaux :
- un peu plus lent que Gemini 2.5 Pro, mais pas xcessivement lent ;
- des explications soignes et une tendance utiliser ou gnrer davantage d’images dans les rponses ;
- gnration d’images parfois proactive, mme sans demande explicite, et assez rapide ;
- capacit comprendre l’intention relle et corriger des incomprhensions, comme lors d’une discussion sur un article de recherche sur les modles de diffusion o j’avais confondu diffusion conditionnelle et non conditionnelle.
Ce qui m’a le plus marque9, c’est la manire dont Gemini 3 a identifi ma fausse hypothse et m’a guid vers une meilleure comprhension du papier. Par ailleurs, en relancant des requtes que j’avais dj faites Gemini 2.5 Pro, les rponses taient globalement proches, mais Gemini 3 a souvent dvoil des angles ou des ides auxquels ni moi ni Gemini 2.5 Pro n’avions pens.
En bref, Gemini 3 dans la console :
- est un peu lent,
- est trs intelligent et explique bien,
- aide dcouvrir des aspects non envisags, utile pour la rsolution de problmes,
- est prt contredire et lever des ambiguts, ce que j’estime essentiel chez un assistant LLM.
Coding avec Gemini 3
J’ai ensuite utilis Gemini 3 via Cursor pour coder. Mon sentiment global : c’est un bon modle, mais je continue de prfrer Claude Sonnet 4.5 pour le coding. Raisons principales :
- Gemini 3 propose parfois des solutions plus complexes,
- il est plus lent que Claude Sonnet 4.5,
- Claude produit souvent du code plus concis et gnralement plus rapide obtenir.
Mes deux expriences de test :
- reproduire un jeu partir d’une capture d’cran (Pygame) : la premire version gnree par Gemini 3 tait minimiste (manque de sprites, barre latrale, etc.). Aprs un prompt de suivi plus précis, le modle a produit un jeu fonctionnel o les personnages circulent et o l’on peut acheter des lments ;
- travail sur une base de code plus oriente9e production pour de l’infrastructure d’agents : Gemini 3 s’en est gre, mais j’ai rencontr plus souvent du code verbeux ou maladroit que lorsque j’utilise Claude 4.5 Sonnet.
Selon le type de projet, le meilleur modle peut varier. Pour moi, Claude Sonnet 4.5 reste la premire option pour coder, Gemini 3 Pro est une trs bonne alternative et peut tre mieux adapte9 d’autres cas d’usage. Google a galement annonc un nouvel IDE, Antigravity, que je n’ai pas encore test.
Impressions gnrales et positionnement
Mon bilan est positif. Mon usage personnel des modles se dcline ainsi :
- Claude 4.5 Sonnet thinking pour le coding,
- GPT-5 pour des rponses rapides des questions simples et pour gnrer des images,
- Gemini 3 pour des rponses approfondies, des discussions longues, ou l’apprentissage de nouveaux sujets et l’architecture logicielle.
Tarification (d’aprs Gemini Developer API Docs, au 19 novembre 2025) :
- Si vous avez moins de 200k input tokens :
- Input tokens : 2 USD par million
- Output tokens : 12 USD par million
- Si vous avez plus de 200k input tokens :
- Input tokens : 4 USD par million
- Output tokens : 18 USD par million
En conclusion, mes premires impressions sur Gemini 3 sont bonnes. Je recommande d’essayer le modle, en gardant l’esprit que le choix du meilleur LLM dpendra toujours du contexte d’utilisation.
Articles connexes
IA et Immobilier : Comment l’Intelligence Artificielle Révolutionne le Secteur
Découvrez comment l’intelligence artificielle (IA) transforme le secteur immobilier, offrant des opportunités considérables et renforçant l’expertise humaine. L’IA est l’avenir !
Fusion Coursera Udemy : création d’un géant des MOOC
La fusion Coursera Udemy propose de créer un leader des MOOC valorisé 2,5 milliards. Détails sur synergies, impact IA, calendrier et étapes d’approbation.
HashJack : comment le fragment d’URL peut tromper les assistants IA des navigateurs
HashJack : comment le fragment d’URL peut tromper les assistants IA des navigateursDes chercheurs de Cato Networks ont identifié une vulnérabilite nommee HashJack qui exploite une partie souvent ignoree des adresses web : le fragment d’URL, situe apres le signe ‘#’. Cette faille permettrait de diffuser des instructions malicieuses localement dans le navigateur, que certains […]