Gemini 3 : premières impressions – ce qui marche et ce qui coince
Gemini 3 : premires impressions – ce qui marche et ce qui coince
Objectif de cet article : partager mes premires impressions en utilisant Gemini 3, en soulignant ce qui fonctionne bien et ce qui fonctionne moins bien. J’explique mon exprience dans la console puis lors de sessions de codage.
Pourquoi utiliser Gemini 3
Avant la sortie de Gemini 3, Gemini 2.5 Pro tait, selon moi, le meilleur LLM conversationnel hors-coding. Seul Claude Sonnet 4.5 me paraissait suprieur pour des tches de programmation.
Je valorise chez un LLM les qualits suivantes :
- capacit d’identifier efficacement l’information pertinente,
- volont de me contredire quand je me trompe.
Le dernier point est, mon sens, crucial : pour rsoudre des problmes on prfre un assistant qui va droit au but et qui corrige les erreurs, plutt qu’un interlocuteur uniquement chaleureux. tant donn que Google disposait d’un des meilleurs LLM, la sortie d’une nouvelle version m’a automatiquement intress et je l’ai teste9e rapidement.
Remarque : Google a publi Gemini 3 Pro ; un modle « flash » n’a pas encore t annonc mais il est probable qu’il arrive. Je ne suis pas sponsoris par Google pour cet article.
Gemini 3 dans la console
Mes premiers tests se sont faits dans la console. Les constats principaux :
- un peu plus lent que Gemini 2.5 Pro, mais pas xcessivement lent ;
- des explications soignes et une tendance utiliser ou gnrer davantage d’images dans les rponses ;
- gnration d’images parfois proactive, mme sans demande explicite, et assez rapide ;
- capacit comprendre l’intention relle et corriger des incomprhensions, comme lors d’une discussion sur un article de recherche sur les modles de diffusion o j’avais confondu diffusion conditionnelle et non conditionnelle.
Ce qui m’a le plus marque9, c’est la manire dont Gemini 3 a identifi ma fausse hypothse et m’a guid vers une meilleure comprhension du papier. Par ailleurs, en relancant des requtes que j’avais dj faites Gemini 2.5 Pro, les rponses taient globalement proches, mais Gemini 3 a souvent dvoil des angles ou des ides auxquels ni moi ni Gemini 2.5 Pro n’avions pens.
En bref, Gemini 3 dans la console :
- est un peu lent,
- est trs intelligent et explique bien,
- aide dcouvrir des aspects non envisags, utile pour la rsolution de problmes,
- est prt contredire et lever des ambiguts, ce que j’estime essentiel chez un assistant LLM.
Coding avec Gemini 3
J’ai ensuite utilis Gemini 3 via Cursor pour coder. Mon sentiment global : c’est un bon modle, mais je continue de prfrer Claude Sonnet 4.5 pour le coding. Raisons principales :
- Gemini 3 propose parfois des solutions plus complexes,
- il est plus lent que Claude Sonnet 4.5,
- Claude produit souvent du code plus concis et gnralement plus rapide obtenir.
Mes deux expriences de test :
- reproduire un jeu partir d’une capture d’cran (Pygame) : la premire version gnree par Gemini 3 tait minimiste (manque de sprites, barre latrale, etc.). Aprs un prompt de suivi plus précis, le modle a produit un jeu fonctionnel o les personnages circulent et o l’on peut acheter des lments ;
- travail sur une base de code plus oriente9e production pour de l’infrastructure d’agents : Gemini 3 s’en est gre, mais j’ai rencontr plus souvent du code verbeux ou maladroit que lorsque j’utilise Claude 4.5 Sonnet.
Selon le type de projet, le meilleur modle peut varier. Pour moi, Claude Sonnet 4.5 reste la premire option pour coder, Gemini 3 Pro est une trs bonne alternative et peut tre mieux adapte9 d’autres cas d’usage. Google a galement annonc un nouvel IDE, Antigravity, que je n’ai pas encore test.
Impressions gnrales et positionnement
Mon bilan est positif. Mon usage personnel des modles se dcline ainsi :
- Claude 4.5 Sonnet thinking pour le coding,
- GPT-5 pour des rponses rapides des questions simples et pour gnrer des images,
- Gemini 3 pour des rponses approfondies, des discussions longues, ou l’apprentissage de nouveaux sujets et l’architecture logicielle.
Tarification (d’aprs Gemini Developer API Docs, au 19 novembre 2025) :
- Si vous avez moins de 200k input tokens :
- Input tokens : 2 USD par million
- Output tokens : 12 USD par million
- Si vous avez plus de 200k input tokens :
- Input tokens : 4 USD par million
- Output tokens : 18 USD par million
En conclusion, mes premires impressions sur Gemini 3 sont bonnes. Je recommande d’essayer le modle, en gardant l’esprit que le choix du meilleur LLM dpendra toujours du contexte d’utilisation.
Articles connexes
Gemini 3 Pro : Google lance la nouvelle génération d’IA multimodale
Gemini 3 Pro : Google lance la nouvelle generation d’IA multimodaleMoins de deux ans apres le lancement de l’ere Gemini, Google a annonce Gemini 3, une nouvelle famille de modeles d’intelligence artificielle qu’il presente comme la plus performante jamais conçue par le groupe. La premiere version, Gemini 3 Pro, est disponible immediatement en preview et […]
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoire
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoireLes investissements massifs dans les centres de donnees pour l’intelligence artificielle alimentent une demande croissante en puces, en energie et en memoires. Selon plusieurs acteurs du secteur, cette demande porte en particulier sur les puces memoires et menace d’entrainer des penuries et des […]
Pourquoi les prototypes IA ne deviennent pas des produits : les trois barrières à franchir
Pourquoi les prototypes IA ne deviennent pas des produits : les trois barrières à franchirChaque jour, on voit des démonstrations spectaculaires : une seule invite génère une application complète, quelques lignes en langage naturel et voila – un produit apparent surgit. Pourtant, malgré ces tendances virales et des investissements massifs, cela n’a pas entraîné l’explosion […]