Google Search change de dimension avec Gemini 3

Google AI Overviews
(Crédit photo: Google)

  • La recherche Google utilise désormais Gemini 3 pour générer les réponses des AI Overviews
  • Cette mise à niveau vise à améliorer les réponses aux questions plus complexes
  • La mise à jour permet également de passer directement des AI Overviews à une conversation en mode IA

Google Search a amélioré ses réponses AI Overview en s’appuyant sur son modèle d’IA Gemini 3, afin de mieux répondre aux requêtes complexes dans un instantané unique. Cette mise à jour permet également de passer directement d’une réponse AI Overview à une conversation dans le mode IA de Google Search sur mobile, sans avoir à changer d’onglet ni à recommencer la recherche.

Les AI Overviews, ces courts résumés affichés au-dessus des résultats de recherche traditionnels, sont conçus pour condenser des réponses longues et parfois confuses à des questions complexes, sans nécessiter de cliquer sur des liens. Le fait de faire de Gemini 3 le modèle par défaut pour les AI Overviews sur mobile, à l’échelle mondiale, signifie que les réponses seront plus intelligentes, plus longues et mieux structurées, selon Google.

Aussi améliorées soient-elles, ces réponses ne couvrent pas toujours l’ensemble des attentes. C’est là qu’intervient le lien entre les AI Overviews statiques et le mode IA interactif de Google Search. Cette évolution facilite le passage de cet instantané à un véritable échange conversationnel avec le mode IA.

Auparavant, pour transformer un aperçu en une conversation complète, il fallait cliquer sur l’onglet Mode IA et relancer la recherche depuis le début. Désormais, il est possible de rester dans le fil des résultats et d’approfondir le sujet avec un minimum de friction. Lors de tests préliminaires, Google a constaté que les utilisateurs avaient naturellement envie de prolonger la recherche sous forme de conversation, plutôt que de s’arrêter après une première réponse générée par l’IA.

Si l’aperçu fournit un point de départ, la conversation permet d’explorer chaque détail sans avoir à lancer une nouvelle recherche. Il devient alors possible d’affiner la question, de demander des précisions sur des exceptions, ou même d’intégrer des tableaux et d’autres éléments visuels au sein d’un même fil.

Transitions conversationnelles

Gemini 3 rend à la fois l’aperçu rapide et la conversation approfondie plus utiles. Google espère ainsi que l’exploration d’un sujet ne s’arrêtera pas après la première réponse, et que la curiosité pourra être satisfaite sans quitter son environnement.

Pour la plupart des utilisateurs, cela signifie que le résumé synthétique en tête des résultats peut immédiatement se transformer en une discussion plus riche et nuancée, sans changer d’onglet, reformuler la question ou perdre le contexte. Il s’agit d’une recherche capable de se souvenir de la demande initiale et d’anticiper les questions suivantes.

Le contexte joue ici un rôle central. La recherche a toujours été associée à des réponses rapides pour des sujets simples comme les résultats sportifs ou la météo, mais les grandes questions de la vie sont souvent complexes et nuancées. Savoir que « ce qu’il faut prendre en compte avant d’acheter une maison » ne se résout pas par un simple extrait rend la couche conversationnelle de Google particulièrement pertinente. La possibilité de poser des questions de suivi tout en conservant le contexte réduit les requêtes redondantes et limite les reformulations nécessaires pour aborder des angles plus subtils d’un problème.

Bien entendu, toutes les questions ne gagnent pas à être traitées sous forme de conversation. L’effort de Google pour utiliser le modèle le plus approprié selon les situations, avec des modèles plus légers pour les réponses rapides et Gemini 3 pour les requêtes plus approfondies, illustre cet équilibre. La question de la précision reste également centrale. Quel que soit le niveau de performance des modèles d’IA, des hallucinations peuvent survenir, et des réponses bien formulées ou des échanges fluides perdent tout leur intérêt si les informations sont incorrectes.

Malgré cela, une expérience de recherche qui ressemble moins à une quête laborieuse de réponses et davantage à un repas préparé selon une discussion avec le chef a de quoi séduire les personnes pressées, même si le poisson servi est parfois en caoutchouc.


Eric Hal Schwartz
Contributor

Eric Hal Schwartz is a freelance writer for TechRadar with more than 15 years of experience covering the intersection of the world and technology. For the last five years, he served as head writer for Voicebot.ai and was on the leading edge of reporting on generative AI and large language models. He's since become an expert on the products of generative AI models, such as OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini, and every other synthetic media tool. His experience runs the gamut of media, including print, digital, broadcast, and live events. Now, he's continuing to tell the stories people want and need to hear about the rapidly evolving AI space and its impact on their lives. Eric is based in New York City.