Marre que ChatGPT et Gemini radotent ? Essayez cette phrase magique

ChatGPT vs Gemini comparison
(Crédit photo: OpenAI & Google)

Les chatbots d’IA peuvent fournir une grande quantité d’informations intéressantes, mais il arrive que l’on recherche simplement une réponse claire et directe de ChatGPT ou de Gemini. Cette tendance s’explique par la manière dont ces modèles sont entraînés, avec pour objectif d’être exhaustifs et de privilégier une aide maximale. Or, l’exhaustivité peut parfois donner l’impression d’un excès.

Heureusement, il existe une petite astuce pour amener ChatGPT ou Gemini à produire des réponses nettes et ciblées. Cela revient à installer une sorte de pince sur le flux de mots qui s’écoulerait autrement sans limite.

Brève discussion de ChatGPT

A screenshot of the chatgpt interface showing custom instructions

(Image credit: Future)

Livré à lui-même, ChatGPT semble parfois chercher à anticiper toutes les questions de suivi possibles. La première étape pour corriger cela consiste à comprendre comment ChatGPT réagit aux demandes de ton et de structure. Le modèle écoute, mais pas toujours de la manière attendue.

Une instruction comme « Sois bref » peut réduire le nombre de mots tout en conservant tout l’habillage discursif. Une consigne telle que « Fais court » conduit encore souvent à des précautions oratoires du type « Bien sûr ! » ou « Voici quelques points clés à considérer ».

Ce qui fonctionne le mieux repose sur une instruction par contrainte. Il s’agit de préciser le format souhaité. Par exemple : « Réponds en un seul paragraphe. Ignore toute information de contexte. N’explique rien sauf si cela est demandé. » Une seule phrase suffit à poser des limites claires. L’espace, l’objectif et l’intention sont définis. ChatGPT respecte ce cadre de manière plus fiable que des demandes vagues comme « réponse concise ».

En utilisant les instructions personnalisées, la fonction de personnalisation de ChatGPT, ce comportement peut également être intégré par défaut. Une ligne du type : « Lors des réponses aux questions, privilégier des réponses brèves et directes sauf demande explicite de développement » permet de réduire nettement la verbosité. Le résultat n’est pas parfait, le modèle pouvant parfois retomber dans ses habitudes, notamment sur des questions complexes. Mais pour un usage quotidien, l’amélioration est notable.

Affiner Gemini

Les digressions de Gemini prennent une forme légèrement différente. Même les réponses simples sont souvent accompagnées de contexte, avec des formules comme « Plusieurs facteurs sont à prendre en compte… ». Cela s’explique aisément par les origines de Gemini, issues de l’écosystème Google. Ce fonctionnement est pertinent pour la recherche, mais beaucoup moins lorsque l’objectif est, par exemple, d’obtenir rapidement une idée de repas à emporter pour une randonnée d’une journée.

Gemini réagit mieux à des instructions claires sur le ton et le format dès le début de la requête. L’astuce consiste à poser les limites en amont. Pour poser une question comme « Quel est un bon déjeuner transportable ? », il est plus efficace de commencer par : « En une seule phrase, répondre directement, sans développement ni explication : quel est un bon déjeuner transportable ? »

Ce type de formulation indique clairement la brièveté attendue, précise la forme de la réponse et supprime toute latitude pour la digression. Un approfondissement reste possible ultérieurement, mais Gemini commence par répondre exactement à la demande formulée.

Des expressions comme « Répondre uniquement à la question centrale » ou « Répondre dans un langage neutre, sans mise en forme ni liste d’avantages et d’inconvénients » peuvent également être utilisées. Elles peuvent sembler peu naturelles, mais elles influencent réellement le comportement de Gemini. Le modèle respecte davantage la directivité lorsqu’elle est présentée comme une limite plutôt que comme une simple préférence. Avec l’habitude, il devient évident à quel point la verbosité s’installe par défaut.

Les chatbots d’IA sont devenus extrêmement puissants, mais la concision reste une compétence qui leur pose problème. L’utilisation quotidienne de ChatGPT et de Gemini met ce phénomène en évidence à de nombreuses reprises. Plus leurs capacités augmentent, plus ils tendent à en faire la démonstration.

Ces petites astuces de formulation ne modifient pas seulement la forme des réponses. Elles peuvent aussi les rendre plus éclairantes. Il faut parfois utiliser davantage de mots pour en obtenir moins en retour, mais toutes les conversations n’ont pas vocation à se transformer en cours magistral. Les chatbots d’IA ont simplement besoin qu’on leur rappelle ce principe.


TOPICS
Eric Hal Schwartz
Contributor

Eric Hal Schwartz is a freelance writer for TechRadar with more than 15 years of experience covering the intersection of the world and technology. For the last five years, he served as head writer for Voicebot.ai and was on the leading edge of reporting on generative AI and large language models. He's since become an expert on the products of generative AI models, such as OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini, and every other synthetic media tool. His experience runs the gamut of media, including print, digital, broadcast, and live events. Now, he's continuing to tell the stories people want and need to hear about the rapidly evolving AI space and its impact on their lives. Eric is based in New York City.