Google stagne, l’IA avance : la bataille de la visibilité a commencé
Le trafic change de source
Sign up for breaking news, reviews, opinion, top tech deals, and more.
You are now subscribed
Your newsletter sign-up was successful
- Les sites web risquent de perdre en positionnement de marque et en autorité s’ils ne tirent pas parti de l’IA
- La découverte basée sur l’IA pourrait même se faire sans qu’un utilisateur ne consulte réellement le site
- Un renforcement de la gouvernance, plutôt que des interdictions pures et simples, constitue la solution
Une nouvelle étude de Hostinger, portant sur plus de 66 milliards de requêtes de bots à travers cinq millions de sites web, révèle à quel point l’IA s’est intégrée dans les habitudes de recherche, et combien il est devenu essentiel pour les entreprises d’adopter des optimisations allant au-delà du SEO traditionnel.
Le rapport indique que les entreprises qui bloquent les bots d’IA pour protéger leur propriété intellectuelle pourraient perdre le contrôle de la manière dont les assistants IA interprètent leur contenu, tout en affaiblissant leur positionnement de marque.
Hostinger décrit une évolution dans la découverte en ligne, où les assistants IA résument et recommandent des produits et services sans que les utilisateurs ne naviguent nécessairement vers le site web lui-même.
L’IA est-elle en train de remplacer la recherche traditionnelle ?
« Sur l’ensemble des 66,7 milliards d’enregistrements, un constat s’impose : les robots d’exploration IA étendent rapidement leur portée, tandis que les bots dédiés à l’entraînement des modèles font face à une résistance croissante de la part des créateurs de contenu », écrit Hostinger.
Une réticence claire s’observe à l’égard des bots d’entraînement, la couverture de GPTBot étant passée de 84 % en août à 12 % en novembre. L’ExternalAgent de Meta a également reculé, passant de 60 % à 41 %. À l’inverse, les robots d’exploration SearchBot d’OpenAI et Applebot ont accru leur couverture.
Malgré la montée en puissance des robots d’exploration IA, les robots traditionnels des moteurs de recherche sont restés relativement stables. Hostinger en déduit que l’IA « ajoute une nouvelle couche de décision au-dessus de la recherche traditionnelle » plutôt que de la remplacer, une évolution favorable à Google, dont les mécanismes de découverte couvrent à la fois la recherche classique et les chatbots IA.
Pour les éditeurs et les sites de contenu, Hostinger explique que les propriétaires de sites pourraient chercher à accroître la visibilité des réponses des assistants IA en utilisant des outils tels que Web2Agent et des fichiers llms.txt.
« Le véritable risque pour les entreprises ne réside pas dans l’accès de l’IA en soi, mais dans la perte de contrôle sur la manière dont les prix, le positionnement et la valeur sont présentés au moment de la prise de décision », ajoute Tomas Rasymas, responsable de l’IA.
À l’avenir, le rapport appelle à un renforcement de la gouvernance plutôt qu’à des interdictions totales, afin que les propriétaires de sites puissent s’assurer d’être présents dans les nouveaux canaux IA sans perdre leur positionnement de marque.
With several years’ experience freelancing in tech and automotive circles, Craig’s specific interests lie in technology that is designed to better our lives, including AI and ML, productivity aids, and smart fitness. He is also passionate about cars and the decarbonisation of personal transportation. As an avid bargain-hunter, you can be sure that any deal Craig finds is top value!
