L’info en bref
Google rappelle qu’une simple version HTTP oubliée d’une page d’accueil peut perturber le nom de site et le favicon affichés dans les résultats. Invisible dans Chrome, mais bien détectée par Googlebot, cette page fantôme peut fausser les signaux envoyés au moteur.
De nouvelles données confirment que la limite de 2 Mo appliquée par Googlebot au HTML concerne très peu de sites. La majorité des pages restent largement en dessous du seuil, ce qui relativise l’impact réel de cette contrainte technique.
À lire aussi : Google affiche un site comme « hors ligne » à cause d’un simple choix JavaScript
Bing met des chiffres sur la visibilité dans les réponses IA

Microsoft avance là où beaucoup attendaient encore des signaux. Dans Bing Webmaster Tools, un nouveau tableau de bord en préversion publique permet de suivre les citations générées par l’IA dans Copilot et les réponses enrichies.
On y trouve le nombre total de citations, la moyenne quotidienne, le détail par page et surtout les grounding queries, ces requêtes exactes utilisées par l’IA pour aller chercher le contenu. Sur le papier, tout semble logique. Dans les faits, c’est la première fois qu’un moteur expose aussi clairement ce type de données.
Wil Reynolds a résumé l’état d’esprit général : « Bing vous donne désormais les requêtes d’ancrage dans les outils pour webmasters. Il reste à comprendre ce que l’on obtient vraiment, ce que cela signifie et comment l’exploiter. » Le détail est loin d’être anodin. Ces requêtes permettent d’identifier les angles précis qui déclenchent une citation.
Koray Tuğberk GÜBÜR a, lui, comparé frontalement l’outil à celui de Google : « Bing Webmaster Tools a toujours été plus utile et plus efficace que Search Console, et une fois encore, ils prouvent leur engagement pour la transparence. »
Ce qui est moins visible, en revanche, c’est l’absence de données de clic. On sait qu’une page est citée. On ignore encore si cette citation génère du trafic réel. La mesure progresse. L’impact business reste à corréler avec ses propres analytics.
Une page HTTP fantôme peut suffire à brouiller votre nom de site dans Google
L’affaire paraît technique. Elle est surtout révélatrice. Sur Bluesky, John Mueller a évoqué un cas où une homepage HTTP encore accessible perturbait le nom de site et le favicon affichés dans Google.
Chrome met automatiquement à niveau les requêtes HTTP vers HTTPS. L’éditeur ne voyait donc jamais cette version. Googlebot, lui, ne suit pas ce comportement. Il explorait la mauvaise page.
Mueller l’a expliqué simplement : « Chrome met automatiquement à niveau HTTP vers HTTPS, vous ne voyez donc pas la page HTTP. Googlebot, en revanche, la voit et l’utilise pour influencer le choix du nom de site et du favicon. »
Le paradoxe est là. Le site fonctionne en HTTPS. L’interface semble propre. Pourtant, une version par défaut du serveur reste active et renvoie un contenu différent.
La solution passe par des vérifications brutes : un curl en ligne de commande pour observer la réponse HTTP réelle, ou un test en direct via l’outil d’inspection d’URL dans Search Console. Rien de spectaculaire. Juste un angle mort corrigé.
Google documente depuis longtemps la gestion des noms de site et des doublons HTTP/HTTPS. Mais tant que le problème ne se manifeste pas, il reste théorique.
La limite de 2 Mo de Googlebot inquiète… surtout sur le papier
Autre sujet qui circulait depuis la mise à jour de la documentation Google : la limite de 2 Mo pour le HTML exploré par Googlebot. Une réduction apparente par rapport aux 15 Mo évoqués auparavant.
Les données issues du HTTP Archive, analysées par Roger Montti, replacent les choses dans leur contexte. La majorité des pages sont très loin de ce seuil. John Mueller l’a rappelé chiffres à l’appui : « La médiane mobile est à 33 Ko, le 90e percentile à 151 Ko. Cela signifie que 90 % des pages ont moins de 151 Ko de HTML. »
Dave Smart a relativisé lui aussi : « Googlebot ne récupère que les 2 premiers Mo du HTML initial. Cela semble une réduction énorme, mais 2 Mo restent massifs. » Puis il a ajouté, presque en aparté : « Ce n’est pas un vrai problème pour 99,99 % des sites. »
Et c’est là que les choses deviennent intéressantes. La question ne porte plus vraiment sur la taille moyenne des pages. Elle concerne les cas extrêmes : markup gonflé, scripts inline trop lourds, données embarquées inutilement. Des choix techniques plus que des fatalités.
Roger Montti est allé droit au but : « On peut sans risque retirer la taille du HTML de la liste des priorités SEO. »
Le plus ironique reste que ce débat n’existe que parce que Google a précisé sa documentation. Le système, lui, n’a rien de nouveau.
À découvrir : Google accusé de cannibaliser le trafic des médias : l’attaque frontale de Rolling Stone et Deadline
Le vrai fil conducteur : ce que l’on ne voyait pas hier devient mesurable aujourd’hui
Un dashboard IA, une page HTTP invisible, une limite de crawl contextualisée par des données réelles. Aucun de ces sujets n’est totalement inédit. Ce qui change, c’est l’accès aux signaux.
Les citations IA existaient sans outil dédié. Les pages fantômes perturbaient déjà les noms de site. Les limites de crawl figuraient dans la documentation depuis des années.
Cette semaine, chaque zone grise a reçu son instrument de diagnostic. Un tableau de bord. Une commande curl. Un jeu de données.
La transparence progresse. Elle ne simplifie pas tout. Elle déplace simplement le point de vigilance. Et elle laisse une question ouverte : à mesure que les moteurs exposent davantage leurs mécanismes, combien d’angles morts restent encore hors champ ?
