Google clarifie les limites d’exploration de Googlebot : 2 Mo par fichier
Google a récemment mis à jour sa documentation technique afin de clarifier les limites de fichiers explorés par Googlebot. La limite est désormais fixée à 2 Mo pour chaque type de fichier supporté par Google Search (HTML, CSS, JavaScript, etc.), contre 15 Mo mentionnés auparavant dans l’ancienne documentation. Les fichiers PDF bénéficient quant à eux d’une limite maintenue à 64 Mo.
Toutefois, comme l’ont souligné plusieurs experts SEO anglo-saxons, il ne s’agit pas d’un changement brutal de politique, mais plutôt d’une clarification documentaire qui distingue désormais les limites des différents crawlers Google. La limite de 15 Mo reste la limite par défaut pour l’infrastructure générale de crawl de Google, tandis que Googlebot applique une limite plus stricte de 2 Mo lors de l’exploration pour l’indexation dans Google Search.
Une clarification documentaire, pas un nouveau changement
Selon Search Engine Journal, cette mise à jour fait partie d’une réorganisation plus large de la documentation de Google amorcée fin 2025. Barry Schwartz de Search Engine Roundtable précise que ces limites pourraient avoir existé depuis longtemps, mais qu’elles sont maintenant officiellement documentées de manière plus claire.
John Mueller, chez Google, a confirmé sur Reddit que « 2 Mo d’HTML, c’est déjà beaucoup » et qu’il est extrêmement rare que des sites rencontrent des problèmes avec cette limite. Selon les données HTTP Archive citées par Mueller, environ 90 % des pages web ont moins de 151 KB de HTML.
Ce qui change concrètement
Cette limite de 2 Mo s’applique à chaque fichier exploré individuellement (et non pas à la page dans son ensemble), notamment :
- Les fichiers HTML
- Les feuilles de style CSS
- Les scripts JavaScript
- Les autres formats supportés par Google Search
Les fichiers PDF bénéficient d’une exception avec une limite maintenue à 64 Mo. Important à noter : cette restriction concerne les données non compressées, et chaque ressource référencée dans le HTML (CSS, JS) est récupérée séparément avec sa propre limite de 2 Mo.
Lorsque Googlebot atteint cette limite de 2 Mo, il interrompt le téléchargement et n’indexe que la partie déjà récupérée du fichier. Le reste du contenu est tout simplement ignoré.
Selon la documentation officielle de Google :
« Lors de l’exploration pour la recherche Google, Googlebot explore les 2 premiers Mo d’un type de fichier compatible et les 64 premiers Mo d’un fichier PDF. Du point de vue du rendu, chaque ressource référencée dans le code HTML (CSS ou JavaScript, par exemple) est récupérée séparément, et chaque récupération de ressource est soumise à la même limite de taille de fichier que celle qui s’applique aux autres fichiers (à l’exception des fichiers PDF). Une fois la limite atteinte, Googlebot interrompt la récupération et n’envoie que la partie déjà téléchargée du fichier pour l’indexation. »
Impact réel : la majorité des sites ne sont pas concernés
Dans la pratique, est-ce si grave ? Non, pour l’écrasante majorité des sites web. Selon HTTP Archive Web Almanac, le poids médian d’un fichier HTML est d’environ 33 KB selon les données citées par John Mueller, soit environ 60 fois moins que la limite des 2 Mo. De plus, 90 % des pages web ont moins de 151 KB de HTML.
Pour mettre les choses en perspective : 2 Mo de texte brut équivaut à environ 2 millions de caractères, soit l’équivalent de plusieurs centaines de pages d’un roman standard. Il faut vraiment faire des efforts pour créer une page aussi volumineuse.
Quels sites sont concernés ?
Certains sites utilisant des frameworks CSS ou JavaScript un peu trop lourds peuvent toutefois être impactés. Les sites les plus susceptibles de dépasser les 2 Mo sont ceux qui :
- Intègrent massivement du JavaScript directement dans le HTML (plutôt que via des fichiers externes)
- Utilisent des bibliothèques CSS volumineuses non optimisées
- Compilent de nombreuses dépendances dans un seul fichier
- Embarquent de larges objets JSON en inline pour les sites e-commerce
- Utilisent des applications monopage (SPA) qui chargent des frameworks JavaScript entiers en inline
Que faire si votre site est concerné ?
Si vous gérez un site avec des fichiers potentiellement lourds, voici les recommandations :
- Vérifier le poids de vos fichiers : Utilisez Chrome DevTools (onglet Network), Screaming Frog SEO Spider, ou Google Search Console pour identifier les pages dépassant 1,5 Mo
- Externaliser les scripts et styles : Déplacez le CSS et JavaScript inline vers des fichiers externes, chaque ressource bénéficiera ainsi de sa propre limite de 2 Mo
- Fractionner les pages volumineuses : Divisez les contenus longs en sections logiques avec une bonne structure de liens internes
- Minifier votre code : Supprimez les espaces blancs, commentaires et caractères inutiles pour réduire le poids des fichiers
- Implémenter le lazy loading : Différez le chargement du contenu situé en bas de page
- Surveiller l’indexation : Utilisez la Search Console pour détecter d’éventuels changements de visibilité
Une logique d’optimisation des performances
Cette clarification documentaire s’inscrit dans une logique d’optimisation des performances web, particulièrement importante pour les utilisateurs mobiles où des fichiers trop lourds peuvent pénaliser l’expérience de navigation, surtout avec une connexion limitée.
De plus, cette limite s’aligne avec les bonnes pratiques pour le Generative Engine Optimization (GEO) : la plupart des crawlers d’intelligence artificielle (ChatGPT, Perplexity) ne rendent pas le JavaScript et consomment uniquement le HTML brut. Un HTML structuré, léger et sémantique améliore donc la visibilité à la fois dans la recherche traditionnelle et dans les moteurs alimentés par l’IA.
Vous êtes concerné ? Demandez un audit complet de votre site !
- 1Site web
- 2Nombre d’URL
- 3Votre besoin
- 4Vos spécificités
- 5Vos coordonnées
- 6Estimation
Site web
Répondez à 4 questions rapides. Vous obtiendrez une estimation d’un audit SEO sur-mesure.
Nombre d’URL
Indiquez l’ordre de grandeur des pages de votre site (indexées ou à analyser). Cela nous aide à dimensionner l’audit.
Votre besoin
L’analyse technique & l’indexation sont incluses. Ajoutez les axes que vous souhaitez approfondir.
Vos spécificités
Précisez d’éventuelles particularités de votre site. Ces éléments peuvent influencer la conduite de l’audit (facultatif).
Vos coordonnées
Pour obtenir une estimation du coût de votre audit, merci de renseigner vos coordonnées ci-dessous.
Merci de cocher la case ci-dessus.
Vos informations servent uniquement à vous recontacter et à établir un devis personnalisé.
Elles ne sont ni revendues ni utilisées à des fins publicitaires. Vous pouvez exercer vos droits
(accès, rectification, suppression) à tout moment. En savoir plus dans notre
politique de confidentialité.
Merci, votre demande a bien été envoyée.
Un consultant vous recontacte très prochainement pour affiner votre projet.
Inclus : audit technique & indexation, synthèse priorisée, plan d’actions classé par impact/effort,
restitution 60 min et recommandation sur un Notion personnalisé.
L’expertise Abondance c’est :
+2 000 audits Réalisés pour des PME, ETI et grands comptes.
15+ ans d’expérience Consultants seniors & ambassadeurs Abondance.
Méthode éprouvée Feuille de route priorisée, actions concrètes.L’article “Google clarifie les limites d’exploration de Googlebot : 2 Mo par fichier” a été publié sur le site Abondance.

