Bloc 1 — Indexation & Crawl

Avant toute optimisation de contenu ou de performance, il faut s'assurer que Google peut accéder et indexer correctement votre site.

01
robots.txt Critique
Vérifier que le robots.txt ne bloque pas accidentellement des sections importantes du site. Cas fréquent : une directive Disallow: / laissée en place depuis la phase de développement. Tester avec le vérificateur Google Search Console.
02
Balises noindex Critique
Scanner toutes les pages à la recherche de <meta name="robots" content="noindex"> non intentionnelles. Sur PrestaShop, les pages de tri et filtres génèrent souvent des centaines de pages noindex qui diluent le crawl budget.
03
Sitemap XML Important
Vérifier que le sitemap est à jour, soumis dans GSC, et ne contient que des URLs indexables (pas de pages noindex, redirect, ou 404). Sur PS, le module Sitemap doit être configuré pour exclure les pages de pagination et les URL paramétrées.
04
Coverage GSC Important
Analyser le rapport "Couverture" dans Google Search Console. Les statuts "Exclue" et "Erreur" révèlent les problèmes d'indexation réels. Particularité 2026 : surveiller aussi le rapport "Indexation des pages" post-HCU.

Bloc 2 — Structure & Redirections

05
Canonical cohérentes Critique
Chaque page doit avoir une et une seule canonical, qui pointe vers l'URL canonique réelle (avec ou sans www, avec ou sans trailing slash — de façon cohérente sur tout le site). Une canonical qui pointe vers une URL redirigée est une erreur silencieuse fréquente.
06
Chaînes de redirections Critique
Détecter et corriger les chaînes de redirections (A→B→C). Chaque saut dilue le "link juice" transmis. Sur les sites migrés plusieurs fois, des chaînes de 5+ redirections ne sont pas rares. L'outil Screaming Frog permet de les visualiser facilement.
07
HTTP vers HTTPS Critique
Toutes les ressources de la page (images, scripts, fonts, iframes) doivent être servies en HTTPS. Un seul asset HTTP sur une page HTTPS déclenche un avertissement "mixed content" et peut bloquer le rendu dans certains navigateurs.
08
WWW vs non-WWW Important
Une seule version doit être canonique (www ou non-www). L'autre doit rediriger en 301 vers la version principale. Vérifier la cohérence entre la redirection serveur et les balises canonical — une incohérence entre les deux est plus fréquente qu'on ne le croit.
09
Trailing slash Moyen
Les URLs avec et sans slash final (/page vs /page/) doivent être uniformes. Google les traite comme deux URLs différentes. Choisir une convention et la faire respecter via redirection 301 systématique.

Bloc 3 — Performance & Core Web Vitals

10
LCP — Largest Contentful Paint Critique
Mesurer le LCP en field data (pas Lighthouse) via PageSpeed Insights. Seuil : sous 2.5s. Sur e-commerce, le LCP est presque toujours l'image hero ou la première image produit. Preload, WebP, fetchpriority="high" sont les leviers principaux.
11
CLS — Cumulative Layout Shift Important
Seuil : sous 0.1. Identifier les éléments qui bougent pendant le chargement avec Chrome DevTools → Performance → Layout Shift Regions. Suspects habituels : images sans dimensions, banners cookies, fonts FOUT, publicités dynamiques.
12
INP — Interaction to Next Paint Important
Seuil : sous 200ms. Mesurer via le rapport Expérience GSC ou avec web-vitals.js. Long Tasks JavaScript sont le principal ennemi. Différer les scripts de tracking non critiques après la première interaction utilisateur.
13
TTFB — Time to First Byte Moyen
Un TTFB élevé (>600ms) indique un problème côté serveur : requêtes DB lentes, pas de cache serveur, hébergement mutualisé surchargé. Vérifier avec WebPageTest en désactivant le cache navigateur.

Bloc 4 — Données structurées & On-page

14
JSON-LD valide Important
Tester chaque type de page (accueil, produit, catégorie, article) avec le Rich Results Test de Google. Vérifier l'absence de conflit Microdata + JSON-LD. Corriger les champs obligatoires manquants (priceCurrency, availability sur Product).
15
Balises title et meta description Important
Chaque page doit avoir un title unique et une meta description unique. Scanner avec Screaming Frog pour détecter les doublons, les truncations (title > 60 caractères), et les pages sans meta description. Sur PS, les metas auto-générées sont souvent insuffisantes.
16
Structure Hn Moyen
Chaque page doit avoir un unique H1 contenant le mot-clé principal. La hiérarchie H2/H3 doit être logique et non sautée. Sur PrestaShop, vérifier que le nom de catégorie est bien rendu en H1 et non en texte brut ou H2.
17
Images : alt texts Moyen
Toutes les images non décoratives doivent avoir un attribut alt descriptif et naturel. Sur PrestaShop, les images produits reprennent souvent la référence produit brute comme alt text — ce qui n'est ni utile pour le SEO ni pour l'accessibilité.

Bloc 5 — Maillage & Duplicate Content

18
Duplicate content Critique
Détecter les pages en double : versions avec/sans trailing slash, versions HTTP/HTTPS, pages de pagination indexées, variantes de produits avec URLs distinctes. Chaque URL dupliquée dilue l'autorité de la page canonique.
19
Maillage interne Important
Vérifier que toutes les pages importantes sont accessibles en moins de 3 clics depuis la homepage. Détecter les pages orphelines (sans lien entrant interne). Optimiser les textes d'ancre des liens internes avec des mots-clés descriptifs.
20
Liens cassés (404) Important
Scanner le site pour détecter les liens internes qui pointent vers des 404. Chaque lien cassé est une perte de jus SEO et une mauvaise expérience utilisateur. Sur les vieux sites PS, les suppressions de produits laissent souvent des dizaines de 404 non redirigés.
✓ Méthode recommandée

Réalisez cet audit dans l'ordre : commencez par les points "Critique" car ils bloquent potentiellement toute l'indexation. Un site avec un robots.txt bloquant ou des milliers de noindex accidentels ne bénéficiera d'aucune amélioration de contenu ou de performance tant que ces problèmes fondamentaux ne sont pas résolus.