Aller au contenu principal
Thomas Mendy
Consultant SEO Indépendant à Rouen
Guide pilier - Audit SEO technique

Guide complet d'audit SEO technique : crawl, web perf et données structurées

Méthode pas-à-pas pour bâtir un socle technique qui tient en production : audit de crawl, Core Web Vitals, rendu JavaScript, logs et schémas. Pensé pour React, Vite et prerender.

Core Web VitalsCrawl budgetDonnées structurées
Durée : 6 à 8 semainesVolume : 2 600 motsLivrables : plan priorisé

Cadre de l’audit : objectifs business et dette technique

Un audit ne se résume pas à une liste de tickets. On part de l'objectif business : acquisition locale, lead B2B, international. La dette technique se priorise selon l'impact sur le crawl, la conversion et la maintenabilité.

Définissez la matrice Impact/Complexité avec votre équipe produit. Sur un site Vite/React, le rendu statique existe (prerender), mais le JS client peut bloquer le LCP. L'audit doit donc couvrir serveur, build et front.

Collectez les logs, les données Search Console et un crawl complet desktop/mobile. Détectez les patterns d'URL inutiles, les paramètres, et vérifiez que chaque page stratégique a une version canonique claire.

Checklist

  • Lister les parcours de conversion : service, contact, blog
  • Récupérer 30 jours de logs pour identifier le budget crawl
  • Exporter le sitemap et vérifier la cohérence avec seo-routes.mjs
  • Identifier les sections à prérendre en priorité

Outils

  • Screaming Frog + custom extraction
  • Search Console
  • Log Explorer (Elastic, Splunk)
  • PageSpeed Insights
  • Chrome DevTools

Crawl et indexation : contrôler le budget et les robots

Le crawl est la base : si Google ne passe pas, rien ne ranke. Sur un projet prérendu, vérifiez que les routes déclarées dans seo-routes.mjs correspondent au sitemap et qu'aucune page orpheline n'existe.

Commencez par mapper toutes les URL canoniques. Vérifiez la cohérence entre robots.txt, balises meta robots et canonical. Neutralisez les paramètres inutiles via Search Console et redirections 301.

Surveillez le temps de réponse et le poids HTML. Le prérendu doit livrer un contenu complet (H1, FAQ, JSON-LD) sans attendre l'hydratation React. Testez quelques pages dans l'outil d'inspection Google.

  • Créer un inventaire des liens internes par profondeur
  • Bloquer les pages de test ou de prévisualisation
  • Conserver une seule version accessible (https + trailing slash cohérent)

Erreurs à éviter

  • Oublier les pages générées par le blog dans le sitemap
  • Laisser des canonical relatifs ou incohérents
  • Multiplier les redirections chaînées lors des refontes

Performance et Core Web Vitals sur React/Vite

Le temps de chargement conditionne la conversion. Le prérendu réduit le TTFB, mais le bundle JS peut rester lourd. Priorisez le LCP (image au-dessus de la ligne de flottaison) et l'INP (interactivité).

Analysez votre bundle via Source Map Explorer ou l'output esbuild. Identifiez les dépendances lourdes et découpez les composants non critiques. Sur Vite, activez le code splitting et évitez les librairies inutiles côté client.

Mesurez le LCP réel via CrUX et Lighthouse mobile. Optimisez les images héro avec un format compressé (WebP) et définissez des dimensions pour éviter le CLS. Servez les polices en display=swap et limitez les scripts tiers.

  • Minifier et compresser les assets (brotli)
  • Lazy-load des sections non critiques du hero
  • Limiter les animations lourdes et composants inutiles

Checklist

  • Score LCP < 2.5s sur mobile
  • CLS < 0.1 avec tailles explicites
  • INP < 200ms sur les CTA principaux

Outils

  • PageSpeed Insights
  • Lighthouse CI
  • Chrome Profiler
  • WebPageTest
  • Squoosh

Rendu JavaScript, SSG et hydratation

Les moteurs doivent voir le contenu dès le HTML initial. Avec Vite + prerender, chaque route SEO doit embarquer le H1, la FAQ et le JSON-LD dans le HTML statique. L hydratation ne doit pas bloquer la lecture.

Testez vos pages avec l’option Voir le code source : le H1, les H2 et le script FAQ doivent y apparaître. Si des sections clés arrivent après hydratation, déplacez-les dans le rendu statique ou simplifiez leur logique.

Surveillez les erreurs console au chargement. Un JS cassé peut empêcher l'hydratation et générer des pages blanches en production. Mettez en place un monitoring Sentry ou LogRocket pour capter les erreurs client.

  • Limiter les fetch côté client sur les pages statiques
  • Utiliser des composants purs pour le contenu long-form
  • Vérifier le support des ancres (#) dans le prérendu

Outils

  • Rendertron pour test
  • Screaming Frog JS Rendering
  • Sentry
  • Browserstack mobile

Schémas et données structurées : FAQ, Service, Breadcrumb

Les données structurées consolident la compréhension de Google. Un guide pilier peut utiliser FAQPage, Article ou HowTo. Sur les pages business, privilégiez Service ou LocalBusiness.

Mappez les schémas existants : Seo.tsx injecte un graph. Assurez-vous que les FAQs des guides remontent en JSON-LD et que les pages services conservent le schéma Service. Ajoutez BreadcrumbList si la profondeur dépasse 2 niveaux.

Validez sur l'outil Schema Markup Validator et corrigez les propriétés manquantes (name, description, mainEntityOfPage). Évitez de dupliquer plusieurs FAQPage sur la même page.

  • 1 seul type principal par page
  • FAQ limitée aux questions réellement présentes
  • Utiliser des URLs absolues pour canonical et ogUrl

Outils

  • Schema Markup Validator
  • Rich Results Test
  • SEOPro extension
  • Screaming Frog extraction JSON-LD

Analyse de logs et priorisation

Les logs montrent où Googlebot dépense son budget. Combinez-les avec les données de conversion pour prioriser les chantiers techniques réellement rentables.

Segmentez les hits par type d'URL : pages services, villes, blog, guides. Si les guides sont peu crawlés, renforcez le maillage depuis /seo-local-rouen ou /seo-technique-rouen et ajoutez-les au sitemap.

Identifiez les erreurs 404 et 500 les plus fréquentes. Corrigez les modèles de routes cassées et ajoutez un monitoring uptime. Surveillez la fréquence de crawl après vos déploiements majeurs.

  • Tableau de bord par répertoire
  • Alertes en cas de pic de 404 sur un dossier
  • Corrélation crawl vs conversions organiques

Outils

  • BigQuery + Data Studio
  • Screaming Frog Log File Analyser
  • ElasticSearch
  • StatusCake

Gouvernance technique et passage en production

Un audit doit déboucher sur un plan d actions. Définissez qui fait quoi, avec quelles dépendances et quels tests de non-régression avant chaque release.

Construisez un backlog priorisé : quick wins (compressions, balises manquantes) en sprint 1, actions structurantes (refonte maillage, refactor assets) en sprint 2, monitoring et documentation en continu.

Documentez les conventions : trailing slash, canonicals, usage de Seo.tsx, règles de nommage des routes dans App.tsx. Ajoutez des tests de build + prerender dans votre CI pour éviter les régressions.

Checklist

  • Checklist pré-prod : build, check:prerender, contrôle des pages clés
  • Plan de rollback en cas de bug d’hydratation
  • Documentation des routes SEO et sitemap

FAQ

Les questions qui reviennent avant de lancer la mission.

Combien de temps dure un audit SEO technique complet ?

Entre 4 et 8 semaines selon la taille du site. L'audit comprend le crawl, l'analyse de logs, les tests Core Web Vitals et une roadmap priorisée.

Pourquoi le prérendu est-il important pour React/Vite ?

Il garantit que Google reçoit un HTML complet (H1, FAQ, schémas) sans dépendre du JavaScript client. Le rendu statique améliore aussi le LCP.

Faut-il auditer les données structurées ?

Oui : un schéma mal renseigné peut empêcher l’affichage de rich snippets. Chaque page doit avoir un type principal cohérent (FAQPage, Service, Article).

Comment suivre les gains après audit ?

Installez un tableau de bord qui mixe positions, crawl et conversions (appels, formulaires). Les Core Web Vitals et le taux de crawl sont les premiers indicateurs.

Puis-je combiner audit technique et SEO local ?

Oui, les guides sont complémentaires : le socle technique sécurise l’indexation des pages locales et améliore la vitesse sur mobile.