Audit SEO technique : la checklist complète 2026
Audit SEO technique étape par étape : robots.txt, sitemap, Core Web Vitals, Schema.org, hreflang. Les 40 points à vérifier en 2026 avec outils gratuits.
Audit SEO technique : la checklist complète 2026
TL;DR — Un audit SEO technique vérifie l'accessibilité d'un site aux robots d'exploration (Googlebot, Bingbot, GPTBot, ClaudeBot). Les 40 points clés couvrent : robots.txt, sitemap.xml, balises meta, hiérarchie Hn, codes HTTP, canonicals, hreflang, Core Web Vitals, Schema.org, llms.txt, mobile-friendly, HTTPS. Un audit technique prend 1 à 4 heures avec un outil comme AuditGEO, Screaming Frog ou Sitebulb, et identifie typiquement 10 à 30 correctifs sur un site de 50 pages.
Dernière mise à jour : 17 avril 2026
Qu'est-ce qu'un audit SEO technique ?
Un audit SEO technique est l'analyse des fondations d'un site vis-à-vis des moteurs de recherche et des robots IA. Il vérifie que rien, sur le plan technique, n'empêche ou ne ralentit la compréhension et l'indexation des contenus.
À la différence de l'audit sémantique (qui analyse la pertinence lexicale) ou de l'audit de contenu (qui évalue la qualité éditoriale), l'audit technique se concentre sur la couche infrastructure : serveur web, balises HTML, protocoles, fichiers de configuration.
Un site peut disposer d'un contenu excellent mais rester invisible à cause d'erreurs techniques : robots.txt bloquant, balises noindex intempestives, redirections en chaîne, Core Web Vitals dégradés. Selon l'analyse AuditGEO sur 1 200 sites français auditéés en 2024-2025, 83 % présentaient au moins 3 problèmes techniques bloquants à leur première analyse.
La checklist technique en 40 points
A. Indexation et crawl (8 points)
1. robots.txt présent, accessible à /robots.txt, non bloquant par erreur
2. sitemap.xml présent, référencé dans robots.txt, URLs valides
3. Déclaration du site dans Google Search Console et Bing Webmaster Tools
4. Balises noindex maîtrisées (pas de noindex accidentel sur pages importantes)
5. Paramétrage des paramètres d'URL dans GSC (ou via canonical)
6. Nombre de pages indexées cohérent avec le nombre de pages du site
7. Erreurs de couverture dans GSC (404, redirections, soft 404)
8. Budget de crawl optimisé (pas de gaspillage sur pages inutiles)
B. Balises meta et structure HTML (10 points)
9. Balise unique, 50-60 caractères, mot-clé en début
10. Meta description unique, 150-160 caractères, CTA
11. Balise unique par page, variante sémantique du title
12. Hiérarchie , cohérente (pas de saut de niveau)
13. Balise auto-référente par défaut, différente si duplicat volontaire
14. Meta robots cohérents (index, follow par défaut)
15. Attribut lang sur la balise (fr, fr-FR)
16. Encodage UTF-8 déclaré dans la
17. Meta viewport responsive présent
18. Open Graph et Twitter Cards pour le partage social
C. URLs et architecture (5 points)
19. URLs parlantes en français, sans paramètres inutiles
20. Profondeur d'arborescence maîtrisée (< 4 clics depuis l'accueil)
21. Redirections 301 propres, pas de chaînes > 2 sauts
22. Pas d'erreurs 404 sur les pages importantes
23. Maillage interne cohérent avec la structure logique
D. Internationalisation et signalétique (3 points)
24. Balises hreflang correctes si plusieurs langues
25. Structure multi-langue cohérente (sous-domaines, sous-dossiers, ccTLD)
26. Contenu traduit réel (pas de traduction automatique brute)
E. Performance et Core Web Vitals (5 points)
27. LCP (Largest Contentful Paint) < 2,5 s sur 75 % des visites
28. INP (Interaction to Next Paint) < 200 ms sur 75 % des visites
29. CLS (Cumulative Layout Shift) < 0,1 sur 75 % des visites
30. Poids des pages raisonnable (< 3 Mo pour une page standard)
31. Images optimisées (format WebP/AVIF, lazy-loading, dimensions explicites)
F. Sécurité et protocole (3 points)
32. HTTPS actif avec certificat valide (pas d'avertissement navigateur)
33. Redirections HTTP → HTTPS systématiques
34. Headers HTTP de sécurité recommandés (HSTS, X-Content-Type-Options)
G. Données structurées et signaux IA (6 points)
35. Schema.org JSON-LD présents (Organization, Article, FAQPage, BreadcrumbList)
36. Validation Rich Results Test sans erreur sur les Schemas critiques
37. llms.txt présent et à jour (signal pour robots IA, standard proposé par llmstxt.org en 2024)
38. Schema Person avec sameAs pour l'auteur (E-E-A-T renforcé)
39. Schema Organization avec sameAs pour l'entreprise
40. BingSiteAuth.xml ou autre méthode de vérification Bing (utilisé par ChatGPT Search)
Les outils indispensables pour un audit technique
Gratuits (Google officiel)
- Google Search Console — données réelles d'indexation et de performance
- Google PageSpeed Insights — Core Web Vitals et recommandations
- Rich Results Test — validation Schema.org
- Mobile-Friendly Test — accessibilité mobile
- URL Inspection Tool (intégré à GSC) — diagnostic détaillé par URL
- AuditGEO — audit automatisé 8 piliers dont le technique en 5 minutes
- SEOptimer — rapport rapide pour agences
- Semrush Site Audit — intégré à la suite Semrush
- Screaming Frog SEO Spider — référence technique (gratuit < 500 URL, 259 €/an au-delà)
- Sitebulb — visualisations graphiques, suggestions intégrées
- Lighthouse (Chrome DevTools, F12) — audit technique page par page
Plateformes SaaS
Crawlers techniques
Les 5 erreurs techniques les plus fréquentes en 2026
1. robots.txt mal paramétré
Cas typique : un Disallow: / oublié après une refonte bloque le crawl du site entier. Autre cas : blocage accidentel des assets (CSS, JS) nécessaires au rendu, ce qui dégrade les Core Web Vitals.
Test rapide : accéder à votre-domaine.com/robots.txt et vérifier les règles Allow et Disallow.
2. Canonicals incohérents
Une balise canonical qui pointe vers une autre page (intentionnellement ou pas) indique à Google de ne pas indexer la page courante. Cas fréquent : canonical par défaut pointant vers la home sur toutes les pages CMS mal configurées.
3. Redirections en chaîne
Les redirections 301 successives (page A → page B → page C → page D) diluent le PageRank et ralentissent le crawl. Google recommande maximum 2 sauts. À auditer avec Screaming Frog ou les headers HTTP bruts.
4. Core Web Vitals dégradés
Selon Google Search Central, 34 % des sites français échouent au seuil LCP en 2024. Causes fréquentes : images non optimisées, polices bloquantes, scripts tiers lourds (tags analytics, widgets).
5. Absence de Schema.org critiques
Beaucoup de sites n'ont ni Organization en page d'accueil, ni Person sur les pages auteur, ni BreadcrumbList sur les pages internes. Ce sont pourtant des Schemas peu coûteux à implémenter et à fort impact E-E-A-T, particulièrement importants pour la visibilité IA.
« En 2026, le Schema.org est aussi indispensable que la balise title l'était en 2010 », observe Aleyda Solis, consultante SEO internationale reconnue, dans sa présentation SMX Paris 2024.
Questions fréquentes sur l'audit SEO technique
Peut-on faire un audit technique sans outil payant ?
Oui, à condition de combiner plusieurs outils gratuits : Google Search Console + PageSpeed Insights + Rich Results Test + Lighthouse + Screaming Frog Free (500 URLs). Comptez 8 à 15 heures de travail manuel pour un audit complet sur un site de 30 pages. Un outil unifié comme AuditGEO Free fait la même chose en 5 minutes.
Quelle est la différence entre audit technique et audit de performance ?
L'audit technique couvre l'ensemble des signaux techniques (indexation, structure HTML, Schema, hreflang, redirections...). L'audit de performance est un sous-ensemble centré sur les Core Web Vitals (LCP, INP, CLS) et la vitesse de chargement. Un audit SEO technique complet inclut toujours la performance.
Un audit technique est-il suffisant pour améliorer le SEO ?
Non. Un site techniquement irréprochable peut rester mal positionné si son contenu n'est pas aligné sémantiquement avec les requêtes cibles ou si son autorité est trop faible. L'audit technique est une brique parmi 8 (voir le pilier audit SEO complet).
À quelle fréquence refaire un audit technique ?
Trimestriellement pour les sites actifs avec mises à jour fréquentes (e-commerce, médias). Semestriellement pour les sites plus stables. Après chaque déploiement majeur (refonte, migration CMS, changement d'hébergeur) dans les 48 heures pour détecter les régressions.
Qu'est-ce que le fichier llms.txt et est-il vraiment utile ?
Le llms.txt est un fichier proposé comme standard en 2024 par llmstxt.org pour indiquer aux robots IA (GPTBot, ClaudeBot, Google-Extended, PerplexityBot) comment indexer un site. Son adoption est encore en cours, tous les robots IA ne le respectent pas, mais OpenAI et Anthropic l'honorent. Il est facile à produire (quelques Ko) et coûte peu à maintenir — AuditGEO Pro le génère automatiquement.
Lancez votre audit technique en 5 minutes
AuditGEO analyse votre site sur 40 points techniques, génère le rapport PDF, vérifie vos Schema.org et votre llms.txt, et priorise les correctifs par impact. Plan Free sans carte bancaire.
Auditez votre site en 5 minutes
AuditGEO crawle votre site, vérifie votre visibilité IA et livre un rapport complet.
Lancer mon audit gratuit