Analyser et détecter des problèmes de référencement d’un site web

Lorsque nous effectuons une analyse SEO de notre site web, pour détecter les problèmes qui entravent notre positionnement, il y a plusieurs facteurs à prendre en compte. Parmi les plus importants, on peut citer l’indexation et le crawling, le SEO On Page ou encore l’adaptation de notre site aux appareils mobiles. Les outils de référencement sont une aide fondamentale pour détecter ces problèmes.

Crawling et indexation

L’exploration et l’indexation affectent principalement des variables telles que l’architecture web, les méta-robots, robots.txt, les plans de site ou les liens internes et externes.

Comment vérifier l’indexation totale du site

Il est essentiel que nous fassions une analyse du niveau d’indexation pour plusieurs raisons. Nous devons être très clairs sur les pages que nous voulons positionner. Il est inutile d’avoir beaucoup de contenus indexés s’il ne remplit pas son objectif de conversion, dans certains cas il serait même conseillé de désindexer certains de ces contenus.

Voici quelques-uns des outils qui peuvent nous aider à détecter notre niveau d’indexation :

  • Commandes Google : Avec des commandes comme « site » de Google, nous pouvons savoir ce que nous avons indexé notre site web, il nous indiquera également quels sont les sous-répertoires indexés.
  • Google Search Console : Cet outil gratuit nous permet également de connaître le niveau d’indexation de notre site web. Une des recommandations de MJ est que, si nous voulons également obtenir des informations sur un sous-domaine, nous devrions l’enregistrer directement dans l’outil et de cette façon nous obtiendrons des données spécifiques orientées vers le domaine et le sous-domaine.
  • Somilar Web : C’est une autre option pour déterminer les sous-domaines que nous avons indexés.

Notre analyse nous permet d’obtenir des données quantitatives et qualitatives. Nous pourrons savoir quels contenus sont indexés, lesquels ne le sont pas, pourquoi nous n’indexons pas ce que nous voulons, etc.

Règle SEO : n’indexer que les contenus qui ont une demande organique.

Comment extraire les contenus qui sont indexés.

Pour extraire les contenus qui sont indexés, au-delà des chiffres, MJ Cachón propose deux méthodes alternatives :

  • Méthode 1, par extraction directe : nous demandons à Google qu’au lieu de nous montrer 10 résultats, nous élargissions la plage et nous en donnons 100. Une autre option dans la même veine est d’installer le plugin AutoPagerize qui élimine la pagination des résultats Google et nous offre un défilement infini avec tous les résultats d’une recherche que nous faisons.
  • Méthode 2, par comparaison : Une autre méthode pour extraire l’indexation consiste à faire une comparaison. Si nous savons quelles pages nous voulons indexer, il faut savoir si elles sont déjà indexées ou non individuellement.

Pour obtenir une liste des URL qui peuvent être indexées, nous pouvons encombrer le site de Screaming Frog. Nous pouvons également utiliser l’outil « URL Profiler » pour compléter cette analyse, ce qui nous fournira un fichier Excel avec les pages qui sont indexées.
Il est important d’avoir préalablement planifié une stratégie de mots-clés avec sa recherche de mots-clés correspondante et d’avoir fait un plan sur les mots-clés qui doivent être ciblés sur quelles pages de notre site. Voici une sélection très utile des 20 meilleurs outils de référencement pour la recherche de mots-clés qui pourraient vous aider à effectuer cette recherche.

Crawling et Robots.txt

Les extensions qui sont incluses dans ce dossier public et accessibles à tous détermineront où Google ou un autre moteur de recherche entre. Pour gérer ce robot, nous pouvons utiliser plusieurs outils en fonction de nos besoins.

Avec Screaming Frog, nous pourrons faire des validations de notre site et des sites des concurrents si nous sommes intéressés à faire une analyse de la concurrence. D’autre part, nous utiliserons la console de recherche Google pour définir d’autres caractéristiques de notre configuration, comme la fréquence à laquelle nous voulons que Google explore notre contenu. Si nous modifions le txt du robot, nous devrons en informer Google.

Règle de référencement : pour qu’un contenu soit indexé, il doit d’abord pouvoir être exploré et accessible.

Comment optimiser les liaisons internes

MJ Cachón propose deux façons d’optimiser notre liaison interne. C’est une question importante car si nous avons beaucoup de liens internes pointant vers des pages avec une redirection ou une erreur 404, nous allons aggraver l’exploration et l’indexation.

Screaming Frog génère automatiquement deux rapports (inlinks redirections / inlinks erreurs) qui nous aident à détecter ce problème. Ils nous informent sur les pages de notre site qui donnent une redirection ou des erreurs 404 et sur l’endroit d’où elles sont liées. Il faudrait alors aller le corriger, bien sûr.

D’autres outils de référencement pour programmer les Crawlings peuvent l’être : Semrush, Sistrix, DeepCrawl, OnPage.org, OnCrawl ou Botify.
Si vous cherchez des informations supplémentaires sur les redirections, je vous recommande de lire ce guide sur les redirections 301 et le fichier htaccess d’Álex Serrano.

SEO On Page

C’est l’un des grands points d’une analyse SEO et pour ce faire, nous nous concentrerons principalement sur le marquage et notre contenu. En utilisant le crowleo précédent, nous aurons une vue d’ensemble rapide qui nous donnera une bonne quantité de données pour commencer à travailler.

Marquage : qu’il y ait ou non duplicité dans notre marquage, cela a un impact direct sur notre CTR organique. Notre objectif est donc d’optimiser les balises des URL indexables.

Ici, il faudrait chercher une corrélation, un modèle entre les titres qui sont dupliqués ou qui n’existent pas avec les CTR organiques que nous avons dans la console de recherche. Grâce à cet outil, nous pouvons calculer nos CTR et essayer de les augmenter jusqu’au CTR moyen.

Ces CTR peuvent être discriminés par les appareils, une séparation essentielle maintenant que le mobile est si important. Nous pourrions calculer le CTR par bureau et par texte pour guider nos stratégies.

Dans le SEO on Page, n’oubliez pas d’optimiser très bien nos textes et nos objectifs.

L’aspect mobile

Maintenant que nous faisons tous des recherches à partir d’appareils mobiles, cet aspect est plus pertinent que jamais. Non seulement Google le dit, mais les utilisateurs nous le disent et les preuves du jour en jour. Il est donc essentiel que notre projet soit Mobile Friendly. Si notre site n’est pas adapté aux mobiles, les utilisateurs iront vers d’autres qui le sont.

Comment pouvons-nous vérifier si notre site est compatible avec les téléphones portables ?

Pour ce faire, nous pouvons prendre toutes les URL de notre site, les placer dans le profiler URL et, grâce à l’API de vitesse de page, nous pouvons détecter si les pages de notre site sont adaptées aux mobiles. Avec ce test mobile, l’outil lancera un fichier Excel indiquant si la page a passé le test avec succès ou non. Une autre option consiste à utiliser le testeur de Google, mais c’est un processus beaucoup plus lent.

D’autres outils SEO intéressants pour les mobiles sont : Varvy SEO Tool, Responsive Web Design Tester, Mobile-Friendly Checker ou Pure Oxygen.

Performance sur ordinateur de bureau et mobile

En matière de gestion des performances, URL Profiler est une fois de plus notre outil vedette. Nous devrons ajouter toutes les URL que nous voulons analyser. Le rapport Excel nous donnera toutes les informations nécessaires sur la mise en cache, la compression… et tout ce dont nous avons besoin. Nous verrons où elle échoue et nous nous attaquerons à ces échecs à l’échelle mondiale.

La performance est un facteur important dans l’expérience de l’utilisateur, où la vitesse est récompensée, il est donc nécessaire de la hiérarchiser.

Les autres outils recommandés pour optimiser les performances sont WebPageTest, YSlow, GTMetrix ou Pingdom.

Autres facteurs : HTTPS, Hreflang, Microformats et AMP

Il y a d’autres éléments qui peuvent affecter notre référencement comme HTTPS, Hreflang si nous avons un projet international en plusieurs langues, Microformats ; qui sont un moyen d’enrichir les fiches de résultats de Google ou le si célèbre AMP.

Pour analyser ces facteurs, il est à nouveau conseillé de se tourner vers Screaming Frog, un outil très puissant et l’un des essentiels dans la boîte de tout référencement.

Il reste à voir si le thème HTTPS est ou non un facteur de référencement, mais il est important pour la sécurité des utilisateurs et parce qu’un signe de « site non sécurisé » pourrait devenir un motif d’abandon, ce qui n’est pas dans notre intérêt.

Conclusions sur l’analyse SEO

Le plus important est que nous comprenions que nous devons indexer uniquement ce qui a une demande biologique, le reste nous n’avons pas à l’indexer et cela pourrait nous coûter cher.

D’autre part, si nous détectons de nombreux problèmes à la suite de notre analyse, nous devons établir un ordre lors de la mise en œuvre des solutions. Si nous mettons tout en œuvre d’un seul coup, nous pourrions passer à côté de ce qui a bien fonctionné.

Enfin, ne perdons pas de vue le fait que le référencement doit toujours aller de pair avec les objectifs commerciaux du projet. L’essentiel est que le client génère des revenus grâce au trafic que nous avons capté.

Découvrez également :