indexation google

Comment détecter les problèmes d’indexation de pages sur Google ?

Les webentrepreneurs l’ont bien compris : une bonne visibilité sur les moteurs de recherche est indispensable pour faire prospérer une affaire sur internet. Mais, comment faut-il réagir lorsque Google n’indexe pas les pages de son site ? Eh bien, il faut trouver la source du problème et y remédier. Rassurez-vous, nous vous disons tout dans les lignes qui suivent.

Identifier les pages non indexées

Les problèmes d’indexation sont le plus souvent causés par la maladresse du webmaster. Avec tous les détails à peaufiner pour optimiser le référencement de son site, il arrive que l’on commette quelques erreurs lourdes de conséquences. Idéalement, il faudra réaliser un véritable audit SEO pour identifier la cause du problème. Seulement, lorsque le site compte plus d’une centaine de pages, difficile de tout passer en revue. Nous vous conseillons donc de vous pencher sur les points que nous allons aborder ci-dessous.

Un plan de site incompréhensible pour les robots d’indexation : la principale cause de ces erreurs

Le fichier sitemap.xml présente le plan du site. Ce fichier joue un rôle important puisqu’il guide les robots de Google. Si certaines pages n’ont pas été indexées, il y a de grandes chances que ce fichier soit en partie illisible. Pensez donc à user de Google search console pour découvrir les pages qui lui sont inaccessibles. Le rapport fourni par cet outil pourrait déjà vous éclairer sur l’ampleur du problème et également sur les défauts de votre site map.

À noter : certaines pages qui n’affichent aucune erreur d’indexation peuvent tout de même être touchées par ce problème. Nous y reviendrons bien plus tard dans cet article.

Une actualisation tardive des données

Dans certains cas, Google Search Console n’affiche pas des données à jour. Effectivement, il vous présentera les résultats du dernier crawl. Votre requête n’obligera pas les robots d’indexation à parcourir votre site. Dans ces conditions, il se peut qu’une page non indexée l’ait en fait déjà été. Nous ignorons à quelle fréquence ce crawl s’opère. Toutefois, pour obtenir un rapport d’exploration plus fiable. Mieux vaut se servir de Search Console à 2 voire 3 jours d’intervalle. Le second rapport vous indiquera alors si finalement les robots d’indexation ont pu accéder aux pages qui vous inquiétaient. Espérons que dans les années à venir Google revoit le fonctionnement de Search Console pour que vous puissiez obtenir des rapports plus fiables.

Consulter les logs pour être sûr que Google a bien eu accès à chaque page

Sachez que vous n’avez pas forcement à vous reposer sur Google Search Console. Rien ne vous empêche de procéder à une petite vérification directement depuis le serveur qui héberge votre site. Il suffira alors de demander les logs auprès de son hébergeur. Ce journal livre l’adresse IP du client de chaque visiteur et même le code de retour de la page. Selon les services proposés par votre hébergeur, vous pouvez demander à recevoir les logs d’erreurs. En faisant un tri minutieux, on découvrira par la suite les pages qui ont été inaccessibles à Google. Effectivement, dans le cas où Google bot ne parvient pas à accéder à une page, il retournera également un message d’erreur après une ou plusieurs tentatives de connexion.

Réaliser un audit préliminaire

Avec les solutions proposées par une poignée d’éditeurs, l’audit d’un site ne vous prendra pas forcément plusieurs jours. Si l’on cherche simplement à identifier les pages non indexées, il vous suffira de vous munir d’un outil pouvant établir un crawl de la même manière que les robots de Google. Quelques logiciels connectés vous donnent cette possibilité. Ils vous livrent des rapports d’exploration fiables et peuvent explorer un site de plusieurs centaines de pages en quelques minutes. Certains d’entre eux vous indiquent même la marche à suivre pour corriger ces erreurs. Dans ce domaine, vous avez le choix entre d’innombrables outils. Toujours est-il que SemRush, AhRef et Majestic se distinguent du lot.

Comment prévenir les problèmes d’indexation ?

La mise en place d’une stratégie de référencement demande de la minutie. Pour prévenir les problèmes d’indexation, vous devez être méthodique et vous assurer que chaque page mise en ligne est bien accessible à Google. Dans ce contexte, il faut se pencher sur tous les aspects de son site et surtout procéder à des vérifications répétées.

Le fichier sitemap.xml peut être à l’origine de ce problème, mais dans d’autres cas, il s’agit de simples fautes d’inattention. À cause d’une ligne de code, Google peut penser que vous souhaitez qu’une page ne soit pas indexée. Le thème de votre CMS peut également bloquer l’accès à certaines pages. Dans tous les cas, voici déjà les bonnes pratiques pour corriger ou tout du moins éviter ces erreurs.

Traquez et remédier aux erreurs 404

Les outils que nous avons présentés plus haut vous permettront d’identifier les pages qui affichent une erreur 404. Ces pages sont tout simplement inaccessibles aussi bien aux internautes qu’aux robots d’indexation de Google. Vous devez y remédier au plus vite au risque de perdre quelques positions sur certaines requêtes sur lesquelles vous êtes bien positionnées.

Habituellement, les webmasters recourent à une redirection 301 pour y remédier. Il s’agit de rediriger les visiteurs sur une page abordant un sujet similaire. Cette solution a l’avantage de préserver vos backlinks puisque ces derniers restent actifs.

Il est également possible de confirmer auprès de Google que ces pages ont été supprimées volontairement. En procédant de la sorte, l’erreur n’impactera plus sur « l’autorité » de votre site et vous aurez tout le temps d’identifier la source du problème.

Consultez le fichier robots.txt

Le fichier robots.txt renferme les indications adressées aux robots d’indexation des différents moteurs de recherche. Celui-ci vous permettra par exemple d’indiquer les pages qu’il ne faudrait pas indexer. S’il y a nombre anormal de pages non indexées, vous devez absolument relire le contenu de ce fichier. Des indications mal interprétées peuvent conduire à Google à ne pas parcourir toutes les pages rattachées à une catégorie que vous venez de créer. Assurez-vous que rien n’entrave l’exploration de votre site.

Ne pas oublier de se pencher sur le fichier .htaccess

Le fichier .htaccess mérite votre attention tout comme le fichier robots.txt et sitemap.xml. Il permet en effet de prendre en charge certaines commandes destinées à sécuriser une page ou un ensemble de catégories. Pour ne rien laisser au hasard, pensez à consulter ce fichier et apportez plus de précision sur vos consignes pour éviter qu’elles soient mal interprétées.

Travailler son référencement en adoptant les bonnes pratiques

Identifier et régler les problèmes d’indexation n’est pas une mince affaire. Pourtant, c’est un passage obligé pour améliorer le référencement de votre site web. Sachez toutefois que vous vous faciliterez la tâche en adoptant les bonnes pratiques SEO. Pour ce faire, vous devez vous pencher sur 3 points à savoir : la qualité du contenu, l’expérience de navigation et le netlinking. Bien entendu, nous allons vous livrer quelques conseils afin de parvenir à votre objectif bien plus facilement.

Publier du contenu qualitatif

Sur les SERP, le contenu est ROI. Mais, comment produire du contenu qui fait vendre ? À vrai dire, chacun sa recette. Il ne s’agit pas uniquement d’aborder les sujets qui intéressent votre audience. Vous devez également apporter votre touche personnelle pour que votre site possède une identité qui lui est propre. Vous pouvez vous adresser à vos cibles comme vous le souhaitez, du moment que vos propos ne choquent personne. Aussi, rien ne vous empêche de tutoyer les internautes ou même d’employer un registre plus familier. En tout cas, ne laissez pas leurs questions sans réponses.

Précisons toutefois que l’optimisation du contenu devrait être secondaire. Certes, réussir à se positionner sur les requêtes ciblées est important. Avec le succès de l’inbound marketing, la tendance est aux contenus user centric. À cet effet, on mettra les attentes de son audience au cœur de toutes les préoccupations pour reléguer l’optimisation au second plan.

Soignez l’expérience utilisateur

Améliorer l’expérience utilisateur vous sera bénéfique sur de nombreux points. Un site agréable à parcourir affichera un faible taux de rebond et l’affluence des visiteurs devrait améliorer la fréquence d’indexation. Toujours est-il qu’il n’est pas uniquement question de webdesign ou de charte graphique. Vous devez adapter votre ligne éditoriale de sorte à produire des contenus bien structurés pour en faciliter la compréhension.

Quoi qu’il en soit, à l’heure où le nombre de mobinautes explose, il faudra également prendre certaines dispositions pour préserver le confort de navigation des utilisateurs de terminaux mobiles. Le responsive design est aujourd’hui incontournable. Néanmoins, n’hésitez pas à explorer de nouvelles pistes pour rendre votre site plus visible. De plus en plus d’enseignes recourent par exemple aux featured snippet pour se hisser à la position 0 de Google.

Ne pas perdre de vue le netlinking

Votre stratégie de netlinking influera de manière significative sur le positionnement des pages principales de votre site. Se procurer des backlinks de qualité ne vous aidera pas uniquement à arriver à la première position. Ces liens externes vous permettront également de préserver une bonne visibilité sur les pages de résultats. Vous devez veiller à ce que ces liens proviennent des sites abordant des thématiques similaires aux vôtres. Penchez-vous sur les métriques de ces portails avant d’arrêter votre choix.

Aujourd’hui, nul besoin d’avoir un carnet d’adresses bien fournis pour acquérir des liens qualitatifs. Chacun peut se tourner vers des agences de netlinking. Ces agences rassemblent des professionnels aptes à vous assister dans votre linkbuilding. Cette démarche demande de la stratégie pour réellement tirer du jus SEO de chaque lien. Un consultant SEO saura vous conseiller pour prendre les bonnes résolutions. Toujours est-il que la fréquence d’ajout de ces liens et leur profil dépendront de votre budget.