Image default
Stratégie de Référencement

Audit technique d’un site : toutes les démarches pour bien réussir

L’audit technique constitue le pilier de tout audit. En effet, il ne faut jamais sous-estimer cet élément indispensable lorsque vous souhaitez avoir un meilleur placement auprès du SERP. Dans cet article, nous allons voir de plus près toutes les procédures à prendre en considération pour l’audit SEO.

Un petit mot sur cet audit technique

Le but consiste à détecter les éventuels problèmes techniques qui peuvent avoir un impact négatif sur l’expérience utilisateur, mais qui peuvent également causer de la pénalisation de Google, pouvant entraîner la dégradation de votre classement auprès des moteurs de recherche.

Ces problèmes peuvent alors faire perdre les qualités du SEO de votre site web. Mais quoi qu’il en soit, il existe des outils tels que « Screaming Frog SEO Spider »et d’autres qui peuvent vous venir en aide à vous faire savoir de nombreux genres de problèmes,
Voici quelques questions qui peuvent vous pousser à réaliser autant que possible l’audit technique de votre site.

Votre site arrive-t-il à s’afficher rapidement ?

Sachez que la vitesse de chargement de votre site peut avoir un impact direct sur l’expérience utilisateur. Cet impact peut être positif ou négatif. C’est pour cette raison qu’il est indispensable de bien penser à ce critère. Pour savoir exactement si votre site s’affiche assez rapidement ou non, il vous est conseillé d’effectuer une analyse en vous servant de Pingdom et de Google’ s website speed tool.

Vous devez atteindre un minimum de temps de chargement nécessaire, sinon, vous devez absolument apporter beaucoup plus d’amélioration même si cela n’est pas facile du tout. Sachez que la durée de chargement idéale est inférieure à une seconde.

Votre site est-il déjà mobile friendly ou non ?

Ce critère est également plus important et permet d’apporter un bon ou un mauvais classement. En effet, il ne doit pas non plus être considéré à la légère. Pour vérifier si votre site s’adapte déjà aux appareils mobiles, vous pouvez utiliser Google’ s mobile friendlycheuck. Après vérification, si vous constatez que votre site n’est pas encore mobile friendly, vous devez contacter un web designer pour le rendre adapté aux mobiles.

Existe-t-il une cannibalisation de vos mots clés ?

La cannibalisation de mots clés fait partie également de l’un des éléments les plus importants à examiner lors d’un audit SEO. Cette action de cannibalisation de mots clés signifie qu’il existe deux pages qui s’opposent pour obtenir une certaine position auprès des résultats de recherche sur un mot clé unique. Ces deux pages se trouvent donc dans un affrontement direct. Ce phénomène peut troubler Google et peut l’obliger à prendre une décision injuste. En effet, il est important d’orienter ce moteur de recherche plutôt que de l’autoriser à prendre ce choix tout seul. Pour ce faire, vous devez dégager chacune des cannibalisations de mots clés qui peuvent exister.

Il existe une sorte de cannibalisation de mots clés qui se produit souvent. Au cours d’une optimisation de page pour un SEO local, la pratique souvent réalisée consiste à optimiser deux pages différentes sur un même mot clé. Souvent, ces deux pages sont : la page d’accueil et une page à l’intérieur

D’autres types de cannibalisation de mots clés existent également et vous êtes tenu de LE contrôler parce qu’il peut avoir un rapport avec le contenu de votre page. Pas de problème si vous avez décidé de faire votre contenu sur un sujet plusieurs fois, mais faites attention de ne pas le faire excessivement puisque cela peut entraîner des confusions. Pour ce cas, c’est au tour de Google qui va comprendre laquelle des pages dispose d’une autorité plus élevée et quelle est la plus appropriée pour ce même mot clé. Vous pouvez toujours mettre en tête qu’un blog de qualité aura plus de valeur pour les moteurs de recherche. Sachez également que Google apprécie vraiment un blog de qualité, pertinent, facile à comprendre et non plagié.
Au contraire, pour la plupart des cas, les contenus courts qui ne contiennent que peu d’explication n’ont pas beaucoup de valeur pour ce moteur de recherche. Ils ne font que conduire à une cannibalisation de mots clés. En effet, Google pourrait traduire votre activité comme un simple usage de mot clé de longues traînes. Dans ce cas, votre site aura alors à faire à l’algorithme Panda de Google.

Afin de détecter assez facilement les cannibalisations de mots clés par l’outil Screaming Frog SEO Spider, voici la démarche à suivre :
Ouvrez l’outil Screaming Frog SEO Spider
Puis écrivez dans la case appropriée l’adresse URL de votre site et appuyez sur le bouton « Start »
Ensuite, dirigez-vous sur « Page Titles »
Une fenêtre qui contient une barre de recherche apparait. Saisissez l’un de vos mots clés dedans (ce qui permet de montrer toutes les pages qui sont en concurrence pour ce mot clé).
Enfin, vérifiez les balises titres des pages qui contiennent ce mot clé pour détecter les pages qui sont en concurrence directe.

Existe-t-il des difficultés rencontrées sur les redirections ?

Les Redirections 302

Il s’agit des redirections provisoires qui n’envoient aucune autorité. Mais afin que ces redirections 302 transmettent d’autorité à travers les divers liens, elles ont dû être converties en redirections 301.
Vous pouvez contrôler l’existence des redirections 302 en vous servant de Screaming Frog SEO Spider. Pour ce faire, voici la démarche :

    • Ouvrez d’abord Screaming Frog SEO Spider, puis introduisez dans la case correspondante l’adresse URL du site que vous voulez scanner et ensuite cliquez sur Start.
    • Dirigez-vous vers l’onglet « Response Codes ».
    • Un menu déroulant s’affiche et faites un clic sur « Filter », sélectionnez ensuite « Redirection 3xx ».
  • Enfin si vous souhaitez exporter chacune des redirections 302, cliquez sur « export ».

Les Redirections en chaine

Les redirections en chaines sont caractérisées par une chaine de redirections 301 qui se relie entre elles. Si vous voulez envoyer chacune des autorités immédiatement à la page de destination plutôt qu’à l’autorité partielle, vous devrez donc passer à l’action de cassage des chaînes.
Voici encore la méthode pour passer à la vérification de l’existence des redirections en chaine par l’intermédiaire de Screaming Frog SEO Spider :

    • Dans la rubrique « configuration », cliquez sur le menu « spider »
    • Faites un clic sur « Advanced », choisissez « AlwaysFollowRedirects » et sélectionnez-le, cliquez ensuite sur « OK ».
    • La fenêtre où l’on peut introduire l’adresse URL à scanner s’ouvre, saisissez la dedans et après, cliquez sur « Start ».
    • Attendez la fin de l’analyse, et dirigez-vous ensuite sur « Reports » et cliquez enfin sur « RedirectChains ».

 

La version non préférée (sans www) dispose-t-elle vraiment d’une redirection 301 vers la version préférée (www) ?

Il est à noter que tous les propriétaires de sites doivent opter pour une version à présenter aux visiteurs. Certains d’entre eux choisissent la version de nom de domaine de la forme http://www.nomdusite.com, mais d’autres se décident pour la version http://nomdusite.com. Que vous choisissiez la première forme ou bien la seconde selon votre aspiration, sachez que cela n’a aucune conséquence sur la performance SEO de votre site. Google les considère de façon égale.

Les problèmes viennent alors quand vous n’arrivez pas à rediriger la version non préférée vers l’autre version qu’est la version préférée. Mais pour faire cette redirection, vous devez réaliser une redirection 301 de votre version non préférée vers celle préférée. Sinon, vous perdez votre autorité parce que vous rencontrez un problème de deux sites doublés. Si vous êtes sûr de n’avoir trouvé aucune redirection, vous avez la possibilité d’utiliser l’outil redirect-checker qui est disponible sur la toile.

La version non sécurisée du site a-t-elle une redirection 301 vers celle qui est sécurisée ?

De nombreux webmasters ou titulaires de site décident de réaliser la sécurisation de leur site avec un certificat. Mais certains d’entre eux rencontrent des complications pour l’action d’implantation dudit certificat. Il existe quelquefois certains d’entre les clients qui omettent la réalisation d’une redirection 301 de la version non sécurisée c’est-à-dire la forme « HTTP » du site vers celle qui est sécurisée ou « HTTPS ». Ceci a une conséquence identique au fait de ne pas faire la redirection d’un domaine sans www vers celui avec www ou inversement.
Vous pouvez détecter le problème assez facilement, pour cela, voici ce que vous devez faire :

    • Accédez à votre site : https://www.votresite.com/.
    • Puis, vous voyez dans la barre adresse votre adresse. Essayez de supprimer la lettre « s » qui se trouve derrière « HTTP » et validez ensuite avec la touche « entrée » du clavier.
    • Vous devrez d’une manière automatique être redirigé vers https://www.votresite.com.

Si ce n’est pas le cas, veuillez rétablir cela. Vous avez aussi la possibilité de vous servir de l’outil susmentionné pour réaliser le contrôle de ce point.

L’indexation de votre site a-t-elle été vraiment bien réalisée

Votre site ne gagne pas du trafic organique que lorsque vos pages ne sont pas bien indexées dans les moteurs de recherche comme Google. Il est alors important de contrôler si l’ensemble des éléments de votre site est convenablement indexé. Vous pouvez commencer par le fichier robots.txt.

robots.txt

Quelquefois, les titulaires de sites coincent par accident l’indexation de leur site par Google. C’est la raison pour laquelle, vous devez absolument réaliser l’audit de votre fichier robots.txt pour vous rassurer que votre site est parfaitement indexé. A l’intérieur de ce fichier robots.txt, vous avez sûrement besoin de la commande « disallow ». Cette dernière énonce aux robots de ne pas faire l’indexation de votre site dans son intégralité ou d’une partie de lui. Faites bien attention si vous avez mal réalisé la configuration de votre fichier robots.txt, vous rendez impossible l’indexation de votre site par les moteurs de recherche.

Les Sitemaps

Sachez que votre site doit avoir une sitemap parce que cela est vraiment utile à l’indexation. Si vous avez un site sur WordPress, vous pouvez utiliser Yoast qui peut, d’une manière automatique, concevoir une sitemap pour vous. Mais si vous ne vous servez pas de Yoast, vous aurez également la possibilité d’installer le plug-in XML Sitemap.

Le « site : »Search

Ouvrez Google, puis tapez l’adresse « site:votresite.com ».
Le résultat vous montrera si votre site web est parfaitement indexé ou non. Vérifiez bien ce résultat, car si votre site ne se montre pas en premier placement dans le SERP, cela peut signifier que votre site a subi une sanction venant de Google. Ou bien, vous faites un obstacle aux moteurs de recherches de réaliser l’indexation de votre site web.

Existe-t-il un contenu copié ?

Sachez que le contenu étant dupliqué peut absolument défavoriser votre site et peut également vous causer une pénalité venant de l’algorithme Panda de Google.

Voici ce que vous avez à faire lorsque vous rencontrez un problème de duplication de contenus dans votre site.

Pour les META Descriptions dupliqués

Dans la plupart des cas, ce sont les sites e-commerces qui sont les plus victimes de la duplication des META Descriptions. Si tel est votre cas, sachez que cela est souvent dû au fait que de nombreux sites e-commerces comportent plusieurs pages qui affichent des produits semblables. De cette manière, les titulaires ou les concepteurs de sites ne font que copier les META Description pareils sur toutes les pages seulement par paresse.

Si vous vous trouvez face à un site qui comporte plusieurs pages similaires, vous devriez faire la consolidation de tout ça. Sachez qu’il n’est pas nécessaire d’avoir de nombreuses pages pour chacune des formes d’éléments existant dans votre page, comme la taille ou la couleur d’un même produit. Après que vous ayez fini de résoudre ce problème, vous aurez la possibilité de faire des descriptions non copiées pour chacune des pages.

Faites de votre mieux pour que vos métadonnées et vos contenus soient non dupliqués pour chacune des pages de votre site web. Bien entendu, cela peut vous demander beaucoup plus de temps, mais cela en vaut la peine. Faites-le petit à petit. Par exemple, si vous corrigez 5 pages par jour, vous parvenez à optimiser un1825 page en une année.
Afin de détecter les META données copiées, vous pouvez vous servir de Screaming Frog SEO Spider et de Google Search Console.

Pour Screaming Frog SEO Spider:

    • Tapez l’adresse URL de votre site et cliquez ensuite sur « START ».
    • Pointez sur « Meta Description », puis choisissez dans le menu déroulant le menu « Filter ».
    • Ensuite, choisissez « Duplicate » puis « Export ».

Si vous utilisez Google Search Console, voici la démarche :

    • Choisissez Google Searche Console.
    • Puis Sélectionnez « Apparence dans les résultats de recherches ».
    • Enfin, cliquez sur « Améliorations HTML ».

Vous découvrez toutes les META Descriptions et la balise title ainsi dupliquée.

Les pages qui contiennent des contenus dupliqués

À part les métadonnées dupliquées qui ont besoin d’être identifiées, vous êtes tenu également de vous concentrer sur la détection des contenus dupliqués dans vos pages.
Pour ce faire, vous devez vous servir de l’outil Siteliner. Il permet de vous afficher les pages qui ont des contenus copiés. Voici ce que vous devez faire :
Ouvrez Siteliner.com, puis introduisez dans la case correspondante l’adresse URL du site ciblé. Cliquez sur le bouton « Duplicate Content », et regardez dans le résultat les pages qui ont des contenus doubles.

Quand même, vous devez être au courant que le résultat affiché par cet outil n’est pas toujours clair et précis. En effet, il vous est conseillé quelquefois de tirer vous-même votre conclusion personnelle.

Existe-t-il des erreurs 404 ?

Chaque erreur 404 se présente sous différentes formes.
Certaines personnes disent que toutes ces erreurs 404 sont dangereuses pour le SEO
Cela n’est pas vrai, car ces erreurs 404 représentent une façon très puissante pour signaler à Google que la page concernée n’existe plus. De ce fait, quand Google découvre une erreur 404, il procède à la suppression de la page concernée de son index.

Pensez un peu à ceci : vous ne voulez pas qu’une certaine personne repère l’une de vos pages 404 via Google, c’est pour cette raison qu’il les efface de son index puisqu’elles ne sont plus utiles pour les utilisateurs. Mais quand même, faites attention, cela ne veut pas dire que toutes les erreurs 404 sont utiles. Il existe des erreurs 404 qui peuvent avoir un impact négatif sur votre SEO. Ce sont les pages 404 qui disposent des baclinks. Ces pages font disparaître de l’autorité à votre site web. Pour y remédier, vous devez rediriger ce type de page vers des pages qui ont un thème identique sur votre site. De cette façon, vous parviendrez à reconquérir l’autorité des liens existant dans ces pages. S’il n’existe pas des pages ayant le même thème à celui des pages 404, le mieux c’est de faire la redirection vers la page d’accueil de votre site.
Afin de découvrir les erreurs 404, vous pouvez utiliser l’outil Google Search Console.

    • Ouvrez Google Search Console.
    • Puis pointez sur « Exploration », ensuite sur « Erreurs d’exploration ».
    • Cliquez enfin sur l’onglet « Not Found » et vous découvrirez par la suite toutes les erreurs 404.

 

La structure de votre site est-elle idéale pour le SEO ?

Actuellement, de nombreux audits excluent de leurs procédures l’analyse de l’architecture d’un site, pourtant elle constitue un élément important pour favoriser le SEO dudit site. Sachez que de nos jours, beaucoup de propriétaires de site créent leur site en raisonnant à ce que leurs clients à venir voudraient voir. Mais contrairement à cela, vous devriez vous concentrer sur ce que vos visiteurs aspirent à voir au moment où vous optimisez votre site web, tout en pensant en tout cas à convenir et à orienter les moteurs de recherche.

Il est à savoir qu’une architecture de site bien optimisé peut permettre de satisfaire en même temps les moteurs de recherche ainsi que les utilisateurs.
Au moment où vous réalisez l’analyse de l’architecture de votre site web, vous devez toujours mettre en tête les questions suivantes :

    • La navigation de mon site est-elle appropriée ou non ?
    • Les backlinks utilisent-ils des ancres bien optimisées ?
    • Est-ce que je peux perfectionner la navigation dans le but de la rendre facile pour les moteurs de recherche et pour les utilisateurs ?

La mise en place des URL est-elle optimisée pour le SEO ?

Il est important de vous faire savoir qu’il ne faut pas changer la structure d’une URL quand le site dispose déjà de bonnes performances. Sinon, vous êtes obligé de réaliser une redirection 301 de la vieille URL vers la nouvelle. Sachez que les redirections 301 n’aboutissent pas forcément de la même façon, certaines d’entre elles ne transmettent pas l’autorité qui vient de l’ancienne version de l’URL et cela peut vous conduire à une perte de position durant un certain moment. En effet, si vous voulez que votre site soit bien positionné infiniment, vous devez modifier votre URL en une version plus récente, optimisée, et appropriée.

Lorsque le site n’arrive jamais à bien se classer pour aucun mot clé, essayez de procéder toujours à l’amélioration de la structure de vos URLs.

Les URLs sur-optimisées

Certains clients essayent de tromper Google en faisant du bourrage de mots clés au sein de leurs URLs. Il s’agit d’une mauvaise pratique, et cela peut conduire jusqu’à une pénalisation de la performance de leur site en matière du SEO. Donc il faut que vous fassiez attention en ce qui concerne la structure de vos URLs.

Par exemple, dans une URL, le mot qui constitue cette adresse URL apparait 3 ou 4 fois, ce qui veut dire qu’il existe des sous-dossiers qui doivent être supprimés afin d’avoir une URL en bonne et due forme.

Les backlinks sont-ils structurés correctement ?

Il faut bien construire le maillage interne afin de ne pas apporter des dérangements aux moteurs de recherche. Il faut bien penser à l’exactitude des textes d’ancres à choisir pour bien structurer les liens internes.

Si dans l’exemple, vous disposez d’une page concernant les « baskets hommes », vous devrez alors choisir un lien avec un texte d’ancre « baskets hommes ». Faites attention au terme « cliquez ici ».
Il est vrai que le fait de trouver les liens qui ne sont pas efficaces semble être difficile, mais quoi qu’il en soit, il faut les découvrir afin d’apporter des remèdes appropriés. Les trouver page par page est l’une des démarches parfaites. Afin que vous réussissiez à propos de cette structure de liens internes, vous devez seulement respecter les bonnes pratiques concernant la technique de maillage interne.




Contactez nous pour le référencement de votre site internet.



Related posts

Comment optimiser son seo afin de trouver beaucoup de clients ?

administrateur

Comment faire pour créer une campagne Adwords agissante et rentable ?

administrateur

Comment faire pour trouver l’agence SEO qui répond parfaitement à vos attentes ?

administrateur

3 crawlers gratuits pour bien gérer le SEO de votre site

administrateur

Certaines nouveautés SEO prévues pour cette année 2019

administrateur

Comment optimiser les liens externes pour avoir un meilleur positionnement ?

administrateur

Leave a Comment