Vous avez défini une stratégie de mots-clés, investi dans le marketing de contenu et créée un solide profil de backlinks. Vous avez même fait une analyse sémantique des mots-clés de votre niche.
Mais, pourquoi votre site n'est-il pas aussi bien classé qu'il le devrait ?
Pourquoi Google l'a positionné sur la 2 ème ou la 3 ème page du SERP là où le trafic ne se fait pas.
Alors, qu'est-ce qui empêche votre site web d'être en Première Page de Google ?
En deux mots : SEO Technique
C'est quoi le SEO technique ?
Définition: SEO technique désigne les actions d’optimisation du référencement naturel.
L'optimisation pour les moteurs de recherche (SEO) comprend trois parties :
- On-page SEO se concentre sur l'optimisation de la page pour obtenir un contenu de haute qualité.
- Off-page SEO se concentre sur la création de liens cohérent entrants et la promotion du contenu.
- Le SEO Technique se concentre sur l'exploration et l'indexation des pages d'un site.
Google utilise 200 points techniques SEO, et les moteurs de recherches ne peuvent pas classer ce qu'ils ne voient pas ou ne comprennent pas. Travaillez sur le SEO technique pour que les robots des moteurs de recherche puissent parcourir et indexer votre page afin de la classer.
Et dans cet article, j'ai énuméré les six SEO techniques courants de référencement naturel qui peuvent empêcher votre site d'être classé, ainsi que leurs solutions pratiques.
1. Le site Web n'est pas optimisé pour le mobile
Votre site internet doit être”mobile friendly “, autrement dit avoir un “design responsive” pour le mobile.
Près de 70 % des internautes accèdent à Internet via un smartphone, une tendance qui s'est poursuivie au cours des six dernières années.
Face à l'explosion du nombre de mobinautes, Google a lancé l'indexation mobile First (MFI) en 2016. Cette initiative vise à améliorer l'expérience d'utilisateur pour les internautes, en classant les sites optimisés pour les mobiles plus haut que les autres.
Si votre site n'est pas optimisé pour les mobiles, votre classement tombera dans les SERP mobiles.
Comment rendre votre site mobile freindly ?
Avant de corriger un problème, vous devez l'identifier. Exécutez un test mobile freindly pour créer un audit SEO des problèmes liés à votre site. Abordez d'abord ces problèmes, puis appliquez les meilleures pratiques de Google pour vous assurer que votre site Web est compatible, c'est-à-dire mobile responsive.
2. Temps de charge excessive
Les visiteurs ont tendance à quitter rapidement votre page si le chargement prend trop de temps. Google ne peut pas voir le taux de rebond parce que cette information est privée à votre site Web. Mais il peut calculer le temps d'attente (le temps passé sur la page). Un temps d'attente court peut indiquer l'insatisfaction des visiteurs et avoir un impact négatif sur le classement.
De plus, lorsqu'une page se charge lentement (moins 4 secondes), les visiteurs ont tendance à passer à un autre résultat de recherche en moins de cinq secondes. Ce comportement est appelé “pogo-sticking”, et une fois de plus c'est un indicatif d'une mauvaise expérience utilisateur (UX) ; quelque chose que Google essaie d'éviter à tout prix.
Les temps de chargement des pages ont un effet direct sur le budget d'exploration (budget crawl). Les gros sites qui sont lents peuvent avoir des difficultés a indexé leur nouveau contenu.
De plus, la lenteur du chargement des pages affecte le potentiel de Googlebot à crawler efficacement et à indexer une page. Les bots des moteurs de recherche n'ont pas un temps ou un budget illimité pour parcourir votre site. Cette limite est connue sous le nom de budget crawl, et pour les grands sites Web, cela peut devenir extrêmement problématique.
Ainsi, si votre site se charge lentement, le contenu peut même ne pas être indexé. Bien que vous ne puissiez pas modifier votre budget crawl, vous pouvez vous assurer qu'un plus grand nombre de pages seront parcourues en les chargeant plus rapidement.
Gardez à l'esprit que la vitesse de chargement des pages est un facteur important du classement pour Google. Vérifiez la vitesse de votre page en utilisant un outil d'analyse de site Web par exemple : PageSpeed Insights.
Comment améliorer la vitesse de chargement des pages ?
L'identification des problèmes qui empêchent votre site d'être mieux classé peut se faire grâce à l'outil PageSpeed Insights de Google.
Entrez l'URL et Google effectue une analyse complète de sa vitesse de chargement. Si le rapport final indique que le chargement des pages est trop long, l'outil fournit des suggestions d'amélioration. Si vous avez un site wordpress trop long utiliser cet outil: ce plugin peut réellement vous aider.
3. Présence des Erreurs Page 404
L'erreur 404 est un code d'erreur pour une page qui n'existe pas'. Ils sont aussi appelés “liens brisés”.
La présence de l'erreur 404 peut nuire à votre crédibilité et réduire le trafic vers votre nom de domaine. Lorsque les utilisateurs rencontrent une ou plusieurs erreurs 404, ils commencent à chercher d'autres options pertinentes qui peuvent résoudre leur requête instantanément.
Cependant, si c'est le crawler qui rencontre l'erreur 404 pendant un crawl, alors il les classent comme des pages qui affectent l'expérience d'utilisateur. Par conséquent, il se peut qu'ils le classent au fond du SERP ce qu'on appel minus 30 ou 60 selon les cas.
Comment faire pour supprimer les liens brisés ou une erreur 404 ?
Supprimer les liens cassés est assez simple. Vous pouvez utiliser l'outil gratuit Broken Link Checker et faire une liste de chaque lien cassé renvoyant une erreur 404. Je préfère utiliser SemRush.
Des liens brisés mènent toujours à une mauvaise expérience utilisateur(UX). Quelque chose que les humains et les moteurs de recherche détestent.
Supprimez-les ou remplacez-les par des liens internes vers des contenus pertinents de votre site. Si vous découvrez des liens internes brisés, utilisez des redirections (301 redirections permanentes) pour vous assurez que les liens entrants faisant référence à ces pages inexistantes se retrouvent au bon endroit.
4. Existence d'un contenu en double
Avoir un contenu identique sur des pages différentes dans le même domaine peut vous créer des problèmes dans le SERP. La présence d'un contenu dupliqué peut ne pas être problématique pour le visiteur, mais elle peut affecter le processus du crawle.
Le contenu dupliqué peut rendre difficile pour les moteurs de recherche de déterminer la page à classer. Cette confusion peut avoir un effet négatif sur le classement de chaque page.
En dehors de cela, si le contenu de votre site ressemble à celui d'autres domaines, vous risquez de subir une pénalité manuelle de la part de Google.
Actuellement, environ 30 % des sites Web sont confrontés à des problèmes de contenu en doublon. Vous devez vous assurer que votre site ne fait pas partie de ces 30 %. Panda est toujours en activité alors soyez prudent.
Comment supprimer le contenu dupliqué ?
Quand il s'agit de la suppression de contenu en double, vous devriez commencer par exécuter un test de plagiat sur le contenu de votre site. Grâce à ce test, vous trouverez les liens des contenus en doublon.
Si la source d'origine mène à un domaine différent du vôtre, alors vous devrez préparer des stratégies pour son retrait rapide de votre site. Vous pouvez les réécrire et fournir des informations supplémentaires aux lecteurs.
Cependant, si le lien renvoie vers d'autres pages de votre domaine, vous devez informer le bot la page qu'il doit classer. Vous pouvez le faire en plaçant une balise Canonical dans le lien.
5. Optimisation incorrecte des métadonnées
Le simple fait d'optimiser votre contenu avec des mots-clés ne va pas améliorer votre classement. Vous devez placer des mots-clés dans les éléments techniques de votre contenu, à savoir les métadonnées.
- Titre
- Meta Description
- Sous – Titre
- Alt Tags
- Slug
Tous ces éléments essentiels pour les métadonnées. Le crawler analyse les métadonnées d'une page à la recherche de mots-clés et les indexent et les classent en conséquence. Lorsque vous bourrez des mots-clés dans Meta Data, alors votre page est parfaite pour une belle pénalité Google.
Comment optimiser correctement les métadonnées ?
Lorsque vous optimisez les métadonnées, il y a une règle d'or : ne les remplissez pas avec des mots-clés, placez-les plutôt de façon naturel. Gardez à l'esprit que ces données aident, le bot a crawlé et surtout déterminer le contexte de cette page. Par conséquent, vous devez les écrire d'une manière qui permet à l'auditoire d'identifier facilement ce qui se trouve sur une page.
Notez que les méta descriptions n'influencent pas le classement, mais elles peuvent affecter les taux de clics. Même si Google détermine fréquemment quelle méta-description utiliser, passez du temps à en créer une qui soit suffisamment convaincante pour qu'un internaute puisse cliquer dessus.
6. Fichier Robots.txt actif
Il y a de multiples raisons pour ne pas vouloir que l'ensemble de votre site soit visible par les moteurs de recherche. Ce peut être pour des raisons de confidentialité, ou une partie est en cours de développement et le site n'est pas prêt à être en ligne. Quelle qu'en soit la raison, vous pouvez contrôler quelles parties des moteurs de recherche de votre site peuvent parcourir en utilisant un Robots.txt.
Bien que cela soit utile lors du développement d'un site Web, les gens oublient souvent de mettre à jour ce fichier lorsque leur nouveau site est mis en ligne. Rappelez-vous, les moteurs de recherche ne peuvent que classer le contenu qu'ils peuvent indexer.
Comment supprimer un fichier Robots.txt ?
Ouvrez n'importe quel navigateur et entrez ceci :< votrenomdomaine.com/robots.txt>.
Cette recherche produit une liste détaillée des pages et répertoires de votre site avec le fichier robots.txt existant. Vous pouvez décider des pages et des répertoires dont vous avez besoin pour supprimer le fichier robots.txt et accéder au back Office de ces pages pour faire de même.
Si vous utilisez WordPress, décochez simplement la case pour activer la visibilité du moteur de recherche.
Avant de terminer cet article voilà deux choses que vous pouvez faire :
Créer un Sitemap
Si votre contenu n'est pas dans le classement, même après l'amélioration de chaque aspect du SEO technique qu'ont vient de voir, alors vous devez créer et soumettre un nouveau sitemap à Google. Un plan du site indique au moteur de recherche les pages de votre site à parcourir et à indexer. Ily a aussi le problème des pages orphelines… mais on en parlera dans un autre article.
Un sitemap ne doit pas contenir d'erreurs car cela affectera le processus de recherche et d'indexation de votre site. Vous pouvez créer des sitemaps manuellement ou via un plugin et les soumettre à Google Search Console.
Convertir votre site en HTTPS
Voici un autre conseil à suivre : si votre domaine fonctionne toujours sur un serveur HTTP, vous devez le convertir en HTTPS. C'est important car les données de l'utilisateur sont cryptées et sécurisées sur HTTPS. Et comme Google a toujours eu pour but d'aider à améliorer la recherche pour ses utilisateurs, il est assez évident que Google va classer les sites avec HTTPS plus haut. Même si certains aka SEO Experts pensent différemment n'est ce pas Léon.
Pour terminer, le SEO Technique ne peut être pris à la légère. Les propriétaires de sites Web devraient effectuer un audit SEO technique régulièrement pour s'assurer que les problèmes SEO techniques sont rapidement résolus.
Cette liste des principaux facteurs SEO techniques qui empêchent votre site d'être classé peut vous aider à effectuer un audit SEO de manière pratique et enfin d'obtenir la première page de Google.
Vous avez besoin d'aide pour votre SEO Technique. Prendre contact avec nous rapidement.