Découvrez la démarche d'éco-conception et de réalisation de notre site internet

SEO

8 erreurs et idées reçues à éviter en SEO

Publié le 16 août 2023 - 9 minutes de lecture

Le SEO est pavé d'idées reçues qu'il faut démonter pour mieux le comprendre ! Revenons sur les erreurs souvent faites sur le référencement naturel, et découvrons ce qu'il faut vraiment appliquer.

Tous les propriétaires de site web qui souhaitent améliorer leur visibilité en ligne le savent, le SEO est incontournable. En revanche, ce qui est plus difficile, c’est de dissocier les bonnes pratiques des préjugés en matière de référencement naturel. L’équipe de Lemon Interactive vous propose ainsi un petit florilège des idées reçues en SEO.

Les 8 idées reçues du SEO

De nombreux préjugés circulent sur le SEO dans les couloirs des agences web et chez tous les clients qui veulent optimiser leur site. Nous vous proposons d’aborder les plus tenaces, en vous expliquant pourquoi ces consignes SEO ne sont pas bonnes à suivre.


Il faut produire des contenus avec beaucoup de mots


Depuis toujours, on entend partout qu’il faut travailler toujours plus de mots. Produire des gros contenus de plusieurs milliers de mots pour se démarquer sur Google.


En effet, beaucoup d’experts SEO ou de clients ont bien assimilé que le contenu était essentiel pour se positionner dans la SERP. Et ils n’ont pas tort. En revanche, ils se trompent sur un point, c’est que ce n’est pas en participant à un concours de longueur de texte que le contenu va ranker, et ce pour plusieurs raisons.


Prenons l’exemple d’une requête très concurrentielle. Si on regarde les textes qui rankent le mieux, la longueur de texte a effectivement un impact. Pourtant, on remarque aussi qu’il est fréquent de voir des textes de 1 000 – 1 500 mots se positionner devant des pavés de 3 000 à 4 000 mots. Cela s’explique tout simplement par le fait que Google et ses critères EAT se concentrent sur la pertinence et l’intention de recherche, et non la longueur du texte.


L'EAT se base donc sur la qualité et la confiance et expertise du contenu, mais aussi sur l’autorité qu’on exerce sur le contenu. Naturellement, si un sujet tel que « comment choisir son assurance auto ? » peut mériter 3 000 à 4 000 mots. Un sujet comme « quelle est la définition d’une assurance routière » ne va pas nécessiter 5 000 mots. Une réponse de 500 à 600 mots suffit, en théorie.


Google comprend très bien cela, et est capable d’évaluer une longueur estimative de contenu attendue pour une question ou pour un mot-clé donné.


Ainsi, plutôt que de viser un contenu le plus long possible, il faut avant tout déterminer la longueur la plus pertinente par rapport à l’intention de recherche et au mot-clé visé.

Illustration d'un ordinateur avec une barre verte qui augmente ou baisse
Illustration d'un ordinateur avec une barre verte qui augmente ou baisse

Le contenu généré par l’intelligence artificiel est dangereux


Beaucoup de personnes pensent qu’il est dangereux de publier du contenu autogénéré par l’IA.


Ce qui est sanctionnable, c’est le contenu généré par IA qui n’a aucune valeur ajoutée et qui a de fortes chances d’être considéré comme du contenu dupliqué. Ceci est fort probable, étant donné que l’intelligence artificielle extrait de la matière brute sur un sujet donné.


Alors, la bonne façon d’utiliser l’IA est de générer une réponse (sous forme de contenu forcément), puis de maximiser sa pertinence grâce à la qualité du prompt et à la correction manuelle afin que l’utilisateur, lorsqu’il clique sur le lien puisse trouver l'information qu'il recherche.


Comment faire ? C’est la même chose que lorsqu’on produit un nouveau contenu. On cherche à mettre des titres, des mots-clés en gras, des photos, des tableaux, des social mentions, des vidéos YouTube… En faisant ça, on donne de la valeur ajoutée au contenu. Ainsi, Google ne le sanctionnera pas, même s’il est généré par Intelligence Artificielle.


Besoin d'un accompagnement SEO adapté à vos besoins ?

Contactez notre équipe SEO

Contactez la team Lemon

Il faut viser à tout prix les gros mots-clés


On entend souvent, notamment en agence SEO à Lille, des personnes qui veulent absolument se positionner sur de gros mots-clés.


Prenons l’exemple d’un expert en immobilier qui veut à tout prix se positionner sur le mot-clé « maison ». Il a entendu dire que le mot-clé « maison » était tapé des millions de fois dans les moteurs de recherche.


Sur le principe, l’idée est bonne, mais on en revient aussi à l’intention de recherche. Qu’est-ce qu’attend un internaute qui tape « maison » ? Une définition de la maison ? Des informations sur comment la construire ? Des dessins de maison ? Un film avec le mot « maison » dans son titre ?


Les intentions de recherche sont tellement vastes sur le mot « maison » qu’il n’y a aucun intérêt, pour un professionnel exerçant dans un secteur bien particulier, de se positionner dessus.


Si jamais on tape le mot « maison », par exemple, il y a de fortes chances qu’on tombe rapidement sur Wikipédia. Le mot-clé est tellement générique que Google vous renvoie systématiquement vers une réponse générique.


Viser les gros mots-clés, c’est donc bien, mais ça ne sert à rien sans pertinence.


Pour revenir sur l’exemple du mot « maison » pour quelqu’un qui vend des maisons, on pourrait plutôt viser un mot-clé de longue traîne, du type « acheter ma maison à Lille », « maison type T4 »... La volumétrie sera forcément plus faible, mais le trafic généré sera beaucoup plus qualifié et aura plus de pertinence, à la fin, pour le business de l’entreprise.

Illustration d'une page web avec les mots "mot-clé", "intention", "longue traîne"
Illustration d'une page web avec les mots "mot-clé", "intention", "longue traîne"

Il faut utiliser massivement la balise nofollow sur les liens


Avant toute chose, rappelons rapidement ce qu’est une balise nofollow. Dans une stratégie de netlinking, un lien nofollow a la particularité de dire à Google de ne pas suivre son contenu, et donc de ne pas transmettre la puissance de la page grâce à celui-ci dans le référencement naturel du site web.


Aujourd’hui, que ce soit sur des modules (sur Prestashop, WordPress, Magento…), sur des recommandations d’experts SEO, ou encore sur des tutoriels, on voit partout qu’il est conseillé d’utiliser le nofollow.


Pourtant, le rel nofollow (ou ses équivalents, tels que UGC ou sponsored), placé sur une balise lien à href, est vraiment nocif pour le référencement SEO d’un site, car il ne permet plus de préserver la puissance du site (un peu comme si la puissance de ce lien se perdrait d'un un puits sans fond). En effet, dans le décompte des liens internes et externes, et de la dilution de la Pagerank, Google prendra désormais en compte les liens nofollow pour diluer votre pagerank.


Lemon Interactive ne peut alors que vous recommander de ne pas utiliser le nofollow. Deux possibilités s’offrent alors à vous :

  • Soit vous choisissez de faire un lien effectif et d’assumer le lien en envoyant du jus ;
  • Soit vous être contraint d’envoyer un lien, mais vous ne voulez pas envoyer de jus, alors il faut procéder à des techniques du type obfuscation/cloaking de lien.

Les backlinks ne servent plus à rien


Chez les experts SEO les plus white hat, on entend aussi que les backlinks ne servent plus à rien. Pourtant, derrière le contenu, ils sont aujourd’hui le deuxième critère de positionnement d’un site.


Pour beaucoup d’experts SEO qui n’hésitent pas à utiliser des techniques plus ou moins approuvées par Google, c’est une évidence, les backlinks restent le talon d’Achille des algorithmes. Ainsi, avec quelques-uns bien placés et une bonne ancre de lien, on peut se positionner très facilement sur des requêtes de longue traîne.


Il y a, là-dessus, un très bon exemple illustré par Allan Cladx, en conférence SEO :


Tapez dans Google « le plus petit référencement ». Vous verrez que vous tomberez sur une page absolument vide. Son seul contenu étant un carré transparent d’un pixel sur un pixel. Sur cette page, le référencement ne s’est fait que par des backlinks, rien d’autre !


Alors non, les backlinks ne sont pas morts, même si Google aimerait beaucoup que ce soit le cas !

Illustration d'un graph en augmentation avec échange de fichiers SEO
Illustration d'un graph en augmentation avec échange de fichiers SEO

Mieux vaut avoir des backlinks provenant de gros sites


Parmi les autres préjugés sur le SEO, on entend souvent, de la part des utilisateurs d’outils tels que Majestic, Ahrefs, Moz, ou encore Semrush, que les backlinks doivent provenir de gros sites de référence. Rappelons que ces outils évaluent la puissance des domaines en provenance desquels les propriétaires de site aimeraient obtenir des backlinks. Il est donc logique qu’ils vantent les mérites des gros sites.


Mais les informations, comme le trustflow ou le citation flow de Majestic, sont régulièrement et facilement manipulées par quelqu’un d’expert. Et au final, ce n’est pas tant la puissance qui compte, que l’expertise assumée du site qui vous fait un lien.


Il vaut parfois mieux recevoir un lien d’un petit site avec quelques milliers de visiteurs par mois. Avec un degré d’expertise certain sur un sujet auquel vous êtes sensible sur votre propre activité. Plutôt que de recevoir un lien du Monde, du Figaro ou de BFMTV.


La vitesse de chargement fait gagner des positions


Depuis 2021 et l’introduction des Core Web Vitals, on entend souvent que la vitesse de chargement d’un site web peut l’aider à ranker dans la SERP. C’est pourtant une idée reçue que de penser que ce critère compte dans le référencement.


Le temps de chargement d’une page web compte pour environ 1% de sa note finale aux yeux de Google, lorsqu’il fait le calcul de performance.


Ce qui est vrai, en revanche, c’est que la vitesse de chargement aura un impact sur le référencement, mais de façon indirecte. En effet, cela va impacter :

  • Le nombre de pages que Google va pouvoir visiter ;
  • Le budget crawl ;
  • La génération de soft 404 qui peut se produire sur les temps de chargement très longs…

La vitesse de chargement a donc un impact sur ces points là, mais en aucun cas elle va vous permettre d’atteindre une position zéro ou d’être numéro un dans la SERP sur une requête concurrentielle.

Illustration d'un personnage poussant une barre de chargement
Illustration d'un personnage poussant une barre de chargement

La Search Console et Analytics sont fiables


Dans la plupart des cas, et notamment pour les très gros et les très petits sites, il peut manquer jusqu’à 50 à 60 % de données de trafic entrant d’un site sur la Search Console. C’est énorme, et cela prive les webmasters d’énormément de data.


Alors, si la Search Console est précise sur l’analyse et les metrics que Google rencontre en visitant un site, elle n’est pas 100% fiable, même si ça reste l'outil de référence pour monitorer son site web. On ne peut donc pas se contenter d’analyser la Search Console uniquement pour obtenir des informations sur le SEO.


Il en va de même pour Analytics, et notamment sur le sujet de la RGPD. Depuis qu’elle a été mise en place, et que le consentement est nécessaire pour la collecte des données, Lemon Interactive estime une déperdition de data allant de 25 à 35 % en moyenne. Naturellement, ceci génère énormément de problèmes dans l’analyse de la data. C’est pour cela que nous recommandons l’utilisation de Matomo ou AT Internet, qui sont RGPD friendly, et qui peut se permettre de se passer du consentement utilisateur. Notamment lorsqu’il est utilisé et installé sur votre serveur.


Les règles d’or du SEO sont en perpétuelles mutations, et évoluent en fonction des algorithmes des moteurs de recherche. Il s’agit alors de ne pas faire trop facilement confiance aux conseils qu’on peut trouver partout. Ce sont bien souvent des idées reçues ! Alors si l'envie vous tente et que vous souhaitez toujours un site optimisé pour le référencement naturel, faites appel aux experts SEO de Lemon Interactive.

Rencontrons-nous

Pour développer ensemble votre performance digitale !

Contactez-nous

Ma passion : des sites beaux et performants !

Photo de Vincent Cattoen

Sorti de la tête de

Vincent Cattoen

Dans la même thématique...

Cannibalisation SEO : définition et solutions

14 mai 2024

Pourquoi vos données Google Analytics vont bientôt disparaître ? L'Archivage UA expliqué

20 avr. 2024

Cluster thématique SEO : définition et méthodes d'optimisation

19 avr. 2024