Illustration d'une personne qui rédige des textes pour son content spinning SEO.

Content Spinning : avantages et risques pour le SEO

La rédaction de contenus SEO d’un site web est très chronophage, et peut parfois tourner au casse-tête quand il s’agit de rédiger des pages très similaires sans tomber dans le contenu dupliqué. Heureusement, il existe une technique qui peut simplifier le processus de rédaction. Lemon Interactive vous invite alors à découvrir les avantages du content spinning, mais aussi ses dangers pour le SEO.

Définition : qu’est-ce que le content spinning ?

Le content spinning est une technique de génération de textes, qui consiste à créer un contenu qui aura ensuite de multiples variations, sur chaque mot, expression et groupe nominal. Une fois transcrites dans un langage spécifique, ces variations permettront de générer automatiquement des dizaines, des centaines, voire des milliers de versions de ce même texte, et ainsi garnir son site Internet en fonction des besoins, sans jamais souffrir de contenus dupliqués.

Le content spinning est aussi parfois appelé master spin, une version ultime du content spinning, où on a vraiment fait en sorte d’optimiser chaque mot et chaque expression, pour n’avoir que très peu de similarités entre les différents textes générés.

Spinner un texte consiste finalement à rédiger un texte une première fois, puis de générer des itérations permettant d’obtenir des contenus uniques, qui protègent contre le contenu dupliqué.

Pourquoi le content spinning est avantageux ?

Illustration d'un personne qui crée des fiches produits pour améliorer son SEO en e-commerce grâce au content spinning

Le content spinning peut paraître, de prime abord, plutôt superflu aux yeux des non-initiés. Toutefois, il est essentiel pour de nombreux sites, comme les sites e-commerce ou les sites marchands, qui s’en servent à plusieurs fins.

  • Pour générer des fiches produits : il est très fréquent d’avoir une même fiche produit avec de nombreuses déclinaisons (couleur, taille…). Le content spinning permet ici de générer des descriptifs uniques de produits très similaires, en évitant ainsi le duplicate content sévèrement puni par le SEO de Google ;

  • Pour rédiger des fiches magasins : ici, la logique reste la même. Cela concerne, par exemple, une enseigne qui comporte plusieurs dizaines, voire des centaines de magasins en France et dans le monde, et qui proposent tous la même chose. Le content spinning est alors réalisé avec une portée géolocalisée, c’est-à-dire qu’on va écrire un texte à décliner en plusieurs versions, en prévoyant des encarts permettant d’ajouter, a posteriori, du contenu géolocalisé (ville, quartier, département, région…) ;

  • Pour éditer n’importe quel contenu répétitif ;

  • Pour éditer des sites multiples : c’est le cas, notamment, lors de la création d’un PBN (Private Blog Networks), de la création de sites de type fermes de liens, ou encore de la création d’un site destiné à la vente de liens sur les plateformes de netlinking.

Il existe de multiples occasions pour lesquelles les éditeurs de sites ne souhaitent pas s’embarrasser avec la réécriture d’un texte, et le content spinning prend ici tout son sens.

D’où vient le content spinning ?

Depuis toujours, et encore aujourd’hui, le contenu texte est le seul format que les moteurs de recherche savent interpréter avec fiabilité. La majorité de l’algorithme de Google se base alors sur les contenus texte pour accorder, ou non, de la visibilité à un site.

On comprend alors aisément l’importance des textes dans une stratégie SEO d’un site web. L’objectif est alors de produire un maximum de contenus écrits uniques, sur des requêtes variées, pour sortir du lot et s’imposer comme référence aux yeux de Google et des autres moteurs de recherche.

C’est dans ce but que le content spinning a vu le jour. En effet, la rédaction de contenus demande du temps, voire de l’argent quand on sous-traite, et les propriétaires de site étaient demandeurs de solutions fiables pour produire plus de contenus non dupliqués et rationaliser les dépenses et/ou le temps.

Utilisé à bon escient, le content spinning peut alors s’inscrire dans une stratégie de référencement naturel puissante. 

Comment fonctionne le content spinning ? 

Les utilisateurs prennent facilement en main la base du content spinning. Il suffit de se rendre sur un logiciel dédié à ce service de génération de textes. Ensuite, pour écrire du content spinning, on doit connaître deux expressions clé :

  • Les accolades (les crochets des touches « 4 » et « + » du clavier) : elles permettent de définir les termes à spinner, c’est-à-dire, les termes que l’on veut retrouver dans les autres versions du texte ;

  • Le séparateur, ou pipe (barre de séparation verticale sur la touche du « 6 » du clavier) : cette barre permet de renseigner les différentes instructions pour générer les itérations de texte, autrement dit, il permet de proposer au logiciel des alternatives à un mot ou une expression.

Exemple avec la phrase « Je suis à la plage » :

Si vous voulez remplacer « à la plage » par « à la montagne », tout en gardant « Je suis », il vous suffit d’entrer le code suivant : « Je suis {à la plage|à la montage} ». 

Content spinning : une technique plus complexe qu’il n’y paraît

Illustration de personnes expertes SEO qui rédigent du contenu grâce à des outils de content spinning

Ici, nous vous révélons les bases pour écrire un content spinning ou un master spin, mais dans les faits, c’est loin d’être aussi simple. Si la logique de base est assez facile et permet de générer des textes de manière très simpliste, l’enjeu est de réussir à créer des expressions qui vont générer une belle richesse lexicale, et donner de nombreuses versions.

Lorsqu’on recherche à enrichir avec beaucoup de lexiques et de versions différentes de textes, on fait face à des difficultés de syntaxe ou de conjugaison, ou encore à des difficultés à marier les différentes expressions. Ici, le recours à un expert en production de contenu SEO, comme ceux de Lemon Interactive, devient indispensable pour éviter d’obtenir un contenu qui ne semblera pas naturel aux yeux de Google.

Quels sont les risques du content spinning et comment s’en prémunir ? 

Souvent assimilé au black hat, le content spinning est pourtant une technique de rédaction autorisée par Google (dans une certaine mesure). Aussi, pour s’assurer d’être dans les petits papiers du géant des moteurs de recherche, mieux vaut faire attention à certains points.

Basculer vers le duplicate content

En générant des textes avec trop de similitudes, Google risque de considérer les contenus comme du duplicate content. Dans ce cas-là, tout le travail n’a servi à rien, et une seule page va se référencer. Les experts SEO de Lemon Interactive s’attardent ainsi à toujours vérifier, sur un premier jet du content spinning, si les spins sont suffisamment différents (en dessous de 20 à 25 % de similarité de texte).

Se faire repérer par Google

Le problème avec le content spinning, c’est que même si les textes sont uniques, ils peuvent éveiller les soupçons chez Google. En effet, les footprints (erreurs de syntaxe, de conjugaison, de grammaire, de tournure de phrase, de ponctuation…) sont autant d’indices pour le moteur de recherche.

Si vous intégrez sur votre site un content spinning de mauvaise qualité, présent sur des centaines de pages, et que vous vous faites repérer par Google, celui-ci peut déclencher automatiquement des pénalités. Aujourd’hui, la détection du content spinning est un peu dans une zone floue chez Google, en termes de légalité d’usage, mieux vaut alors éviter de produire du content spinning de mauvaise qualité.

Pour limiter les risques, il est alors recommandé de toujours vérifier l’unicité de vos textes générés, et de tous les passer au correcteur orthographique, afin de vous assurer que les textes font sens et sont qualitatifs. 

Google et le content spinning

Illustration d'une personne qui fait un mauvais contenu, anadapté pour le content spinning

Comme nous l’avons vu précédemment, Google ne punit pas la technique du content spinning. Ce qui dérange le moteur de recherche, ce sont surtout les contenus de mauvaise qualité. Ainsi, si vous utilisez efficacement le content spinning, en vérifiant correctement l’unicité et la lisibilité de chaque texte, vous n’aurez aucun problème.

En revanche, si vous avez recours à un mauvais content spinning, Google peut vite repérer le duplicate content et les footprints, et pénaliser votre texte.

Si une petite pénalité peut jouer sur le positionnement du site dans la SERP, un abus de content spinning de mauvaise qualité peut carrément mener à la désindexation du site !

Pour résumer, Google n’interdit pas l’utilisation du content spinning, mais il sait parfaitement reconnaître et pénaliser le content spinning de mauvaise qualité.

Le petit lexique du content spinning


En vous mettant au content spinning en autodidacte et de manière autonome, vous allez forcément rencontrer un vocabulaire très spécifique. Voici donc un petit récapitulatif de vocables propres au content spinning.

  • Spinner : désigne le rédacteur qui a recours au content spinning ;
  • Spyntax : correspond à la syntaxe utilisée pour générer du content spinning, et notamment les accolades et les séparateurs ;
  • Spun : définit les différentes versions du texte d’origine ;
  • Taux d’unicité : correspond au pourcentage de différence entre chaque spun. On vous recommande de toujours viser au moins 70 à 80 % ;
  • Taux de similarité : à l’inverse, cela correspond au pourcentage de similitude entre chaque spun. Pour ne pas être considéré comme du duplicate content, 2 spuns doivent avoir un taux de similarité inférieur à 20 %.

Le content spinning est à manipuler avec précaution, car la frontière est fine avant de se faire repérer par les moteurs de recherche. Lemon Interactive ne peut que vous conseiller d’avoir recours à nos experts en production de contenu SEO pour générer du content spinning de qualité.

Les questions fréquentes sur le contenu SEO

Comment faire du content spinning ?

Pour faire du content spinning, il est nécessaire d’utiliser un outil de spinning qui remplace des mots par des synonymes pour créer des variantes d’un texte initial. Vérifiez que les synonymes gardent le sens original et que le texte final soit fluide et lisible pour maintenir la qualité et l’optimisation SEO.

Qu’est-ce qu’un contenu optimisé SEO ?

Le contenu optimisé SEO est un contenu conçu pour améliorer le référencement sur les moteurs de recherche. Cela inclut l’utilisation de mots-clés pertinents, la création d’un contenu de qualité et structuré pour répondre aux besoins des utilisateurs et des critères des moteurs de recherche.

Comment rédiger un bon contenu SEO ?

Commencez par choisir des mots-clés pertinents. Assurez-vous que le contenu est bien structuré, avec des titres et sous-titres contenant ces mots-clés.

Rédigez un texte original, informatif et de qualité, tout en veillant à une densité de mots-clés équilibrée. Incluez des méta-descriptions attrayantes et des liens internes pour améliorer le maillage.

Illustration de deux personnes qui utilisent les données structurées pour leur site web.

Données Structurées : avantages et inconvénients pour votre SEO

Pour améliorer le positionnement de votre site web dans les moteurs de recherche, il vous faut donner un maximum d’informations à Google, afin de lui faciliter la compréhension et la pertinence de votre contenu. Pour cela, votre stratégie SEO doit intégrer plusieurs pratiques, dont le remplissage des données structurées. Découvrons l’intérêt de ce balisage pour le référencement naturel.

Définir ce que sont les données structurées

Les données structurées, ou structured data en anglais, sont des balises que l’on intègre dans un site web, et qui permettent de communiquer des informations très précises à Google sur le contenu que vous diffusez sur le site.

Après avoir été définies et formatées, les données structurées sont stockées dans un data warehouse.

Les exemples les plus couramment employés concernent le e-commerce. Les données structurées permettent alors de renseigner le nom du produit, son url, ses caractéristiques, sa moyenne de notes… Cela permet à Google de bien comprendre l’intérêt de la page, et ce qui la compose.

L’objectif principal des données structurées est donc de faciliter le traitement et la compréhension des robots de Google, afin de ranker dans les premiers résultats des moteurs de recherche.

Concrètement, les données structurées dans la SERP prennent généralement la forme de rich snippet, autrement dit, de petits extraits enrichis qui se positionnent sous le titre et la description de la page. Pour une recette, par exemple, on verra apparaître le temps de cuisson, les avis des internautes (sous forme d’étoiles jaunes)…

Depuis 2016, Google a mis un gros coup d’accélérateur sur ce point, et les données structurées continuent d’avoir un impact de plus en plus important dans le SEO d’aujourd’hui.

Comment fonctionnent les données structurées ?

Les données structurées sont indépendantes de Google, et communiquent une grande quantité d’informations, qu’elles soient très spécifiques ou plus globales. Il en existe des centaines, qui sont toutes répertoriées sur schema.org.

Il existe plusieurs formats de balisage de données structurées. Le plus connu est le format JSON-LD. C’est un langage de programmation particulièrement recommandé par Google, mais il en existe d’autres. On peut aussi utiliser des microformats, ou microdonnées, tels que le RDFa. Notons toutefois que ce sont des formats de fichier plus lourds et moins agiles en implémentation, et Google les supportent moins bien.

En SEO, on ne considère qu’une grosse trentaine de données structurées, car ce sont les seuls que les moteurs de recherche, et notamment Google, utilisent pour leurs résultats de recherche. Cette liste est disponible sur le site Google Developers ou sur Google Search Central, et concerne différents éléments :

  • Balisage d’un article ;
  • Fil d’Ariane (balisage breadcrumb) ;
  • Le fact-checking ;
  • Les offres d’emploi ;
  • La FAQ…

Les données structurées permettent de déclencher l’affichage de données complémentaires dans Google, dans un écosystème différent de la simple SERP traditionnelle.

Par exemple, si vous recherchez « offres d’emploi boulanger Paris », vous verrez apparaître des offres d’emploi de sites spécialisés dans le recrutement.

Quelles sont les différentes catégories de données structurées ?

Avant de rentrer dans le détail de l’impact des différents types de données structurées que l’on peut intégrer dans une page web sur le SEO, arrêtons-nous sur les grandes catégories de données structurées.

Les données structurées statiques

Illustration de personnes qui gèrent différents types de données structurées pour leur site web

La donnée structurée statique peut être importée directement dans le code. Cela comprend différentes données structurées, comme :

  • Le balisage « organisation » : il permet de déclarer la société, l’entreprise ou l’entité que vous représentez ;

  • La balise « local business » : très intéressante pour les petites entreprises implantées dans une ville, elle permet de mettre en avant l’adresse, les horaires, l’itinéraire pour s’y rendre, les coordonnées de contact…

Les données structurées dynamiques

Le balisage dynamique concerne, entre autres, le e-commerce, avec la fiche produit. Pour ce cas précis, vous n’allez pas pouvoir simplement déclarer le nom du produit sur chaque produit. Vous allez devoir faire du PHP, des requêtes dynamiques. N’hésitez donc pas à demander à votre développeur web ou à l’équipe de Lemon Interactive de les intégrer.

L’objectif est d’avoir une déclaration dynamique sur chaque page, c’est-à-dire qu’elle évoluera à chaque modification de la page. Cela peut concerner le titre du produit, son image, son prix, sa note moyenne, le nombre d’avis… D’ailleurs, ne négligez pas les avis client, car ils sont très importants aux yeux de Google, et c’est une des rich snippets les plus valorisantes pour une fiche produit.

Données structurées : les avantages pour le SEO

Nous avons vu que les données structurées peuvent être classées dans 2 grandes catégories, statiques et dynamiques. Au sein de ce classement, on retrouve alors un grand nombre de données, qui ont toutes un impact plus ou moins fort sur certains affichages de données sur la SERP.

Pour être tout à fait transparent, on estime entre 0 à 2 % l’impact réel des données structurées sur les critères de référencement d’un site sur un mot-clé donné. Autant dire que ça n’influe pas directement sur votre position dans la SERP. En revanche, les données structurées ont plusieurs autres impacts.

La qualité de compréhension de votre site par Google

Si vous dites précisément à Google ce qui est un prix, ce qui est un avis, ou encore ce qui est un titre, le moteur de recherche ne peut pas se tromper sur la façon dont il crawle et dont il interprète votre site web. Vous aurez donc un rendu optimal de votre site sur Google en lui donnant toutes les informations. 

La possibilité d’enrichir vos opportunités d’apparition dans la SERP

Illustration de personnes en train de travailler leurs données structurées sur un ordinateur portable pour enrichir leurs opportunités de ranker sur Google

Prenons des exemples pour montrer l’impact des structured data sur l’apparition d’une page sur la SERP. Si vous prenez une SERP traditionnelle de Google, et que vous intégrez bien la balise breadcrumb, vous verrez le découpage de son fil d’Ariane s’afficher sous le lien bleu. Une segmentation apparaît alors, telle que « accueil-catégorie-sous-catégorie-fiche produit… ».

De la même manière, si le balisage est bien réalisé au niveau des avis Google, vous verrez les petites étoiles jaunes sous le lien…

Tous ces éléments vous permettent de vous démarquer, et augmentent le taux de clic, car vous donnez envie à l’utilisateur de passer à l’action. Or, il est avéré que le taux de clic sur la SERP est un critère de référencement important pour Google. Alors, si vous attirez le clic de l’utilisateur, votre positionnement dans la SERP sera optimisé.

L’apparition de votre page dans des emplacements spécifiques

En remplissant correctement et assidûment les données structurées de chacune des pages web de votre site, vous augmentez la possibilité d’apparaître dans différents emplacements spécifiques de la SERP.

Le rich snippet (ou extrait enrichi)

Les rich snippets, ou extraits enrichis en français, représentent des informations complémentaires qui s’affichent directement sous le lien bleu du résultat de recherche. Les rich snippets les plus connus sont le prix d’un produit, le fil d’Ariane, la date de publication…

Le knowledge graph

Le knowledge graph, ou base de connaissance, s’affiche sur la gauche des résultats de recherche. Généralement, on voit alors apparaître le nom de l’entreprise et son logo, ou les liens vers des pages cible.

La rich card

La rich card, ou carte enrichie, prend la forme d’un carrousel d’images ou d’articles, faciles à balayer, notamment dans la SERP mobile.

Le feature snippet

Le feature snippet, aussi appelé extrait vedette ou position zéro, est un extrait de page qui s’affiche au-dessus des résultats naturels de la SERP.

Finalement, avec les données structurées, plus vous en remplissez, mieux c’est. Vous augmentez alors vos chances de générer des affichages dédiés dans les résultats de recherche sur des requêtes très précises.

Une augmentation de l’intérêt des données structurées en 2023

En septembre 2022, on a vu apparaître un rapport dédié aux données structurées e-commerce dans la Search Console. L’objectif était de donner l’opportunité aux sites marchands de renforcer leur travail des données structurées, et de vérifier leur efficience, afin de préparer l’avenir.

Et quand on parle de l’avenir, on est face à deux réalités :

  • Très prochainement, la SERP de Google n’affichera plus seulement le flux shopping, mais aussi un listing des produits populaires. Si vos produits sont parfaitement balisés avec des données structurées, Google pourra les exploiter et les afficher en produits populaires ;

  • À l’avenir, vos données structurées products vont pouvoir être utilisées pour présenter, directement dans la SERP, un affichage bien plus orienté « e-commerce », plutôt que d’avoir simplement un lien.

En toute logique, si vous travaillez vos données structurées et que votre concurrence ne le fait pas, vous allez améliorer votre taux de clic et votre taux de conversion.

Par ailleurs, Google pousse énormément pour Discover, et Google Discover devrait afficher, courant 2023, des listing « produits populaires » (ou products snippet) au-dessus de ses résultats naturels, qui aujourd’hui mentionnent de l’article, de l’information…

Par ailleurs, Google Discover est un excellent pourvoyeur de contenu, et parmi les critères qui peuvent faciliter l’apparition dans Discover, le fait de structurer les données et de permettre à Google de bien comprendre le contenu est très important.

Comment mettre en place les données structurées ?

Illustration d'une personne qui met en place des données structurées.

L’intégration des données structurées pour chaque page web et/ou chaque fiche produit peut sembler contraignante et chronophage. Pourtant, cela peut suffire à faire la différence, et à anticiper les futures évolutions de Google. Voici donc comment ajouter vos données structurées, étape par étape :

  • Ouvrir l’assistant de balisage de Google ;
  • Sélectionner le type de données à ajouter au balisage HTML ;
  • Entrer le lien de la page web concernée ;
  • Cliquer sur « commencer le balisage » ;
  • Ajouter le balisage de votre choix ;
  • Cliquer sur « créer le HTML ».

L’outil va alors générer automatiquement le script en JSON-LD. Il ne vous restera plus qu’à le télécharger, puis copier-coller le script dans le code source de votre page web.

Ensuite, parmi les nombreux outils Google, vous pouvez désormais faire un test de données structurées, avec le « Rich Result Test ».

Bon à savoir : si vous êtes sur WordPress, vous pouvez également utiliser une extension spécifique à ce CMS, comme Schema, ou Schema App Structured App.

Quels sont les inconvénients des données structurées ?

La première grosse limite de la donnée structurée, c’est bien sûr le temps que cela demande de l’intégrer sur chaque page web. C’est encore plus vrai pour une boutique en ligne qui propose des centaines de fiches produits. Mais ce n’est pas le seul point faible de ce balisage.

  • La difficulté technique de l’intégration : intégrer des données structurées demandent une certaine technique, et la moindre petite erreur peut entraîner une erreur d’affichage sur le site Internet et dans les résultats de recherche ;

  • Les mises à jour très fréquentes : pour pouvoir suivre les exigences en constante évolution des moteurs de recherche, il est impératif de faire des mises à jour très régulières de la structured data ;

  • Un affichage jamais garanti : nous l’avons vu, baliser les données peut potentiellement vous permettre de voir votre page web apparaître en rich snippet. Mais ce n’est pas une garantie (en tout cas pour l’instant) ;

  • Une surcharge d’informations : à trop vouloir donner d’informations à Google, le résultat peut être contre-productif. La page peut donc voir sa lisibilité affectée, ce qui peut entraîner des répercussions sur l’expérience utilisateur.

Au vu de leur importance, les données structurées doivent être au cœur des stratégies SEO et marketing des entreprises. Et si elles ont toujours joué un rôle majeur en SEO, ce sera encore plus vrai en 2023. Si vous souhaitez améliorer le positionnement de votre site web dans la SERP et augmenter votre trafic, il est donc fortement recommandé de travailler vos données structurées. Des difficultés, ou un manque de temps ? Lemon Interactive peut vous aider.

Comprendre les données structurées en 4 questions

Qu’est-ce que les données structurées ?


Les données structurées sont des informations organisées selon un schéma fixe, facilitant leur traitement et leur analyse par les systèmes informatiques.

Elles sont couramment utilisées dans des bases de données où la nature et le format des données sont strictement définis, optimisant ainsi les requêtes et l’exploitation des données.

Quelles sont les données non-structurées ?

Les données non-structurées comprennent des informations diverses sans format fixe, telles que des vidéos, images, emails, réseaux sociaux, textes libres et enregistrements audio.

Elles englobent également les données issues de l’Internet des objets (IoT) et les documents textuels accumulés.

Quelles sont les 3 caractéristiques qui définissent le mieux les données structurées ?

Premièrement, l’organisation en champs prédéfinis pour faciliter le traitement, deuxièmement, la standardisation qui permet aux systèmes de reconnaître et d’utiliser les informations, et troisièmement, la relation entre les données qui permet de les lier de manière logique et cohérente.

Comment structurer les données SNT ?

Pour structurer les données en Sciences Numériques et Technologie (SNT), il est recommandé d’utiliser des formats comme JSON ou XML.

Ces structures permettent une organisation claire via des objets pour le JSON et des balises pour le XML, favorisant ainsi une meilleure accessibilité et interopérabilité des données sur le web.

Illustration de deux ordinateurs avec site web effectuant leur migration nécessaire

Migration de site web : 4 aspects à ne pas oublier

La migration d’un site web, en particulier d’une boutique en ligne, peut influencer profondément le référencement naturel, car les moteurs de recherche doivent s’adapter à la nouvelle structure et au contenu renouvelé. Notamment, lorsqu’on parle de migration PrestaShop, il s’agit souvent de passer d’une solution open source à une autre, comme Shopify, un processus qui nécessite une attention méticuleuse lors de la migration web.

Pourquoi migrer un site web vers une autre plateforme ?

De nombreuses entreprises ont déjà un site Internet, et profitent donc d’une première expérience du web. Elles peuvent alors utiliser leurs connaissances pour complexifier leur stratégie web et repenser la manière dont est construit leur site web. La refonte et la migration d’un site Internet peuvent alors répondre à différents besoins :

  • Opérer des changements stratégiques ;

  • S’aligner à la concurrence en repensant le projet ;

  • Redonner des bases stables à un site web qui souffre de développements spécifiques mal établis dès le départ ;

  • Profiter des meilleures performances de la dernière version 1.7 de PrestaShop.

Dans ces cas-là, on fait ce qu’on appelle une refonte. Le développeur web opère donc la création d’une nouvelle boutique PrestaShop, en partant de l’ancienne version.

L’importance de la réussite d’une migration PrestaShop

La migration d’une boutique PrestaShop n’est pas une tâche à prendre à la légère. Elle touche à la colonne vertébrale de votre présence en ligne, à savoir vos données, vos modules spécifiques, et bien sûr, votre interface client.

Illustration de la migration d'une boutique PrestaShop avec plusieurs produits mis dans des fenêtres web, un personnage et le logo Prestashop

Certains points cruciaux d’une refonte PrestaShop, notamment ceux liés aux fonctionnalités et modules intégrés, requièrent une expertise approfondie, notamment en ce qui concerne la migration des données. Ces données sont vitales, car elles définissent directement l’expérience utilisateur sur votre site web.

En effet, la confiance et la sécurité sont au cœur des préoccupations de chaque client naviguant sur une boutique en ligne. Et quand on effectue des achats en ligne, on doit renforcer cette confiance. Google, comme d’autres moteurs de recherche, prend en compte cette expérience utilisateur pour le référencement SEO de votre site.

Ainsi, dans le cadre d’un projet de refonte, il est crucial d’assurer la continuité en matière d’expérience client. Le but est de transférer toutes les données, sans la contrainte pour les clients de créer un nouveau compte ou de réinitialiser leurs mots de passe.

La migration PrestaShop vise à intégrer toutes les données du catalogue produits. Cela inclut des éléments essentiels tels que les données clients, les historiques de facturation, les commandes, les fiches produits et l’arborescence du site. De plus, il est essentiel de prendre en compte l’intégration et la compatibilité des modules, qu’il s’agisse de fonctionnalités natives de PrestaShop, de solutions tierces ou de modules spécifiques développés pour Magento et adaptés pour PrestaShop.

Au-delà de la simple migration des données, la refonte d’une boutique en ligne PrestaShop peut également être l’occasion d’enrichir son blog, d’améliorer la création de contenu ou encore d’optimiser le SEO du site pour un meilleur positionnement sur Google.

Les points de vigilance d’une migration PrestaShop

Sur certains points, la récupération des données peut être un peu délicate, et il faut y prêter une certaine attention.

Conserver et migrer les données client

Nous l’avons vu plus haut, le but de migrer l’intégralité des comptes client est de faire en sorte de garder l’historique. Mais il est aussi important que ce soit complètement transparent pour le client. Au changement de plateforme, l’internaute doit pouvoir voir toutes les modifications du site, mais il doit garder les mêmes informations de connexion (identifiant, mot de passe…). Cela permet de ne pas avoir à redemander de créer un nouveau compte, au risque de donner une mauvaise impression au client final.

En effet, demander une telle chose peut manquer de professionnalisme, et beaucoup peuvent hésiter à se réinscrire, par crainte d’avoir affaire à un site peu fiable, ou avec des problèmes de sécurité. Sans parler de tous les internautes qui ne prendront pas le temps de procéder à une nouvelle inscription par manque de temps ou d’envie !

Il est donc important de faire attention au fait que les connexions soient parfaitement opérationnelles après migration. Pour cela, il faut alors récupérer la clé de cryptage des mots de passe de chaque compte présent sur l’ancien site, et la transférer sur la nouvelle plateforme, avant de s’assurer qu’elle fonctionne parfaitement.

Il suffit alors de vérifier que la connexion passe avec exactement le même mot de passe que sur l’ancienne plateforme.

La validation des nouvelles données

Il faudra également faire attention à la partie sur les validations des nouvelles données. Une fois que toutes les anciennes données sont migrées, il est important de tester la création de chaque process.

Créer une nouvelle fiche produit, passer une commande… Le but est alors de vérifier que tout fonctionne bien entre les anciennes données et les nouvelles données.

La modification des anciennes données

Il est également important de vérifier que vous avez correctement enregistré les modifications apportées aux données de l’ancien site. Par exemple, si vous migrez une fiche produit depuis l’ancien site, et qu’une fois sur le nouveau site, vous essayez de la modifier, il faut vous assurer qu’il n’y ait pas de problème ou de perte de données au passage.

La migration des images

La migration des images n’est pas seulement un enregistrement de base de données, c’est aussi le transfert de fichiers présents sur le serveur de fichiers. Il faut donc s’assurer que la migration a bien fonctionné à ce niveau-là aussi.

C’est d’autant plus important que, dans la plupart des cas, la refonte d’un site englobe aussi une refonte graphique. Il va donc falloir générer à nouveau toutes les miniatures et tous les formats d’image, car généralement, l’évolution des technologies est telle que ça ne fonctionne pas, et on n’aura pas exactement les mêmes formats ou le même rendu.

Chaque élément doit donc être testé tout particulièrement, que ce soit en créant un nouveau compte client, en passant une commande, en créant une fiche produit… Cela prend énormément de temps, mais c’est vraiment nécessaire dans la réussite de la migration du site PrestaShop, car il vous faut être certain que tout est parfait à la sortie du nouveau site.

Les enjeux de la migration d’une boutique en ligne e-commerce

Illustration des 3 impacts de la migration de site web 
et notamment d'une boutique en ligne : SEO, commerce et réseaux sociaux.

Lorsqu’on parle de migration d’un e-commerce, qu’elle soit sous PrestaShop, Shopify, Magento ou toute autre solution open source, les enjeux de la migration de site sont majeurs. Que l’objectif soit de changer d’hébergeur, de serveur, ou d’opter pour une refonte internet complète, il est crucial de maîtriser les implications et les risques associés à une telle démarche :

  • Impact sur le référencement naturel de la boutique : la migration PrestaShop ou Magento vers PrestaShop, peut impacter drastiquement votre position dans les moteurs de recherche. Si votre boutique bénéficiait d’un bon SEO, le passage à une nouvelle version ou plateforme peut dérouter les moteurs de recherche. Les algorithmes, comme ceux de Google, peuvent nécessiter un temps d’adaptation à votre nouvelle configuration, ce qui pourrait affecter temporairement votre visibilité ;
  • Impact sur les réseaux sociaux : votre boutique en ligne, qu’elle opère sous PrestaShop, Shopify ou autre, a sûrement établi une présence robuste sur les réseaux sociaux. La migration implique donc de relier tous les partages, les fiches produits et autres contenus à la nouvelle version de la boutique. Cette étape, cruciale pour l’expérience utilisateur et l’expérience clients, peut être chronophage.
  • Impact sur la gestion commerciale : toute modification, notamment dans le back office comme avec des outils tels que Store Commander, nécessite une attention particulière pour garantir que les success stories précédentes en termes de chiffre d’affaires et de gestion se reflètent dans la nouvelle mouture de la boutique.

Pour naviguer au mieux dans ces eaux parfois tumultueuses, nous recommandons l’accompagnement par une agence web spécialisée. L’anticipation, la préparation minutieuse et l’expertise dans la gestion des migrations, qu’il s’agisse de PrestaShop vers Shopify ou de Magento vers PrestaShop, sont essentiels pour garantir la continuité de la boutique et le maintien des standards d’expérience client.

Pourquoi la migration d’un site web impacte son SEO ?

L’obfuscation dynamique représente le gros enjeu SEO d’un site. Cela veut dire qu’en fonction de la page où vous êtes, vous pouvez ouvrir ou fermer des pages au crawl de Google, et obfusquer ou non les liens, afin d’orienter Googlebot. 

  • Garantir du contenu pertinent pour votre boutique en ligne PrestaShop : si vous réécrivez vos pages, ou que vous les modifiez, assurez-vous de conserver un contenu de qualité. Optimisez vos fiches produits pour qu’elles répondent toujours à l’intention de recherche des internautes et des potentiels clients de votre boutique en ligne.
  •  Assurer un bon maillage interne dans le back office PrestaShop : si vous changez vos contenus, depuis le tableau de bord PrestaShop, pensez à refaire votre maillage interne. Il doit être cohérent pour que les robots de Google et les internautes ne tombent pas sur des liens morts.
  •  Optimiser les Core Web Vitals pour le référencement naturel PrestaShop : quitte à faire une refonte de votre e-commerce avec un CMS open source comme PrestaShop, autant appliquer les nouvelles exigences de Google. Pour cela, des optimisations techniques sont nécessaires, notamment pour améliorer le temps de chargement.
  • Vérifier les backlinks depuis le tableau de bord PrestaShop: pensez à reprendre tous vos backlinks, url par url, dans votre boutique en ligne PrestaShop pour ne pas perdre tout le bénéfice d’un bon netlinking après la migration.

Réussir la migration d’un site Internet : ce qu’il faut éviter

Il faut le reconnaître, migrer les pages de son site web peut être risqué. Alors, pour assurer votre succès, il est conseillé d’éviter certaines erreurs majeures.

Faire une migration sans bonne raison

Illustration d'une personne devant une page web qui fait attention avant la migration de son site.

Cela peut paraître anodin, mais demandez-vous si la migration de votre site web est vraiment nécessaire. Quand on sait le travail que cela demande, et les risques auxquels on s’expose, il est judicieux de se poser la question.

Si c’est juste pour vous tourner vers un CMS qui vous semble plus sympa, ou pour profiter d’une version de PrestaShop qui n’apporte que peu de modifications, le jeu n’en vaut peut-être pas la chandelle.

S’entourer des mauvaises personnes

Une migration de site web ne se fait pas en un claquement de doigts. Cela demande un minimum de connaissances, que seul un expert peut vous apporter. Il peut alors être très risqué de se lancer seul. Lemon Interactive ne peut que vous recommander de faire appel à une agence web spécialisée, ou à un consultant spécialisé.

Ne pas avoir les outils adaptés

Pour assurer un transfert optimal de toutes vos données, vous devez pouvoir vous appuyer sur des outils fiables et performants. Pour effectuer une migration de site, il est alors conseillé d’avoir un crawler, comme Screaming Frog, un accès à la Search Console et à Google Analytics, ou encore des outils d’export de backlinks, comme Majestic, Ahrefs, SeoServer…

Ne pas anticiper suffisamment la migration

De nombreux propriétaires de sites web sous-estiment le travail que demande une migration. Il faut alors solliciter la team de développeurs suffisamment tôt, pour que le projet soit parfaitement exécuté, sans précipitation, et qu’il n’y ait aucun problème, visible ou non, dès la mise en ligne. Anticiper la migration permet aussi de faire preuve de rigueur pour conserver les performances SEO du site.

Vous envisagez de faire une refonte complète de votre site PrestaShop ? Pour vous assurer une migration de site optimale, qui n’aura pas d’impact négatif sur votre trafic, faites confiance aux experts de Lemon Interactive.

Illustration d'ordinateurs avec des liens d'obfuscation SEO.

L’obfuscation de lien en SEO : c’est quoi et pourquoi c’est efficace ?

Parmi toutes les techniques SEO qui permettent d’améliorer le référencement naturel d’un site web, l’obfuscation des liens vient optimiser le maillage interne et la distribution de jus entre les différentes pages. Loin des techniques black hat du cloaking, cette stratégie de netlinking augmente alors la visibilité et le positionnement d’un site en toute légalité. En combinant une visibilité accrue avec un contenu pertinent et de qualité, l’obfuscation de lien renforce l’attractivité globale d’une plateforme web auprès des moteurs de recherche. Fort de son expérience en tant qu’agence de référence à Lille, Lemon Interactive vous invite à explorer les secrets de l’obfuscation de lien en SEO.

Qu’est-ce que l’obfuscation ?

L’obfuscation est une méthodologie qui consiste à dissimuler, d’une manière ou d’une autre, des liens ou des éléments html de la structure de votre site web à Google. Autrement dit, obfusquer un lien revient à le cacher de Google, sans pour autant que cela interfère sur la navigation dans le site.

C’est, bien sûr, la définition de l’obfuscation au sens SEO du terme, à ne pas confondre avec l’obfuscation php, qui est un tout autre sujet.

L’obfuscation est un excellent moyen, sur la gestion du contenu et de la technique de votre site, de thématiser votre contenu, et de donner du sens à Google, pour le maillage interne. Un expert SEO doit toutefois l’utiliser avec prudence, car une mauvaise application peut engendrer des problèmes d’indexation des pages ou des problèmes du parcours du site par Google.

Les bénéfices de l’obfuscation

Au premier abord, on pourrait se demander quel est l’intérêt de cacher un lien aux moteurs de recherche, si c’est pour le laisser visible aux yeux de l’internaute. En réalité, les intérêts de l’obfuscation sont nombreux.

Améliorer la thématisation d’un site

Illustration de liens entre plusieurs sites internet pour faire de l'obfuscation.

En SEO on accorde beaucoup d’importance à ce qu’on appelle le glissement sémantique. En référencement naturel, cette technique permet de créer des liens entre différentes pages, voire différents sites, qui n’ont pas la même thématique. Le lien se fait alors par un mot commun, qui permet au moteur de recherche de comprendre la relation entre les deux pages. 

En ce sens, la page A transmet à la page B, via un lien, toute sa puissance, mais aussi un contexte sémantique.

Prenons un exemple : si une page A parle de chaussures Nike, et que la page B parle de football, le moteur de recherche va comprendre qu’en passant de l’un à l’autre, on reste dans la thématique du sport et des chaussures Nike pour le football.

Aujourd’hui, avec un maillage interne non contrôlé, notamment via les méga menus, vous pouvez vous retrouver dans une situation où Google passe de page en page sans qu’elles n’aient de lien entre elles, et qui ne font pas sens entre elles. Et cela peut avoir des conséquences sur le référencement naturel et la puissance du site.

Autre exemple : si, sur un grand site e-commerce comme Amazon, la page « chaussure » fait un lien vers celle « transat », le cocon sémantique est brisé, et la puissance s’éparpille.

Prioriser le crawl de Google

Le second intérêt de l’obfuscation est de pouvoir prioriser le crawl de Google, en le guidant vers les pages les plus importantes du site, au détriment des moins puissantes.

Prenons l’exemple classique qu’on voit en page d’accueil : sans obfuscation, les mentions légales ou la politique de confidentialité ont autant de poids SEO, voire plus, que n’importe quel élément de la home page ou du menu. Pourquoi ? Parce qu’elles sont dans le footer, et donc présentes sur toutes les pages du site.

L’obfuscation joue un rôle crucial dans la gestion de la façon dont Google explore et indexe les pages d’un site web. En cachant délibérément certains liens ou en les rendant moins visibles pour le Googlebot, les webmasters peuvent guider efficacement le robot d’exploration vers des pages spécifiques qu’ils jugent prioritaires. Cela permet d’optimiser le temps et les ressources que Google consacre à l’indexation d’un site, mais aussi de s’assurer que les plus importantes reçoivent l’attention qu’elles méritent.

En outre, l’obfuscation aide à une meilleure distribution du PageRank. C’est un algorithme utilisé par Google pour mesurer l’importance d’une page web sur la base et la qualité des liens qui pointent vers elle. Une page avec un grand nombre de liens de haute qualité pointant vers elle est considérée comme ayant un PageRank élevé. En utilisant l’obfuscation, les webmasters peuvent contrôler la façon dont ce PageRank est distribué à travers leur site, assurant ainsi que la notoriété et l’autorité sont distribuées de manière plus équilibrée entre les différentes pages. Cela garantit que les pages essentielles ne sont pas négligées.

Pour résumer très simplement, l’obfuscation permet de doper les performances des pages business, en leur donnant une mise en valeur plus importante, au détriment des pages moins influentes pour le business.

Prendre le pas sur le nofollow

Aujourd’hui, un expert SEO sérieux ne recommande jamais d’utiliser une balise rel=nofollow sur une balise a href, car Google l’a tuée.

Il n’y a encore pas si longtemps, nofollow donnait l’ordre à Google de ne pas suivre le lien, et de ne pas transmettre de puissance à la page. Aujourd’hui, nofollow donne toujours l’ordre à Google de ne pas suivre le lien, en revanche, on y dilue quand même la puissance du site. 

Imaginons qu’une page représente une puissance de 100 %, et que cette page contienne 2 liens, un en dofollow et un en nofollow. Plutôt de mettre 100 % de la puissance sur le lien en dofollow, le lien en nofollow va faire perdre 50 % de la puissance pour rien.

Les dangers de l’obfuscation

Illustration d'une personne qui attrape le danger d'une page internet obfusquée.

L’obfuscation est souvent mise en lien avec le cloaking. Cette méthode, qui consiste à afficher une version différente d’un site Internet en fonction de l’IP, du user agent, ou de la personne qui va se connecter, est une technique de black hat couramment employée.

L’objectif est alors de proposer une version de votre site spécifique à Google, pour lui donner le plus de chances possibles de ranker. Concrètement, pendant que Google voit une page avec énormément de contenus texte idéale pour le SEO, l’utilisateur lambda, lui, va voir une belle page aérée, avec des images, un formulaire, des vidéos… Autant d’éléments qui n’aident pas forcément au référencement de la page.

Il ne faut alors pas mélanger l’obfuscation avec le cloaking. L’obfuscation a été reconnue comme totalement acceptable par Google depuis un moment déjà, et notamment par l’intermédiaire de John Mueller, le grand défenseur du SEO. En effet, ce n’est pas une manière de cacher du contenu, mais plutôt de prioriser le crawl de Google. Et ça, Google l’apprécie, car le Googlebot est très cher à déployer, et en l’aidant à faire du bon travail en l’envoyant vers des bonnes pages, vous l’aidez à économiser de l’argent. Il n’a donc aucune raison de sanctionner cette pratique.

Comment déployer l’obfuscation ? Méthodologie

Pour déployer l’obfuscation sur votre site web, deux méthodologies sont applicables, selon vos objectifs.

L’obfuscation statique

Si demain vous écrivez un article et que vous faites un lien vers Le Monde ou Le Figaro, et que vous n’avez pas envie d’envoyer de puissance (et encore moins de mettre un nofollow), vous pouvez alors mettre en one shot un lien obfusqué sur Le Monde ou Le Figaro, pour préserver votre jus. De manière plus concrète, le site obfusque le lien où que vous soyez. C’est ce qu’on appelle l’obfuscation statique.

C’est la méthode la plus simple, et par exemple, on l’utilise pour les liens du footer, qui sont généralement des liens statiques.

L’obfuscation dynamique

L’obfuscation dynamique représente le gros enjeu SEO d’un site. Cela veut dire qu’en fonction de la page où vous êtes, vous pouvez ouvrir ou fermer des pages au crawl de Google, et obfusquer ou non les liens, afin d’orienter Googlebot. 

On parle d’obfuscation dynamique presque exclusivement dans le cadre d’un méga menu. En effet, dans le cadre du maillage en silo, on va ouvrir ou fermer l’accès aux catégories, sous-catégories et sous-sous-catégories en fonction de l’endroit où vous vous situez dans l’arborescence.

Rien ne vaut un exemple : Si on arrive sur la home page, le menu présente une obfuscation dynamique. L’ensemble des catégories du menu a un accès libre avec une balise a href classique, tandis que l’obfuscation affecte l’ensemble des sous-catégories (et niveaux inférieurs).

Une fois qu’on a atterri sur une catégorie, les autres catégories, l’ensemble du silo et la home page restent accessibles au googlebot, mais pas les autres sous-catégories. Et ainsi de suite…

Le déploiement technique de l’obfuscation

Illustration des trois techniques de l'obfuscation SEO : propriété button on click, encryptage en base 64, méthode par IP

Rentrons dans le cœur technique de l’obfuscation, en découvrant les différentes méthodes de déploiement. Il y a ainsi 3 grandes solutions pour réaliser de l’obfuscation :

  • L’utilisation de la propriété button onclick : cela va vous permettre de cacher le lien dans du JavaScript de façon très simple, et d’empêcher Google de voir le lien grâce à un habillage CSS concordant avec la balise a href traditionnelle. En effet, rappelons que Google n’interprète pas le JS ;

  • L’encryptage en base64 : cette technique est un peu plus compliquée, et consiste à créer un fichier JavaScript (qu’on trouve facilement en open-source sur le web) qui permettra de crypter un lien, et de ne le décrypter qu’avec l’exécution d’un code JS ;

  • La méthode par IP (ou white hat cloaking) : avec cette technique, on cloake le site en disant « si le visiteur qui vient sur le site est Googlebot, on lui affiche une disposition des liens spécifique ». Mais on ne touche surtout pas au contenu ! La seule chose à laquelle on touche, c’est l’ouverture et la fermeture des liens. C’est la méthode la plus technique, car elle nécessite du développement, mais c’est assurément la plus efficiente.

Quels liens faut-il obfusquer ?

L’obfuscation d’un lien se fait, en général, au cas par cas, et dépend de vos objectifs, de la page où il se trouve, et de celle où il amène. En revanche, certains liens sont toujours bons à obfusquer pour une stratégie SEO efficace :

  • Le méga menu et le footer, afin qu’ils ne prennent pas le dessus sur le contenu ciblé des pages principales ;

  • Les liens e-commerce : sur un site e-commerce, on a vite fait de trouver des liens qui mènent vers tout et n’importe quoi. Mieux vaut les obfusquer pour éviter les catastrophes sémantiques, qui ont un impact direct sur le référencement ;

  • Les liens identiques dans un même contenu : les liens insérés dans le contenu d’une page sont entourés d’un contexte sémantique riche qui leur donne de la puissance. Alors, si vous avez plusieurs fois le même lien dans un seul contenu, faites en sorte d’obfusquer ceux qui ont une ancre sémantiquement moins riche.

L’obfuscation est une technique SEO essentielle, mais difficile à mettre en place. Alors, si vous souhaitez optimiser le maillage interne de votre site Internet ou créer un site parfaitement optimisé pour le référencement naturel, n’hésitez pas à contacter les experts SEO de Lemon Interactive.

Illustration de personnages entourés d'investissements en SEO.

Investir en SEO : 5 conseils pour votre entreprise (TPE, PME, Grands comptes…)

De nos jours, une entreprise a tout intérêt à créer un site web, pour s’assurer une visibilité en ligne et ouvrir son marché. Mais pour qu’un site attire du trafic et soit un investissement rentable, il est impératif d’avoir une stratégie marketing basée sur le SEO. Lemon Interactive vous livre quelques conseils pour investir en référencement naturel.

Qu’est-ce que le SEO ?

Il est toujours intéressant de faire une petite piqûre de rappel pour ceux qui débutent en SEO, ou Search Engine Optimization. Cette pratique regroupe un ensemble de techniques de référencement naturel qui a pour but d’améliorer le positionnement d’un site web dans les pages de résultats des moteurs de recherche (SERP).

Une stratégie SEO se base sur différentes techniques qui permettent aux moteurs de recherche de saisir la pertinence et l’autorité du site et de ses contenus, pour ensuite le mettre en avant :

  • Optimisation des mots-clés ;
  • Création de contenus de qualité ;
  • Optimisation de la structure du site web ;
  • Optimisation de la vitesse de chargement des pages ;
  • Mise en place de techniques de netlinking, et notamment de liens entrants ;
  • Mise en place d’une stratégie sur les réseaux sociaux.

Les algorithmes des moteurs de recherches sont en constante évolution, mais ces critères SEO restent des valeurs sûres pour gagner en visibilité.

Quel est l’intérêt, pour des entreprises, de travailler le SEO de son site ?

Illustration d'un site optimisé grâce au SEO bien investi

Avoir un site Internet, c’est bien, mais s’il n’est pas visité, il ne sert à rien. La stratégie SEO est donc essentielle, car elle est le garant du succès de votre projet.

  • Un site optimisé attire du trafic qualifié : l’internaute arrive sur votre site en tapant une requête dans la barre de recherche de Google, il est vraiment intéressé par votre thématique ;

  • Un site optimisé se démarque de la concurrence : pour un même mot-clé tapé dans Google, le site optimisé sera mieux classé dans la SERP qu’un concurrent mal optimisé ;

  • Un site optimisé offre un meilleur taux de conversion et représente un levier d’acquisition : le SEO permet d’améliorer l’expérience utilisateur des internautes, et de répondre précisément à leur intention de recherche. Il est alors plus facile de convertir un convaincu, que de convertir un internaute qui arrive sur votre site Internet par hasard.

Investir en SEO : un projet au cas par cas

Il est difficile de donner des conseils généraux pour investir dans le SEO, car la stratégie à adopter dépend vraiment de la situation de l’entreprise et de son site web.

Une stratégie SEO selon votre situation

Que vous ayez un site qui vient de sortir de terre, un business qui débute, ou encore une start-up, vous n’aurez pas les mêmes problématiques de stratégie SEO qu’une grande entreprise nationale ou internationale, installée dans la durée. Les enjeux de positionnement sont bien différents.

Une stratégie SEO selon le marché que vous occupez

Si vous êtes sur un marché de longue traîne ou une niche, ou encore si vous êtes sur un marché hyper concurrentiel, comme le prêt-à-porter, l’assurance ou la banque, vous aurez des considérations très différentes sur le volume et la façon d’investir le budget SEO.

Des efforts ponctuels en SEO peuvent-ils remplacer un investissement constant ?

Si vous envisagez de lancer votre site web, vous pouvez être tenté de créer un gros volume de contenus d’un coup, de tout publier, sans revenir dessus pendant des mois. Grosse erreur !

SEO : une stratégie sur le long terme

Illustration d'une stratégie sur le long terme du SEO.

En SEO, on ne peut clairement pas se permettre de ne pas investir continuellement et durablement dans sa stratégie. Les efforts ponctuels ne remplaceront donc jamais l’investissement constant.

Pour rappel, les 3 gros enjeux de ranking en SEO sont : le contenu, la popularité et la technique. Si les bases techniques sont bien posées et entretenues, il est possible de ne plus trop intervenir dessus dans le temps. En revanche, ce n’est pas du tout le cas pour le contenu et la popularité.

Selon une étude de 2022, la production constante de contenus pèse pour plus de 30 % dans les critères de référencement naturel pour Google. C’est énorme, et ça démontre bien tout l’enjeu de poster très régulièrement du nouveau contenu.

Pourquoi le SEO demande de l’endurance ?

La raison de la mise en avant des contenus réguliers par Google est assez simple : un site qui poste du nouveau contenu va générer l’intérêt et le crawl des robots de Google avec robots.txt. Ainsi, le Googlebot va venir beaucoup plus souvent sur le site, et va avoir envie de découvrir de nouvelles pages. Par la même occasion, il va revisiter vos anciennes pages, ce qui va augmenter sa considération pour votre contenu et le repositionnement dans les résultats de recherche.

À l’inverse, si vous avez un site qui végète, sans nouvelle production, Google viendra de moins en moins souvent, ce qui va occasionner inévitablement des chutes de positions.

L’importance des liens entrants en SEO

La création de contenus est primordiale, et il en va de même avec les backlinks. L’un et l’autre sont même liés. Car un site qui ne propose pas de contenu frais est aussi un site qui génère beaucoup moins de potentiels nouveaux liens entrants naturels, et qui prend donc le risque de voir la concurrence le dépasser, même si la position actuelle est confortable.

Le SEO est donc un effort au long cours, et vous ne pouvez pas lever le pied de la pédale si vous souhaitez performer dans la durée.

Comment faire du SEO pour un site qui débute ?

La clé SEO, pour un site qui débute, est de bien poser les bases, mais aussi d’être présent et régulier dès le départ.

Prioriser la création de contenu de qualité

Un site débutant doit sortir de terre avec une technique la plus irréprochable possible, mais il doit aussi mettre l’accent en priorité sur la rédaction et la création de contenus. Plus vous allez proposer de pages avec du contenu riche, intéressant, et qui fait autorité sur votre thématique, et plus Google va avoir envie de venir crawler votre site et bien l’indexer.

Aller chercher des backlinks pour booster la popularité du site

Dans le cas particulier où vous utilisez un nom de domaine neuf, qui n’a jamais été utilisé auparavant, vous devrez travailler sa popularité. Pour cela, vous devez porter une attention particulière à la génération de backlinks. Cela doit se faire le plus naturellement possible, avec différentes techniques :

  • Une activité sur les réseaux sociaux ;
  • L’emailing ;
  • Le bouche-à-oreille ;
  • Le partage d’informations ;
  • La sollicitation de votre réseau ;
  • Les campagnes de netlinking.

Sortir de la sandbox au plus vite grâce aux backlinks

Illustration des backlinks pour sortir de la sandbox en investissant en SEO.

Il est très important de prioriser le linking lorsque le site sort de terre, mais il faut aussi être très prudent. Quand un site voit le jour, il est placé dans ce qu’on appelle la sandbox.

Alors, pendant 0 à 6 mois, le nouveau site sera très peu poussé par Google dans la SERP, le temps de vérifier votre efficacité, votre pertinence, et votre comportement avec votre site. Le meilleur moyen de raccourcir la période de sandbox est d’avoir rapidement des liens entrants, qui vont faire connaître votre site, et lui donner de l’importance aux yeux du moteur de recherche.

Attention : dans la première année de vie d’un site, on recommande de ne pas faire plus de 5 à 10 liens entrants par mois. Google ne trouverait pas naturel du tout qu’un nouveau site ait plus de liens. Plus vous dépassez cette valeur, plus vous prenez le risque d’être considéré comme un site de spam.

Comment faire du SEO avec un site qui a du vécu ?

Avec un site existant, la stratégie SEO sera tout autre, et chez Lemon Interactive, nous recommandons avant tout à nos clients d’investir dans la repasse du site web, autrement dit, dans la partie technique. Un site existant présente souvent de nombreuses petites failles techniques qui ont un impact sur le référencement naturel. Cela peut concerner le temps de chargement, avec les Core Web Vitals, les données structurées, avec les rich snippet…

Une fois que la plateforme technique est propre, vous pouvez passer à l’audit sémantique, afin de savoir comment se positionne le site sur les mots-clés principaux. C’est aussi le moment de vérifier les backlinks, et d’analyser la concurrence.

À partir de là, en regardant votre situation et celle des concurrents, sur le contenu et la popularité, vous pourrez décider du point sur lequel vous devrez accentuer vos efforts.

Un site qui génère naturellement beaucoup de backlinks et qui en a plus que la concurrence, mais qui a peu de contenus, fixe son enjeu sur la production de contenu (cocon sémantique, enrichissement de page…).

À l’inverse, un site qui a un excellent contenu, mais qui reçoit peu de liens entrants, doit prioriser ses investissements sur du netlinking.

Quel budget investir dans le SEO ?

Le budget SEO dépend vraiment de la situation. Une start-up qui débute et qui vient de créer son site Internet n’aura pas le même budget qu’une multinationale.

Pour les sites qui débutent, on recommande de commencer avec un budget contenu, qui peut aller de moins de 1 000 € à quelques milliers d’euros. Ces prix incluent les campagnes de netlinking et le temps de production de contenus.

Pour un site existant, qui demande beaucoup de travail et qui a une forte concurrence, le budget dépasse les 10 000 € par mois. Le montant dépend vraiment du volume de liens entrants à générer et du temps de production de contenus nécessaire. Les estimations peuvent aller du simple au triple assez rapidement.

Dans l’entre-deux, vous pouvez avoir un site web d’une entreprise qui génère un chiffre d’affaires de 2 à 20 millions d’euros par an. Les tarifs sont entre 3 000 et 10 000 € d’investissement.

Ce sont, bien sûr, des estimations, car chaque site nécessite un audit complet avant de pouvoir donner un tarif précis.

Investir dans le SEO est essentiel pour sortir du lot et attirer un trafic qualifié. Vous pouvez alors suivre nos conseils pour démarrer, ou faire appel aux équipes de l’agence web Lemon Interactive pour élaborer une stratégie SEO puissante.

Illustration des 5 astuces de SEO.

5 astuces SEO pour performer quand on débute

Le SEO est une discipline en constante évolution, qui est très difficile et technique à suivre. Toutefois, n’importe qui peut obtenir des victoires rapides, ou quick wins, pour le référencement naturel de son site web. Il suffit pour cela d’être un minimum organisé, et d’appliquer nos 5 astuces SEO pour performer quand on débute.

Définition du SEO : la base

Avant de se lancer sur le sujet des astuces SEO à mettre en place, il est nécessaire de faire un rappel sur ce qu’est le référencement naturel. Le SEO, ou Search Engine Optimization, est un ensemble de pratiques qui permettent d’augmenter la visibilité en ligne d’un site Internet. Avec une bonne stratégie SEO, un site peut alors espérer apparaître dans les premiers résultats des moteurs de recherche, et s’assurer un bon positionnement sur la SERP.

Pour pouvoir améliorer le référencement naturel d’un site, il est nécessaire de maîtriser quelques bases du SEO, et notamment comprendre l’algorithme de Google, et des moteurs de recherche en général. Le SEO est une discipline en constante évolution, et il est essentiel de rester informé des dernières tendances et meilleures pratiques pour obtenir des résultats optimaux.

L’algorithme d’un moteur de recherche : comment ça marche ?

Illustration d'un ordinateur avec un moteur de recherche.

L’algorithme d’un moteur de recherche regroupe plusieurs procédures qui permettent de classer et répertorier les pages web. De nombreux éléments sont alors pris en compte pour savoir quels sites web mettre en avant dans les premiers résultats de la SERP, et déterminer quels sont ceux qui vont rester dans le bas du panier.

Le référencement naturel a alors pour but de répondre aux exigences des algorithmes de Google, pour que quand un internaute tape à mot-clé dans la barre de recherche, votre site soit présenté en premier plutôt qu’un autre dans la SERP.

Personne ne connaît vraiment en détail les critères des algorithmes, et ils changent sans cesse, ce qui les rend d’autant plus compliqués à déterminer. En revanche, certaines pratiques SEO font leur preuve sur le référencement des sites web.

Les 5 astuces SEO pour améliorer le référencement naturel d’un site web

Entrons désormais dans le vif du sujet, en faisant le tour des 5 techniques SEO applicables facilement pour améliorer la notoriété d’un site.

Vérifier les bases de configuration SEO de votre site web

Les bases de configuration SEO d’un site Internet doivent vous pousser à agir à différents niveaux.

Vérifier les paramètres du robots.txt

Vous pouvez commencer votre optimisation SEO en vérifiant les paramètres du robots.txt de votre site web en tapant « nomdusite.extension/robots.txt » (ex : lemoninteractive.fr/robots.txt). Vous pourrez alors vérifier si tous les paramètres sont bons, et notamment les deux points essentiels, qui sont le « allow » et le « disallow » (autoriser ou non le Googlebot à accéder à une page).

Il est important de vérifier que ce fichier est existant, et que vous avez au moins une forme de configuration de base qui permettra d’orienter le robot sur le site. C’est particulièrement intéressant pour les sites de e-commerce, qui ont des filtres à facettes et de nombreuses fonctionnalités parasites susceptibles de créer une multitude de combinaisons de pages, et donc d’impacter les performances du crawl.

Déclarer votre sitemap dans le robots.txt

Illustration de l'astuce seo d'un robots.txt qui vérifie un sitemap.

Il faudra aussi vérifier, dans le robots.txt, la déclaration du sitemap, autrement dit, le plan du site tel que vous le fournissez à Google. Ce plan va lui permettre d’organiser le parcours de votre site, pour l’indexer et évaluer sa performance.

Pour déclarer un sitemap dans le robots.txt, vous devez utiliser la commande « sitemap:lienverslesitemap ». Le site doit alors héberger le lien à sa racine.

Le sitemap se génère alors au format XML, et de nombreux outils permettent de le générer en ligne. Mais il est aussi possible de le faire via le CMS que vous utilisez (CMS, PrestaShop…). Si tel est le cas, prenez garde à ce que le sitemap généré à partir de votre CMS ne présente pas une multitude d’URLs pourries, qui n’auront aucun intérêt pour le référencement naturel (SEO). Une bonne gestion du sitemap est essentielle pour aider les moteurs de recherche à explorer et à indexer correctement votre site web.

Vérifier le volume d’indexation de vos pages web

Pour vérifier le volume d’indexation de vos pages, autrement dit, le nombre de pages indexées par Google, il suffit d’aller dans Google et de taper la commande « site:adressedusite ». Toutes les pages indexées du site en question s’afficheront alors dans la SERP. Vous aurez alors une idée précise des pages bien indexées, de celles qui devraient l’être et ne le sont pas, et celles qui le sont alors que vous ne le voulez pas.

Créer et travailler du contenu de qualité

En 2022, le contenu représente environ 60 % des critères d’évaluation de pertinence d’un site web. C’est clairement le critère de référencement numéro 1 ! Vous pouvez alors optimiser le contenu de vos pages web de différentes manières.

Travailler le balisage sémantique du contenu

Le contenu se travaille à la fois d’un point de vue technique et d’un point de vue purement textuel. C’est-à-dire qu’on vérifie d’abord le balisage sémantique, et plus particulièrement la balise H1 et la balise H2.

  • Les balises Hn : il doit y avoir impérativement une balise H1 par page, puis au maximum 5 à 7 H2. On peut alors considérer le H1 comme le titre de la page, et les H2 comme les chapitres du contenu. Pensez alors à avoir une balise H1 unique par page, pour pouvoir répondre aux exigences SEO consistant à consacrer une page par mot-clé. Ce fameux mot-clé doit donc être présent dans le H1, mais également dans la balise title ;

  • La balise title : elle est généralement vraiment sous-estimée, alors qu’elle fait partie du top 3 des critères de référencement de Google. Il est donc essentiel de l’optimiser, et d’y faire figurer le mot-clé principal, voire quelques déclinaisons ;

  • La meta description : ce snippet de 200 à 250 caractères est utilisé par Google pour présenter votre site dans les résultats de recherche. Si la meta description n’a pas de poids direct sur le référencement, car Google ne l’analyse pas, elle a quand même un impact indirect, car elle améliore le CTR (taux de clic) dans les résultats de recherche, en donnant envie aux internautes de cliquer. Or, Google analyse le CTR, il va donc améliorer le positionnement de votre site si le CTR est bon.

Travailler le texte du contenu

Aujourd’hui, nous recommandons de fixer la longueur minimum d’un texte à 600 mots, sur un mot-clé pas trop concurrentiel. Alors, avant de vous fixer cette limite, mieux vaut regarder la concurrence sur le mot-clé, et déterminer la volumétrie nécessaire pour bien se positionner. De manière générale, Google met en avant le contenu long.

Ensuite, quand on écrit du contenu, l’idéal est de se positionner sur la home page et les pages catégories (ou les pages essentielles du business). Il n’est donc pas nécessaire de perdre du temps à rédiger du contenu sur les mentions légales ou la page contact, par exemple.

Sur le site d’un hôtel, par exemple, on va travailler la page d’accueil, celle qui présente les chambres, celle qui présente les prestations…

Et on garde à l’esprit qu’une page = un mot-clé.

Travailler les backlinks

Les backlinks, ou liens externes qui pointent vers un site, sont travaillés dans une campagne de netlinking, une prestation que propose par Lemon Interactive.

Illustration de l'astuce SEO des liens externes qui pointent vers le site principal.

Les backlinks font, eux aussi, partie du top 3 des critères de référencement, il ne faut donc pas les négliger. Nous vous conseillons donc fortement d’en posséder pour obtenir de la performance. En effet, aux yeux de Google, un site Internet qui n’a pas de backlink est un site qui n’a pas de popularité. Pour améliorer votre SEO, il est essentiel de développer des techniques de netlinking efficaces, en obtenant des liens de qualité depuis d’autres sites web pertinents dans votre domaine.

Pour aller chercher des backlinks, il existe plusieurs techniques, notamment pour un site e-commerce :

  • Demander un backlink à un fournisseur, qu’il peut placer sur la page du revendeur agréé de leur site. Parfois même, les fournisseurs créent une page par vendeur, et y intègrent un lien vers votre site Internet ;
  • Demander aux clients d’intégrer sur leur site un lien vers votre site ;
  • Bénéficier d’un lien puissant en recevant une subvention ou un accompagnement d’institutions, comme le département, l’État, la région… Les liens en .gouv ou les liens d’organismes officiels de l’État sont ceux qui ont le plus de valeur aux yeux de Google, il ne faut donc pas hésiter à les solliciter lorsque l’opportunité s’offre à vous.

Enfin, n’oubliez pas que quand on va chercher des backlinks, il est important de les thématiser. En effet, un site qui propose des chambres d’hôtel ne va pas aller chercher un lien sur un site de jardinage.

Optimiser la vitesse de chargement du site web

Depuis l’introduction des Core Web Vitals, en 2021, la vitesse de chargement d’un site est devenue un critère important, notamment dans la gestion du budget crawl pour Google. Sans être développeur, et donc sans toucher à la partie backend du site, on peut agir sur différents éléments : images, pdf, vidéos…

Vous pouvez alors jouer sur la taille des éléments, le format des éléments et le nombre des éléments, afin d’optimiser leur poids. Des outils en ligne peuvent vous aider à réduire vos fichiers, comme iLovePDF ou iLoveIMG, qui permettent d’optimiser le poids de n’importe quelle ressource en quelques clics.

Si vous passez par un CMS, vous pouvez aussi faire le ménage du côté des extensions, en réduisant le nombre au strict nécessaire. Il faut aussi alléger le DOM, autrement dit, le contenu essentiel du site. Pour améliorer la qualité de votre site et son référencement naturel, il est essentiel de prendre en compte ces aspects liés à la performance et à la vitesse de chargement.

Si vous souhaitez connaître précisément la performance de votre site, vous pouvez utiliser des outils comme GTmetrix ou Dareboost. Ils lanceront un audit complet des performances de votre site, et vous aurez en détail les points d’achoppement de performance, afin de donner à votre développeur une liste détaillée de recommandations à travailler en priorité.

Utiliser la Search Console

Les utilisateurs négligent souvent la Search Console de Google parce qu’elle semble trop facile d’accès et trop simple à utiliser. Pourtant, c’est une mine d’informations pour analyser la performance d’un site. De nombreux points peuvent alors être vérifiés, et notamment deux données essentielles :

  • Le volume de pages indexées : en le comparant au nombre de pages total sur le site, vous pourrez repérer si vous avez des urls pourries qui polluent votre crawl, ou si vous avez des pages orphelines (pages qui devraient être référencées, mais qui ne le sont pas car elles ne sont pas maillées sur le site) ;
  • Le volume d’erreurs 404 sur le site : une erreur 404 est une page qui a un chemin, mais qui ne répond pas quand on tente de s’y connecter, car elle n’existe plus ou parce que le chemin a changé. Cela crée une impasse dans laquelle Google va se perdre et dilapider votre budget crawl. Une erreur 404 se traite en créant des redirections 301.

Il existe de nombreuses autres données à analyser dans la Search Console, que nous détaillons dans d’autres articles. N’hésitez donc pas à parcourir nos contenus pour en apprendre davantage sur les bonnes techniques SEO.

Un propriétaire de site web motivé peut très bien réussir à obtenir de bons résultats SEO, en appliquant simplement ces quelques conseils. Si vous n’avez pas de temps à y consacrer, ou que vous souhaitez une stratégie SEO plus puissante, vous pouvez alors confier votre projet aux experts de l’agence web Lemon Interactive.

Illustration de 3 personnages portant des pièces d'un puzzle à réaliser pour faire un bon netlinking SEO

5 techniques de netlinking SEO à connaître

Pour une stratégie de netlinking performante, l’obtention de backlinks de qualité joue un rôle majeur. Mais la qualité des liens est tout aussi cruciale, et il n’est pas si facile de réussir à intégrer une ancre vers votre site depuis un site qualifié. Alors comment booster son référencement naturel ? Voici 5 techniques de netlinking SEO pour obtenir des backlinks naturels.

Qu’est-ce qu’un backlink ?

Illustration d'une page web en chantier avec un pictogramme de lien backlink

Avant toute chose, rappelons ce qu’est un backlink dans une stratégie SEO. Un backlink, qu’on appelle aussi lien retour ou lien entrant, est un lien créé à partir d’un site externe et qui dirige vers votre propre site web.

Même si l’impact SEO des backlinks a été diminué par Google, qui tend à appuyer sa stratégie avant tout sur le contenu, il est de notoriété publique que les liens externes restent le talon d’Achille de Google. Ce sont même eux qui permettent d’avoir les résultats les plus rapides en termes de positionnement dans les pages de résultats de recherche.

Petit disclaimer : les techniques que nous allons lister sont, sauf cas exceptionnel, des techniques complémentaires à l’acquisition de backlinks de qualité. Elles viendront donc compléter à moindres frais une campagne d’acquisition de liens payants, par exemple, ou une campagne d’acquisition de liens de qualité. Mais ces techniques ne sont pas à aborder comme une stratégie unique d’acquisition de liens.

Les 5 techniques pour obtenir des backlinks naturels de qualité

Vous avez établi une stratégie de maillage interne et de liens sortants très performante, mais il vous manque la puissance des backlinks ? Plusieurs solutions s’offrent à vous pour aller chercher ces liens et booster la visibilité comme une agence de référencement.

Technique n°1 : demander un lien intelligemment

Demander aux autres sites de vous faire un lien, c’est bien, mais il faut que cela soit fait intelligemment. Si vous avez un magasin de chaussures, par exemple, vous n’allez pas demander au magasin de jardinage voisin de vous faire un lien. Il faut donc impérativement s’adresser aux sites ayant la même thématique d’activité que la vôtre. Ensuite, vous pouvez faire des demandes à de nombreuses personnes.

Demander des liens aux institutions publiques

Ce qui peut être intéressant, c’est d’aller frapper à la porte des institutions locales : la ville, le département, la région, la communauté d’agglomérations…

Il est fréquent, pour des entreprises, d’obtenir des subventions, des aides, des contacts ou des avis pour le référencement local. Dans ce cas-là, elles peuvent plus volontiers vous faire un lien via leur site.

Le gros avantage dans ce cas précis, c’est que tous les sites institutionnels gouvernementaux d’éducation sont des sites qui peuvent faire des liens vers n’importe quel site et envoyer beaucoup de puissance. Ce sont d’ailleurs les spots de liens les plus recherchés pour le backlink.

Demander à vos revendeurs de vous faire un lien

Si vous avez un site e-commerce ou une marketplace bien placée, par exemple, il ne faut pas hésiter à demander à vos revendeurs de vous faire un lien vers votre site, en tant que fournisseur.

Dans ce même ordre d’idée, votre fournisseur dispose très probablement d’une liste de tous ses revendeurs. Il peut alors être intéressant de demander à ces revendeurs de vous faire un lien (en évitant les concurrents directs, bien sûr).

Demander un lien à vos partenaires

Vous pouvez aussi demander un lien à un partenaire. Par exemple, si vous êtes une association ou un club, n’hésitez pas à demander un lien de la part d’un des partenaires ou sponsors. Inversement, si vous avez une entreprise qui subventionne ou sponsorise un partenaire, vous pouvez aussi lui demander un lien. Le partenariat peut d’ailleurs aussi se faire entre deux entreprises.

Demander des liens aux enseignes locales

Demander un lien auprès des entreprises locales est aussi une stratégie gratuite qui peut valoir la peine. Là encore, on reste sur du netlinking avec des liens thématisés. Pour reprendre l’exemple du magasin de chaussures, il n’est pas question d’aller frapper chez le boulanger du coin. En revanche, vous pouvez demander un lien chez un autre vendeur de chaussures qui ne vous fait pas concurrence (chaussures pour enfants, ou magasin de chaussures éloigné du vôtre…).

Solliciter les annuaires pour intégrer vos liens

Sur Internet, on trouve facilement des annuaires généralistes, mais aussi des annuaires spécialisés, qui recensent toutes les enseignes de votre domaine d’activité. Il peut alors être intéressant de retrouver votre entreprise, et d’y déposer un lien vers votre site. Si ce canal d’acquisition de liens n’est plus aussi puissant que par le passé, cela reste toujours une stratégie netlinking pertinente, et gratuite qui plus est.

Technique n°2 : pratiquer le linkbaiting

Le linkbaiting, ou « piège à liens », regroupe toutes les stratégies qui vont consister à créer un contenu le plus engageant et le plus incitatif possible au partage.

Illustration d'un personnage avec un chat attiré par une boîte aux lettre symbolisant le linkbaiting

Par exemple, vous pouvez décider de créer une campagne de communication très transgressive ou très marquante, afin de donner envie aux gens de faire un lien vers votre campagne de com. L’objectif est d’inciter les gens à parler de votre campagne sur leur propre site.

Mais cela peut aussi prendre la forme d’un post très bien rédigé, notamment avec de la data, comme une infographie de qualité, une représentation graphique de données ou un traitement de données très précis. Cette stratégie vise à ce que les autres sites, et notamment les plus puissants, fassent un lien vers votre contenu, pour leur éviter d’avoir à traiter eux-mêmes le sujet complexe. Cette stratégie est généralement très bénéfique, et on a souvent vu de très gros sites de référence faire des liens vers des articles de petits sites, et ainsi leur apporter une puissance conséquente.

Mais le linkbaiting, ce peut être aussi un PDF, que vous hébergez sur un site externe, et dans lequel vous aurez intégré votre backlink.

Finalement, il existe de nombreuses façons de faire du linkbaiting, mais l’idée est toujours la même : créer un contenu tellement incitatif au partage qu’on génère naturellement des liens.

Technique n°3 : repérer les liens cassés et le skyscraping

Le lien cassé et le skyscraping s’intègre tous les deux dans une stratégie d’utilisation des liens cassés, mais chacun à son propre rôle.

Les liens cassés, ou liens brisés

La technique du lien cassé, ou broken link est assez simple. Il existe des outils, tels que Majestic ou Broken Link Check, qui vous permettent d’identifier les liens cassés :

  • Les sites qui vous ont fait un lien par le passé, et qui l’ont retiré ;
  • Les sites qui mentionnent votre marque sans faire de lien ;
  • Les sites qui parlent de vous sans envoyer de backlink.

Vous pouvez alors les contacter manuellement pour leur dire que vous avez vu leur contenu, et leur demander de mettre un lien vers votre site, et notamment vers la page ciblée en fonction du contenu.

La technique du broken link marche également de manière un peu plus pernicieuse sur des sites qui ne parlent pas directement de vous. Là, on touche à la méthode de skyscraping.

La technique du skyscraping

Le skyscraping est une technique qui vous permet de considérer certains de vos concurrents qui auraient des liens cassés.

Par exemple, vous repérez qu’un de vos concurrents a rédigé un très bon guide d’achat sur des mots-clés longue traîne autour des chaussures, devenu obsolète aujourd’hui, et pour lequel il y a un lien brisé qui venait d’un gros blog de mode lifestyle. Dans ce cas-là, travaillez sur un nouveau guide d’achat de très grande qualité sur les chaussures, en l’optimisant au maximum, et contactez le blog de mode pour leur demander de faire un lien vers votre guide.

C’est tout l’intérêt du skyscraping. Vous pouvez alors chercher :

  • Tous les sites qui faisaient un lien vers vos concurrents et qui ne le font plus ;
  • Tous les sites qui font un lien actif vers vos concurrents, mais pour lequel vous pensez pouvoir faire mieux, en proposant un contenu de meilleure qualité.

Technique n°4 : proposer des collaborations

Dans les collaborations, on recense deux grandes thématiques : l’échange de liens et le guest posting (article invité).

L’échange de liens

L’échange de liens est assez simple et plutôt classique. On retrouve souvent des personnes qui proposent de vous faire un lien vers votre site. En contrepartie, vous devez, vous aussi, faire un lien vers son site.

Dans les faits, cette stratégie n’est pas très puissante, parce qu’on retrouve comme un système de boucle infinie. En effet, vous avez un lien vers ce site, et ce site a un lien vers votre site… La boucle est bouclée, le gain est vraiment faible.

Plus grave encore, si vous faites des échanges de liens à l’excès, Google va finir par s’en rendre compte et trouver ça bizarre. Le robot de Google et le robots.txt va penser que le propriétaire cherche à manipuler l’algorithme des moteurs de recherche, et risque de le pénaliser.

Le mieux est alors de faire un échange de liens triangulaire : le site A fait un lien vers le site B, le site B fait un lien vers le site C, et le site C fait un lien vers le site A. De cette façon, vous êtes dans une structure optimisée, même s’il faut reconnaître que c’est plus difficile à obtenir.

Le guest posting

Il existe des sites où vous pouvez rédiger gratuitement, ou faire valider votre contenu par l’équipe rédactionnelle, et générer un backlink vers votre site en tant qu’auteur, c’est ce qu’on appelle le guest posting. Il existe aussi des sites sur lesquels vous pouvez faire de l’échange d’amabilité, comme on le fait avec l’échange de liens. Dans ce cas, vous écrivez un article sur le blog d’un autre site dans lequel vous intégrez un lien vers votre propre site (un guest post), et en retour le propriétaire du blog fait de même sur votre propre site. Pensez alors à garder en tête la stratégie de triangulation des backlinks.

Technique n°5 : faire du ninja linking

Illustration d'une lettre ninjalinking se faisant livrer par un camion

Le ninja linking fonctionne sur un constat : il existe des multitudes d’opportunités sur le web de poser des liens gratuits, mais tous n’ont pas la même valeur. Il faut alors savoir faire des recherches pour trouver les meilleurs spots de liens.

Prenons un exemple d’action à entreprendre : vous pouvez créer un web profile (profil de compte) très détaillé sur certains sites de grande popularité, puis faire en sorte de référencer ce profil et d’y intégrer un backlink vers votre site. Mais cela peut se faire aussi dans des commentaires de blog, dans des messages dans des forums…

Tous ces liens ne se valent pas, alors ne perdez pas votre temps à spammer les forums et les blogs pour intégrer vos liens. En effet, ils n’envoient pas tous de la puissance, et il existe beaucoup de critères pour bien les choisir. Mais un SEO expert d’une agence web qui vous propose une campagne de ninja linking pourra vous obtenir du volume de backlink pour un prix très raisonnable.

Par ailleurs, la stratégie de ninja linking permet de diluer votre volume d’ancres de liens.

Vous aimeriez renforcer la visibilité et l’autorité de votre site web en obtenant des backlinks naturels de qualité ? Confiez alors votre stratégie de netlinking aux experts SEO de Lemon Interactive.

Illustration d'une personne qui donne des ordres à un robot.txt pour le seo.

Robots.txt et SEO : pourquoi est-il nécessaire et comment l’optimiser ?

Parmi tous les outils et fichiers utiles au référencement naturel d’un site web, le fichier robots.txt est un incontournable pour tous les créateurs de sites web. Découvrez ce petit fichier, facile à mettre en place, qui guidera les robots de crawl vers les pages les plus importantes de votre site, et interdira l’accès à d’autres.

Le robots.txt, qu’est-ce que c’est ?

Le robots.txt est un fichier texte utilisé comme un protocole d’exclusion des robots d’exploration, tel que Googlebots. Placé à la racine de votre site web, à la base de l’arborescence des dossiers hébergés sur le serveur, il permet d’empêcher les web crawlers (ou robots d’exploration) d’accéder à tout ou partie de votre site Internet. Pour cela, il envoie des commandes aux robots d’indexation des moteurs de recherche leur indiquant ce qu’ils ont le droit de crawler ou non.

Le fichier robots.txt est l’un des premiers fichiers crawlés par un moteur d’indexation. Il permet donc de prioriser l’activité du bot avant même qu’il ait commencé l’exploration du site, grâce aux consignes de crawl intégrées à la racine du site.

Attention, le fichier robots.txt n’est pas destiné à désindexer des pages. En effet, si vous interdisez aux robots d’explorer une page de votre site web qui est déjà indexée, cela ne la désindexera pas. Si c’est votre intention, il faudra alors utiliser la balise noindex, ou protéger la page par un mot de passe.

En revanche, si vous avez une page web non-indexée, interdire le crawl avec robots.txt vous assure qu’elle ne sera jamais indexée.

Bon à savoir : le fichier robots.txt de votre site web est accessible en saisissant www. nomdedomaine.extensiondedomaine / robots.txt dans la barre de recherche.

Quel est l’intérêt d’un fichier robots.txt ?

Si le robots.txt ne doit pas être utilisé pour gérer l’indexation des pages web d’un site, il est intéressant pour le SEO, pour la gestion du budget crawl, ainsi que pour la sécurité du site.

Optimiser votre budget crawl

Illustration d'un robot qui regarde des pages web.

L’intérêt d’un fichier robots.txt concerne d’abord l’éditeur de site. En effet, celui-ci va pouvoir, avec le robots.txt, autoriser ou interdire des accès à des pages, ou à des dossiers, qui ne sont pas pertinents pour le SEO, et qui, de ce fait, vont consommer inutilement du budget crawl. Les robots ne vont alors pas perdre de temps sur vos pages sans intérêt, et concentrer toute leur attention sur vos pages importantes, augmentant ainsi votre budget crawl.

Piloter astucieusement son robots.txt est donc un très bon moyen d’ouvrir et de fermer les vannes aux bons endroits sur un site web, afin d’obtenir une optimisation du référencement sur tous les mots-clés.

Assurer la sécurité du site Internet

Robots.txt est aussi intéressant pour la sécurité, dans le cas où, par exemple, un bot extérieur de black hat non-désiré génère une surcharge sur le serveur, ou quand on n’a pas envie que Google accède au site web (dans le cas d’une refonte notamment).

Le fait d’interdire l’accès, via le fichier robots.txt, peut permettre d’éviter des catastrophes, comme l’indexation prématurée du site, ou l’indexation de la préprod.

Séduire les moteurs de recherche

Le robots.txt est enfin un atout pour les moteurs de recherche. En priorisant la navigation, et en fermant les bonnes portes, vous allez optimiser le temps de parcours des robots d’exploration. Au final, vous faites des économies d’argent, car, rappelons-le, les bots coûtent très cher à déployer sur tous les sites web de la planète.

Si tout le monde gérait de façon efficiente son robots.txt, les bots pourraient aller à l’essentiel plutôt que de parcourir des tonnes de pages inutiles.

Comment fonctionne un robots.txt ?

Le robots.txt est un simple fichier texte, qu’on peut éditer à partir de n’importe quel éditeur de texte, et dans lequel on renseigne ses instructions.

Les commandes de robots.txt

Le fichier robots.txt charge les robots des moteurs de recherche (également appelés agents ou spiders) de recevoir des instructions. Pour cela, il faut alors utiliser plusieurs commandes.

La commande user-agent

Illustration d'un robot qui accepte ou refuse l'accès à un site.

Parmi les renseignements que l’on peut fournir dans robots.txt, on commence toujours par indiquer à quel moteur de recherche on s’adresse. Pour cela, on utilise la consigne « user-agent », suivie de deux points et de la liste des user-agents autorisés, qu’on trouve très facilement sur Google (googlebot pour Google, bingbot pour Bing…).

L’intérêt, c’est que l’on peut définir quel robot de moteur de recherche aura accès ou non au site, ou à certaines parties du site. Généralement, vous verrez souvent la fonction :user-agent:, ce qui signifie que l’instruction concerne l’intégralité des moteurs de recherche.

En effet, l’astérisque signifie « n’importe quel caractère » ou « s’applique à tous ». Cela permet d’assurer que nous prenons en compte toutes les URL concernées ou les moteurs de recherche autorisés en ligne.

Les commandes allow et disallow

Ensuite, on utilise seulement 2 instructions : allow pour ouvrir des portes, et disallow pour les fermer.

Il suffit alors d’entrer la consigne, et d’ajouter l’élément que vous souhaitez autoriser ou bloquer.

Cas particulier, si vous souhaitez, par exemple, fermer l’accès total à un répertoire, mais que vous voulez quand même que Google, voire son canal SEO Google Discover, accède à un seul petit bout du répertoire, alors vous devrez procéder par ordre chronologique. En premier lieu, on interdit l’accès au dossier, et en second temps, on autorise l’accès à la petite partie du dossier. De cette façon, le moteur de recherche comprend qu’il y a une exception à la règle de base.

Par exemple : vous ne voulez pas que Google accède à votre répertoire d’images, mais vous voulez qu’il accède quand même au dossier spécifique « images 2022 ». Alors vous interdisez d’abord l’accès au dossier images, puis vous autorisez l’accès à « images 2022 ».

Les particularités de robots.txt

Pour utiliser robots.txt de manière intelligente et efficace, il est essentiel d’en connaître les spécificités, dont voici les plus importantes :

  • Dans le robots.txt, on privilégie l’usage d’une url relative, c’est-à-dire une url sans le protocole http, le www, le nom de domaine et l’extension de domaine. Par exemple, pour évoquer une agence lilloise SEO lemoninteractive.fr/agenceseolille.html, on a juste /agenceseolille.html ;

  • Vous pouvez mettre des instructions globales sur le site, en intégrant simplement « / » (slash), sans rien d’autre. Dans ce cas-là, on indique qu’on souhaite interdire l’intégralité de l’accès ;

  • Si deux instructions entrent en conflit dans votre robots.txt, Google les ignorera ou priorisera l’instruction la plus détaillée. Cela vous invite alors à être vigilant sur la qualité et la précision de votre production ;

  • Enfin, il est très important, dans le robots.txt, de déclarer un sitemap. Indiquez cet annuaire de toutes les pages de votre site en utilisant la consigne « sitemap: » suivie de l’URL de votre fichier sitemap.

Bon à savoir : le fichier robots.txt doit être encodé en UTF-8, un mode d’encodage spécifique aux fichiers txt.

Comment exploiter au mieux le robots.txt ?

L’utilisation du fichier robots.txt peut être un véritable atout pour l’optimisation de votre site web. Mais attention, si vous l’utilisez mal, cela peut aussi se retourner contre vous, nécessitant l’intervention d’une agence web.

Optimiser la sécurité du site web

L’usage primaire du robots.txt a un enjeu de sécurité, en refusant l’accès aux dossiers admin, à certaines ressources du CMS, ou à certaines pages.

Illustration d'une personne qui protège un site web.

Il faut donc éviter d’avoir des interdictions sur des pages susceptibles d’être exploitées par un hacker, comme l’url de connexion de votre site. En effet, si un hacker veut s’en prendre spécifiquement à votre site web, il regardera directement robots.txt et se servira des informations qu’il va collecter pour accélérer son travail.

Rappelons que robots.txt n’est qu’un fichier qui donne des consignes au robot. Et si les robots bienveillants jouent généralement le jeu, les plus malveillants sont libres de ne pas les suivre, voire même d’aller tout droit vers vos pages interdites, pour en récupérer les données sensibles.

Donc, utilisez robots.txt avec modération. Mieux vaut essayer le fait de ne laisser aucune trace sur le site, comme votre url de connexion, plutôt que d’avoir à la bloquer dans le robots.txt.

Viser la performance du site

Le deuxième gros enjeu du robots.txt vise la performance. Pour prendre un cas classique, un site e-commerce avec un grand nombre de filtres à facettes et de filtres de tri pourrait se retrouver dans des situations où il aurait des combinaisons infinies de pages générées par l’ensemble des combinaisons de ces filtres à facettes. La bonne solution consiste alors, dans 99 % des cas, à simplement indiquer dans le robots.txt la référence du paramètre php, et de le mettre en disallow pour l’ignorer.

Comment savoir si votre fichier robots.txt fonctionne ?

L’encodage du fichier robots.txt peut rapidement devenir un casse-tête, surtout si votre site est dense. Alors, pour vous assurer que votre fichier est fonctionnel, et que toutes les consignes sont opérationnelles, vous pouvez vérifier votre fichier robots.txt sur la Google Search Console avant de l’intégrer.

Il vous suffira d’aller dans l’onglet « exploration », puis sur « outil de test du fichier robots.txt ». Vous pourrez alors copier les données de votre fichier robots.txt, et lancer le test.

Si le test est validé, et que la mention « autorisé » s’affiche, vous pouvez alors intégrer votre fichier à la racine de votre site Internet, car celui-ci est opérationnel.

Vous aimeriez optimiser votre budget crawl en guidant les robots des moteurs de recherche vers les pages web de votre site les plus pertinentes ? Lemon Interactive peut vous aider à installer robots.txt sur votre site, et ainsi améliorer votre référencement naturel.

Illustration d'un personne montrant le SEO d'un site

Pourquoi spécifier ses mots-clés longue traîne en SEO ?

Aujourd’hui, plus de la moitié des visiteurs d’un site web provient du trafic organique. Autrement dit, c’est en tapant un mot-clé dans les moteurs de recherche que les internautes atterrissent sur votre site… Ou pas. La stratégie SEO basée sur les mots-clés est donc essentielle, mais visez-vous les bons keywords ? Voyons ce que peuvent vous apporter les mots-clés longue traîne.

Qu’est-ce qu’un mot-clé ?

Un mot-clé est une expression webmarketing qui désigne un mot ou groupe de mots qui va présenter une certaine volumétrie et un certain intérêt par rapport à l’activité d’un client. Ce sont, plus concrètement, les mots que nous tapons tous dans la barre de recherche Google quand nous cherchons une réponse à notre question.

Dans une stratégie de référencement naturel, il est potentiellement intéressant de travailler le mot-clé, afin de chercher à se positionner dessus dans la SERP (pages de résultats de recherche de Google et des autres moteurs de recherche).

Qu’appelle-t-on une longue traîne ?

La longue traîne, ou long tail, est une expression complémentaire de la courte traîne, ou short tail, et de la milieu de traîne, ou mid tail. Plus spécifiquement, la longue traîne constitue 80 % des mots-clés qui forment un corpus sémantique autour d’une thématique. En revanche, elle représente une volumétrie plus faible que la courte traîne, qui représente les 20 % des mots-clés les plus recherchés dans les moteurs de recherche.

Dans la pratique, un mot-clé en courte traîne est composé d’un ou deux mots génériques (nom de la marque + activité ou produit, par exemple). Plusieurs expressions complexes composent un mot-clé longue traîne.

Pourquoi ne pas chercher à se positionner sur la courte traîne ?

Les shorts tails sont des mots-clés qui présentent de très fortes volumétries, mais ils sont aussi très disputés. Sur des outils comme Semrush, par exemple, ou sur le planificateur de mots-clés de Google Ads, on peut très vite voir qu’un mot-clé avec une forte volumétrie peut présenter jusqu’à 50 000 recherches par mois. Si cela peut paraître très alléchant au premier abord, on va très vite voir que les premières positions sur ce type de requête sont extrêmement disputées.

Sur Google Ads, le CPC (coût par clic) sera très élevé, et en Google Search, les efforts pour se positionner sur cette requête vont être très coûteux, que ce soit en temps ou en argent.

Prenons un exemple : si vous cherchez une agence web, Google vous propose plus de 491 000 000 résultats. Si vous précisez votre recherche avec un mot-clé longue traîne « agence web SEO accompagnement référencement naturel », vous n’avez plus que 77 600 résultats (avec Lemon Interactive en 5ème position !)

Quel est l’intérêt de la longue traîne ?

Avec un mot-clé long tail, on pourrait craindre de trop cibler la recherche, et passer à côté d’internautes. Pourtant, utiliser la longue traîne s’avère plus judicieux que de travailler un mot-clé en courte traîne.

Attirer un trafic plus qualifié

Illustration d'une page internet avec les mots longue traîne et 70% mots-clés.

La longue traîne permet de spécifier son mot-clé. Par exemple, sur une marketplace en SEO, au lieu de travailler sur « chaussures Nike », par exemple, on va plutôt travailler sur « chaussures Nike rouge enfant ». Ces mots-clés auront une volumétrie plus faible, c’est vrai, mais ils attireront un trafic beaucoup plus qualifié.

Il faut garder à l’esprit qu’un mot-clé en short train est trop imprécis, trop vague. Si un internaute tape « chaussures Nike », il peut à la fois chercher un magasin de chaussures Nike, des chaussures Nike homme, des chaussures Nike vertes, des chaussures Nike de foot…

En 2023, l’intérêt des robots de Google va aux sites qui arrivent à qualifier au mieux l’intention de recherche. Il s’agit alors de se mettre à la place du persona du client, pour savoir quelle est son intention précise derrière le mot-clé tapé.

Avec une longue traîne, on vise un mot-clé hyper qualifié sur lequel, si vous venez placer la bonne page web en face, vous pourrez avoir un CTR (taux de clic) et des conversions avec de meilleures performances qu’avec un mot-clé générique.

Attirer plus de trafic

Vous aussi, quand votre grand-tante cherche quelque chose sur Google, elle écrit pratiquement la phrase en entier ? Sachez qu’elle n’est pas la seule, et qu’elle utilise tout simplement les mots-clés longue traîne. Ainsi, les mots-clés longue traîne composent 70% des recherches sur Google.

En toute logique, utiliser cette stratégie SEO pour votre performance vous assure alors de répondre le plus précisément possible aux requêtes des internautes, et donc d’avoir un trafic beaucoup plus important. C’est d’autant plus vrai qu’avec l’avènement de la recherche vocale, les requêtes orales sont aussi longues et spécifiques.

Comment travailler la longue traîne efficacement ?

Vous pouvez travailler la longue traîne en cherchant à qualifier une page par mot-clé. Si vous travaillez un mot-clé « chaussures Nike homme football noir », vous allez créer une page qui se positionnera sur cette requête précise. On concentre alors la page entière à ce seul et unique mot-clé, sans se disperser.

En effet, aujourd’hui, avec la concurrence dans la SERP et les demandes d’optimisation de Google, la seule solution qui fonctionne, c’est de travailler une page par mot-clé, et de travailler le corpus autour de ce mot-clé pour venir le compléter.

La requête longue traîne consiste donc à abandonner les mots-clés les plus flatteurs en termes de volume, au profit de milliers d’expressions beaucoup plus précises, mais qui ont le potentiel de mener à bien vos conversions. Ce sera le résultat d’un travail sémantique et d’analyse puissant qui permettra de s’adresser très précisément aux clients que vous cherchez à toucher.

Application : définir vos mots-clés long tail

Généralement, quand on crée un site web, le mot-clé short tail vient en tête rapidement. Reste à trouver les mots-clés longue traîne sur lesquels vous pourrez vous positionner. Plusieurs méthodes permettent alors de faire le tour des long tails.

Illustration des applications pour les mots-clés long tail.
  • Les suggestions Google : quand vous tapez votre mot-clé dans la barre de recherche, Google le complète avec des suggestions thématisées ;

  • La recherche associée de Google : des propositions d’expressions-clés s’affichent en bas de la SERP, en rapport avec la requête initiale ;

  • Les « autres questions posées » de Google : les People Also Ask (PAA) recensent les questions que les internautes ont cherché sur le même sujet, et peuvent guider vers des longues traînes ;

  • L’analyse de la concurrence : plusieurs outils permettent de voir les mots-clés longue traîne que vos concurrents utilisent, comme Semrush, Yooda Insight, Keywords Everywhere… ;

  • Les générateurs de mots-clés : il existe des outils de recherche de mots-clés qui peuvent vous aider, comme Plezi, Ubersuggest, Google Keyword Planner (Google Ads), ou encore Answer the Public.

Et parfois, un simple brainstorming suffit à définir des centaines de mots-clés longue traîne.

Utiliser vos mots-clés longue traîne dans les contenus de votre site web

Vous avez trouvé de nombreux mots-clés longue traîne qui vont vous permettre de pouvoir cibler vos contenus. Il ne reste plus qu’à les appliquer sur votre site web.

Prioriser vos mots-clés long tail

En premier lieu, il vous faudra effectuer un petit tri de vos mots-clés, pour déterminer ceux qu’il faudra pousser davantage et prioriser. Vous pouvez, pour cela, vous baser sur plusieurs critères :

  • La volumétrie des recherches : grâce à différents outils, vous pourrez analyser le volume de recherche de chaque mot-clé, pour prioriser ceux qui ont un plus fort volume ;
  • La concurrence : plus les mots-clés sont utilisés par d’autres sites, plus il sera difficile de vous démarquer ;
  • La pertinence : l’essentiel reste de travailler des mots-clés qui ont du sens pour votre site web et surtout pour vos internautes. L’intention de recherche est alors prioritaire face à la volumétrie ou la concurrence

Établir votre calendrier éditorial en vous appuyant sur votre liste de mots-clés

Illustration de deux personnes travaillant sur un calendrier éditorial pour les mots-clés des articles.

Lister les mots-clés longue traîne pertinents fait partie d’une stratégie SEO de positionnement, mais c’est aussi une solution astucieuse pour trouver des sujets de contenus à publier sur votre blog, par exemple.

Alors, pour vous assurer de couvrir tous les mots-clés longue traîne pertinents pour votre référencement naturel, intégrez-les directement dans votre calendrier éditorial, en prévoyant au minimum un article par mot-clé.

Intégrer vos requêtes longue traîne dans vos contenus

Votre calendrier éditorial est prêt ? Vous pouvez passer à la rédaction SEO de votre article. L’idée est alors d’utiliser le champ sémantique et le champ lexical qui s’articulent autour de votre mot-clé, pour bien faire comprendre à Google le sujet de l’article, et surtout votre expertise dans le domaine. Ensuite, plusieurs solutions s’offrent à vous pour optimiser vos contenus avec vos requêtes longue traîne.

Insérer directement vos keywords longue traîne dans votre texte

Une fois devant votre ordinateur, il ne s’agit pas simplement d’insérer vos requêtes au fil du texte, mais plutôt d’intégrer les expressions de manière à conserver une lecture fluide et pertinente. L’aspect humain est ici essentiel, et le bourrage de mots-clés ne peut que jouer en votre défaveur. Il faut alors travailler la qualité du contenu en utilisant un vocabulaire ciblé autour de la thématique, en évitant l’écriture robotisée indigeste. Ainsi intégrés au sein d’un champ sémantique dense et varié, les mots-clés longue traîne seront perçus comme une véritable plus-value aux yeux de Google, et cela améliorera aussi l’expérience utilisateur (UX).

Miser beaucoup sur votre introduction et vos Hn

Les experts en référencement naturel savent qu’une bonne stratégie SEO doit viser à intégrer les longues traînes à des endroits clés du texte. Ainsi, pour marquer votre expertise et affirmer clairement le sujet de votre contenu à Google, nous vous conseillons de placer votre mot-clé dès l’introduction. Un joli mélange de votre longue traîne et de différents mots de votre champ lexical vous assurera un meilleur positionnement qu’une introduction trop évasive ou bâclée.

Il est également conseillé de placer votre mot-clé longue traîne dès le premier H2, puis de varier le champ sémantique et le champ lexical dans les Hn suivants.

Par ailleurs, certains experts SEO recommandent d’essayer de placer le mot-clé principal au moins une fois tous les 100 mots. Cette indication ne fait pas l’unanimité, mais elle reflète bien l’idée qu’il faut l’intégrer tout au long du texte, et pas seulement dans l’intro et les titres.

Recycler et reprendre vos anciens contenus

Vous aviez déjà plusieurs contenus publiés sur votre site avant de faire votre recherche de mots-clés longue traîne ? Appliquez alors dès maintenant les recommandations SEO sur vos nouveaux contenus, mais prenez le temps, également, d’optimiser vos anciens textes, afin qu’ils soient mieux positionnés. Prenez alors un contenu, repérez le mot-clé principal, et travaillez-le en longue traîne, en intégrant le mot-clé naturellement dans l’introduction, votre texte et vos Hn. C’est aussi l’occasion de recycler son contenu, en mettant à jour les informations et en redéfinissant la stratégie SEO.

Essayez d’insérer des mots-clés dans un contenu, c’est essentiel pour le SEO, mais viser les mots-clés longue traîne, c’est encore mieux. Les experts SEO de Lemon Interactive ne peuvent que vous recommander cette pratique, sans oublier de l’accompagner de toutes les autres pratiques SEO essentielles au référencement d’un site web.