Glossaire : les mots clés
dans l’univers du référencement
Quelques mots-clés, expressions et tournures des métiers du référencement
Si vous êtes peu familier / familière du vocabulaire de l’écosystème du référencement, voici quelques précisions sémantiques utiles. Nous vous souhaitons la bienvenue dans un monde d’acronymes divers et variés. Cette rubrique s’avère d’autant plus intéressante qu’elle contribue utilement au référencement naturel (SEO) de ce site 🙂 Toutefois, cet inventaire de mots-clés n’est pas exhaustif ! N’hésitez pas à nous en suggérer.
Les termes et expressions employés dans le référencement
Le référencement est un processus qui mobilise de multiples techniques destinées à faire apparaître un site Internet en bonne position dans les moteurs de recherche. Il s’agit d’aider les SERP à interpréter correctement le contenu du site pour mieux les indexer, tout en permettant aux internautes de trouver facilement les informations qu’ils recherchent. On parle souvent de SEO (référencement naturel) pour le qualifier.
Autorité
Dans le champ du référencement, la notion d’autorité (authority en anglais) fait référence à la légitimité et à l’expertise d’un site Internet ou d’une de ses pages sur une thématique donnée. L’autorité agit comme un indicateur de confiance dans la qualité du contenu proposé par le site. Le calcul de l’autorité par des moteurs de recherche comme Google se base sur le nombre et la qualité des backlinks vers votre site, sur la qualité et la longueur de votre contenu ou encore sur l’ancienneté de votre nom de domaine.
Backlink
Backlink ou « lien entrant » : pour référencer efficacement votre site et pour qu’il gagne en autorité, votre site doit s’intégrer à un écosystèmes d’autres sites traitant de votre thématique ou d’une thématique avoisinante. Plus le lien vers votre site figure sur une page importante et fréquentée d’un autre site de référence, plus vous gagnez en crédibilité. Toutefois, il ne faut pas que le code de ce site mention « nofollow », sinon les robots des moteurs de recherche ne le suivront pas. Les backlinks sont des éléments clés et majeurs d’un bon référencement. Généralement, vos premiers liens entrants proviennent de vos réseaux sociaux (LinkedIn, Youtube) ou d’autres sites de votre entité. De même au sein de votre site, il est bon d’avoir des liens internes entre vos pages traitant de thèmes approchants.
Breadcrumbs
Breadcrumbs (en anglais) ou « fil d’Ariane » (en français) : Quand les contes croisent la mythologie grecque, cela donne une technique Web désormais bien connue. Pour résumer ces métaphores, les breadcrumbs ne sont autres que les miettes de pain semées par le Petit Poucet dans le conte de Charles Perrault. Elles sont censées lui permettre de retrouver son chemin vers chez lui. Le fil d’Ariane possède la même fonction. Il doit permettre à Thésée de sortir du labyrinthe qui abrite le Minotaure.
Dans le contexte d’un site Internet, ce dispositif de navigation secondaire permet à l’utilisateur de visualiser sa position au sein de l’arborescence d’un site web. Généralement le fil d’Ariane se position en haut de page, sous le bandeau principal. Il prend la forme d’une succession de liens hiérarchisés (par exemple : Accueil > Catégorie > Sous-catégorie > Page courante).
Cannibalisation
La cannibalisation désigne une situation dans laquelle plusieurs pages d’un même site sont optimisées pour une intention de recherche identique ou très proche. Elles en viennent au point d’entrer en concurrence entre elles dans les résultats des moteurs de recherche.
En outre, on parle de cannibalisation SEO lorsque Google ne parvient pas à identifier clairement quelle page est la plus pertinente pour une requête donnée. En effet, dans ce cas, plusieurs URLs du site ciblent les mêmes mots-clés ou le même champ sémantique. Cette ambiguïté peut diluer les signaux de pertinence et d’autorité d’une page sur un site Internet.
Cela a pour conséquence d’entraîner un affaiblissement du positionnement global car aucune page ne parvient à se stabiliser dans les premiers résultats. Parmi les conséquences, citons la création de contenus redondants (articles de blog, pages catégories, pages piliers mal hiérarchisées).
Contrairement à une idée répandue, la cannibalisation n’entraîne pas nécessairement une pénalité, mais elle peut réduire la visibilité organique, diminuer le taux de clic (CTR) ou encore freiner la progression d’un site sur des requêtes stratégiques.
Employee Generated Content (EGC )
L’Employee Generated Content (EGC ) désigne l’ensemble des contenus produits et diffusés par les collaborateurs d’une organisation, à titre professionnel ou semi-professionnel. Ils sont diffusés sur les supports numériques de la marque, dans un cadre lié explicitement ou implicitement à leur appartenance à l’entreprise.
En outre, ces contenus expriment une prise de parole interne rendue publique. Elle viste généralement à promouvoir la marque ou un de ses produits, à démontrer une expertise métier, un savoir-faire professionnel ou à orienter les représentations de l’organisation auprès du grand public ou d’autres professionnels et institutions.
L’EGC peut prendre des formes variées, notamment :
- Publications sur les réseaux sociaux professionnels ou généralistes
- Témoignages collaborateurs
- Articles de blog ou tribunes signées
- Vidéos ou podcasts incarnés par des salariés
- Contributions à des événements numériques (webinaires, lives)
- Réponses ou interventions au nom de l’expertise métier
Cette notion s’oppose à celle de User Generated Content (UGC).
Generative Search Engine (GSE)
Un Generative Search Engine (GSE) est un moteur de recherche qui produit directement des réponses synthétiques et contextualisées à partir de requêtes utilisateur. L’outil mobilise des modèles de langage génératifs (LLM), plutôt que de se limiter à l’indexation et à la hiérarchisation de documents existants sous forme de liens.
Contrairement aux moteurs de recherche traditionnels qui génèrent des liste de résultats, un GSE repose sur une logique de génération de contenu structuré. La réponse est construite dynamiquement à partir de corpus préexistants (index web, bases de données, contenus structurés), de mécanismes de récupération d’information et de capacités de raisonnement linguistique propres aux modèles génératifs.
Indexation
L’indexation est le processus durant lequel les robots des moteurs de recherche parcourent Internet / la toile pour collecter des informations sur les sites qu’ils parcourent. L’indexation peut permettre de constater la création de nouveaux sites ou de nouvelles pages, de prendre en compte des mises à jour et des modifications, de constater des suppressions. Les données collectées par les robots sont ensuite traitées par des algorithmes qui vont permettre de déterminer le contenu thématique des pages des sites visités. Un robot peut explorer une page que le moteur décidera ou non d’indexer en fonction de la qualité du contenu. L’indexation d’une page existante n’est pas automatique, elle relève d’un arbitrage des algorithmes du moteur de recherche.
Knowledge Gragh (de Google)
Le Knowledge Graph de Google est un système de structuration et de modélisation des connaissances mis en place par Google à partir de 2012. Il vise à organiser l’information autour d’entités et de leurs relations, plutôt qu’autour de simples mots-clés.
Cette base de connaissances sémantique relie des entités identifiables (personnes, lieux, organisations, œuvres, concepts, événements, etc.) entre elles par des relations typées. Cette organisation aide à mieux comprendre le sens des requêtes des utilisateurs et à y répondre de manière contextualisée.
LLM
Un grand modèle de langage ou Large Language Model (LLM) est un modèle d’intelligence artificielle fondé sur l’apprentissage automatique. Il est conçu pour analyser, comprendre et générer du langage naturel à partir de données textuelles.
Les LLM sont entraînés sur des corpus de très grande taille. Ces derniers se composent de textes issus de sources variées, ce qui leur permet d’identifier des régularités statistiques, syntaxiques et sémantiques dans la langue, et ainsi de produire des réponses cohérentes à une grande diversité de tâches linguistiques.
Les LLM sont notamment capables de :
- Générer du texte
- Reformuler, résumer ou traduire des contenus
- Répondre à des questionsClassifier ou analyser des textes
- Assister des tâches de rédaction ou d’exploration de connaissances
Ces capacités reposent sur la modélisation probabiliste des séquences de mots, et non sur une compréhension sémantique intentionnelle au sens humain.
L’un des enjeux actuels du référencement est de produire un contenu attractif pour les intelligences artificielles.
Longue traîne
Longue traîne (effet de) : Egalement appelée long tail en anglais, cette technique a pour objectif de positionner un site sur des expressions complexes et très spécifiques (trois mots ou plus). Lorsqu’un mot clé est très concurrentiel parce qu’utilisé par une multitude de sites, il est parfois pertinent de réussir à se positionner efficacement sur une niche précise. Par exemple, être premier sur le mot « chaussures » peut s’avérer très compliqué tant la concurrence est rude. En revanche, se positionner sur une expression plus précise telle que « chaussures randonnée montagne homme » est déjà plus accessible car la concurrence y sera moins forte.
Mot-clé
Mot-clé (ou expression clé) : dans le langage du référencement, les mots-clés revênt une double dynamique : Ils constituent à la fois la thématique de recherche tapée par l’internaute dans la barre du moteur de recherche, mais également la combinaison de mots pour laquelle une marque souhaite se positionner.
La concordance entre la recherche de l’internaute, le résultat affiché par le moteur de recherche et le positionnement d’une marque sur l’expression saisie dans le moteur contribue à la rencontre des troies parties. Toutefois, la rencontre n’est possible que si chacun(e) donne un sens similaire à l’expression tapée dans la barre de recherche.
Net-linking
Le netlinking est une stratégie mise en oeuvre par les référenceurs afin d’obtenir des liens entrants ou liens retours (backlinks) vers le site de leur client. Plus des sites fiables, bien référencés et proches de votre thématique renvoient vers votre site, plus votre crédibilité (également appelée autorité) augmente. Il convient donc de choisir ses sites partenaires avec soin afin de ne pas brouiller le message envoyé aux moteurs de recherches.
Pagerank
Le pagerank (PR) est un algorithme d’analyse de liens créé par Larry Page (cofondateur de Google) afin de mesurer la popularité d’une page Internet ou d’un site Web. Il permet ensuite de réaliser un classement des pages Web afin de les présenter dans les pages de résultats du moteurs de recherche lorsque les internautes effectuent une recherche.
Pour en savoir plus, vous pouvez consulter un article dédié sur Wikipedia
Robot / crawler
Un robot d’indexation ou crawler est un programme automatisé (ou bot) dont la mission est de parcourir les pages des sites Internet afin de les indexer. Les robots recueillent le contenu des pages qui sont ensuite traitées par des algorithmes pour déterminer la nature de l’information qu’elles proposent.
SEM
Social Media Optimization (SMO) : L’optimisation de votre stratégie sur les réseaux sociaux vise à développer la visibilité de votre entreprise, que ce soit pour accroître sa notoriété ou pour créer de la conversion (remplissage d’un formulaire, achat d’un produit…).
Attention, l’efficacité de cette stratégie s’avère très variable. En effet, l’objectif des réseaux sociaux reste d’exposer leurs utilisateurs à un maximum de publicité et à passer autant de temps que possible sur leur plateforme. Ainsi, tous les contenus pointant vers l’extérieur des réseaux sont moins mis en avant et génèrent donc moins de conversion, à moins de payer pour être visible.
Search Engine Advertising (SEA)
Search Engine Advertising : le SEA consiste à acheter des liens sponsorisés afin d’offrir une plus grande visibilité à un site Internet. On parle alors de « référencement payant » car l’achat de mots clés permet d’être affiché au dessus des résultats « naturels » (voir la définition du SEO) dans les moteurs de recherche.
Le SEA doit s’envisager comme un outil ponctuel, au service du lancement d’un site ou d’opération commerciales temporaires, il ne doit pas venir en substitution du référencement naturel (SEO). Si le travail de votre site Search Engine Optimization réalisé sur votre site est suffisamment qualitatif et constant, la nécessité de recourir au SEA diminue avec le temps.
SEO
Search Engine Optimization ou SEO : il s’agit en fait de l’optimisation technique et éditoriale d’un site pour améliorer son référencement sur les moteurs de recherche. En effet, le SEO doit se considérer à la fois sous l’angle des optimisations techniques (vitesse de chargement, ergonomie, accessiblité…) que de la qualité de son contenu (présence de balises, liens hypertextes entre les pages ou avec d’autres sites…). D’autre part, des actions externes doivent être mises en place pour orienter d’autres pages ou sites vers le vôtre.
On parle également de référencement naturel pour qualifier le SEO, par opposition au référencement payant considéré comme plus « artificiel ».
Search Engine Results Page (SERP)
Search Engine Results Page (SERP) : Cette expression désigne la page d’affichage de résultats sur les moteurs de recherche. Elle se compose généralement d’une partie supérieure où sont d’abord affichés des liens sponsorisés, puis viennent généralement des informations locales et ensuite les résultats naturels (SEO). Le moteur de recherche affiche les résultats les plus pertinent en haut et les moints pertinent en bas (par ordre décroissant de pertinence). Il peut toutefois arriver qu’une page pertinente mais mal référencée apparaisse plus bas qu’elle ne devrait.
Au fil du temps, les résultats naturels sont descendus de plus en plus bas dans les pages de résultats de moteurs de recherche comme Google, afin d’inciter les marques à privilégier le référencement payant (SEA).
Signaux frais
L’expression « signaux frais » (ou « freshness signals » en anglais) désigne l’ensemble des indicateurs utilisés par les moteurs de recherche pour apprécier le degré de récence, d’actualisation et de dynamique d’un contenu ou d’un site. Plus un site publie du contenu régulièrement ou plus son contenu est réactualisé, plus il sera jugé pertinent et valorisé.Il ne s’agit pas d’un signal unique formellement défini par les SERP, mais d’un regroupement de facteurs liés à la temporalité des contenus et des interactions. La récence du contenu peut s’appuyer sur la date de publication ou de mise à jour, mais prend également en compte le volume de contenu actualisé. Il faut des modifications substantielles pour donner du poids à la modification. Par ailleurs d’autres stratégies peuvent être mises en oeuvre afin d’envoyer des signaux frais aux moteurs de recherche, comme par exemple la publication de commentaires, l’acquisition de liens entrants vers la page en question.
Attention cependant, La fraîcheur ne compense pas un manque de pertinence ou de qualité.
Sitemap XML
sitemap XML : traduite littéralement, cette expression pourrait signifier la « carte du site ». Il s’agit plutôt d’un protocole visant à informer les moteurs de recherches de la disponibilité de certaines pages pour favoriser leur indexation. Désormais de nombreux CMS (ex : WordPress, Drupal, Joomla) disposent de modules permettant de générer automatiquement ces fichiers au format XML ou TXT pour les soumettre aux moteurs de recherche. Une fois que le moteur est informé, il peut alors envoyer ses robots pour crawler (parcourir) les pages et les indexer (ou pas).
Pour en savoir plus, vous pouvez consulter la définition complète de Wikipedia
User Generated Content (UGC)
Le User Generated Content (UGC) désigne l’ensemble des contenus produits et diffusés par les utilisateurs eux-mêmes. Ce ne sont donc plus les marques ou les institutions qui rédigent mais les consommateurs. Cela n’est possible que dans le cadre de plateformes numériques, de services en ligne ou de dispositifs participatifs tels que les CMS. Ces contenus sont créés de manière volontaire ou spontanée. Ils interviennent généralement en lien avec une expérience vécue par le clien qui souhaite exprimer une opinion, donner un avis sur l’achat d’un bien ou d’un service.
Le UGC peut prendre des formes très variées, notamment :
- Avis et notations (sur votre site, vos réseaux sociaux ou sur les moteurs de recherche)
- Commentaires et discussions
- Publications sur les réseaux sociaux
- Photos, vidéos, stories
- Articles de blog, contributions à des forums ou wikis
- Témoignages et retours d’expérience
Vous l’aurez compris, l’UGC s’oppose au Employee Generated Content (EGC ) et au contenu de marque.
Et si nous faisions un bout de chemin ensemble ?
Nous sommes à votre disposition pour toute demande d'information.
Notre agence marketing et communication digitale, bien que basée à Bordeaux, intervient bien au delà du périmètre de la métropole.