Le référencement est réputé pour la désinformation, les malentendus et les idées fausses. Ceci est en grande partie dû au fait que Google est en quelque sorte une boîte noire afin d’essayer de limiter le jeu des SERP.

Cependant, ces derniers temps, Google a pris des mesures notables pour devenir plus transparent grâce à une activité accrue dans la communauté SEO.

Qu’il s’agisse de Hangouts réguliers pour les webmasters, d’allocutions lors de conférences ou métaphores perspicaces sur Twitterdes personnalités telles que John Mueller, Gary Illyes et Danny Sullivan de Google contribuent à dissiper les mythes du référencement par des faits.

Pour bannir davantage ces mythes, j’ai dressé une liste de malentendus courants sur Google et le référencement et pourquoi ils sont faux.

Malentendus courants sur Google et le référencement

Commençons par ceci : la pénalité pour contenu dupliqué n’existe pas. Google ne pénalise pas les sites pour avoir du contenu en double.

Google pénalise le contenu dupliqué

Google comprend que le contenu en double est une partie naturelle du Web et vise à indexer la page la plus pertinente et de la plus haute qualité afin que les internautes ne se voient pas présenter à plusieurs reprises le même contenu dans les résultats de recherche.

À moins qu’un site n’essaie de manipuler les classements et soit entièrement composé de contenu dupliqué, le pire scénario résultant d’un contenu dupliqué est que des pages similaires sont repliées ensemble dans l’index et qu’une version alternative de la page est affichée à la place.

Les professionnels du référencement peuvent fournir aux moteurs de recherche un certain nombre de signaux quant à la page qu’ils souhaitent indexer, y compris l’utilisation correcte des canoniques, l’inclusion du sitemap et les liens internes pointant vers la page préférée.

Google respecte l’URL canonique comme version préférée pour l’indexation

Ce n’est pas parce que vous définissez une URL comme version préférée pour l’indexation via une balise canonique que cette page est celle que Google sélectionnera pour l’indexation.

Le rel canonique est traité comme un signal par Google pour la page préférée et n’est pas toujours respecté.

De telles instances peuvent être trouvées dans la nouvelle version de Google Search Console dans le rapport Index Coverage sous le drapeau L’URL soumise n’est pas sélectionnée comme canonique.

Google peut choisir une page autre que celle que vous avez sélectionnée comme canonique lorsqu’il juge qu’une autre page dans un ensemble de doublons est un meilleur candidat à afficher dans la recherche.

Dans de tels cas, il serait conseillé de se demander si la page canonique que vous avez sélectionnée est bien celle que vous souhaitez indexer. Si tel est le cas, vous devrez alors examiner les signaux évoqués précédemment (sitemaps, liens internes, etc.) pour vérifier qu’ils pointent vers votre version préférée.

La clé est de vous assurer que vous envoyez à Google des signaux cohérents quant à la version préférée de la page.

Les mises à jour de qualité entraînent des pénalités algorithmiques

Dans une récente interview, l’ancien ingénieur de Google Fili Wiese a évoqué le mythe des pénalités algorithmiques :

« Une idée fausse qui existe souvent concerne des choses comme Google Panda ou Phantom comme l’appelle l’industrie, ou Fred. Mises à jour de qualité essentiellement. Mais les gens pensent que ce sont des pénalités ou des pénalités algorithmiques (quand ce n’est pas le cas).

La chose est il n’y a pas de pénalité algorithmique, c’est en fait un recalcul. C’est comme une grande boîte noire avec la formule à l’intérieur, vous mettez quelque chose, quelque chose sort, et ce qui sort est le classement et ce qui entre est votre site Web.

Les changements d’algorithme sont essentiellement des changements dans la boîte noire, ce qui signifie que ce qui sort de l’autre côté est légèrement différent maintenant. Cela signifie-t-il que vous avez été pénalisé ? Non, ça peut en avoir l’air, mais tu n’es pas pénalisé.

C’est une différence subtile que Wiese soulève, mais importante pour comprendre le fonctionnement des algorithmes de recherche de Google.

Il y a beaucoup de conseils qui circulent sur le référencement.

Certaines d’entre elles sont utiles, mais certaines d’entre elles vous égareront si elles sont appliquées.

La difficulté est de savoir qui est qui.

Il peut être difficile d’identifier quels conseils sont exacts et basés sur des faits, et ce qui est simplement régurgité à partir d’articles mal cités ou de déclarations Google mal comprises.

Les mythes SEO abondent.

Vous les entendrez dans les endroits les plus étranges.

Un client vous dira avec confiance comment il souffre d’une pénalité de contenu dupliqué.

Votre patron vous reprochera de ne pas garder vos titres de page à 60 caractères.

Parfois, les mythes sont évidemment faux. D’autres fois, ils peuvent être plus difficiles à détecter.

Les dangers des mythes du SEO

Le problème est que nous ne savons tout simplement pas exactement comment fonctionnent les moteurs de recherche.

Pour cette raison, une grande partie de ce que nous faisons en tant que professionnels du référencement finit par être des essais et des erreurs et des conjectures éclairées.

Lorsque vous vous renseignez sur le référencement, il peut être difficile de tester toutes les affirmations que vous entendez.

C’est alors que les mythes SEO commencent à prendre racine.

Avant de vous en rendre compte, vous dites fièrement à votre supérieur hiérarchique que vous envisagez d’« optimiser BERT » la copie de votre site Web.

Les mythes sur le référencement peuvent être brisés la plupart du temps avec une pause et une certaine considération.

Comment, exactement, Google pourrait-il mesurer cela ?

Cela profiterait-il réellement à l’utilisateur final de quelque manière que ce soit ?

Il y a un danger dans le référencement de considérer les moteurs de recherche comme omnipotents, et à cause de cela, les mythes sauvages sur la façon dont ils comprennent et mesurent nos sites Web commencent à se développer.

Qu’est-ce qu’un mythe SEO ?

Avant de démystifier certains mythes SEO courants, nous devons d’abord comprendre quelles formes ils prennent.

Sagesse non testée

Les mythes en matière de référencement ont tendance à prendre la forme d’une sagesse transmise qui n’est pas testée.

En conséquence, quelque chose qui pourrait bien n’avoir aucun impact sur la génération de trafic organique qualifié vers un site est traité comme si c’était important.

Facteurs mineurs soufflés hors de proportion

Les mythes sur le référencement peuvent également être quelque chose qui a un petit impact sur les classements organiques ou la conversion, mais auxquels on accorde trop d’importance.

Il peut s’agir d’un exercice de « case à cocher » qui est salué comme un facteur critique du succès du référencement, ou simplement d’une activité qui ne pourrait faire avancer votre site que si tout le reste avec vos concurrents était vraiment égal.

Conseils obsolètes

Les mythes peuvent surgir simplement parce que ce qui était efficace pour aider les sites à bien se classer et à se convertir ne le fait plus mais est toujours conseillé.

Il se peut que quelque chose fonctionnait très bien.

Au fil du temps, les algorithmes sont devenus plus intelligents.

Le public est plus réticent à être commercialisé.

Simplement, ce qui était autrefois un bon conseil est maintenant obsolète.

Google mal compris

Souvent, le début d’un mythe est Google lui-même.

Malheureusement, un conseil un peu obscur ou tout simplement pas simple d’un représentant de Google est mal compris et s’enfuit.

Avant que nous ne le sachions, un nouveau service d’optimisation est vendu à la suite d’un commentaire désinvolte qu’un Googleur a fait en plaisantant.

Les mythes SEO peuvent être basés sur des faits, ou peut-être s’agit-il plus précisément de légendes SEO ?

Dans le cas des mythes nés de Google, il semble que le fait ait été tellement déformé par l’interprétation de la déclaration par l’industrie du référencement qu’elle ne ressemble plus à une information utile.

Quand quelque chose peut-il sembler être un mythe

Parfois, une technique de référencement peut être considérée comme un mythe par d’autres simplement parce qu’ils n’ont pas réussi à mener à bien cette activité pour leur propre site.

Il est important de se rappeler que chaque site Web a sa propre industrie, un ensemble de concurrents, la technologie qui l’alimente et d’autres facteurs qui le rendent unique.

L’application générale de techniques à chaque site Web et s’attendre à ce qu’elles aient le même résultat est naïve.

Quelqu’un peut ne pas avoir réussi avec une technique alors qu’il l’a essayée dans sa verticale hautement compétitive.

Cela ne veut pas dire que cela n’aidera pas quelqu’un dans une industrie moins compétitive à réussir.

La causalité et la corrélation étant confondues

Parfois, les mythes SEO surgissent en raison d’un lien inapproprié entre une activité qui a été réalisée et une augmentation des performances de recherche organique.

Si un référenceur a vu un avantage de quelque chose qu’il a fait, il est naturel qu’il conseille aux autres d’essayer la même chose.

Malheureusement, nous ne sommes pas toujours doués pour séparer la causalité et la corrélation.

Ce n’est pas parce que le classement ou le taux de clics a augmenté à peu près au même moment que vous avez mis en œuvre une nouvelle tactique que cela a causé l’augmentation.

Il pourrait y avoir d’autres facteurs en jeu.

Bientôt, un mythe du référencement découle d’un référencement trop zélé qui veut partager ce qu’il croit à tort être un ticket d’or.

Éliminer les mythes du SEO

Cela peut vous éviter des maux de tête, des pertes de revenus et beaucoup de temps si vous apprenez à repérer les mythes du référencement et à agir en conséquence.

Test

La clé pour ne pas tomber dans les mythes du SEO est de s’assurer que vous pouvez tester les conseils chaque fois que possible.

Si vous avez reçu le conseil selon lequel structurer les titres de vos pages d’une certaine manière aidera vos pages à mieux se classer pour les mots clés choisis, essayez-le d’abord avec une ou deux pages.

Cela peut vous aider à mesurer si un changement sur plusieurs pages vaut le temps avant de vous engager à le faire.

Google teste-t-il simplement ?

Parfois, il y aura un grand tollé dans la communauté SEO en raison de changements dans la façon dont Google affiche ou ordonne les résultats de recherche.

Ces modifications sont souvent testées dans la nature avant d’être déployées sur davantage de résultats de recherche.

Une fois qu’un grand changement a été repéré par un ou deux SEO, les conseils sur la façon de l’optimiser commencent à se répandre.

Vous souvenez-vous des favicons dans les résultats de recherche sur ordinateur ?

Le bouleversement qui a causé l’industrie du référencement (et les utilisateurs de Google en général) était vaste.

Soudain, des articles ont surgi sur l’importance des favicons pour attirer les utilisateurs vers votre résultat de recherche.

Il y avait à peine le temps d’étudier si les favicons auraient un tel impact sur le taux de clics.

Parce que juste comme ça, Google l’a changé.

Avant de sauter sur les derniers conseils SEO diffusés sur Twitter à la suite d’un changement de Google, attendez de voir s’ils vont tenir.

Il se pourrait que les conseils qui semblent valables maintenant deviennent rapidement un mythe si Google annule les changements.

26 mythes courants sur le référencement

Alors maintenant que nous savons ce qui cause et perpétue les mythes SEO, découvrons la vérité derrière certains des plus courants.

1. Le bac à sable de Google

Certains professionnels du référencement pensent que Google supprimera automatiquement les nouveaux sites Web dans les résultats de recherche organiques pendant un certain temps avant qu’ils ne puissent se classer plus librement.

C’est quelque chose que de nombreux professionnels du référencement diront que ce n’est tout simplement pas le cas.

Alors qui a raison ?

Les professionnels du référencement qui existent depuis de nombreuses années vous donneront des preuves anecdotiques qui soutiendraient et détourneraient l’idée d’un bac à sable.

Les seuls conseils donnés par Google à partir de cela semblent être sous la forme de tweets.

Comme nous l’avons déjà mentionné, les réponses de Google sur les réseaux sociaux peuvent souvent être mal interprétées.

Tweetez sur le mythe du bac à sable de Google.

Verdict: Officiellement ? C’est un mythe.

Officieusement – il semble y avoir une période de temps pendant laquelle Google essaie de comprendre et de classer les pages appartenant à un nouveau site.

Cela pourrait imiter un bac à sable.

2. Pénalité de contenu dupliqué

C’est un mythe que j’entends beaucoup. L’idée est que si vous avez du contenu sur votre site Web qui est dupliqué ailleurs sur le Web, Google vous pénalisera pour cela.

La clé pour comprendre ce qui se passe réellement ici est de connaître la différence entre la suppression algorithmique et l’action manuelle.

Une action manuelle, la situation qui peut entraîner la suppression de pages Web de l’index de Google, sera effectuée par un humain de Google.

Le propriétaire du site Web sera informé via Google Search Console.

Une suppression algorithmique se produit lorsque votre page ne peut pas être bien classée car elle est capturée par un filtre d’un algorithme.

Chuck Price explique très bien la différence entre les deux dans cet article qui présente toutes les différentes actions manuelles disponibles auprès de Google.

Essentiellement, avoir une copie provenant d’une autre page Web peut signifier que vous ne pouvez pas surclasser cette autre page.

Les moteurs de recherche peuvent déterminer que l’hôte d’origine de la copie est plus pertinent pour la requête de recherche que le vôtre.

Comme il n’y a aucun avantage à avoir les deux dans les résultats de recherche, le vôtre est supprimé. Ce n’est pas une sanction. C’est l’algorithme qui fait son travail.

Il existe certaines actions manuelles liées au contenu, comme indiqué dans l’article de Price, mais la copie d’une ou deux pages du contenu de quelqu’un d’autre ne les déclenchera pas.

Cependant, cela risque de vous causer d’autres problèmes si vous n’avez pas le droit légal d’utiliser ce contenu. Cela peut également nuire à la valeur que votre site Web apporte à l’utilisateur.

Verdict: mythe du référencement

3. La publicité PPC aide les classements

C’est un mythe courant. C’est aussi assez rapide à démystifier.

L’idée est que Google favorisera les sites Web qui dépensent de l’argent avec lui grâce à la publicité au paiement par clic.

C’est tout simplement faux.

L’algorithme de Google pour classer les résultats de recherche organiques est complètement distinct de celui utilisé pour déterminer les placements d’annonces PPC.

L’exécution d’une campagne publicitaire de recherche payante via Google en même temps que le référencement peut bénéficier à votre site pour d’autres raisons, mais cela ne bénéficiera pas directement à votre classement.

Verdict: mythe du référencement

4. L’âge du domaine est un facteur de classement

Cette affirmation se trouve fermement ancrée dans le camp de la « causalité et corrélation confuses ».

Parce qu’un site Web existe depuis longtemps et qu’il est bien classé, l’âge doit être un facteur de classement.

Google a lui-même démystifié ce mythe à plusieurs reprises.

En fait, aussi récemment qu’en juillet 2019, John Mueller, analyste des tendances pour les webmasters de Google, a répondu à un tweet suggérant que l’âge du domaine était l’un des « 200 signaux de classement » en disant « Non, l’âge du domaine n’aide en rien ».

Comment repérer les mythes sur le référencement : 26 mythes courants sur le référencement, démystifiés

La vérité derrière ce mythe est qu’un site Web plus ancien a eu plus de temps pour bien faire les choses.

Par exemple, un site Web qui est en ligne et actif depuis 10 ans peut très bien avoir acquis un volume élevé de backlinks pertinents vers ses pages clés.

Un site Web qui fonctionne depuis moins de six mois ne pourra probablement pas rivaliser avec cela.

L’ancien site Web semble mieux classé, et la conclusion est que l’âge doit être le facteur déterminant.

Verdict: mythe du référencement

5. Le contenu à onglets affecte les classements

Cette idée est celle qui a des racines qui remontent loin.

Le principe est que Google n’attribuera pas autant de valeur au contenu qui se trouve derrière un onglet ou un accordéon.

Par exemple, du texte qui n’est pas visible lors du premier chargement d’une page.

Google a de nouveau démystifié ce mythe aussi récemment que le 31 mars 2020, mais c’est une idée controversée parmi de nombreux référenceurs depuis des années.

En septembre 2018, Gary Illyes, Webmaster Trends Analyst chez Google, a répondu à un fil de tweet sur l’utilisation d’onglets pour afficher du contenu.

Sa réponse :

« AFAIK, rien n’a changé ici, Bill : nous indexons le contenu, son poids est entièrement pris en compte pour le classement, mais il se peut qu’il ne soit pas mis en gras dans les extraits. C’est une autre question, plus technique, de savoir comment ce contenu est présenté par le site. L’indexation a des limites.

Si le contenu est visible dans le HTML, il n’y a aucune raison de supposer qu’il est dévalué simplement parce qu’il n’est pas apparent pour l’utilisateur lors du premier chargement de la page.

Ce n’est pas un exemple de camouflage, et Google peut facilement récupérer le contenu.

Tant qu’il n’y a rien d’autre qui empêche le texte d’être visualisé par Google, il doit être pondéré de la même manière que la copie, qui n’est pas dans les onglets.

Vous voulez plus de précisions à ce sujet ?

Alors consultez le post de Roger Montti qui met ce mythe au lit.

Verdict: mythe du référencement

6. Google utilise les données de Google Analytics dans les classements

C’est une crainte courante chez les propriétaires d’entreprise.

Ils étudient leurs rapports Google Analytics.

Ils estiment que leur taux de rebond moyen sur l’ensemble du site est trop élevé ou que leur temps passé sur la page est trop faible.

Ils craignent donc que Google perçoive leur site comme étant de mauvaise qualité à cause de cela.

Ils craignent de ne pas être bien classés à cause de cela.

Le mythe est que Google utilise les données de votre compte Google Analytics dans le cadre de son algorithme de classement.

C’est un mythe qui existe depuis longtemps.

Gary Illyes de Google a de nouveau démystifié cette idée simplement avec, « Nous n’utilisons * rien * de Google Analytics [sic] dans l’ « algo ».

tweet sur Google utilisant l'analyse pour l'algorithme de classement

Si nous y réfléchissons logiquement, l’utilisation des données de Google Analytics comme facteur de classement serait très difficile à contrôler.

Par exemple, l’utilisation de filtres pourrait manipuler les données pour donner l’impression que le site fonctionne d’une manière qu’il ne l’est pas vraiment.

Qu’est-ce qu’une bonne performance ?

Un « temps passé sur la page » élevé peut être bon pour certains contenus longs.

Un faible « temps sur la page » pourrait être compréhensible pour un contenu plus court.

L’un a-t-il raison ou tort ?

Google aurait également besoin de comprendre les manières complexes dont chaque compte Google Analytics a été configuré.

Certains peuvent exclure tous les bots connus, d’autres non.

Certains peuvent utiliser des dimensions et des groupes de canaux personnalisés, tandis que d’autres n’ont rien configuré.

Utiliser ces données de manière fiable serait extrêmement compliqué à faire.

Considérez les centaines de milliers de sites Web qui utilisent d’autres programmes d’analyse.

Comment Google les traiterait-il ?

Verdict: mythe du référencement

Ce mythe est un autre cas de « causalité, pas de corrélation ».

Un taux de rebond élevé sur l’ensemble du site peut indiquer un problème de qualité, ou non.

Un faible temps passé sur la page peut signifier que votre site n’est pas engageant ou que votre contenu est rapidement assimilable.

Ces mesures vous donnent des indices sur les raisons pour lesquelles vous ne vous classez peut-être pas bien, elles n’en sont pas la cause.

7. Google se soucie de l’autorité de domaine

PageRank est un algorithme d’analyse de liens utilisé par Google pour mesurer l’importance d’une page Web.

Google avait l’habitude d’afficher le score PageRank d’une page jusqu’à 10 sur sa barre d’outils.

Google a cessé de mettre à jour le PageRank affiché dans les barres d’outils en 2013. En 2016, Google a confirmé que la mesure de la barre d’outils PageRank n’allait pas être utilisée à l’avenir.

En l’absence de PageRank, de nombreux autres scores d’autorité tiers ont été développés.

Les plus connus sont :

  • Scores d’autorité de domaine et d’autorité de page de Moz.
  • Trust Flow et Citation Flow de Majestic.
  • Classement de domaine et classement d’URL d’Ahrefs.

Ces scores sont utilisés par certains référenceurs pour déterminer la « valeur » d’une page.

Cependant, ce calcul ne peut jamais être un reflet tout à fait exact de la façon dont un moteur de recherche évalue une page.

Les professionnels du référencement font parfois référence à la puissance de classement d’un site Web, souvent en conjonction avec son profil de backlink, ce qui est également connu sous le nom d’autorité du domaine.

Vous pouvez voir où se situe la confusion.

Les représentants de Google ont dissipé la notion d’une métrique d’autorité de domaine utilisée par eux.

Gary Illyes a une fois de plus démystifié ceci :

tweet confirmant le mythe général de l'autorité de domaine

Verdict: mythe du référencement

8. Un contenu plus long est meilleur

Vous l’aurez certainement entendu dire avant que le contenu plus long se classe mieux.

Plus de mots sur une page rendent automatiquement la vôtre plus digne de classement que celle de votre concurrent.

C’est la « sagesse » qui est souvent partagée autour des forums SEO sans peu de preuves pour l’étayer.

De nombreuses études ont été publiées au fil des ans et énoncent des faits sur les pages Web les mieux classées, telles que « en moyenne, les pages des 10 premières positions des SERP contiennent plus de 1 450 mots ».

Il serait assez facile pour quelqu’un de prendre ces informations isolément et de supposer que cela signifie que les pages ont besoin d’environ 1 500 mots pour se classer sur la page 1. Ce n’est cependant pas ce que dit l’étude.

Malheureusement, ceci est un exemple de corrélation, pas nécessairement de causalité.

Ce n’est pas parce que les pages les mieux classées dans une étude particulière contiennent plus de mots que les pages classées 11e et moins que le nombre de mots est un facteur de classement.

John Mueller de Google a récemment dissipé ce mythe :

tweet sur le mythe de la longueur du contenu

Verdict: mythe du référencement

9. Les mots-clés LSI vous aideront à vous classer

Que sont exactement les mots-clés LSI ?

LSI signifie « indexation sémantique latente ».

Il s’agit d’une technique utilisée dans la recherche d’informations qui permet d’analyser les concepts contenus dans le texte et d’identifier les relations entre eux.

Les mots ont des nuances qui dépendent de leur contexte. Le mot « droit » a une connotation différente lorsqu’il est associé à « gauche » que lorsqu’il est associé à « faux ».

Les humains peuvent évaluer rapidement les concepts dans le texte. Il est plus difficile pour les machines de le faire.

La capacité des machines à comprendre le contexte et les liens entre les entités est fondamentale pour leur compréhension des concepts.

LSI est un énorme pas en avant pour la capacité d’une machine à comprendre le texte.

Ce qu’il ne s’agit pas de synonymes.

Malheureusement, le domaine du LSI a été délégué par la communauté SEO dans la compréhension que l’utilisation de mots similaires ou liés thématiquement augmentera le classement des mots qui ne sont pas expressément mentionnés dans le texte.

Ce n’est tout simplement pas vrai. Google est allé bien au-delà de LSI dans sa compréhension du texte avec l’introduction de BERT, à titre d’exemple.

Pour en savoir plus sur ce qu’est le LSI (et plus important encore, sur ce qu’il n’est pas), consultez l’article de Clark Boyd.

Verdict: mythe du référencement

10. Le référencement prend 3 mois

Cela nous aide à sortir des conversations délicates avec nos patrons ou nos clients.

Cela laisse beaucoup de marge de manœuvre si vous n’obtenez pas les résultats promis.

« Le référencement prend au moins 3 mois pour avoir un effet. »

Il est juste de dire que certains changements prendront du temps à être traités par les robots des moteurs de recherche.

Il y a alors, bien sûr, un peu de temps pour voir si ces changements ont un effet positif ou négatif. Ensuite, il faudra peut-être plus de temps pour affiner et peaufiner votre travail.

Cela ne signifie pas que toute activité que vous menez au nom du référencement n’aura aucun effet pendant trois mois. Le jour 90 de votre travail ne sera pas lorsque les changements de classement entreront en vigueur.

Il y a beaucoup plus que cela.

Si vous êtes sur un marché à très faible concurrence, ciblant des termes de niche, vous constaterez peut-être des changements de classement dès que Google réexplorera votre page.

Un mandat compétitif pourrait prendre beaucoup plus de temps pour voir des changements de rang.

Une étude d’Ahrefs a suggéré que sur les 2 millions de mots clés analysés, l’âge moyen des pages classées en position 10 de Google était de 650 jours. Cette étude indique que les nouvelles pages ont du mal à se classer haut.

Cependant, le référencement ne se limite pas au classement dans le top 10 de Google.

Par exemple, une fiche Google My Business bien positionnée avec d’excellentes critiques peut rapporter des dividendes à une entreprise.

Bing, Yandex et Baidu pourraient être plus faciles pour votre marque à conquérir les SERPs.

Une petite modification du titre d’une page pourrait entraîner une amélioration des taux de clics. Cela pourrait être le même jour si le moteur de recherche recrawlait la page rapidement.

Bien que cela puisse prendre beaucoup de temps pour voir les classements de première page dans Google, il est naïf de notre part de réduire le succès du référencement juste à cela.

Par conséquent, « le référencement prend 3 mois » n’est tout simplement pas exact.

Verdict: mythe du référencement

11. Le taux de rebond est un facteur de classement

Le taux de rebond est le pourcentage de visites sur votre site Web qui n’entraînent aucune interaction au-delà de l’atterrissage sur la page. Il est généralement mesuré par le programme d’analyse d’un site Web tel que Google Analytics.

Certains professionnels du référencement ont fait valoir que le taux de rebond est un facteur de classement car il s’agit d’une mesure de qualité.

Malheureusement, ce n’est pas une bonne mesure de qualité.

Il existe de nombreuses raisons pour lesquelles un visiteur peut atterrir sur une page Web et repartir sans interagir davantage avec le site. Il se peut qu’ils aient lu toutes les informations dont ils avaient besoin sur cette page et aient quitté le site pour appeler l’entreprise et prendre rendez-vous.

Dans ce cas, le rebond du visiteur a généré une piste pour l’entreprise.

Bien qu’un visiteur quittant une page après avoir atterri dessus puisse être un indicateur de contenu de mauvaise qualité, ce n’est pas toujours le cas. Par conséquent, il ne serait pas suffisamment fiable pour qu’un moteur de recherche l’utilise comme mesure de qualité.

« Pogo-sticking », ou un visiteur cliquant sur un résultat de recherche puis revenant aux SERP, serait un indicateur plus fiable de la qualité de la page de destination. Cela suggérerait que le contenu de la page n’était pas ce que l’utilisateur recherchait, à tel point qu’il est revenu aux résultats de la recherche pour trouver une autre page ou effectuer une nouvelle recherche.

John Mueller a clarifié cela dans un Google Webmaster Hangout en juillet 2018 avec :

« Nous essayons de ne pas utiliser de tels signaux en matière de recherche. C’est donc quelque chose où il y a beaucoup de raisons pour lesquelles les utilisateurs peuvent aller et venir, ou regarder différentes choses dans les résultats de recherche, ou rester brièvement sur une page et revenir en arrière. Je pense que c’est vraiment difficile à affiner et à dire, « eh bien, nous pourrions transformer cela en un facteur de classement. »

Verdict: mythe du référencement

12. Tout tourne autour des backlinks

Les backlinks sont importants ; c’est sans grande controverse au sein de la communauté SEO. Cependant, l’importance exacte est encore débattue.

Certains pros du référencement vous diront que les backlinks sont l’une des nombreuses tactiques qui vont influencer les classements et non la plus importante. D’autres vous diront que c’est le seul véritable changeur de jeu.

Ce que nous savons, c’est que l’efficacité des liens a changé au fil du temps. À l’époque sauvage d’avant Jagger, la création de liens consistait à ajouter un lien vers votre site Web partout où vous le pouviez.

Les commentaires du forum ont généré des articles et les répertoires non pertinents étaient tous de bonnes sources de liens.

Il était facile de créer des liens efficaces.

Ce n’est pas si facile maintenant. Google a continué d’apporter des modifications à ses algorithmes qui récompensent des liens de meilleure qualité et plus pertinents, et ignorent ou pénalisent les liens « spam ».

Cependant, la puissance des liens pour affecter les classements est toujours grande.

Certaines industries sont si immatures en matière de référencement qu’un site peut bien se classer sans investir dans la création de liens, uniquement grâce à la force de leur contenu et à leur efficacité technique.

Ce n’est pas le cas de la plupart des industries.

Les backlinks pertinents aideront, bien sûr, au classement, mais ils doivent aller de pair avec d’autres optimisations.

Votre site Web doit toujours avoir une copie pertinente et il doit être explorable.

John Mueller de Google a récemment déclaré : « Les liens ne sont certainement pas le facteur de référencement le plus important.

le lien n'étant pas le facteur SEO le plus important

Si vous voulez que votre trafic fasse réellement quelque chose lorsqu’il arrive sur votre site Web, il ne s’agit certainement pas uniquement de backlinks.

Le classement n’est qu’une partie de la conversion des visiteurs sur votre site. Le contenu et la convivialité du site sont extrêmement importants dans l’engagement des utilisateurs.

Verdict: mythe du référencement

13. Les mots-clés dans les URL sont très importants

Remplissez vos URL de mots-clés. Cela vous aidera.

Malheureusement, ce n’est pas aussi puissant que ça.

faire des URL pour les utilisateurs tweet

John Mueller a déclaré à plusieurs reprises que les mots-clés dans une URL sont un signal de classement très mineur et léger.

Si vous cherchez à réécrire vos URL pour inclure plus de mots-clés, vous risquez de faire plus de mal que de bien.

Le processus de redirection des URL en masse doit être effectué lorsque cela est nécessaire car il y a toujours un risque lors de la restructuration d’un site.

Pour ajouter des mots-clés à une URL ? Pas la peine.

Verdict: mythe du référencement

14. Les migrations de sites Web ne concernent que les redirections

C’est quelque chose qui est trop souvent entendu par les professionnels du référencement. Si vous migrez un site Web, il vous suffit de vous rappeler de rediriger toutes les URL qui changent.

Si seulement celui-ci était vrai.

En réalité, la migration de sites Web est l’une des procédures les plus lourdes et les plus compliquées du référencement.

Un site Web modifiant sa mise en page, son CMS, son domaine et/ou son contenu peut être considéré comme une migration de site Web.

Dans chacun de ces exemples, plusieurs aspects peuvent affecter la façon dont les moteurs de recherche perçoivent la qualité et la pertinence des pages par rapport à leurs mots clés ciblés.

En conséquence, de nombreuses vérifications et configurations doivent être effectuées si le site doit maintenir son classement et son trafic organique.

S’assurer que le suivi n’a pas été perdu. Maintenir le même ciblage de contenu. S’assurer que les robots des moteurs de recherche peuvent toujours accéder aux bonnes pages.

Tout cela doit être pris en compte lorsqu’un site Web change de manière significative.

La redirection des URL qui changent est une partie très importante de la migration de site Web. Ce n’est en aucun cas la seule chose à craindre.

Verdict: mythe du référencement

15. Les sites Web bien connus surpasseront toujours les sites Web inconnus

Il va de soi qu’une grande marque aura des ressources que les petites marques n’ont pas. En conséquence, davantage peut être investi dans le référencement.

Des éléments de contenu plus excitants peuvent être créés, conduisant à un volume plus élevé de backlinks acquis. Le nom de la marque à lui seul peut donner plus de crédibilité aux tentatives de sensibilisation.

La vraie question est la suivante : est-ce que Google booste les grandes marques de manière algorithmique ou manuelle en raison de leur notoriété ?

Celui-ci est un peu controversé.

Certaines personnes disent que Google favorise les grandes marques. Google dit le contraire.

En 2009, Google a publié une mise à jour d’algorithme nommée « Vince ». Cette mise à jour a eu un impact énorme sur la façon dont les marques étaient traitées dans les SERP.

Les marques bien connues hors ligne ont vu leur classement augmenter pour les mots-clés concurrentiels larges.

Ce n’est pas forcément le moment pour les petites marques de jeter l’éponge.

La mise à jour de Vince s’inscrit dans la droite ligne des autres initiatives de Google visant à valoriser l’autorité et la qualité.

Les grandes marques font souvent plus autorité sur les mots clés généraux que les concurrents plus petits.

Cependant, les petites marques peuvent encore gagner.

Le ciblage par mots clés à longue traîne, les gammes de produits de niche et la présence locale peuvent tous rendre les petites marques plus pertinentes pour un résultat de recherche que les marques établies.

Oui, les chances sont en faveur des grandes marques, mais il n’est pas impossible de les surclasser.

Verdict: Pas entièrement vérité ou mythe

16. Votre page doit inclure « près de chez moi » pour bien se classer pour le référencement local

Il est compréhensible que ce mythe soit encore répandu.

L’accent est encore mis sur les volumes de recherche de mots clés dans l’industrie du référencement. Parfois au détriment de la prise en compte de l’intention de l’utilisateur et de la façon dont les moteurs de recherche la comprennent.

Lorsqu’un chercheur recherche quelque chose avec une intention locale, c’est-à-dire un lieu ou un service pertinent pour un emplacement physique, les moteurs de recherche en tiendront compte lors du retour des résultats.

Avec Google, vous verrez probablement les résultats de Google Maps ainsi que les listes organiques standard.

Les résultats de Maps sont clairement centrés autour de l’emplacement recherché. Cependant, il en va de même pour les listes organiques standard lorsque la requête de recherche indique une intention locale.

Alors pourquoi les recherches « près de chez moi » en embrouillent-elles ?

Un exercice de recherche de mots-clés typique peut donner quelque chose comme ce qui suit :

  • pizzeria manhattan – 110 recherches par mois.
  • pizzerias à manhattan – 110 recherches par mois.
  • meilleure pizzeria manhattan – 90 recherches par mois.
  • meilleurs pizzerias à manhattan – 90 recherches par mois.
  • meilleure pizzeria de manhattan – 90 recherches par mois.
  • pizzerias près de chez moi – 90 500 recherches par mois.

Avec un tel volume de recherche, on pourrait penser [pizza restaurants near me] serait celui pour lequel se classer, non?

Il est toutefois probable que les personnes à la recherche de [pizza restaurant manhattan] êtes dans la région de Manhattan ou envisagez de vous y rendre pour une pizza.

[pizza restaurant near me] compte 90 500 recherches à travers les États-Unis. Il est probable que la grande majorité de ces chercheurs ne recherchent pas de pizzas Manhattan.

Google le sait et, par conséquent, utilisera la détection d’emplacement et fournira des résultats de pizzeria pertinents pour l’emplacement du chercheur.

Par conséquent, l’élément « près de moi » de la recherche concerne moins le mot-clé et plus l’intention derrière le mot-clé. Google considérera simplement qu’il s’agit de l’emplacement où se trouve le chercheur.

Alors, avez-vous besoin d’inclure « près de moi » dans votre contenu pour vous classer parmi ceux [near me] recherches ?

Non, vous devez être pertinent par rapport à l’emplacement où se trouve le chercheur.

Verdict: mythe du référencement

17. Un meilleur contenu équivaut à un meilleur classement

Il est répandu dans les forums SEO et les fils Twitter. La plainte la plus courante est la suivante : « Mon concurrent se classe au-dessus de moi, mais j’ai un contenu incroyable, et le leur est terrible. »

Le cri est celui de l’indignation. Après tout, les moteurs de recherche ne devraient-ils pas récompenser leur site pour leur contenu « incroyable » ?

C’est à la fois un mythe et parfois une illusion.

La qualité du contenu est une considération subjective. S’il s’agit de votre propre contenu, il est encore plus difficile d’être objectif.

Peut-être qu’aux yeux de Google, votre contenu n’est pas meilleur que celui de vos concurrents pour les termes de recherche pour lesquels vous cherchez à vous classer.

Peut-être que vous ne répondez pas aussi bien à l’intention des chercheurs qu’eux.

Peut-être avez-vous « sur-optimisé » votre contenu et réduit sa qualité.

Dans certains cas, un meilleur contenu équivaudra à un meilleur classement. Dans d’autres, les performances techniques du site ou son manque de pertinence locale peuvent entraîner un classement inférieur.

Le contenu est un facteur dans les algorithmes de classement.

Verdict: mythe du référencement

18. Vous devez bloguer tous les jours

C’est un mythe frustrant car il semble s’être répandu en dehors de l’industrie du référencement.

Google aime le contenu fréquent. Vous devez ajouter du nouveau contenu ou modifier le contenu existant chaque jour pour le « fraîcheur ».

D’où est venue cette idée ?

Google a mis à jour son algorithme en 2011 qui récompense les résultats les plus récents dans les SERP.

En effet, pour certaines requêtes, plus les résultats sont récents, meilleures sont les chances d’exactitude.

Par exemple, recherchez [royal baby] au Royaume-Uni en 2013, et vous recevrez des articles de presse sur Prince George. Faites une nouvelle recherche en 2015 et vous verrez des pages sur la princesse Charlotte.

En 2018, vous verriez des rapports sur le prince Louis en haut des SERP de Google, et en 2019, ce serait bébé Archie.

Si vous deviez rechercher [royal baby] en 2019, peu de temps après la naissance d’Archie, alors voir des articles de presse sur le prince George serait probablement inutile.

Dans ce cas, Google discerne l’intention de recherche de l’utilisateur et décide de montrer des articles liés au dernier bébé royal britannique serait mieux que de montrer un article qui est sans doute plus digne de classement en raison de l’autorité, etc.

Ce que cette mise à jour de l’algorithme ne signifie pas, c’est que le nouveau contenu sera toujours supérieur au contenu plus ancien. Google décide si la « requête mérite d’être actualisée » ou non.

Si tel est le cas, l’âge du contenu devient un facteur de classement plus important.

Cela signifie que si vous créez du contenu uniquement pour vous assurer qu’il est plus récent que le contenu de vos concurrents, vous n’en bénéficierez pas nécessairement.

Si la requête pour laquelle vous cherchez à vous classer ne mérite pas la fraîcheur, c’est-à-dire, [who is Prince William’s second child?] un fait qui ne changera pas, alors l’âge du contenu ne jouera pas un rôle significatif dans les classements.

Si vous écrivez du contenu tous les jours en pensant que votre site Web reste frais et, par conséquent, plus digne de classement, vous perdez probablement du temps.

Il serait préférable d’écrire moins fréquemment des éléments de contenu réfléchis, recherchés et utiles et de réserver vos ressources pour les rendre hautement fiables et partageables.

Verdict: mythe du référencement

19. Vous pouvez optimiser la copie une fois, puis c’est fait

L’expression « copie optimisée pour le référencement » est courante dans le monde des agences.

Il est utilisé comme un moyen d’expliquer le processus de création d’une copie qui sera pertinente pour les requêtes fréquemment recherchées.

Le problème avec cela est que cela suggère qu’une fois que vous avez écrit cette copie, en vous assurant qu’elle répond correctement aux requêtes des chercheurs, vous pouvez passer à autre chose.

Malheureusement, avec le temps, la façon dont les chercheurs recherchent du contenu peut changer. Les mots clés qu’ils utilisent, le type de contenu qu’ils souhaitent peuvent modifier.

Les moteurs de recherche peuvent également modifier ce qu’ils estiment être la réponse la plus pertinente à la requête. Peut-être que l’intention derrière le mot-clé est perçue différemment.

La disposition des SERP peut changer, ce qui signifie que les vidéos sont affichées en haut des résultats de recherche, alors qu’auparavant, il s’agissait uniquement de résultats de page Web.

Si vous ne consultez une page qu’une seule fois et que vous ne continuez pas à la mettre à jour et à la faire évoluer en fonction des besoins des utilisateurs, vous risquez de prendre du retard.

Verdict: mythe du référencement

20. Google respecte l’URL canonique déclarée comme version préférée pour les résultats de recherche

Cela peut être très frustrant. Vous avez plusieurs pages qui sont presque des doublons les unes des autres. Vous savez quelle est votre page principale, celle que vous souhaitez classer, la « canonique ». Vous le dites à Google via la balise « rel=canonical » spécialement sélectionnée.

Vous l’avez choisi.

Vous l’avez identifié dans le HTML.

Google ignore vos souhaits et une autre des pages en double se classe à sa place.

L’idée que Google prendra la page que vous avez choisie et la traitera comme la page canonique d’un ensemble de doublons n’est pas difficile.

Il est logique que le propriétaire du site Web sache le mieux quelle page devrait être celle qui se classe au-dessus de ses cousins. Cependant, Google sera parfois en désaccord.

Il peut y avoir des cas où une autre page de l’ensemble est choisie par Google comme meilleur candidat à afficher dans les résultats de recherche.

Cela peut être dû au fait que la page reçoit plus de backlinks de sites externes que la page que vous avez choisie. Il se peut qu’il soit inclus dans le plan du site ou qu’il soit lié via votre navigation principale.

Essentiellement, la balise canonique est un signal. L’un des nombreux qui sera pris en considération lorsque Google choisira quelle page parmi un ensemble de doublons doit être classée.

Si vous avez des signaux contradictoires sur votre site ou en externe, la page canonique que vous avez choisie peut être ignorée au profit d’une autre page.

Vous voulez savoir si Google a sélectionné une autre URL pour être canonique malgré votre balise canonique ? Dans Google Search Console, dans le rapport Index Coverage, vous pouvez voir ceci :

« Dupliquer, Google a choisi un canonique différent de celui de l’utilisateur. »

Les documents d’assistance de Google expliquent utilement ce que cela signifie :

« Cette page est marquée comme canonique pour un ensemble de pages, mais Google pense qu’une autre URL en fait une meilleure canonique. Google a indexé la page que nous considérons comme canonique plutôt que celle-ci. Nous vous recommandons de marquer explicitement cette page comme un doublon de l’URL canonique. Cette page a été découverte sans demande d’exploration explicite. L’inspection de cette URL devrait afficher l’URL canonique sélectionnée par Google. »

Verdict: Mythe du référencement

21. Google a 3 principaux facteurs de classement

Il s’agit de liens, de contenu et de Rank Brain, n’est-ce pas ?

Cette idée que ce sont les trois principaux facteurs de classement semble provenir d’un WebPromo Q&A en 2016 avec Andrei Lipattsev, à l’époque stratège principal de la qualité de la recherche chez Google.

Je ne trouve plus de copie de la vidéo pour vérifier ce qui a été dit pendant le Q&A, cependant, il y a plusieurs articles écrits à partir de l’époque qui y font référence.

Ces articles suggèrent que lorsqu’il a été interrogé sur les « deux autres » facteurs de classement, le questionneur a supposé que Rank Brain en était un, Lipattsev a déclaré que les liens pointant vers un site et le contenu étaient les deux autres.

Encore une fois, je dois souligner que je n’ai aucune preuve de première main que c’est de là que vient le concept des trois premiers signaux de classement.

Quoi qu’il en soit, le concept prévaut. Un bon profil de backlink, une bonne copie et des signaux de type « Rank Brain » sont ce qui compte le plus avec les classements, selon de nombreux référenceurs.

Ce que nous devons prendre en considération lors de l’examen de cette idée, c’est la réponse de John Mueller à une question dans un hangout anglais de Google Webmaster Central en 2017 pendant les heures de bureau.

On demande à John s’il existe une approche unique pour les trois principaux signaux de classement dans Google. Sa réponse est un « Non » clair.

Il suit cette déclaration par une discussion sur la rapidité des recherches et sur la manière dont cela peut nécessiter l’affichage de différents résultats de recherche.

Il mentionne également que, selon le contexte de la recherche, différents résultats peuvent devoir être affichés ; par exemple, la marque ou les achats. Il poursuit en expliquant qu’il ne pense pas qu’il existe un ensemble de facteurs de classement qui peuvent être déclarés les trois premiers qui s’appliquent à tous les résultats de recherche tout le temps.

Ainsi, pour certaines recherches, il se peut que Rank Brain, les liens et le contenu soient les facteurs les plus importants. Mais pour les autres, pas tellement.

Verdict: Pas entièrement vérité ou mythe

22. Utilisez le fichier de désaveu pour maintenir de manière proactive le profil de lien d’un site

Désavouer ou ne pas désavouer – cette question a beaucoup surgi au fil des ans depuis Penguin 4.0.

Certains professionnels du référencement sont favorables à l’ajout de tout lien pouvant être considéré comme du spam dans le fichier de désaveu de leur site. D’autres sont plus convaincus que Google les ignorera de toute façon et s’épargnera les ennuis.

C’est certainement plus nuancé que cela.

Lors d’un Hangout pour les webmasters en 2019, John Mueller de Google a été interrogé sur l’outil de désaveu et sur la question de savoir si nous devrions être convaincus que Google ignore les liens spammés moyens (mais pas très).

La réponse de John a indiqué qu’il existe deux cas où vous pourriez vouloir utiliser un fichier de désaveu :

  • Dans les cas où une action manuelle a été donnée.
  • Et où vous pourriez penser que si quelqu’un de l’équipe webspam le voyait, il émettrait une action manuelle.

Vous ne voudrez peut-être pas ajouter tous les liens indésirables à votre fichier de désaveu. En pratique, cela peut prendre beaucoup de temps si vous avez un site très visible qui accumule des milliers de ces liens par mois.

Il y aura des liens qui sont évidemment du spam et leur acquisition n’est pas le résultat d’une activité de votre part.

Cependant, lorsqu’ils sont le résultat de stratégies de construction de liens moins qu’impressionnantes (achat de liens, échanges de liens, etc.), vous voudrez peut-être les désavouer de manière proactive.

Lisez la description complète de Roger Montti de l’échange de 2019 avec John Mueller pour avoir une meilleure idée du contexte autour de cette discussion.

Verdict: Ce n’est pas un mythe, mais ne perdez pas votre temps inutilement.

23. Google valorise les backlinks de tous les domaines de haute autorité

Plus l’autorité du site Web est bonne, plus l’impact sera important sur la capacité de votre site à se classer. C’est quelque chose que vous entendrez dire dans de nombreux pitchs SEO, réunions clients et sessions de formation.

Cependant, ce n’est pas toute l’histoire.

D’une part, on peut se demander si Google a un concept d’autorité de domaine (voir « Google se soucie de l’autorité de domaine » ci-dessus).

Et le plus important est de comprendre qu’il y a beaucoup de choses qui entrent dans les calculs de Google pour savoir si un lien aura un impact sur la capacité d’un site à se classer très bien ou non.

Pertinence, indices contextuels, attributs de lien sans suivi. Aucun de ceux-ci ne doit être ignoré lors de la recherche d’un lien à partir d’un site Web de haute « autorité de domaine ».

Verdict: Mythe

24. Vous ne pouvez pas classer une page sans une vitesse de chargement ultra-rapide

Il existe de nombreuses raisons de rendre vos pages rapides. utilisabilité, crawlabilité, conversion. Il est sans doute important pour la santé et les performances de votre site Web et cela devrait suffire à en faire une priorité.

Cependant, est-ce quelque chose qui est absolument essentiel pour classer votre site Web ?

Comme le suggère cet article de Google Search Central de 2010, c’est certainement quelque chose qui est pris en compte dans les algorithmes de classement. À l’époque de sa publication, Google déclarait :

« Bien que la vitesse du site soit un nouveau signal, elle n’a pas autant de poids que la pertinence d’une page. Actuellement, moins de 1 % des requêtes de recherche sont affectées par le signal de vitesse du site dans notre mise en œuvre et le signal de vitesse du site ne s’applique qu’aux visiteurs effectuant une recherche en anglais sur Google.com à ce stade. »

Cela n’affecte-t-il toujours qu’un si faible pourcentage de visiteurs ?

Plus récemment, la mise à jour Google Page Experience, qui intègre les Core Web Vitals pour lesquels la vitesse est importante, a été déployée.

Cela a été accueilli par une vague d’activités de la part des professionnels du référencement, essayant de se préparer pour la mise à jour. Beaucoup le perçoivent comme quelque chose qui ferait ou détruirait le potentiel de classement de leur site. Cependant, au fil du temps, les représentants de Google ont minimisé l’effet de classement de Core Web Vitals.

D’après les déclarations précédentes de Google et l’accent mis plus récemment sur Core Web Vitals, la vitesse de chargement continue d’être un facteur de classement important.

Cependant, cela n’entraînera pas nécessairement une augmentation ou une diminution spectaculaire du classement de votre site Web. Les représentants de Google Gary Illyes, Martin Splitt et John Mueller ont récemment émis l’hypothèse dans un podcast « Search of the Record » sur la pondération de la vitesse en tant que facteur de classement.

Leur discussion a fait ressortir la réflexion autour de la vitesse de chargement des pages en tant que métrique de classement et comment elle devrait être considérée comme un signal assez léger.

Ils continuent en disant qu’il s’agit davantage d’un bris d’égalité, car vous pouvez créer une page vide en un clin d’œil, mais cela ne servira pas à grand-chose pour un chercheur.

Dans cette optique, peut-on vraiment considérer la vitesse des pages comme un facteur de classement majeur ?

Mon opinion est non, la vitesse des pages est certainement l’une des façons dont Google décide quelles pages doivent être classées au-dessus des autres, mais pas une des principales.

Verdict: Mythe

25. Le budget de crawl n’est pas un problème

Le budget d’exploration, l’idée que chaque fois que Googlebot visite votre site Web, il y a un nombre limité de ressources qu’il visitera, n’est pas une question controversée. Cependant, quelle attention faut-il y accorder.

Par exemple, de nombreux professionnels du référencement considéreront l’optimisation du budget de crawl comme un élément central de toute feuille de route SEO technique. D’autres ne l’envisageront que si un site atteint une certaine taille ou complexité.

Google est une entreprise aux ressources limitées. Il ne peut pas explorer chaque page de chaque site chaque fois que ses robots les visitent. Par conséquent, certains des sites visités peuvent ne pas voir toutes leurs pages explorées à chaque fois.

Google a utilement créé un guide pour les propriétaires de sites Web volumineux et fréquemment mis à jour afin de les aider à comprendre comment activer l’exploration de leurs sites.

Dans le guide, Google indique :

« Si votre site n’a pas un grand nombre de pages qui changent rapidement, ou si vos pages semblent être explorées le jour même de leur publication, vous n’avez pas besoin de lire ce guide ; il suffit de tenir à jour votre sitemap et de vérifier régulièrement la couverture de votre index. »

Il semblerait donc que Google soit favorable à ce que certains sites soient attentifs à ses conseils sur la gestion du budget de crawl, mais ne le juge pas nécessaire pour tous.

Pour certains sites, en particulier ceux qui ont une configuration technique complexe et plusieurs centaines de milliers de pages, la gestion du budget de crawl est importante. Pour ceux qui ont une poignée de pages facilement explorées, ce n’est pas le cas.

Verdict: Mythe du référencement

26. Il existe une bonne façon de faire du référencement

Celui-ci est probablement un mythe dans de nombreuses industries, mais il semble répandu dans celui du SEO. Il y a beaucoup de contrôle d’accès dans les médias sociaux, les forums et les chats SEO.

Malheureusement, ce n’est pas si simple.

Nous connaissons certains locataires principaux sur le référencement.

Habituellement, quelque chose est déclaré par un représentant du moteur de recherche qui a été disséqué, testé et finalement déclaré vrai.

Le reste est le résultat d’essais et d’erreurs personnels et collectifs, de tests et d’expériences.

Les processus sont extrêmement précieux dans les fonctions commerciales du référencement, mais ils doivent évoluer et être appliqués de manière appropriée.

Différents sites Web au sein de différentes industries réagiront aux changements d’une manière que d’autres ne feraient pas. Modifier un méta-titre, de sorte qu’il comporte moins de 60 caractères, peut aider le taux de clics pour une page, et pas pour une autre.

En fin de compte, nous devons prendre à la légère tout conseil SEO que nous recevons avant de décider s’il convient au site Web sur lequel vous travaillez.

Verdict: mythe du référencement

Conclusion

Certains mythes ont leurs racines dans la logique, et d’autres n’ont aucun sens pour eux.

Maintenant, vous savez quoi faire lorsque vous entendez une idée dont vous ne pouvez pas dire avec certitude qu’elle est une vérité ou un mythe.


Image en vedette : Paulo Bobita/Journal des moteurs de recherche

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici