Accueil Tags Lalgorithme

Tag: lalgorithme

La mise à jour de l’algorithme anti-spam de Google est maintenant disponible

0

Google confirme qu’une mise à jour de l’algorithme visant à lutter contre le spam est déployée dans les résultats de recherche dans le monde entier et dans toutes les langues.

Google estime que la mise à jour anti-spam d’octobre 2022 prendra plusieurs jours à être déployée.

Les détails exacts sur les mises à jour de spam sont rarement fournis, sauf dans les cas où ils ciblent des types de spam spécifiques, comme la mise à jour de spam de lien de l’année dernière.

Google déploie régulièrement des mises à jour anti-spam pour maintenir la qualité de ses résultats de recherche. Les mises à jour anti-spam sont conçues pour améliorer les systèmes automatisés de Google qui fonctionnent constamment en arrière-plan pour détecter les spams dans les résultats de recherche.

Si vous suivez les Google Search Essentials, anciennement connus sous le nom de Google Webmaster Guidelines, il est probable que vous n’ayez pas à vous inquiéter de la mise à jour anti-spam d’octobre 2022.

Il est difficile d’être coupable de spam, selon la définition de Google, sans le savoir. Google a une définition stricte de ce qu’il considère comme du spam, et il inclut principalement des sites de mauvaise qualité qui incitent les utilisateurs à fournir des informations personnelles ou à installer des logiciels malveillants.

Les mises à jour de spam ciblent également les escroqueries par hameçonnage et d’autres acteurs malveillants sur le Web qui tentent de se classer dans les résultats de recherche en se faisant passer pour des pages très pertinentes.

Alors que les pages Web avec un contenu léger qui ajoutent peu de valeur peuvent être considérées comme du spam, elles ne répondent pas à la définition de spam de Google. Le contenu léger est plus susceptible d’être touché par l’algorithme de contenu utile de Google.

Si vous n’êtes pas sûr de ce que Google définit comme spam, il vaut la peine de consulter le nouveau Google Search Essentials.

Cela dit, même les sites qui suivent Google Search Essentials sont vulnérables au spam piraté. Si un site n’est pas suffisamment sécurisé, il peut envoyer des spams aux utilisateurs sans le savoir.

Si votre site chute soudainement dans le classement après la mise à jour anti-spam d’octobre 2022, il serait sage d’examiner la sécurité de votre site et de rechercher les signes d’une éventuelle attaque.

Lorsqu’un site est touché par une mise à jour de spam, son contenu est soit rétrogradé dans les résultats de recherche, soit supprimé de l’index de Google.

Google indique que cela pourrait prendre des mois pour se remettre de l’impact négatif d’une mise à jour de spam, à condition que le site Web apporte les modifications nécessaires pour se conformer aux politiques de spam de Google.


La source: Google

Image en vedette : TarikVision/Shutterstock

Comment fonctionne l’algorithme Twitter et comment l’optimiser

0

Lorsqu’il s’agit de se commercialiser dans l’espace numérique, les propriétaires d’entreprise semblent toujours avoir quelque chose de nouveau à découvrir, qu’il s’agisse d’une mise à jour principale de Google ou d’un algorithme de médias sociaux changeant.

Quiconque a déjà essayé de développer une audience sur les réseaux sociaux sait à quel point il peut être frustrant de voir son contenu. Avec des millions de profils et de marques en concurrence pour la pertinence, le public a plus que sa juste part de messages à prendre à tout moment.

C’est certainement le cas avec Twitter, l’une des plus grandes plateformes de médias sociaux au monde par les utilisateurs actifs mensuels, avec environ 463 millions.

Mais, malgré la difficulté, gagner un large public dévoué sur Twitter serait idéal pour toute entreprise.

Et cela peut être fait. Regardez les plus grands suivis de la plate-forme : PlayStation avec 16,9 millions, Xbox avec 13,5 millions et Starbucks avec 11,4 millions.

Tout le monde commence avec zéro, mais toutes ces marques doivent avoir fait quelque chose au fil des ans pour tirer parti de l’algorithme de Twitter et faire en sorte que leur contenu soit vu par leur public idéal.

Vous pouvez faire la même chose, mais une approche aveugle ne vous conviendra probablement pas. il y a trop de concurrence pour ça.

Au lieu de cela, pourquoi ne pas profiter du véritable algorithme de Twitter qui détermine ce que les utilisateurs voient en fonction de leurs intérêts et de leur activité sur la plateforme ?

Cependant, comprendre l’algorithme ne vous fera qu’une partie du chemin. L’autre partie se résumera à votre stratégie de contenu.

Alors, plongeons profondément dans l’algorithme de Twitter et expliquons comment vous pouvez optimiser votre approche des médias sociaux pour cela.

Qu’est-ce que l’algorithme Twitter ?

Les plates-formes numériques telles que Google et les applications de médias sociaux sont des choses assez étonnantes.

Ils sont autonomes, en grande partie grâce aux algorithmes que leurs créateurs humains ont conçus pour eux.

L’algorithme de Twitter n’est pas sans rappeler les algorithmes utilisés par d’autres géants des médias sociaux tels que Facebook et Instagram.

Ces plates-formes doivent utiliser des algorithmes pour afficher le contenu à leurs utilisateurs car il n’y a aucun moyen logique de suivre tout cela autrement.

Laisse-moi expliquer.

Dans un système simple, vous verriez tout affiché par les comptes que vous suivez dans l’ordre chronologique inverse.

Ainsi, dix comptes publient dix tweets, et vous les mettriez tous dans l’ordre, avec le plus récent en haut de votre chronologie Twitter.

Mais, comme les utilisateurs de Twitter tweetent environ 500 millions de fois par jour, la plate-forme avait besoin d’un moyen de tout parcourir pour présenter aux utilisateurs des flux de chronologie personnalisés qui les maintiendraient engagés.

Entrez : l’algorithme de Twitter (un parmi plusieurs, en fait).

Comme je viens de le mentionner, la clé ici est de personnaliser les flux Twitter des utilisateurs pour les adapter à eux et à leurs intérêts.

L’algorithme de Twitter base sa curation de contenu sur votre activité sur la plateforme.

Lorsque vous interagissez sur Twitter, vous aimez certains tweets, suivez certains comptes et retweetez certaines choses que vous aimez. Twitter utilise tout cela pour vous montrer les tweets qu’il pense que vous voudrez voir.

Un point important à retenir est que le contenu que les utilisateurs voient ne provient pas toujours des comptes qu’ils suivent.

Twitter peut également afficher les tweets de comptes similaires aux comptes suivis par les utilisateurs. L’algorithme détermine le contenu qu’il affichera à partir de ces sources en fonction des comptes que vous suivez et des types de tweets que vous aimez souvent.

Pour l’utilisateur, tout cela ressemble à ceci : lorsque les utilisateurs sélectionnent la chronologie d’accueil, ils voient le contenu de l’algorithme de Twitter, une section « au cas où vous l’auriez manqué » des tweets récents des comptes qu’ils suivent, puis tous les autres tweets « réguliers » des comptes qu’ils suivent.

Les utilisateurs peuvent basculer l’interrupteur de l’algorithme pour désactiver les hypothèses de Twitter sur leurs intérêts et passer en mode « Derniers Tweets » pour voir une liste chronologique inversée de tous les tweets récents des comptes qu’ils suivent.

C’est une version condensée du fonctionnement de l’algorithme de Twitter.

Maintenant, si vous essayez de faire remarquer votre contenu sur la plateforme, comment travaillez-vous avec l’algorithme ? C’est ce que nous allons aborder maintenant.

Optimiser votre contenu pour l’algorithme Twitter

Lorsque vous essayez d’optimiser votre contenu Twitter pour qu’il soit vu par le plus grand nombre d’utilisateurs que vous considérez comme idéal pour votre entreprise, vous devez travailler dans le cadre de l’algorithme de la plateforme.

Twitter recherchera certaines choses dans votre contenu pour déterminer s’il est « digne » d’être placé plus haut dans le flux de votre public.

Ces facteurs ne devraient pas vous surprendre, car ils sont essentiellement comparables au cours sur les applications de médias sociaux aujourd’hui, mais cela vaut toujours la peine de les exposer tous ici.

Voici les éléments que l’algorithme « gardera à l’esprit » lorsqu’il décidera où placer votre contenu :

  • Depuis combien de temps le tweet a été créé.
  • La pertinence du tweet par rapport au sujet traité ou à votre créneau de marché par rapport à ce que disent les autres dans cet espace. (Comme sur Google, certains mots clés signaleront la pertinence de l’algorithme. Effectuez des recherches avancées sur Twitter pour voir quel contenu apparaît pour certains mots clés.).
  • À quel point les utilisateurs sont-ils engagés sur le tweet spécifique et d’autres tweets de votre compte.
  • Si le tweet comprend des éléments visuels tels que des images, des vidéos, des gifs ou d’autres médias (qui sont généralement plus attrayants que le simple texte).

Toutes ces choses ont du sens, et vous pouvez dire ce qui est sous-entendu dans chacune d’elles : l’algorithme de Twitter veut montrer aux utilisateurs des tweets récents, pertinents, déjà intéressants pour des milliers d’autres et susceptibles d’engager des milliers d’autres en contenant des éléments visuels. médias.

Ainsi, lorsque vous créez du contenu pour le compte Twitter de votre entreprise, gardez ces facteurs à l’esprit et agissez en conséquence.

Avant de passer à la dernière section, résumons les principaux points que nous avons couverts jusqu’à présent.

Nous avons expliqué pourquoi l’algorithme Twitter a été créé et comment il fonctionne. Vous savez que l’algorithme décompose les tweets en contenu choisi de manière algorithmique, la section « au cas où vous l’auriez manqué » et les tweets chronologiques inversés.

Vous connaissez également maintenant les facteurs de pertinence et de type de contenu que l’algorithme prend en compte pour déterminer les tweets à afficher aux abonnés et aux autres.

Voici mes meilleurs conseils pour optimiser activement votre stratégie de contenu Twitter afin de générer le plus d’engagement de votre public cible sur la plateforme.

1. Quoi que vous fassiez, faites-le régulièrement

Pour une raison quelconque, certaines personnes ont du mal à être cohérentes sur leurs comptes de médias sociaux. Ils peuvent publier deux fois par jour pendant quatre jours, puis déposer pendant environ une semaine avant de revenir.

Ce type de calendrier de publication ne stimulera pas votre engagement ni ne vous fera gagner les goûts et les abonnés dont vous avez besoin pour jouer au jeu de l’algorithme.

C’est pourquoi il est important de rester cohérent dans votre stratégie de contenu.

La cohérence fait beaucoup pour vous. D’une part, cela vous donne l’air plus professionnel et fiable, car les entreprises en plus de leur marketing affichent généralement des horaires comme sur des roulettes.

L’autre avantage de la cohérence est que vous avez plus de chances d’atteindre tous ceux que vous voulez, car tout le monde n’utilise pas Twitter à la même heure chaque jour. Par conséquent, vos tweets pourraient être enterrés au moment où une grande partie de votre public se connecte à Twitter.

En vous en tenant à un horaire quotidien de trois fois par jour, vous vous donnez les meilleures chances d’atteindre les gens, peu importe quand ils sautent sur Twitter.

Une fois que vous aurez créé une suite, les gens sauront quand s’attendre à plus de contenu de votre part, et ils peuvent même attendre qu’il soit publié.

2. Retweetez stratégiquement

Il n’y a rien de mal non plus à ajouter des Retweets à votre stratégie de contenu sur Twitter.

Le retweet permet aux créateurs de partager quelque chose de quelqu’un d’autre avec leurs abonnés. Tant que ce que vous retweetez est cohérent avec votre message habituel, c’est une bonne méthode pour continuer à atteindre votre public de manière cohérente.

Le retweet est également un moyen de profiter de la popularité d’autre chose tout en donnant à vos abonnés quelque chose de précieux.

Vous pouvez retweeter le contenu de quelqu’un d’autre dans votre secteur ou retweeter un ancien tweet de votre cru qui a bien fonctionné.

Intégrez les retweets à votre calendrier de publication pour continuer à communiquer avec votre public tout en restant pertinent avec le contenu.

3. Restez intéressant

Si la principale conclusion de tout cet article pour vous a été de rendre votre contenu intéressant et engageant pour être trouvé dans l’algorithme, cela me suffirait.

Cependant, il convient de souligner ce que signifie un contenu Twitter « intéressant ».

J’ai mentionné plus haut que les tweets avec les médias ont tendance à faire mieux parce qu’ils suscitent plus d’engagement. Qui veut lire un tweet quand on peut regarder un GIF amusant ou regarder une image avec une brève légende ?

Lorsque vous publiez du contenu partageable, amusant ou intellectuellement stimulant, cela encourage les likes.

Lorsque vous faites cela selon un calendrier cohérent, cela encourage les suivis.

Désormais, les likes et les suivis ne se traduisent pas nécessairement par plus d’affaires pour vous, mais ils peuvent vous aider à créer une audience authentique sur les réseaux sociaux et, en fin de compte, à accroître la notoriété de votre marque.

Connaissez l’algorithme de Twitter, mais ne soyez pas obsédé

Nous avons couvert beaucoup de choses dans cet article, mais il y a encore une chose que je veux dire à propos de l’algorithme de Twitter : ne soyez pas obsédé par cela.

Comme lorsque vous écrivez du contenu SEO, les bonnes choses monteront au sommet.

Ne consacrez pas chaque heure de veille à comprendre comment jouer avec l’algorithme et faire voir vos affaires.

Suivez ces conseils, mais concentrez-vous principalement sur la génération de contenu utile pour votre public et sur la représentation de votre marque.

C’est le meilleur moyen de développer une audience Twitter pour de vrai.

Davantage de ressources:

  • Twitter Analytics – Découvrez les meilleures informations marketing sur Twitter
  • Twitter émule TikTok avec deux nouvelles fonctionnalités
  • Marketing des médias sociaux : un guide stratégique complet


Image en vedette : tovovan/Shutterstock

Comment les mises à jour fréquentes de l’algorithme de Google affectent la recherche payante

0

Google apporte constamment des modifications à son algorithme de recherche dans le but de fournir aux utilisateurs les résultats les plus utiles possibles. Pas moins de 500 modifications mineures apparaissent chaque année, ainsi qu’une douzaine de mises à jour majeures pour contrecarrer les spammeurs et anticiper les informations que les utilisateurs veulent vraiment trouver.

Chaque changement majeur apporté à l’algorithme présente un défi pour les professionnels des moteurs de recherche, qui à leur tour se bousculent pour maintenir leurs placements SEO durement gagnés.

Plus souvent qu’autrement, la communauté de la recherche n’est pas d’accord sur les avantages de ces changements d’algorithme. Certains experts ont prédit que le changement le plus récent n’aurait aucun effet, tandis que d’autres ont affirmé que les résultats auraient un impact négatif sur jusqu’à 90 % des sites Web. Ce dernier s’est avéré être vrai.

Comme son homologue organique, la recherche payante est un peu un mystère en ce qui concerne les effets des mises à jour d’algorithmes, car Google ne divulgue pas les changements exacts pour chaque mise à jour. Malgré ce manque de contrôle, les entreprises qui s’appuient sur la recherche payante peuvent prendre des mesures pour savoir comment ces mises à jour affecteront leurs efforts de recherche payante.

La première étape consiste à comprendre la stratégie globale de Google. Cela aidera les entreprises à réussir dans leurs efforts de moteur de recherche. Bien que Google n’ait pas fourni de détails sur la question de savoir si et comment ses derniers changements d’algorithme pourraient affecter la recherche payante, les tendances récentes indiquent que la recherche organique devient un facteur plus important du succès d’une campagne de recherche payante. Cette tendance s’inscrit dans la stratégie de Google visant à rendre les recherches plus utiles pour les utilisateurs, en fournissant les bons résultats au bon endroit et au bon moment.

Un moteur de recherche qui fournit les résultats les meilleurs et les plus précis est celui que les gens veulent utiliser, et les utilisateurs aident à générer des publicités de recherche payantes. Il est donc dans l’intérêt de Google de fournir des résultats de recherche de haute qualité qui génèrent suffisamment de trafic pour vendre des annonces.

Importance du niveau de qualité

Le niveau de qualité AdWords est une manière importante dont les modifications de l’algorithme de Google sont censées affecter la recherche payante. Google reste discret sur la façon dont le niveau de qualité est calculé, mais il est clair qu’il affecte votre recherche payante à tous les niveaux : de la campagne globale aux groupes d’annonces en passant par les mots clés. Le calcul du score inclut des facteurs tels que le taux de clics de vos mots clés au fil du temps, la popularité de vos termes de recherche et la qualité de vos pages de destination associées, en corrélation directe avec le côté organique des facteurs de l’algorithme.

Google utilise le score de plusieurs façons, y compris la détermination du coût par clic pour des mots clés individuels et des estimations d’offres pour vous amener sur la première page de résultats payants. Google fournit des instructions détaillées pour vérifier le niveau de qualité de chacun de vos mots clés.

Comment les pages de destination et les pages liées de qualité ont un impact sur la recherche payante

Bien que les détails exacts de la façon dont les modifications de l’algorithme de Google affectent les liens entre la recherche payante et la recherche organique ne soient pas divulgués, il est clair que les campagnes de recherche payante réussies peuvent bénéficier d’un contenu de haute qualité sur les pages de destination et les pages supplémentaires qui leur sont liées. Jusqu’à il y a quelques années, Google traitait les pages de destination un peu comme des citoyens de seconde classe dans son processus de recherche payante : elles n’étaient évaluées que pour déterminer si une campagne AdWords était autorisée ou non. La logique était que les pages de destination ne pouvaient pas être vues avant qu’un utilisateur ne clique dessus et, par conséquent, n’affectaient pas le fait qu’une annonce payante particulière ait été cliquée.

Cependant, les récents changements d’algorithme de Google – avec leur forte tendance à la pertinence et à la précision des recherches – ont considérablement augmenté l’importance de la qualité de la page de destination dans le niveau de qualité des mots clés, ce qui affecte à son tour le succès d’une campagne AdWords particulière. Google évalue désormais les pages de destination liées en fonction de la qualité de leur contenu et de leur pertinence par rapport au mot clé AdWords associé.

En outre, Google suit la fréquence à laquelle les utilisateurs de recherche reviennent sur Google après avoir accédé à une page de destination, ce qui indique que la page de destination trouvée n’était pas pertinente pour la recherche prévue. Dans l’ensemble, les pages de destination que Google considère comme très pertinentes devraient mieux réussir à obtenir un placement optimal.

Rédaction de vos pages pour les personnes, pas pour les moteurs de recherche

Les nombreux changements d’algorithmes de Google au cours des dernières années – en particulier Hummingbird, une mise à jour majeure qui a été déployée en 2013 – pointent tous vers un objectif : fournir des résultats de recherche pertinents aux utilisateurs. Les annonces n’existent pas dans le vide : elles sont liées à des pages, et le contenu de ces pages de destination doit fournir aux utilisateurs un contenu opportun et pertinent pour leurs recherches. Ainsi, même lorsque les modifications de l’algorithme de Google n’affectent pas directement la recherche payante, elles l’affectent indirectement par leur impact sur les pages de destination associées.

Au fur et à mesure que Google mûrit, une caractéristique clé qui le distingue est la mise en œuvre progressive de la recherche sémantique – la capacité du moteur à « savoir » ce que vous voulez dire lorsque vous posez une question. Si un utilisateur recherche « fleurs », il est probable qu’il souhaite acheter ou commander des fleurs en ce moment, et non rechercher des types de fleurs.

Résultats de la recherche payante Google

Avoir une page de destination pertinente et bien optimisée offrant une variété de fleurs à acheter vous aidera à arriver en tête de la recherche payante de Google par rapport à une page de destination non optimisée.

Page de destination de qualité pour les demandes de recherche de fleurs

Garder vos pages de destination pertinentes signifie rédiger du contenu qui apporte de la valeur à vos visiteurs en temps opportun. Cela signifie que le marketing de contenu est plus important que jamais, et Google regarde favorablement les entreprises qui font des efforts constants pour créer un contenu de haute qualité. Une stratégie de contenu efficace aide non seulement vos annonces associées à obtenir un meilleur placement et des taux de clics inférieurs, mais elle crée également des opportunités de partage social entre vos utilisateurs et signale que votre site est dynamique et continuellement intéressant.

Faire face aux modifications de l’algorithme de Google

Comme on ne sait pas exactement ce que Google change dans chaque mise à jour d’algorithme et comment ces mises à jour affectent la recherche payante, il est judicieux de se concentrer sur le contenu de vos pages de destination, ainsi que sur les pages liées à et depuis votre page de destination. Si votre entreprise n’a pas encore mis en place une stratégie active et formalisée de marketing de contenu, il est temps de le faire. Afin de garder votre site visible, vous devez d’abord comprendre que les mots clés ne sont plus rois sur les sites Web. Bien que les annonceurs puissent toujours accéder aux informations sur les mots clés, les données ne sont plus disponibles pour la recherche organique et Google minimise le rôle des mots clés dans le classement des pages.

De plus, pour améliorer votre classement, vous devez déterminer les questions que posent vos utilisateurs. La dernière itération de l’algorithme de Google est devenue plus conviviale pour les recherches vocales, qui sont formulées sous forme de questions. Assurez-vous également que votre stratégie de contenu tient compte du rôle de l’accès mobile, y compris des différences dans la façon dont les utilisateurs interagissent avec votre contenu lorsqu’ils utilisent des tablettes et des smartphones.

La stratégie de Google ces dernières années – rendre la recherche plus pertinente, opportune et significative pour les utilisateurs – affecte clairement les deux extrémités du spectre de recherche. Pour maintenir avec succès une stratégie de recherche complète, les professionnels du marketing doivent constamment s’efforcer de créer un contenu innovant qui maintient les pages de destination à jour et précieuses pour les utilisateurs.

Image en vedette : Shutterstock.com. Utilisé sous licence.

Captures d’écran prises en décembre 2014.

La mise à jour de l’algorithme d’évaluation des produits Google de septembre 2022 est désormais disponible

0

Google confirme que la mise à jour des avis sur les produits de septembre 2022, la cinquième d’une série de mises à jour ciblant les avis de mauvaise qualité, est en cours de déploiement.

La mise à jour commence à être déployée aujourd’hui, le 20 septembre, et prendra jusqu’à une semaine pour être déployée.

Google a fait l’annonce sur Twitter en créant un lien vers la page officielle pour les mises à jour du classement de recherche. Google mettra à jour la page une fois le lancement terminé.

Historiquement, ces mises à jour prennent deux semaines. Cependant, Google indique que la mise à jour de l’examen des produits de septembre 2022 est « presque terminée ».

« Pour plus de sensibilisation, la mise à jour principale de septembre 2022 n’est pas entièrement terminée, mais elle est en grande partie terminée. Nous prévoyons qu’il sera entièrement terminé d’ici une semaine et que nous le partagerons sur notre page de mises à jour lorsqu’il sera terminé.

Comme la mise à jour est en grande partie terminée, vous en voyez peut-être déjà l’impact sur vos pages d’avis de produits.

Ceci est une histoire en développement…


Image en vedette : 13_Phunkod/Shutterstock

Google annonce la mise à jour de l’algorithme de base de septembre 2022

0

Google a annoncé une mise à jour de l’algorithme de base le 12 septembre 2022. La réponse de la communauté de recherche est généralement positive, bien que certains coins d’Internet aient été sensiblement assourdis.

Mise à jour de l’algorithme de base

Une mise à jour de l’algorithme de base est annoncée par Google lorsque des modifications suffisamment importantes sont apportées pour être ressenties par les éditeurs et les spécialistes du marketing de recherche.

Le compte officiel Google Search Central a tweeté l’annonce de la mise à jour

Une mise à jour de l’algorithme de base est une modification de plusieurs parties de l’algorithme de Google.

Alors que l’algorithme subit toujours des changements, une mise à jour de l’algorithme de base a tendance à être plus visible.

Attendez-vous à ce que les modifications apportées à l’algorithme soient visibles dans les prochains jours, à mesure que les modifications seront déployées dans les centres de données.

Il n’y a aucune confirmation de l’impact de cela sur les résultats de recherche (SERP) dans le monde et dans différentes langues.

Vraisemblablement, cela affectera les résultats de recherche dans la plupart des langues puisque ces types de mises à jour sont plus générales.

La mise à jour de base va-t-elle amplifier la mise à jour de contenu utile ?

Danny Sullivan a récemment tweeté, en réponse à des questions, que les effets de la mise à jour utile du contenu pourraient devenir plus observables lors d’une mise à jour de l’algorithme de base.

Il tweeté:

« Peut-être que le signal de contenu utile à lui seul n’était pas suffisant pour faire pencher la balance et produire un changement dans la situation particulière de quelqu’un, mais lorsque nous effectuons d’autres mises à jour (essentielles, critiques de produits), cela pourrait s’ajouter à cela et être plus significatif…. »

Cependant, cela semble être une déclaration générale et je ne considérerais pas cela comme signifiant qu’une mise à jour de base SERA plus visible dans une mise à jour de base.

Il est important de noter que Danny a précédé sa déclaration d’un « peut être.”

Cela dit, le contenu utile fait partie du noyau de l’algorithme de base et fonctionne en permanence afin qu’un nouveau site Web puisse être affecté par ce composant d’algorithme connu sous le nom de mise à jour du contenu utile (HCU).

À moins que Google ne déclare spécifiquement que la mise à jour du contenu utile est une partie importante de cette mise à jour principale, il peut être prématuré de dire qu’elle est amplifiée dans cette mise à jour principale de septembre.

Malgré certaines prédictions précoces selon lesquelles le HCU allait tout changer, la communauté de la recherche le considère maintenant avec un haussement d’épaules.

Certains ont exprimé l’opinion qu’ils s’attendent à ce que le HCU revienne plus fort avec une mise à jour de base.

Mais je ne suis pas d’accord.

De retour le 19 août, j’ai exprimé l’opinion sur mon fil Facebook qui était basée sur les performances passées d’autres mises à jour ciblées.

Les mises à jour de révision et diverses mises à jour de spam n’ont pas secoué l’industrie. L’impact a été largement limité aux contrevenants les plus évidents.

Étant donné que le HCU était également ciblé et que l’annonce mentionnait de mauvais exemples spécifiques, j’ai estimé que le HCU n’affecterait pas non plus le site Web moyen.

J’écrivais à l’époque :

« La précédente série de mises à jour de Google ne semblait attraper que les pages vraiment évidentes. Donc, sur la base des performances de ces mises à jour, mes attentes sont réduites pour la mise à jour utile.

Donc je pense que ça va être comme dans le vieux film de Humphrey Bogart Casablanca, quand les autorités sortent pour rassembler les suspects habituels.

Réponse de la communauté de recherche à la mise à jour principale

La réponse de la communauté de recherche espérait généralement que cela améliorerait les résultats de recherche.

Comment répondre à la mise à jour principale

Mais la réponse dans certains des espaces de marketing d’affiliation a été en sourdine, pas beaucoup de commentaires.

La meilleure approche consiste maintenant à être vigilant à tout changement dans la console de recherche, mais ne réagissez pas.

Les résultats de recherche pourraient rebondir au cours des prochaines semaines.

Laissez les résultats de la recherche se stabiliser avant d’essayer de leur donner un sens.


Image sélectionnée par Shutterstock/Roman Samborskyi

Google reporte la mise à jour de l’algorithme d’expérience de page à la mi-juin

0

Google repousse le lancement de sa mise à jour de l’algorithme Page Experience, qui verra les Core Web Vitals devenir des signaux de classement, à la mi-juin.

Initialement prévu pour un lancement en mai, le calendrier mis à jour de Google pour la mise à jour de l’expérience de page donne aux propriétaires de sites au moins un mois supplémentaire pour se préparer.

Mise à jour de l’expérience de la page Google et Core Web Vitals en tant que facteur de classement retardé

Google indique dans un article de blog que la mise à jour Page Experience commencera à être déployée à la mi-juin, mais ne jouera pas pleinement son rôle dans les classements de recherche avant la fin août.

« Nous commencerons à utiliser l’expérience de page dans le cadre de nos systèmes de classement à partir de la mi-juin 2021. Cependant, l’expérience de page ne jouera pas pleinement son rôle dans ces systèmes avant la fin août. Vous pouvez y penser comme si vous ajoutiez un arôme à un aliment que vous préparez. Plutôt que d’ajouter la saveur d’un seul coup dans le mélange, nous l’ajouterons lentement tout au long de cette période.

L’une des raisons du déploiement progressif est de surveiller l’impact de la mise à jour pour tout problème inattendu ou involontaire.

Les sites ne doivent pas s’attendre à des changements drastiques lors du déploiement de cette mise à jour, indique Google, car l’expérience de la page sera l’un des nombreux facteurs pris en compte lors du classement des pages Web.

Tout ce que nous savons d’autre sur la mise à jour de Page Experience reste le même en ce qui concerne les résultats de recherche. Consultez les ressources à la fin de cet article pour vous tenir au courant des dernières informations.

Dans le cadre de la mise à jour de l’expérience de la page, un changement est apporté à Google News qui étendra l’utilisation du contenu non AMP sur news.google.com et les applications mobiles. Google supprimera également les badges AMP pour indiquer le contenu AMP.

Nouveau rapport d’expérience de page dans Google Search Console

Google a retardé le déploiement de Core Web Vitals et la mise à jour de l'algorithme Page Experience.

Un nouveau rapport sur l’expérience de la page est désormais disponible dans Google Search Console, qui combine le rapport Core Web Vitals avec d’autres signaux d’expérience de la page tels que :

  • Facilité d’utilisation mobile: Une URL ne doit pas comporter d’erreurs d’utilisabilité mobile pour être éligible au statut Bon.
  • Les problèmes de sécurité: Tout problème de sécurité pour un site disqualifie toutes les URL du site d’un statut Bon.
  • Utilisation HTTPS: Une page doit être diffusée via HTTPS pour être éligible au statut d’expérience de page satisfaisante.
  • Expérience publicitaire: Un site ne doit pas utiliser de techniques publicitaires distrayantes, perturbatrices ou autrement non propices à une bonne expérience utilisateur. Si un site est signalé comme ayant une mauvaise expérience publicitaire, toutes les pages du site sont considérées comme ayant une mauvaise expérience de page.

Le rapport Page Experience mesurera le pourcentage d’URL sur un site Web qui offrent une bonne expérience sur la base d’une évaluation des facteurs ci-dessus.

Les propriétaires de sites peuvent également utiliser le rapport pour approfondir les composants du signal d’expérience de page afin d’obtenir des informations supplémentaires sur les opportunités d’amélioration.

Parallèlement à cette mise à jour, le rapport sur les performances de recherche dans la Search Console a été mis à jour avec la possibilité de filtrer les pages avec une bonne expérience de page. Cela aidera à garder une trace de la façon dont les pages avec une bonne expérience se comparent aux autres pages d’un site.

Pour en savoir plus sur la mise à jour de l’expérience de page, consultez les ressources ci-dessous :

  • Google : Core Web Vitals devient un signal de classement en mai 2021
  • 7 conseils pour améliorer vos scores Core Web Vitals et vos signaux d’expérience de page
  • Google sur l’impact attendu de la mise à jour de Core Web Vitals


Source : Blog de Google Search Central

Google prépare une mise à jour de l’algorithme d’évaluation des produits pour août

0

La prochaine mise à jour poursuit les efforts de Google pour afficher des avis plus utiles et approfondis basés sur une expertise de première main dans les résultats de recherche.

Le calendrier de Google pour la prochaine mise à jour de l’examen des produits s’aligne sur la conclusion de la mise à jour de contenu utile qui vient d’être annoncée.

Lorsque vous ajoutez la mise à jour de l’examen des produits de juillet, cela représente trois modifications confirmées de l’algorithme Google en un mois.

Google semble avoir pour mission de purger la page d’accueil du contenu de faible valeur, en mettant l’accent sur le contenu que les gens utilisent pour éclairer les décisions d’achat.

Quelques détails sur la prochaine mise à jour de l’examen des produits – Plus de la même chose ?

L’annonce de Google offre peu de détails sur la prochaine mise à jour de l’algorithme d’évaluation des produits.

Si vous avez parcouru le billet de blog, vous l’avez peut-être manqué, car la mention était brève. L’annonce se lit comme suit :

« Nous savons que les avis sur les produits peuvent jouer un rôle important pour vous aider à prendre une décision sur quelque chose à acheter. L’année dernière, nous avons lancé une série de mises à jour pour afficher des avis plus utiles et approfondis basés sur une expertise de première main dans les résultats de recherche.

Nous avons continué à affiner ces systèmes et, dans les semaines à venir, nous déploierons une autre mise à jour pour faciliter encore plus la recherche d’avis originaux de haute qualité. Nous poursuivrons ce travail pour nous assurer que vous trouviez les informations les plus utiles lorsque vous recherchez un achat sur le Web.

Cela ressemble à la prochaine mise à jour est plus ou moins la même.

La messagerie de Google autour de son algorithme d’examen des produits n’a pas radicalement changé d’une mise à jour à l’autre. Il est raisonnable de s’attendre à ce que les conseils de Google restent les mêmes cette fois.

Connexion possible avec la mise à jour de contenu utile ?

La prochaine mise à jour de l’examen des produits de Google devrait commencer à être déployée au moment où le lancement de la mise à jour du contenu utile sera terminé.

La proximité de la mise à jour du contenu utile et de la mise à jour de l’examen du produit suggère un lien possible entre les deux.

Je suppose que la mise à jour utile du contenu permettra à Google de mieux identifier les avis sur les produits qui ajoutent une valeur unique ou démontrent une connaissance de première main.

Les deux algorithmes sont conçus pour identifier des qualités similaires dans un élément de contenu. Dans un article de blog concernant la mise à jour utile du contenu, Google propose les conseils suivants pour évaluer la valeur d’une page :

« Votre contenu démontre-t-il clairement une expertise de première main et une connaissance approfondie (par exemple, une expertise qui découle de l’utilisation réelle d’un produit ou d’un service, ou de la visite d’un lieu) ? »

Cela ressemble à ce que recherche la mise à jour de l’examen du produit.

Lorsque la mise à jour du contenu utile est terminée, Google peut prendre les données qu’il obtient et les appliquer à la prochaine itération de la mise à jour de l’examen du produit.

Cela peut stimuler les pages d’évaluation de produits utiles que Google a manquées dans les mises à jour précédentes.

À l’inverse, Google pourrait également utiliser les données pour identifier les avis sur les produits de mauvaise qualité. Les pages qui n’ont pas été dévaluées après les mises à jour précédentes pourraient alors perdre leur classement.

On ne sait pas si Google offrira plus d’informations sur la prochaine mise à jour de l’examen des produits avant sa mise en ligne.


La source: Google

Image en vedette : 13_Phunkod/Shutterstock

La mise à jour de l’algorithme « Contenu utile » de Google sera bientôt lancée

0

Google a annoncé le lancement d’une nouvelle mise à jour de l’algorithme la semaine prochaine appelée le mise à jour du contenu utile. Il vise à stimuler le contenu écrit pour les gens et à dévaloriser le contenu écrit principalement pour le référencement.

Contrairement à la récente mise à jour de l’examen des produits, qui cible des types de pages spécifiques, la mise à jour de contenu utile est sur tout le site. Cela signifie qu’il a le potentiel d’avoir un impact toutes les pages.

La mise à jour de contenu utile présente également un nouveau signe Google utilisera pour classer les pages Web.

Bien que Google donne un avertissement concernant ces changements d’algorithme, une semaine n’est pas longue pour se préparer. Cependant, on pourrait soutenir que tous les sites devraient être écrits pour les humains en premier lieu.

Voici toutes les informations disponibles en ce moment.

Mise à jour du contenu utile de Google

Google a publié l’annonce suivante sur Twitter aujourd’hui :

« La semaine prochaine, nous lancerons la » mise à jour du contenu utile « pour mieux garantir que les gens voient plus de contenu original et utile écrit par des gens, pour des gens, plutôt que du contenu conçu principalement pour le trafic des moteurs de recherche. »

Le tweet renvoie à un article de blog contenant plus d’informations, y compris des détails sur la façon dont les sites Web peuvent continuer à réussir après le déploiement de la mise à jour de contenu utile.

À quoi sert la mise à jour du contenu utile ?

Cette mise à jour introduit un nouveau signal de classement qui aura un impact négatif sur les sites qui publient de grandes quantités de contenu avec peu de valeur, à faible valeur ajoutée ou qui ne sont pas utiles aux internautes.

« Tout contenu – pas seulement le contenu inutile – sur des sites déterminés à avoir des quantités relativement élevées de contenu inutile dans l’ensemble est moins susceptible de bien fonctionner dans la recherche, en supposant qu’il existe d’autres contenus ailleurs sur le Web qu’il est préférable d’afficher. Pour cette raison, la suppression du contenu inutile pourrait améliorer le classement de vos autres contenus. »

Que dois-je faire si la mise à jour du contenu utile m’affecte ?

Si la mise à jour de contenu utile vous parvient, Google vous conseille de supprimer le contenu inutile de votre site Web.

Les sites touchés par la mise à jour peuvent constater que les effets durent plusieurs mois, selon Google. Le billet de blog de Google continue :

« Notre classificateur pour cette mise à jour fonctionne en continu, ce qui lui permet de surveiller les sites nouvellement lancés et ceux existants. Comme il détermine que le contenu inutile n’est pas revenu à long terme, la classification ne s’appliquera plus.

Autres notes sur la mise à jour du contenu utile de Google

Enfin, voici quelques notes finales sur la mise à jour utile du contenu :

  • La mise à jour n’est pas une action manuelle. Le processus est automatisé à l’aide d’un modèle d’apprentissage automatique.
  • Le contenu axé sur les personnes peut toujours être classé même s’il est publié sur des sites contenant de grandes quantités de contenu inutile.
  • Le signal est pondéré, ce qui signifie que certains sites sont plus durement touchés que d’autres.
  • Seules les recherches en anglais seront impactées, pour commencer.


La source: Google

Image en vedette : BRO.vector/Shutterstock

Facebook ajuste l’algorithme pour réduire la portée du contenu Clickbait

0

Facebook prend des mesures pour réduire la portée des contenus sensationnalistes et provocateurs.

En d’autres termes, l’algorithme du fil d’actualité de Facebook rétrogradera ce qu’on appelle communément le clickbait.

Cela a été annoncé dans un article de blog écrit par Mark Zuckerberg dans lequel il détaille la manière dont Facebook traitera le contenu problématique à l’avenir.

Zuckerberg qualifie le contenu de clickbait de « limite ». Cela n’enfreint pas tout à fait les règles de Facebook, mais cela conduit à une mauvaise expérience pour les utilisateurs.

Les utilisateurs interagissent davantage avec le contenu limite par rapport aux autres types de contenu, explique Zuckerberg.

Même si les utilisateurs expriment qu’ils n’aiment pas le contenu, ils continueront à s’y intéresser.

La solution proposée par Facebook est de rétrograder le contenu borderline.

« Il s’agit d’un problème d’incitation fondamental que nous pouvons résoudre en pénalisant le contenu limite afin qu’il obtienne moins de distribution et d’engagement. En faisant ressembler la courbe de distribution au graphique ci-dessous où la distribution diminue à mesure que le contenu devient plus sensationnel, les gens sont découragés de créer un contenu provocateur aussi proche que possible de la ligne.

Voici le graphique auquel Zuckerberg fait référence :

Facebook ajuste l'algorithme pour réduire la portée du contenu Clickbait

Facebook utilisera des systèmes d’intelligence artificielle pour détecter le contenu limite afin qu’il puisse être moins présenté dans les fils d’actualité des utilisateurs.

Ces changements de distribution s’appliqueront également au contenu partagé dans les groupes Facebook.

Zuckerberg dit que son entreprise a déterminé que réduire la portée du contenu limite est la meilleure solution, plutôt que de modifier les règles sur ce qui est autorisé à être publié.

À l’avenir, les éditeurs doivent veiller à ce que leur contenu ne soit pas sensationnaliste, sinon il pourrait être pénalisé.

Lorsque vous rédigez un article, par exemple, assurez-vous que le contenu principal correspond à ce à quoi les gens s’attendraient après avoir lu le titre.

L’algorithme des courts métrages YouTube expliqué au format Q&A

0

YouTube démystifie l’algorithme Shorts dans une vidéo de questions-réponses qui répond à plusieurs des questions les plus courantes que se posent les créateurs sur l’obtention de visibilité avec du contenu court.

Nous connaissons au moins quelques informations sur le fonctionnement de l’algorithme de recommandation de YouTube pour les vidéos de longue durée, mais nous en savons peu sur l’algorithme Shorts.

La vidéo de questions-réponses de YouTube aborde des sujets tels que :

  • Si vous devez créer une chaîne distincte pour Shorts
  • L’impact de la publication de contenu long et court sur le même canal
  • Si l’engagement avec Shorts est un facteur pour l’algorithme de recommandation de contenu longue durée de YouTube
  • Et plus

Voici un récapitulatif de chaque question et réponse dans la vidéo.

Dois-je mélanger du contenu long et court sur le même canal ?

La première question demande comment l’algorithme YouTube Shorts répond aux chaînes qui publient des courts métrages lorsqu’elles téléchargent généralement des vidéos plus longues. Cela pourrait-il nuire à leur chaîne ?

Selon YouTube, il est peu probable que la publication de courts métrages nuise aux chaînes qui se sont établies avec des vidéos plus longues. Cela peut avoir l’effet inverse.

Un représentant de l’entreprise de YouTube déclare :

« Nous avons récemment effectué une analyse où nous avons examiné la croissance de l’audience pour les chaînes qui ne faisaient que des vidéos longues et les chaînes qui faisaient à la fois des vidéos longues et courtes. Les chaînes qui ont créé Shorts semblaient en fait croître plus rapidement.

Nous prévoyons que la demande du public pour du contenu court est là pour rester. C’est un format qui devient de plus en plus populaire, et c’est la raison même pour laquelle nous testons autant d’outils de création et de découverte de courts métrages.

Est-ce que YouTube recommandera plus de vidéos longues si les gens regardent mes courts métrages ?

La question suivante demande si les vues et l’engagement avec Shorts ont un impact sur l’algorithme de recommandation pour le contenu long.

Nous apprenons que chaque type de vidéo a son propre algorithme de recommandation, et l’engagement avec un type de contenu n’augmente pas les recommandations de l’autre.

C’est parce que les gens ont des préférences d’affichage différentes. Les personnes qui aiment les courts métrages peuvent ne pas avoir intérêt à regarder des vidéos plus longues.

Un représentant de YouTube déclare

« Les téléspectateurs qui regardent les courts métrages ne sont pas toujours les mêmes téléspectateurs qui regardent le contenu de forme plus longue… Pour cette raison, nous séparons les courts métrages et le contenu de forme longue de l’historique des vidéos regardées. Ainsi, lorsque quelqu’un découvre une nouvelle chaîne via Shorts, nous ne l’utilisons pas actuellement pour informer les vidéos plus longues qui lui sont recommandées en dehors de l’expérience Shorts.

Y a-t-il un avantage à créer une chaîne distincte pour les courts métrages ?

Bien qu’il n’y ait aucun problème inhérent au mélange de contenus courts et longs sur la même chaîne, de nombreux créateurs lancent des chaînes distinctes pour le téléchargement de courts métrages.

La question suivante demande comment on décide quand démarrer une chaîne distincte pour Shorts.

Un représentant de YouTube déclare :

« Essayez de regrouper vos chaînes autour d’audiences similaires qui apprécient le même contenu ou un contenu similaire. Séparez-les lorsque vos téléspectateurs ont des intérêts totalement différents… Si vous commencez à créer différents publics avec des intérêts différents, envisagez de créer une chaîne distincte.

Combien de courts métrages dois-je télécharger avant que l’algorithme ne recommande mon contenu ?

La dernière question demande si l’algorithme Shorts exige qu’une chaîne télécharge un certain nombre de vidéos avant qu’elles ne soient distribuées.

Tous les courts métrages ont une chance d’être recommandés, même le premier qu’une chaîne met en ligne. Cependant, il est toujours utile d’avoir un public établi.

Le représentant de YouTube déclare :

« Chaque court métrage a une chance de réussir, peu importe la chaîne ou le nombre de vidéos sur la chaîne. Les performances d’un court métrage dépendent du fait que les utilisateurs choisissent ou non de regarder et de ne pas ignorer une vidéo dans le flux des courts métrages. Cet engagement du public se construit souvent au fil du temps au lieu de se produire instantanément.

Pour en savoir plus, regardez la vidéo complète sur la chaîne Creator Insider de YouTube.


La source: Initié du créateur

Image en vedette : Runrun2/Shutterstock

La mise à jour de l’algorithme d’évaluation des produits Google de juillet 2022 est maintenant disponible

0

Google confirme que la mise à jour des avis sur les produits de juillet 2022, la quatrième d’une série de mises à jour ciblant les avis de mauvaise qualité, est en cours de déploiement.

La mise à jour commence à être déployée aujourd’hui, le 27 juillet, et se termine dans deux à trois semaines.

Google a fait l’annonce sur Twitter en créant un lien vers la page officielle pour les mises à jour du classement de recherche.

Si l’annonce de Google vous surprend, c’est qu’elle l’est. De nombreuses modifications de l’algorithme de Google surviennent sans avertissement, y compris toutes les mises à jour des avis sur les produits jusqu’à présent.

Cependant, cela ne doit pas être une mauvaise chose. Avec chaque mise à jour de l’algorithme, il y a une chance d’améliorer le classement, surtout si la dernière mise à jour vous a blessé.

Voici ce que vous devez savoir sur le changement d’algorithme d’évaluation des produits de juillet 2022.

Qu’est-ce qui change ?

La mise à jour d’aujourd’hui est un raffinement de l’algorithme d’évaluation des produits de Google qui a été introduit en mars 2021.

L’algorithme est conçu pour récompenser les critiques qui partagent des recherches approfondies plutôt que du contenu fin qui résume les informations que vous pouvez trouver sur le site Web d’un fabricant.

Aucune nouvelle orientation n’est incluse dans la mise à jour d’aujourd’hui. Les sites Web qui publient des avis sur les produits sont encouragés à continuer de se concentrer sur le respect des critères stricts de Google pour un contenu de haute qualité.

En bref, Google veut voir que vous avez testé et expérimenté le produit que vous évaluez de première main.

Vous pouvez le faire comprendre à Google et à vos lecteurs en incluant des informations telles que des mesures quantitatives, des avantages et des inconvénients, des comparaisons avec d’autres produits, etc.

Réécrire le même contenu qui existe déjà sur le web ne le coupera plus. Google donne désormais la priorité aux avis qui offrent une valeur unique. Même les photos originales sont pratiquement obligatoires.

Serai-je impacté ?

Si vous ne publiez pas d’avis sur les produits sur votre site, cette mise à jour ne vous concerne pas. C’est ne pas une mise à jour principale qui affecte tous les résultats de recherche.

Si vous vendez des produits que les clients peuvent évaluer sur votre site Web, cette mise à jour ne s’applique toujours pas à vous, car elle n’est pas considérée comme un article d’évaluation.

Cette mise à jour s’applique aux sites Web qui publient des avis détaillés sur les produits, tels que ceux affichés sur des sites Web tels que Wirecutter et CNET.

Si vous remarquez que le classement des pages d’évaluation des produits fluctue au cours des prochaines semaines, cela est probablement dû à la mise à jour des évaluations des produits de juillet 2022.

Si vous subissez un impact négatif, la meilleure façon de récupérer est d’améliorer la qualité de vos pages d’évaluation de produits en suivant les conseils de Google.


Image en vedette : Thongden Studio/Shutterstock

Déploiement de la mise à jour de l’algorithme Google Broad Core le 2 juin 2021

0

Google publie une mise à jour générale de l’algorithme de base aujourd’hui, le 2 juin 2021. Elle sera suivie d’une autre mise à jour de base en juillet.

Google avait initialement l’intention d’en intégrer davantage dans la mise à jour d’aujourd’hui, mais n’a pas pu tout préparer à temps. C’est la raison pour laquelle nous avons publié deux mises à jour principales un mois après l’autre.

Il est extrêmement rare que Google déploie des mises à jour séparées si proches les unes des autres. Cependant, la société affirme que la plupart des sites ne remarqueront probablement pas l’impact de l’un ou de l’autre.

Nous verrons au cours des prochaines semaines si cela est vrai, car il faut généralement autant de temps pour qu’une mise à jour principale soit complètement déployée.

Danny Sullivan de Google déclare sur Twitter:

« Certaines de nos améliorations prévues pour la mise à jour de juin 2021 ne sont pas tout à fait prêtes, nous allons donc de l’avant avec les parties qui le sont, puis nous suivrons avec le reste avec la mise à jour de juillet 2021. La plupart des sites ne remarqueront aucune de ces mises à jour, comme c’est généralement le cas avec toutes les mises à jour principales.

Les conseils de Google sur la récupération à partir d’une mise à jour de l’algorithme de base restent les mêmes.

Cela dit, essayez de ne pas paniquer si votre site est impacté négativement par la mise à jour de juin.

Ne soyez pas trop prompt à célébrer si vous voyez des changements positifs non plus, car il est possible que l’impact de la mise à jour de ce mois-ci soit inversé le mois prochain.

Sullivan continue :

«Bien sûr, toute mise à jour de base peut produire des baisses ou des gains pour certains contenus. En raison de la nature en deux parties de cette version, il est possible qu’une très petite tranche de contenu puisse voir des changements en juin qui s’inversent en juillet….

Pour rappel, rien dans une mise à jour principale n’est spécifique à un site. Ceux qui cherchent à bien performer avec la recherche en général, y compris avec les mises à jour de base, devraient consulter nos conseils ici.

Sullivan développe ces déclarations dans un article sur le blog de Google expliquant le pourquoi et le comment des mises à jour de l’algorithme de base.

Il y rappelle aux propriétaires de sites que des mises à jour visant à améliorer la qualité des résultats de recherche sont effectuées des milliers de fois par an.

Cependant, toutes les mises à jour ne sont pas égales et l’impact d’une mise à jour principale est susceptible d’être plus visible que d’autres.

Quelle est la différence entre une mise à jour principale et d’autres mises à jour ?

De nombreuses mises à jour de la recherche Google sont axées sur l’amélioration de catégories de résultats spécifiques. Un exemple serait la récente mise à jour des résultats de recherche pour les avis sur les produits.

Ce qui différencie les mises à jour principales des milliers d’autres mises à jour, c’est qu’elles impliquent de vastes améliorations de la recherche Google.

Lorsqu’une mise à jour principale est déployée, ce qui ne se produit que quelques fois par an, des modifications substantielles sont apportées aux processus de classement de Google. Plutôt que de cibler des catégories spécifiques de sites, les mises à jour principales ciblent la recherche dans son ensemble.

Aux propriétaires de sites qui sont touchés par une mise à jour principale, Sullivan dit que ce n’est pas à cause de quoi que ce soit qu’ils aient fait. Cela est dû aux changements dans la façon dont Google évalue le contenu pour répondre à l’évolution des attentes des utilisateurs.

« Les mises à jour de base sont conçues pour accroître la pertinence globale de nos résultats de recherche. En termes de trafic que nous envoyons, c’est en grande partie un échange net. Certains contenus pourraient faire moins bien, mais d’autres gains de contenu. À long terme, l’amélioration de nos systèmes de cette manière est la façon dont nous avons continué à améliorer la recherche et à envoyer chaque année plus de trafic vers des sites sur le Web. »

Être affecté négativement par une mise à jour de l’algorithme de base n’est pas nécessairement un signe qu’un site a fait quelque chose de mal ou qu’il produit un mauvais contenu. C’est plutôt un signe que ce qui était considéré comme pertinent auparavant ne l’est peut-être plus pour les chercheurs d’aujourd’hui.

Souvent, l’actualisation du contenu existant pour améliorer sa pertinence peut modifier le classement d’un site. Les changements ne se feront probablement pas sentir avant la prochaine mise à jour principale, mais la récupération est possible.

Que dois-je faire si je suis concerné par cette mise à jour principale ?

La mise à jour principale de Google de juin 2021 place les propriétaires de sites dans une situation dans laquelle ils ne se sont jamais trouvés auparavant.

Une mise à jour de l’algorithme de base est actuellement en cours de déploiement et une autre est déjà confirmée pour le mois prochain.

Il n’y a pas de précédent à cela, ce qui rend difficile de recommander de prendre des mesures spécifiques jusqu’à ce que nous voyions ce que le mois prochain apportera.

Au lieu de réagir aux changements de la mise à jour de ce mois-ci, anticipez le mois prochain et concentrez-vous sur l’optimisation de votre site avant la mise à jour de base de juillet.

Pendant que vous y êtes, n’oubliez pas la mise à jour de l’expérience de la page qui sera déployée à la mi-juin.

Cela va être quelques mois tumultueux dans la recherche, c’est le moins qu’on puisse dire.

Source : Google

La mise à jour de l’algorithme de Google cible la calomnie

0

Un rapport du New York Times (NYT) indique que Google envisage de modifier son algorithme pour rétrograder les sites Web qui publient des allégations non vérifiées ou diffamatoires sur d’autres personnes.

Ce changement serait une réponse directe aux récents articles du New York Times documentant comment les sites Web créent des entreprises en s’attaquant aux victimes de calomnies.

Le NYT brosse un tableau du fonctionnement de cette industrie :

« Pendant de nombreuses années, le cercle vicieux s’est enclenché : les sites Web sollicitent des plaintes sinistres et non vérifiées concernant de supposés tricheurs, prédateurs sexuels, mauvais payeurs et escrocs. Les gens calomnient leurs ennemis. Les messages anonymes apparaissent en tête des résultats de Google pour les noms des victimes. Ensuite, les sites Web facturent des milliers de dollars aux victimes pour supprimer les publications.

Les changements d’algorithme de Google, qui sont prévus pour les mois à venir, empêcheront ces sites Web prédateurs d’apparaître dans les résultats de recherche lorsque le nom d’une personne est recherché.

De plus, Google a un concept appelé « victimes connues » qui vise à protéger les victimes de diffamation d’être ciblées à plusieurs reprises.

« Lorsque des personnes signalent à l’entreprise qu’elles ont été attaquées sur des sites qui facturent la suppression de publications, Google supprime automatiquement le contenu similaire lorsque leurs noms sont recherchés. Les « victimes connues » incluent également les personnes dont les photos nues ont été publiées en ligne sans leur consentement, ce qui leur permet de demander la suppression des résultats explicites pour leurs noms. »

Google dit qu’il n’était pas au courant des problèmes répétés

Selon le NYT, Google n’était pas au courant d’un problème persistant avec les sites Web de « colportage de calomnies » dans ses résultats de recherche jusqu’à ce qu’il soit porté à l’attention de l’entreprise cette année.

Auparavant, des politiques étaient en place qui permettaient aux individus de demander la suppression des pages diffamatoires des résultats de recherche. Les suppressions réussies ont entraîné un signal de rétrogradation pour les sites publiant ledit contenu.

Cependant, l’entreprise n’était pas au courant des problèmes de harcèlement répété qui se sont poursuivis même après la suppression du contenu comme demandé.

Pandu Nayak, vice-président de Google Search, le confirme dans un article de blog où il déclare que le NYT a réussi à mettre en évidence les limites du moteur de recherche.

Nayak poursuit en indiquant ce que les changements d’algorithme visent à accomplir :

« Pour aider les personnes aux prises avec des cas extraordinaires de harcèlement répété, nous mettons en place une amélioration de notre approche afin de mieux protéger les victimes connues. Désormais, une fois qu’une personne a demandé la suppression d’un site présentant des pratiques prédatrices, nous appliquons automatiquement des protections de classement pour aider à empêcher que le contenu d’autres sites similaires de mauvaise qualité n’apparaisse dans les résultats de recherche pour les noms des personnes. Nous cherchons également à étendre davantage ces protections, dans le cadre de notre travail en cours dans cet espace.

La recherche n’est jamais un problème résolu

Les modifications à venir de l’algorithme et la création de la politique des « victimes connues » aideront à résoudre le problème. Bien que Google admette que ce ne sera pas une solution parfaite.

David Graff, responsable de l’équipe de politique de confiance et de sécurité de Google, a déclaré au NYT :

« Je doute que ce soit une solution parfaite, certainement pas dès le départ. Mais je pense que cela devrait vraiment avoir un impact significatif et positif. Nous ne pouvons pas contrôler le Web, mais nous pouvons être des citoyens responsables.

Nayak fait écho à un sentiment similaire dans son article de blog, déclarant : « La recherche n’est jamais un problème résolu, et il y a toujours de nouveaux défis auxquels nous sommes confrontés à mesure que le Web et le monde changent. »

Google teste actuellement les modifications de l’algorithme, les sous-traitants effectuant des comparaisons côte à côte des nouveaux et anciens résultats de recherche.

Le NYT dit qu’il a fait ses propres tests avec une liste précédemment compilée de 47 000 personnes qui ont fait l’objet d’articles sur des sites de diffamation. Après avoir recherché plusieurs personnes dont les résultats renvoyaient auparavant des articles diffamatoires, les changements de Google sont déjà perceptibles.

Dans certains cas, le contenu préjudiciable a disparu de la première page de résultats. Dans d’autres cas, le contenu avait pratiquement disparu, à l’exception du contenu d’un site de diffamation nouvellement lancé.

Il semble que les changements fonctionnent comme prévu. Bien sûr, les sites qui ne sont pas spécialisés dans la chasse aux victimes d’injures n’auront rien à craindre en ce qui concerne ces mises à jour d’algorithmes.

Cependant, cela jette une clé dans les travaux de l’industrie de la gestion de la réputation, car Google aura mis en place des mesures de protection plus solides pour empêcher que des contenus préjudiciables à la réputation ne fassent surface pour les noms des personnes.

Nous verrons au fil du temps à quel point ces changements seront efficaces. Il est intéressant d’apprendre que Google peut être contraint de modifier son algorithme lorsque des publications grand public attirent l’attention sur des problèmes connus.

Source : Le New York Times

Google déploie une nouvelle mise à jour de l’algorithme anti-spam

0

Danny Sullivan de Google confirme qu’une mise à jour de l’algorithme visant à lutter contre le spam est déployée dans les résultats de recherche.

Le déploiement de la mise à jour se terminera aujourd’hui, le 23 juin 2021. Une deuxième mise à jour anti-spam suivra la semaine prochaine.

Les détails exacts n’ont pas été fournis sur cette mise à jour spécifique. Bien que Google déploie régulièrement des mises à jour de spam pour maintenir la qualité de ses résultats de recherche.

Il est peu probable qu’un site Web légitime qui suit les directives de Google pour les webmasters ait quelque chose à craindre en ce qui concerne ces mises à jour de spam.

Google a une définition stricte de ce qu’il considère comme du spam et inclut principalement des sites de mauvaise qualité qui incitent les utilisateurs à fournir des informations personnelles ou à installer des logiciels malveillants.

Les mises à jour de spam ciblent également les escroqueries par hameçonnage et d’autres acteurs malveillants sur le Web qui tentent de se classer dans les résultats de recherche en se faisant passer pour des pages très pertinentes.

Cela dit, même les sites qui suivent les directives de Google sont vulnérables au spam piraté. Si un site n’est pas suffisamment sécurisé, il peut envoyer des spams aux utilisateurs sans le savoir.

Le rapport annuel de Google sur la lutte contre le spam indique que le spam piraté est endémique. Si votre site chute soudainement dans le classement après la mise à jour d’aujourd’hui ou celle de la semaine prochaine, il serait sage d’examiner la sécurité de votre site et de rechercher les signes d’une éventuelle attaque.

Lorsqu’un site est touché par une mise à jour de spam, son contenu est soit rétrogradé dans les résultats de recherche, soit supprimé de l’index de Google.

La société estime que ses systèmes automatisés conservent plus de 99 % des visites provenant des résultats de recherche sans spam.

En annonçant cette mise à jour, Sullivan renvoie à un article de blog d’avril qui détaille les résultats des récents efforts de lutte contre le spam de Google.

L’année dernière, les systèmes automatisés de Google ont bloqué chaque jour l’indexation de 25 milliards de pages contenant du spam dans les résultats de recherche.

Nous en apprendrons probablement plus sur l’impact des mises à jour anti-spam de juin 2021 lorsque Google publiera son rapport annuel sur la lutte contre le spam l’année prochaine.

Pour plus d’informations sur la manière dont Google combat le spam, Sullivan renvoie à la vidéo ci-dessous :

11 façons de construire une stratégie de référencement résistante aux mises à jour de l’algorithme Google

0

Les mises à jour de l’algorithme de Google peuvent donner l’impression que le moteur de recherche punit les éditeurs pour des raisons mystérieuses.

Les classements des sites Web ne sont jamais garantis.

Même ainsi, vous pouvez améliorer la stabilité de vos classements et formuler une stratégie de référencement plus résistante aux mises à jour des algorithmes de Google grâce à ces 11 conseils.

1. L’intention de l’utilisateur n’est que le début

L’intention de l’utilisateur est importante, mais ce n’est qu’un point de départ pour créer du contenu qui rapporte de l’argent jour après jour, quels que soient les algorithmes.

L’intention de l’utilisateur est un ingrédient parmi plusieurs pour créer des pages Web résistantes aux algorithmes.

Ce sont les haricots de votre burrito – le fromage de votre pizza. Cela donne du goût à votre contenu.

La raison pour laquelle l’identification de l’intention de l’utilisateur est importante est qu’elle vous met dans l’état d’esprit de mettre l’utilisateur (et non les mots-clés) au centre de vos préoccupations.

Et c’est là que commencent les bonnes stratégies de référencement.

2. Faites des visiteurs du site le centre de votre univers

Une astuce d’écriture psychologique qui fonctionne à merveille pour créer des pages Web consiste à écrire du contenu d’une manière qui reflète le besoin du visiteur de voir les choses à travers le prisme de la façon dont elles sont affectées.

Les visiteurs du site ne se rapportent qu’aux pages qui les concernent.

Je connais un spécialiste du marketing intelligent au paiement par clic qui crée des pages de destination qui correspondent si bien à chaque visiteur que ses pages Web sont pratiquement des miroirs.

L’une des nombreuses choses que cette personne a faites était de créer des pages de destination qui reniflaient si un visiteur du site utilisait un appareil Android ou Apple. La page Web serait ensuite remplacée par une icône « Apple Friendly » ou « Android Friendly » sur la page Web.

Il l’a fait parce que les tests A/B ont prouvé que son audience était convertie à un taux légèrement plus élevé avec ces icônes sur la page Web. Une telle chose idiote, non?

Les lecteurs se concentrent sur la façon dont un sujet de page Web les affecte. Lorsque le visiteur du site accède à une page Web, le monde cesse de tourner autour du soleil. Cela tourne autour du visiteur du site, même s’il se trouve dans un magasin de commerce électronique.

Les clients se soucient-ils de savoir pourquoi Apple a créé sa propre puce CPU ?

Non. Ils veulent juste savoir comment cela va dépasser leurs attentes et les transformer tous en héros.

Les Zappos sont devenus populaires parce qu’ils facilitaient le retour des chaussures. Leur service client était si bon parce qu’ils traitaient leurs clients comme des personnes qui ne se soucient que de leurs propres besoins.

Ce que les utilisateurs veulent voir est de plus en plus lié à l’impact de votre site, service, produit ou information sur leur vie.

3. Faire autorité signifie plus que de simples liens

Il n’y a pas de métrique d’autorité chez Google, et pourtant Google dit qu’il veut classer le contenu faisant autorité.

Une partie pour déterminer si quelque chose fait autorité a à voir avec la langue.

Par exemple, quelque temps après Google Hummingbird, Google semble avoir commencé à introduire des fonctionnalités liées à la langue dans les pages de résultats de recherche (SERP).

J’ai remarqué que Google a commencé à classer les pages de recherche universitaire pour une phrase de deux mots que les éditeurs de logiciels avaient l’habitude de classer.

Les pages Web commerciales avaient toutes des liens vers leurs sites, bien plus que ces pages Web universitaires sur la recherche.

Toutes les pages commerciales ont été bannies des deux premières pages des SERP sauf une. Cette page Web commerciale comportait le mot « recherche » dans le contenu de la page Web.

Les pages Web des universités .edu n’étaient pas classées parce qu’elles avaient de la magie .edu ou à cause des liens.

Pendant une courte période, Google a associé cette phrase de deux mots à un type de sujet (recherche) et a choisi de classer uniquement les pages contenant des recherches, qui à l’époque consistaient principalement en des pages Web universitaires.

Aujourd’hui, Google classe principalement les pages Web d’information pour cette phrase clé de deux mots. En d’autres termes, le contenu informatif fait autorité pour cette phrase clé de deux mots.

Les liens sont la mesure traditionnelle de l’autorité. Les sites avec plus de liens font autorité.

Mais la langue peut aussi être un signe d’autorité. Ceci est mis en évidence dans les résultats de recherche où les mots utilisés influencent davantage ce qui est classé que l’influence des liens.

Les liens étaient autrefois le facteur décisif qui propulsait les pages Web au sommet des SERP. Ce n’est plus le cas.

Maintenant, c’est comme si le traitement du langage naturel décidait dans quelle course une page Web va s’exécuter et parfois cette course se trouve à la page deux des résultats de recherche, en fonction de l’intention de l’utilisateur et de ce qui fait autorité pour ce type de contenu.

Pour certaines requêtes, le contenu informatif va courir sur la piste 1 (analogue à la moitié supérieure des SERP) et les pages à intention commerciale pourraient se qualifier pour la piste 2 (analogue à la moitié inférieure de ces SERP).

Peu importe le nombre de liens que cette page commerciale peut acquérir, son contenu ne fera jamais suffisamment autorité pour se classer au sommet pour ce sujet de phrase clé.

Pour conclure, ce que je veux faire, c’est introduire l’idée que le contenu peut faire autorité d’une manière qui a à voir avec le sujet.

Les utilisateurs signalent à Google (via leurs choix et leurs activités) quel type de contenu est pertinent pour eux. Le contenu peut soit faire autorité pour ce que les utilisateurs recherchent, soit ne pas faire autorité, quels que soient les liens, uniquement sur la base du contenu.

4. Contenu complet ou traitement des visiteurs comme s’ils avaient 5 ans

Quand les gens pensent à l’autorité, ils pensent parfois à être global, plus grand et à un niveau intermédiaire.

Restez avec moi, car l’autorité et l’autorité pourraient consister à comprendre ce que veulent les utilisateurs et à leur donner ce qu’ils veulent sous la forme qu’ils veulent.

Parfois, c’est sous la forme d’un biberon. Parfois, faire autorité signifie l’expliquer comme si les visiteurs du site étaient un enfant de 5 ans.

Pour le commerce électronique, une page Web faisant autorité pourrait être une page Web qui aide l’utilisateur à faire un choix et ne suppose pas qu’il connaît tout le jargon.

Le contenu faisant autorité peut être beaucoup de choses

Par exemple, un visiteur du site pourrait avoir l’intention de l’utilisateur : « Je suis stupide, que signifie XYZ ? » Dans ce cas, un contenu faisant autorité signifie un contenu qui est au niveau « Je n’en ai aucune idée ».

Cela peut être particulièrement vrai pour les sites qui examinent des choses qui impliquent un jargon technique.

Un site qui fait un résumé des dix meilleurs produits budgétaires peut choisir de se concentrer sur un résumé rapide et facile à comprendre qui n’a pas à expliquer le jargon.

Dans la page Web de révision complète, il peut y avoir un explicateur dans une barre latérale ou des info-bulles pour expliquer le jargon.

Je ne dis pas que les gens sont idiots. Ce que je dis, c’est que parfois, il est préférable d’écrire du contenu comme si les visiteurs de votre site manquaient d’intelligence, car c’est le niveau auquel de nombreuses personnes peuvent fonctionner pour un sujet particulier.

Étant donné qu’il existe une réserve pratiquement inépuisable de personnes qui ont besoin de se faire expliquer les choses avec soin, cela peut constituer une stratégie gagnante pour un succès de classement à long terme.

5. Laissez les résultats de la recherche vous guider… dans une certaine mesure

En général, il est préférable de laisser les résultats de la recherche vous guider. Il est utile d’essayer de comprendre pourquoi Google classe certaines pages Web.

Mais comprendre pourquoi une page peut être classée ne signifie pas que la prochaine étape consiste à copier ces pages.

Une façon de rechercher les pages de résultats des moteurs de recherche consiste à cartographier les mots-clés et les intentions des dix pages Web les mieux classées, en particulier les trois premières. Ce sont les plus importants.

C’est là que les pratiques SEO actuelles peuvent être améliorées.

Les deux principales stratégies qui peuvent être améliorées

Imitez les sites les mieux classés ?

La pratique générale consiste à copier ou à imiter ce que font déjà les sites les mieux classés, sauf à « faire mieux ».

L’idée est que si les sites les mieux classés ont des facteurs XYZ en commun, il est présumé que ces facteurs XYZ sont ce que Google veut voir sur une page Web afin de la classer pour une expression de mot-clé donnée.

Du bon sens, non ?

Outlier est un mot du domaine des statistiques. Lorsque les pages Web ont certains facteurs en commun, ces pages sont dites normales. Les pages Web qui sont différentes sont appelées valeurs aberrantes.

Aux fins de l’analyse des résultats de la recherche, si votre page Web n’a pas le même nombre de mots, mots-clés, expressions et sujets que les sites les mieux classés, cette page Web est considérée comme une valeur statistique aberrante.

Le logiciel d’analyse de recherche recommandera les modifications à apporter afin que la page aberrante soit plus étroitement conforme à ce qui est actuellement classé.

Le problème avec cette approche est l’hypothèse sous-jacente selon laquelle Google classera le contenu avec les qualités qui existent sur les pages Web qui sont déjà classées dans les résultats de recherche.

C’est une énorme hypothèse sans fondement logique.

Bien sûr, un autre site statistiquement aberrant peut surclasser les trois pages les mieux classées.

Par exemple, j’ai classé les pages Web plus haut que les pages existantes en faisant des choses comme expliquer plus ou être plus faciles à comprendre ou inclure des diagrammes et des photos originales – et en utilisant des mots-clés que la concurrence n’utilisait pas.

Mes pages ont fini par avoir non seulement une combinaison de mots clés différente, mais le contenu, en général, a été conçu pour mieux répondre à la question inhérente à la requête de recherche.

C’est la différence entre se concentrer sur les mots-clés et se concentrer sur la requête de recherche.

À mon avis, il est bien préférable de comprendre la requête de recherche que d’analyser les pages Web pour identifier les facteurs XYZ qui peuvent ou non avoir quelque chose à voir avec le classement de ces pages.

Les dernières années de mises à jour se sont concentrées sur une meilleure compréhension de la signification des requêtes de recherche et sur la compréhension des pages que les utilisateurs veulent voir, en plus d’autres choses.

N’est-il donc pas logique de se concentrer sur une meilleure compréhension de la signification des requêtes de recherche et d’y répondre avec votre contenu d’une manière facile à comprendre pour les gens (et les moteurs de recherche) ?

Analyser les résultats de la recherche est une bonne chose à faire pour savoir quelle est l’intention de l’utilisateur.

La prochaine étape devrait être de prendre ces informations et d’apporter votre meilleur jeu pour répondre au besoin inhérent à l’intention de l’utilisateur.

Créer des pages plus grandes et meilleures ?

La deuxième stratégie consiste à créer un contenu meilleur ou simplement supérieur au contenu des concurrents les mieux classés.

Ils visent tous les deux à battre la concurrence en imitant le contenu des concurrents mais en le rendant (vaguement) « meilleur » ou simplement plus long ou plus à jour.

Donc, s’ils ont 2 000 mots de contenu, vous publiez 3 000 mots de contenu.

Et s’ils ont une liste des dix premiers, surclassez-les avec une liste des 100 meilleurs.

Le concept est similaire à un décor dans une comédie où un homme clairement dérangé communique sa stratégie pour surpasser un célèbre Abdominaux en 8 minutes vidéo en créant une vidéo appelée Abdominaux en 7 minutes.

Ce n’est pas parce que le contenu est plus long ou contient plus de ce que le concurrent a qu’il est automatiquement meilleur ou intrinsèquement plus facile à classer ou à obtenir des liens vers celui-ci.

Encore faut-il qu’il soit utile.

Alors plutôt que de se concentrer sur de vagues recommandations d’être dix fois mieux ou plus concrètes mais complètement aléatoires d’être plus que votre concurrent, que diriez-vous simplement d’être utile ?

Retour aux résultats de recherche comme guide

L’exploration des résultats de recherche dans le but de comprendre pourquoi Google classe les pages Web ne produira pas d’informations utiles.

Ce que vous pouvez éventuellement comprendre, c’est l’intention de l’utilisateur et ce que j’appelle la question latente qui est inhérente à chaque requête de recherche.

Vous pouvez lire à ce sujet ici : Analyse des résultats de recherche : la question latente

6. Créez de la diversité dans votre stratégie promotionnelle

Ce n’est jamais une bonne idée de promouvoir un site d’une manière. Tout ce qui fait passer le mot est génial. Faites des podcasts, écrivez un livre, soyez interviewé sur YouTube, pop up à la télévision, etc.

Soyez partout autant que possible afin que la promotion du site, la façon dont les gens découvrent le site proviennent de nombreux domaines différents.

Cela aidera à construire une base solide pour le site qui peut surmonter les changements dans l’algorithme.

Par exemple, si les signaux de bouche à oreille deviennent importants, un site qui s’est concentré sur la promotion de type bouche à oreille sera prêt pour cela.

7. Travailler pour empêcher la pourriture des liens

La pourriture des liens se produit lorsque les liens vers une page Web perdent eux-mêmes des liens, réduisant ainsi l’influence qu’ils confèrent à votre page Web.

Lis: Link Rot – Qu’est-ce que c’est et comment cela affecte les classements

La solution à la pourriture des liens est de maintenir un projet d’acquisition de liens, même si c’est un effort modeste. Cela aidera à contrer le processus naturel où les liens perdent leur valeur.

8. Promotion du site Web

Les pages Web doivent être promues. Un manque de promotion peut faire en sorte qu’une page Web perde lentement et régulièrement sa portée, devenant incapable de se connecter avec les personnes qui ont besoin de voir le contenu.

John Mueller de Google a déclaré :

« Nous utilisons une tonne de facteurs différents en matière d’exploration, d’indexation et de classement.

Il est donc très difficile de dire, si je faisais cela, comment mon site se classerait-il par rapport au moment où je le fais. … ces types de comparaisons sont plutôt futiles en général.

Dans la pratique cependant, lorsque vous créez un site Web et que vous voulez le diffuser et que vous voulez que les gens visitent le site Web et reconnaissent le travail merveilleux que vous y avez fait, alors la promotion appropriée rend définitivement sens.

Et c’est quelque chose que vous n’avez pas à faire… en déposant des liens à différents endroits.

Lire la suite: Google offre des conseils pour mieux se classer

Comme l’a dit Mueller, il ne s’agit pas seulement d’avoir des liens ajoutés aux pages Web. Il s’agit simplement de faire savoir aux gens que le site existe.

Cela peut se faire par le biais des médias sociaux, en participant à des groupes et forums Facebook, par des promotions locales, avec des promotions croisées avec d’autres entreprises et bien d’autres techniques.

Certains l’appellent création de marque, où le nom d’une entreprise devient presque synonyme d’un type de produit ou de site Web.

9. Diversité des liens

L’une des raisons pour lesquelles certains sites rebondissent dans les résultats de recherche est qu’il y a une faiblesse qui a parfois à voir avec un manque de diversité dans les liens entrants.

Des observations anecdotiques ont remarqué que les sites qui ont tendance à s’asseoir en haut des résultats de recherche sont ceux qui ont différents types de liens provenant de différents types de sites Web.

Cela n’est peut-être plus vrai avec l’avènement des technologies de traitement du langage naturel (NLP) qui peuvent mettre davantage l’accent sur le contenu que sur les liens.

Cependant, les liens continuent de jouer un rôle, en particulier les bons types de liens.

En mettant de côté l’influence de la PNL et en se concentrant uniquement sur les liens, il peut être utile pour un site de résister aux changements dans les algorithmes de liens de Google en cultivant un ensemble diversifié de liens entrants.

Il existe plusieurs types de liens.

  • Liens vers les ressources.
  • Liens donnés dans les articles.
  • Liens de recommandation donnés par les blogueurs.
  • Liens dans les articles de presse.

Cela n’a plus d’importance si un lien est bloqué d’être suivi par un moteur de recherche en utilisant un attribut de lien appelé nofollow.

Google peut choisir de suivre ces liens. En outre, certains liens ont de la valeur pour renforcer la popularité et la notoriété d’un site.

10. Signaux de classement et EAT

Google utilise de nombreux signaux pour classer un site. Google ignorera même les liens ou le contenu de spam afin de classer un site qui fait bien d’autres choses.

John Mueller de Google a déclaré :

« Souvent, ce qui se passera, c’est aussi que nos algorithmes reconnaîtront ce genre de mauvais états et essaieront de les ignorer.

Donc, nous le faisons spécifiquement en ce qui concerne les liens… où si nous pouvons reconnaître qu’ils font quelque chose de vraiment bizarre avec les liens… alors nous pouvons en quelque sorte ignorer cela et nous concentrer uniquement sur les bonnes parties où nous avons des signaux raisonnables que nous pouvons utiliser pour classement. »

… nous essayons d’avoir une vue d’ensemble en matière de recherche, pour essayer de comprendre un peu mieux la pertinence.

Lire la suite: John Mueller explique pourquoi Google classe les sites avec des liens de spam

Il y a donc des qualités pour un site qui peut surmonter les liens spammés ou le référencement. Ce que sont ces qualités ne peut être que spéculé.

Mais je soupçonne que cela a à voir avec l’expertise, l’autorité et la fiabilité du contenu et de la page Web en soi.

11. Restez au courant des changements

Afin de créer un site résistant aux changements d’algorithme, il est important d’être au courant de tous les changements annoncés à l’algorithme de Google. Les changements tels que le classement des passages, le BERT et la façon dont Google classe les avis sont tous importants à suivre.

Essayez de comprendre ce que pourrait être le sous-texte du changement d’algorithme, mais faites-le en vous demandant : comment ce changement d’algorithme aide-t-il les utilisateurs ?

Lorsqu’il s’agit d’interpréter ce que signifie un algorithme, ne spéculez pas sur les motifs. C’est toujours une mauvaise idée et cela n’aide jamais à former une stratégie de classement exploitable.

Au lieu de cela, pensez aux changements d’algorithme du point de vue de la façon dont le changement pourrait aider un utilisateur.

Par exemple, les changements de classement des passages pourraient être interprétés comme un moyen de faire apparaître plus de contenu pour les utilisateurs, car il avait auparavant du mal avec de longues pages avec un référencement moins qu’optimal.

Les récents changements apportés à la façon dont Google classe les avis pourraient être interprétés comme une extension de la gamme de sites qui doivent être fiables et précis.

Cela signifie qu’il peut être utile de se concentrer sur ces qualités de fiabilité et d’exactitude. Ou cela pourrait signifier être plus authentique.

Se concentrer sur les étapes décrites ci-dessus peut vous aider à créer un site de haute qualité capable de résister aux modifications de l’algorithme de Google.

Davantage de ressources:

  • Comment évaluer et améliorer votre stratégie de référencement
  • Comment écrire pour les algorithmes de base de Google, l’intention de l’utilisateur et le référencement
  • Comment fonctionnent les moteurs de recherche

Image en vedette : Shutterstock/Fonstra

Mises à jour majeures de l’algorithme Google que vous devez connaître pour la planification de 2022

0

Chaque année, les algorithmes de recherche Google sont mis à jour des milliers de fois pour s’assurer que les résultats les plus pertinents et les plus fiables figurent en bonne place.

Cet engagement continu envers l’expérience de recherche et la qualité des résultats a aidé Google à réduire de plus de 40 % le nombre de résultats non pertinents apparaissant sur une page de résultats de recherche au cours des cinq dernières années, selon le moteur de recherche.

Alors que la grande majorité de ces mises à jour passent inaperçues, de temps en temps, il en arrive une qui fait vraiment basculer le bateau SEO.

Dans cette colonne, nous reviendrons sur les mises à jour qui ont façonné le référencement au cours de l’année écoulée et comment elles peuvent avoir un impact sur vos plans à l’avenir.

Voici cinq des mises à jour de recherche Google les plus percutantes de 2021.

1. La mise à jour de l’expérience de la page

Google a commencé à déployer sa mise à jour tant attendue de l’expérience de la page en juin 2021 et a annoncé son achèvement le 2 septembre.

Les professionnels du référencement et les spécialistes du marketing de tous bords attendaient celui-ci avec impatience depuis sa première révélation en novembre 2020.

Avec cette mise à jour est venu un score d’expérience de page que les spécialistes du marketing peuvent voir dans un nouveau rapport dans Google Search Console.

Page Experience est assez explicite; il a été conçu pour améliorer l’expérience des internautes sur chaque site Web. Le score prend en compte :

  • Web Vitals de base : Un ensemble de mesures qui mesurent les performances de la page d’un point de vue UX.
  • Facilité d’utilisation mobile : Une page ne doit comporter aucune erreur d’utilisabilité mobile.
  • Les problèmes de sécurité: Tout problème de sécurité pour un site disqualifie toutes les pages du site d’un statut Bon.
  • Utilisation HTTPS : Une page doit être diffusée via HTTPS pour être éligible au statut d’expérience de page satisfaisante.
  • Expérience publicitaire : Un site ne doit pas utiliser de techniques publicitaires distrayantes, perturbatrices ou autrement non propices à une bonne expérience utilisateur.

Depuis le déploiement initial, Google a précisé que la navigation sécurisée n’est pas un signal de classement.

Une mise à jour du 4 août 2021 de cet article de blog de Google Search Central indique que « les systèmes de navigation sécurisée continuent de jouer un rôle important pour assurer la sécurité des utilisateurs de Google Search, et tous les indicateurs continueront d’apparaître dans la Search Console en dehors de Page Experience. rapport. »

Ressources utiles :

  • La mise à jour de l’expérience de la page Google est entièrement déployée – c’est pourquoi c’est important
  • 4 façons d’optimiser la mise à jour de l’expérience de page de Google
  • Core Web Vitals : un guide complet

2. Mise à jour du spam de lien de Google

Google a averti les spécialistes du marketing en juillet que sa mise à jour Link Spam aurait des résultats mesurables pour les personnes concernées :

« Dans nos efforts continus pour améliorer la qualité des résultats de recherche, nous lançons aujourd’hui un nouveau changement de lutte contre le spam de lien – que nous appelons la » mise à jour du spam de lien…

Les sites participant au spam de liens verront des changements dans la recherche car ces liens seront réévalués par nos algorithmes.

L’annonce de la mise à jour a été enterrée dans un article du blog Google Search Central sous le sous-titre ‘Améliorer nos systèmes pour lutter contre le spam de liens.’

Il a lu:

« Dans nos efforts continus pour améliorer la qualité des résultats de recherche, nous lançons aujourd’hui un nouveau changement de lutte contre le spam de lien – que nous appelons la » mise à jour du spam de lien « .

Cette mise à jour de l’algorithme, qui sera déployée au cours des deux prochaines semaines, est encore plus efficace pour identifier et annuler plus largement le spam de lien, dans plusieurs langues.

À l’époque, Google a conseillé aux professionnels du référencement et aux spécialistes du marketing de s’assurer qu’ils suivent les meilleures pratiques pour les liens entrants et sortants, en créant un contenu de haute qualité et en se concentrant sur l’amélioration de l’expérience utilisateur.

« Favorisez la notoriété de votre site en utilisant des liens correctement balisés et monétisez-le avec des liens d’affiliation correctement balisés », indique l’annonce.

Ressources utiles :

  • La mise à jour de Google Link Spam est terminée
  • Devriez-vous utiliser des liens Nofollow, sponsorisés ou UGC ?
  • Quand utiliser Nofollow sur les liens et quand ne pas le faire

3. Mises à jour générales d’été

Google a commencé à déployer une mise à jour principale en juin, a manqué de temps pour mettre en œuvre tout ce qu’il était censé faire et a repris là où il s’était arrêté en juillet.

Danny Sullivan a tweeté à l’époque:

« Certaines de nos améliorations prévues pour la mise à jour de juin 2021 ne sont pas tout à fait prêtes, nous allons donc de l’avant avec les parties qui le sont, puis nous suivrons avec le reste avec la mise à jour de juillet 2021.

La plupart des sites ne remarqueront aucune de ces mises à jour, comme c’est généralement le cas avec toutes les mises à jour principales.

Cependant, comme Roger Montti l’a noté dans son analyse de la façon dont la mise à jour de l’algorithme de base de juillet s’était effondrée, il était quelque peu inhabituel que cela ait été précédé de deux mises à jour de spam.

Les professionnels du référencement ont émis l’hypothèse que cette mise à jour entraînait une augmentation des résultats de People Also Ask, pouvait avoir ciblé les résultats de recherche d’images d’une manière ou d’une autre et pourrait même avoir augmenté par inadvertance le spam dans les résultats de recherche.

Le conseil de longue date (et quelque peu frustrant) de Google sur les mises à jour de l’algorithme de base est qu’il n’y a rien que vous puissiez vraiment faire pour vous préparer, ni pour récupérer – à part être toujours génial. Ce n’était pas une exception.

Mais il est intéressant de noter que John Mueller de Google a suggéré dans un hangout d’octobre Search Central SEO pendant les heures de bureau que l’amélioration du contenu est plus susceptible de vous aider à récupérer d’une mise à jour d’algorithme que de correctifs techniques.

Ressources utiles :

  • La mise à jour Google de juillet 2021 est terminée – que s’est-il passé ?
  • Google on Broad Core Algorithm Update Recovery – 4 plats à emporter
  • 22 raisons possibles pour lesquelles le trafic de votre site a chuté

4. Mise à jour des avis sur les produits d’avril

En avril, Google a publié une mise à jour conçue pour récompenser les avis produits approfondis et de meilleure qualité avec une plus grande visibilité dans la recherche.

La mise à jour a été mise en ligne le 8 avril 2021 et ciblait spécifiquement «un contenu léger qui résume simplement un tas de produits», a déclaré Google.

Le premier déploiement n’a eu d’impact que sur les révisions en anglais, et Mordy Oberstein a rédigé un excellent aperçu de qui semblait avoir été affecté et pourquoi.

Google a déclaré à l’époque que « bien que cela soit distinct de nos mises à jour de base régulières, les conseils que nous fournissons sur la production de contenu de qualité pour ceux-ci sont également pertinents ici ».

Le moteur de recherche a recommandé aux créateurs de contenu de s’interroger sur leurs avis sur les produits :

  • « Exprimer des connaissances d’expert sur les produits, le cas échéant ?
  • Montrer à quoi ressemble physiquement le produit ou comment il est utilisé, avec un contenu unique au-delà de ce qui est fourni par le fabricant ?
  • Fournir des mesures quantitatives sur la façon dont un produit se situe dans différentes catégories de performances ?
  • Expliquez ce qui distingue un produit de ses concurrents ?
  • Couvrir des produits comparables à considérer ou expliquer quels produits pourraient être les meilleurs pour certaines utilisations ou circonstances ?
  • Discuter des avantages et des inconvénients d’un produit particulier, en se basant sur des recherches à son sujet ?
  • Décrivez comment un produit a évolué par rapport aux modèles ou versions précédents pour apporter des améliorations, résoudre des problèmes ou aider les utilisateurs à prendre une décision d’achat ?
  • Identifier les principaux facteurs décisionnels pour la catégorie du produit et comment le produit se comporte dans ces domaines ? Par exemple, un examen de voiture peut déterminer que l’économie de carburant, la sécurité et la maniabilité sont des facteurs clés de prise de décision et évaluer les performances dans ces domaines.
  • Décrivez les choix clés dans la conception d’un produit et leur effet sur les utilisateurs au-delà de ce que dit le fabricant ? »

Google a annoncé plus récemment qu’une autre mise à jour des avis sur les produits se déroulerait sur trois semaines en décembre. Celui-ci est conçu pour récompenser les critiques authentiques et de haute qualité.

Ressources utiles :

  • Mise à jour de l’algorithme d’évaluation des produits de Google : gagnants et perdants
  • 6 façons d’optimiser vos pages d’avis de produits pour Google
  • Comment optimiser pour les extraits enrichis : un guide complet

5. L’introduction de MUM

Le plan de Google pour MUM a été sans conteste l’annonce la plus percutante dans la recherche cette année.

Le modèle unifié multitâche (MUM) utilise la puissance de l’IA pour aider les chercheurs à effectuer des tâches plus complexes. Dès l’annonce initiale à ce sujet, MUM s’était entraîné dans 75 langues différentes et était salué par Google comme 1 000 fois plus puissant que BERT.

MUM comprend les informations du texte et des images, et Google prévoit d’étendre ses capacités pour inclure également la vidéo et l’audio.

Pandu Nayak, Google Fellow et vice-président de la recherche, a écrit dans l’annonce du 18 mai 2021 que « nous apporterons des fonctionnalités et des améliorations alimentées par MUM à nos produits dans les mois et les années à venir ».

Nous voyons déjà des applications pratiques de la technologie MUM dans la recherche Google – dans le traitement et la compréhension des requêtes d’informations sur les vaccins et dans la création de nouvelles façons d’explorer et de découvrir des sujets, par exemple.

MUM fournira aux algorithmes de Google une compréhension plus précise des requêtes de recherche, de la qualité et de la pertinence du contenu, et plus encore dans les mois et les années à venir.

Ce ne sera pas quelque chose à optimiser « pour » ; MUM est plutôt une technologie à connaître et à comprendre, car elle continuera sans aucun doute à relever la barre en termes de qualité, de pertinence et d’utilité du contenu.

Ressources utiles :

  • Qu’est-ce que Google MUM ?
  • L’algorithme Google MUM peut faire plus que classer les sites Web
  • John Mueller de Google répond si MUM rend le référencement obsolète

Autres mises à jour Google et histoires à noter

Il ne s’agit en aucun cas d’une liste exhaustive des mises à jour de Google qui ont façonné le monde du référencement au cours des 12 derniers mois.

Voici quelques autres développements dont vous voudrez au moins être conscients lorsque vous développerez votre stratégie de marketing numérique pour l’année à venir.

Classement des passages

Google a annoncé en février que ses algorithmes pourraient considérer les passages de pages comme un facteur de classement supplémentaire, pour les requêtes en anglais aux États-Unis.

Mise à jour de l’algorithme de base de novembre

Dans l’ensemble, les commentaires de la communauté SEO suggèrent que cette mise à jour était assez légère. Comme l’a dit Jim Boykin d’Internet Marketing Ninjas, « Dans l’ensemble, ce n’est qu’une autre mise à jour de l’algo… il y aura toujours des gagnants et des perdants à chaque fois. »

Mises à jour d’octobre des lignes directrices pour les évaluateurs de la qualité de la recherche

Google a ajouté cinq révisions à ses directives pour les évaluateurs de la qualité de la recherche en octobre, y compris des conseils mis à jour sur la façon de rechercher des informations sur la réputation des sites Web et des créateurs, et un changement dans la façon dont les «groupes de personnes» dans la catégorie YMYL sont définis.

Exigences de Google Updates pour le balisage de schéma

En octobre, Google a modifié les exigences des schémas HowTo, QAPage et SpecialAnnouncement afin de simplifier ces types de données structurées. Vous voudrez peut-être également vérifier les modifications apportées aux données structurées pour les examiner.

La mise à jour de l’algorithme de Google cible la calomnie

Le New York Times a rapporté en juin que Google prévoyait de supprimer de manière algorithmique les sites Web qui publiaient des allégations non vérifiées ou calomnieuses contre d’autres. En savoir plus dans l’article de Matt Southern sur la mise à jour.

Se préparer pour une stratégie de référencement réussie en 2022

Vous n’êtes pas obligé de rester au courant de chaque mise à jour de Google. Mais être conscient des nouvelles fonctionnalités, des opportunités SERP changeantes et des mises à jour majeures de Google donne un contexte essentiel à ce que vous voyez dans les données de performance de votre site.

ICYMI, vous voudrez également avoir à portée de main les résultats de l’enquête de l’industrie sur l’état du référencement 2021 du Search Engine Journal lorsque vous naviguerez dans l’évolution du paysage de la recherche et élaborerez une stratégie pour transformer les défis de l’année écoulée en opportunités en 2022.

Et si vous recherchez des ressources pédagogiques pour mettre les membres de l’équipe au courant pour un démarrage rapide en janvier, assurez-vous de consulter notre bibliothèque de livres électroniques, parcourez ces webinaires à la demande et connectez-vous au SEJ Show Podcast.

À votre succès SEO !

Davantage de ressources:

  • La mise à jour Google a giflé votre classement : quelle est la prochaine étape ?
  • Google révèle les meilleures recherches de 2021
  • SEO pour les débutants : une introduction aux bases du SEO

Image en vedette : Shutterstock/Dilok Klaisataporn

Déploiement de la mise à jour de l’algorithme Google Link Spam le 26 juillet

0

Google commence à déployer la «mise à jour du spam de lien», qui rend ses algorithmes plus efficaces pour identifier et annuler le spam de lien.

La mise à jour commence à être déployée aujourd’hui et prendra au moins deux semaines pour être déployée à grande échelle dans les résultats de recherche dans plusieurs langues.

Google prévient que des changements de classement sont imminents pour certains propriétaires de sites :

« Dans nos efforts continus pour améliorer la qualité des résultats de recherche, nous lançons aujourd’hui un nouveau changement de lutte contre le spam de lien – que nous appelons la » mise à jour du spam de lien…

Les sites participant au spam de liens verront des changements dans la recherche car ces liens seront réévalués par nos algorithmes.

Les informations éparpillées tout au long de l’annonce de Google suggèrent un accent particulier sur le ciblage des liens à partir de contenu sponsorisé, invité et affilié.

En fait, l’annonce commence par un rappel occasionnel pour marquer le contenu de l’affilié avec les valeurs rel appropriées. Google enterre le lede, car la nouvelle de cette mise à jour de l’algorithme n’est mentionnée qu’à la fin du billet de blog.

Cela indique que Google souhaite que les propriétaires de sites prêtent attention à ses conseils sur la manière de gérer les liens dans le contenu lorsqu’il y a un échange de valeur.

Passons en revue les conseils de Google, qui semblent particulièrement pertinents pour cette mise à jour de l’algorithme.

Meilleures pratiques pour les balises de lien Google

Google rappelle aux propriétaires de sites de qualifier les liens de manière appropriée lorsqu’ils se connectent à d’autres sites.

Les sites sont tenus d’ajouter des balises aux liens lorsqu’il existe un échange de valeur entre les deux domaines.

En particulier, Google distingue les liens d’affiliation et les liens du contenu sponsorisé et invité.

Voici ce que Google recommande pour chaque type de lien :

  • Liens affiliés: Google demande aux sites participant aux programmes d’affiliation de qualifier ces liens avec rel= »parrainé »que ces liens aient été créés manuellement ou dynamiquement.
  • Liens des articles sponsorisés: Les liens qui sont des publicités ou des placements payants (communément appelés liens payants) doivent être marqués avec le rel= »parrainé » évaluer.
  • Liens des messages d’invités: Les liens des publications d’invités doivent être marqués avec la valeur rel= »nofollow ».

Google ajoute qu’il peut émettre des actions manuelles lorsqu’il trouve des sites qui ne qualifient pas correctement les types de liens ci-dessus.

Source : Blog de Google Search Central

Vitesse de la page et mises à jour de l’algorithme principal de Google de juin à juillet 2021

0

On a demandé à John Mueller de Google si les mises à jour de l’algorithme de base de juin et juillet étaient liées à la vitesse de la page. John Mueller a offert un aperçu des mises à jour de base, puis a noté comment les choses peuvent être liées à la vitesse.

Plusieurs mises à jour Google en juin et juillet 2021

La mise à jour de l’algorithme de base de juin a été déployée en juin 2021. Mais une mise à jour de l’expérience de page a également été publiée, ainsi qu’une mise à jour de l’algorithme de spam de juin 2021.

Attribuer des fluctuations de classement à des modifications ou à des liens spécifiques de sites Web lors d’une mise à jour de l’algorithme de base peut être sommaire, car certaines baisses de classement peuvent n’avoir rien à voir avec les modifications de sites Web et être totalement fortuites.

Toute fluctuation de classement en juin 2021 sera encore plus difficile à attribuer à un type de changement de site Web, compte tenu du nombre de changements apportés à l’algorithme ce mois-là.

John Mueller de Google se penche sur la question

John Mueller de Google réfléchit à la question

Les mises à jour de l’algorithme de base étaient-elles liées à la vitesse de la page ?

La personne qui posait la question semblait chercher la confirmation des observations selon lesquelles de nombreuses personnes avaient cette vitesse de page qui semblait être une qualité courante dans les sites qui ont obtenu des classements lors des mises à jour de l’algorithme de juin et juillet 2021.

Ceci est la question:

« J’ai lu en ligne que les gens ont dit qu’ils avaient vu une amélioration après la mise à jour de base de juin.

Ils en ont également vu un pour juillet.

Pour nous, ce n’était pas la même chose.

Qu’est-ce qui aurait pu se retourner en juillet ? Cela pourrait-il être lié à la vitesse ? »

Les mises à jour de vitesse et d’algorithme de base étaient séparées

John Mueller a d’abord noté à quel point la vitesse de la page et les mises à jour de l’algorithme de base étaient distinctes.

John Muller a répondu :

« Vitesse… Autant que je sache, il s’agissait essentiellement de mises à jour distinctes et uniques que nous avons effectuées.

Nous les appelons donc les deux mises à jour principales car elles affectent le cœur de nos systèmes de classement.

Mais cela ne signifie pas qu’ils affectent les mêmes parties centrales du système de classement.

Donc, de ce point de vue, ce n’est pas le cas que si vous voyez un changement… pendant l’une de ces mises à jour, vous verrez toujours un changement pendant l’autre également.

Donc, à partir de là, je ne supposerais pas qu’ils doivent être liés.

La vitesse de la page pourrait-elle affecter les changements de classement en juin et juillet 2021 ?

Mueller a ensuite affirmé que la vitesse pourrait être une raison de certains changements de classement.

John a expliqué le lien entre les changements de classement et la vitesse de la page :

« …Cela pourrait-il être lié à la vitesse ?

Les choses peuvent certainement être liées à la vitesse, car toute la mise à jour de l’expérience de page est quelque chose qui, je pense, a commencé à être déployé en juin.

Donc, en juillet, vous pourriez encore voir quelques changements là-bas.

Mais la mise à jour principale elle-même n’est pas quelque chose qui, je pense, est lié à la mise à jour de l’expérience de la page.

C’est un peu une chose à part.

Plusieurs mises à jour de l’été 2021

En mai 2021, Google a publié une version mise à jour de TF-Ranking basé sur Keras, une plate-forme de recherche et de développement de nouveaux modèles d’apprentissage du classement (LTR) et de leur mise en production rapide.

Cela a été suivi en juin et juillet par de multiples mises à jour de spam et d’algorithmes. Sont-ils liés ? Google ne sait pas.

Mais le rythme des publications d’algorithmes s’est accéléré notamment cet été.

Étant donné que Google a publié plusieurs mises à jour en juin et juillet 2021, il peut être difficile d’isoler des modifications spécifiques et d’attribuer les fluctuations de classement à la mise à jour de l’algorithme de base.

John Mueller de Google a toutefois souligné que la vitesse pouvait certainement être liée.

Citation

Les mises à jour principales de juin et de juillet étaient-elles liées à la vitesse de la page ?

Regardez John Mueller répondre à la question à la minute 30:10 :

Google annonce une refonte de la recherche à l’aide de l’algorithme MUM

0

Google a annoncé que MUM sera intégré à certaines recherches sur Google Search. La page de résultats de recherche de Google subit des changements qui introduiront de nouvelles façons de découvrir et d’explorer des sujets pour certaines recherches.

Cette nouvelle méthode de recherche étend l’ancienne méthode de recherche de réponses et introduit une manière plus intuitive d’explorer les sujets.

Dans les mois à venir, Google guidera les utilisateurs vers les chemins thématiques dans une expérience de recherche repensée pour certaines recherches qui seront plus visuelles.

L’un de ces changements est apparemment déjà en recherche.

L’algorithme Google MUM

Plus tôt en 2021, Google a introduit un nouvel algorithme de recherche qui peut rechercher dans toutes les langues et avec des images pour trouver des réponses à des questions complexes.

Cet algorithme s’appelle MUM, qui est l’abréviation de Multitask Unified Model.

La fonctionnalité la plus utilisée par Google est la possibilité de rechercher avec des images au lieu de simplement du texte.

Google a déjà annoncé l’intégration de MUM dans son application Lens dans les mois à venir.

Lié: Des documents de recherche peuvent montrer ce qu’est Google MUM

Comment Google MUM va changer la recherche

L’algorithme MUM sera introduit dans la recherche Google et apportera des changements spectaculaires à toute l’idée de ce que signifie la recherche.

Les utilisateurs recherchent actuellement des réponses. Mais cette nouvelle façon de rechercher aidera les utilisateurs à explorer des tâches plus complexes tout en introduisant une manière entièrement différente de présenter les réponses, en particulier avec des images.

L’objectif de ces modifications est de rendre la recherche plus intuitive.

Refonte de la recherche Google

Google a caractérisé ce changement comme une refonte de la recherche et c’est exactement ce qu’il est.

Cette nouvelle version de la recherche s’éloigne de trois grandes étapes de l’ancien moteur de recherche à dix liens bleus.

MUM modifie la recherche de trois manières importantes :

  1. Choses à savoir
  2. Agrandissement du sujet
  3. Résultats de recherche visuellement navigables

Lié: Google MUM débarque à Lens

Qu’est-ce que les choses à savoir de Google ?

La « choses à savoir” La fonctionnalité intègre Google MUM pour comprendre toutes les façons dont les utilisateurs explorent un sujet. Google fournit l’exemple de la phrase clé, « peinture acrylique.”

Google note qu’il existe plus de 350 sujets associés à cette phrase clé.

La « choses à savoir« La fonctionnalité identifiera les plus pertinentes ou les plus populaires »chemins” que les utilisateurs prennent en explorant ce sujet et font apparaître plus de contenu de site Web qui s’y rapporte.

Ainsi, plutôt que d’attendre que les utilisateurs effectuent des recherches de suivi, la recherche Google anticipera ces sujets connexes et fera apparaître le contenu.

Voici comment fonctionne cette nouvelle fonctionnalité de recherche :

« Par exemple, nous pouvons identifier plus de 350 sujets liés à la peinture acrylique et vous aider à trouver le bon chemin à suivre. »

Animation vidéo de la fonctionnalité « Choses à savoir »


Exploration de sujets dans la recherche Google

La deuxième nouvelle fonctionnalité est appelée Topic Zoom. Cette fonctionnalité permet à un chercheur d’entrer et de sortir de sujets connexes.

Un chercheur peut élargir le sujet ou zoomer sur un sous-sujet plus granulaire.

Exploration visuelle

La troisième nouvelle fonctionnalité MUM est celle qui semble être disponible dès maintenant dans la recherche Google.

L’exploration visuelle est une nouvelle façon visuelle d’explorer un sujet.

Cette nouvelle fonctionnalité n’apparaîtra pas pour toutes les recherches.

Il est réservé aux chercheurs dont l’intention de l’utilisateur est de trouver l’inspiration.

Google l’explique ainsi :

« Cette nouvelle page de résultats visuels est conçue pour les recherches en quête d’inspiration, telles que « Idées de décoration d’Halloween » ou « Idées de jardins verticaux d’intérieur », et vous pouvez l’essayer dès aujourd’hui. »

Comment Google MUM et AI changent la recherche

Ces nouvelles méthodes de recherche semblent être conçues pour aider les internautes à découvrir davantage de sites Web et davantage de pages Web sur le Web.

Plutôt que de limiter les utilisateurs aux dix liens bleus, Google permet aux chercheurs d’explorer plus facilement des sujets sur beaucoup plus de sites Web que l’ancienne méthode des dix liens bleus.

Cela devrait être une bonne nouvelle pour les éditeurs.

Comment faites-vous SEO pour cela? Je soupçonne que rien ne va changer du côté de Google en ce qui concerne l’optimisation de la recherche.

La façon traditionnelle de faire les choses où les balises de titre et les en-têtes sont utilisées pour vider les mots-clés à fort trafic dans le style de référencement Keyword-1, Keyword 2 peut devoir être revue, mais c’est le cas depuis plusieurs années.

Il peut être utile de suivre les directives de Google pour les titres et les en-têtes en les utilisant pour décrire réellement le sujet de la page Web et des sections de la page Web.

Rendre une page Web facile à comprendre est l’un des principaux attributs d’un bon référencement.

Citation

Lire l’annonce de Google sur MUM dans la recherche Google

Comment l’IA rend l’information plus utile

L’algorithme Google MUM peut faire plus que classer les sites Web

0

John Mueller de Google a été interrogé sur le nombre de requêtes de recherche affectées par l’algorithme MUM. John a dit qu’il ne savait pas et a ensuite expliqué que l’algorithme Google MUM est polyvalent et pourrait être utilisé dans des contextes au-delà du simple classement.

Question sur l’application Google de la technologie MUM

L’algorithme MUM est impressionnant car il peut rechercher des réponses dans des documents Web, quelle que soit la langue, et peut même utiliser des images dans le cadre de la requête de recherche.

Il est donc compréhensible que la personne qui pose la question veuille savoir dans quelle mesure MUM affecte les résultats de recherche.

John Mueller de Google a répondu à la question et a ensuite essayé de mettre MUM en perspective sans aucun battage médiatique.

C’est la question qui a été posée :

« Il y a quelques années, Google a noté qu’en ce qui concerne le classement des résultats, BERT comprendrait mieux et aurait un impact sur environ dix pour cent des recherches aux États-Unis.

Ma question est double :

Ce pourcentage a-t-il changé pour le BERT ?

… Quel pourcentage MUM devrait-il mieux comprendre et avoir un impact sur les recherches ? »

Combien de recherches MUM affecte-t-il ?

John Mueller a admis qu’il ne savait pas combien de recherches MUM affectait et a ensuite expliqué pourquoi il pourrait être difficile de chiffrer l’influence de MUM dans les résultats de recherche.

Sa réponse a d’abord abordé les chiffres du BERT, puis s’est adressée à MUM.

Jean Mueller a répondu :

« Je n’ai aucune idée…

Je suis à peu près sûr que le pourcentage a changé depuis, car tout change.

Mais je ne sais pas si nous avons un nombre fixe qui va pour BERT ou qui va pour MUM.

Lié: Google annonce une refonte de la recherche à l’aide de l’algorithme MUM

Maman est comme une bibliothèque d’apprentissage automatique polyvalente

John Mueller a ensuite poursuivi avec des réflexions sur MUM et a déclaré qu’il peut être appliqué à un large éventail de tâches qui vont au-delà du classement.

Il a dit:

« Maman, pour autant que je sache, cela ressemble plus à une bibliothèque d’apprentissage automatique polyvalente de toute façon.

C’est donc quelque chose qui peut être appliqué à de nombreuses parties différentes de la recherche.

Ce n’est pas tellement que vous l’isoleriez simplement dans le classement.

Mais plutôt, vous pourriez être en mesure de l’utiliser pour comprendre les choses à un niveau très fin, puis c’est en quelque sorte entrelacé dans de nombreux types de résultats de recherche.

Mais je ne pense pas que nous ayons des chiffres fixes.

Google est satisfait de MUM

La personne qui posait la question a posé une question de suivi à laquelle John a répondu avec une description non hype de MUM qui le décrivait comme faisant des choses qui ne sont pas nécessairement aussi flashy que cela puisse paraître de l’extérieur.

La question complémentaire :

« Il me semblait que cela allait ouvrir plus d’opportunités pour différents produits ou requêtes à découvrir.

Il semblait que cela allait faire exploser de manière exponentielle ce que l’on pouvait apprendre.

John Muller a répondu :

« Je ne sais pas… nous verrons.

Je pense qu’il est toujours difficile d’examiner le marketing autour des algorithmes d’apprentissage automatique, car il est très facile de trouver… des exemples très exponentiels.

Mais cela ne signifie pas que tout est aussi flashy que cela.

… En discutant avec certaines de ces personnes de qualité en matière de recherche, elles sont vraiment satisfaites de la façon dont ces types de modèles d’apprentissage automatique fonctionnent.

L’algorithme Mum de Google est plus qu’un simple classement

John Mueller a ajouté un peu plus d’informations sur l’algorithme MUM de Google en expliquant qu’il est plus que simplement applicable à des fins de classement.

Il a indiqué qu’il peut effectuer d’autres tâches qui vont au-delà de la partie classement des algorithmes de Google et qu’il peut jouer un rôle dans d’autres parties de la recherche.

Mueller a également décrit MUM comme étant capable de comprendre les choses avec un niveau de détail très fin.

Lié: Google MUM débarque à Lens

Citation:

L’algorithme Google MUM fait plus que classer les sites Web

Regardez John Mueller discuter de l’algorithme MUM à la minute 2:13 :

Qu’est-ce qu’une mise à jour de l’algorithme Google Broad Core ?

0

Lorsque Google annonce une large mise à jour de l’algorithme de base, de nombreux professionnels du référencement se demandent ce qui a exactement changé (en plus de leur classement).

La reconnaissance par Google des mises à jour principales est toujours vague et ne fournit pas beaucoup de détails autres que de dire que la mise à jour a eu lieu.

La communauté SEO est généralement informée des mises à jour principales via les mêmes tweets standard de Search Liaison de Google.

Il y a une annonce de Google lorsque la mise à jour commence à être déployée, et une sur sa conclusion, avec quelques détails supplémentaires entre les deux (le cas échéant).

Cela laisse invariablement les professionnels du référencement et les propriétaires de sites poser de nombreuses questions sur l’impact de la mise à jour principale sur leur classement.

Pour mieux comprendre ce qui a pu faire monter, descendre ou rester le même classement d’un site, il est utile de comprendre ce qu’est une mise à jour de base large et en quoi elle diffère des autres types de mises à jour d’algorithmes.

Après avoir lu cet article, vous aurez une meilleure idée de ce qu’une mise à jour de base est conçue pour faire et comment récupérer d’une mise à jour si votre classement a été impacté.

Alors, qu’est-ce qu’une mise à jour de base ?

Tout d’abord, permettez-moi d’éliminer l’obligatoire « Google effectue des centaines de changements d’algorithmes par an, souvent plus d’un par jour ».

Beaucoup de nommé les mises à jour dont nous entendons parler (Penguin, Panda, Pigeon, Fred, etc.) sont mises en œuvre pour résoudre des défauts ou des problèmes spécifiques dans les algorithmes de Google.

Dans le cas de Penguin, il s’agissait de spam de liens ; dans le cas de Pigeon, il s’agissait de spam SEO local.

Ils avaient tous un but précis.

Dans ces cas, Google (parfois à contrecœur) nous a informés de ce qu’ils essayaient d’accomplir ou d’empêcher avec la mise à jour de l’algorithme, et nous avons pu revenir en arrière et corriger nos sites.

Une mise à jour de base est différente.

D’après ce que je comprends, une mise à jour de base est une modification ou une modification de l’algorithme de recherche principal lui-même.

Vous savez, celui qui a entre 200 et 500 facteurs et signaux de classement (selon le blog SEO que vous lisez aujourd’hui).

Ce qu’une mise à jour de base signifie pour moi, c’est que Google a légèrement modifié l’importance, l’ordre, les poids ou les valeurs de ces signaux.

À cause de cela, ils ne peuvent pas nous dire tout de suite ce qui a changé sans révéler la sauce secrète.

La façon la plus simple de visualiser cela serait d’imaginer 200 facteurs classés par ordre d’importance.

Imaginez maintenant que Google modifie l’ordre de 42 de ces 200 facteurs.

Les classements changeraient, mais ce serait une combinaison de plusieurs choses, et non en raison d’un facteur ou d’une cause spécifique.

De toute évidence, ce n’est pas ce simple, mais c’est une bonne façon de penser à une mise à jour de base.

Voici un exemple purement inventé et légèrement plus compliqué de ce que Google ne nous dirait pas :

« Dans cette mise à jour principale, nous avons augmenté la valeur des mots clés dans les balises H1 de 2 %, augmenté la valeur de HTTPS de 18 %, diminué la valeur du mot clé dans la balise de titre de 9 %, changé la valeur D dans notre calcul PageRank de . 85 à .70, et a commencé à utiliser une méthode de récupération TF-iDUF pour les utilisateurs connectés au lieu de la méthode traditionnelle TF-PDF.

(Je jure que ce sont de vraies choses. Je n’ai aucune idée si ce sont de vraies choses utilisées par Google.)

Pour commencer, de nombreux professionnels du référencement ne le comprendraient pas.

Fondamentalement, cela signifie que Google a peut-être changé la façon dont il calcule l’importance des termes sur une page, ou la pondération des liens dans PageRank, ou les deux, ou tout un tas d’autres facteurs dont ils ne peuvent pas parler (sans donner l’algorithme) .

En termes simples : Google a changé le poids et importance de nombreux facteurs de classement.

C’est l’explication simple.

Dans sa forme la plus complexe, Google a exécuté un nouvel ensemble de formation via son modèle de classement d’apprentissage automatique et les évaluateurs de qualité ont choisi ce nouvel ensemble de résultats comme plus pertinent que l’ensemble précédent, et les ingénieurs n’ont aucune idée de ce que les poids ont changé ou de la façon dont ils ont changé parce que c’est comment fonctionne l’apprentissage automatique.

(Nous savons tous que Google utilise des évaluateurs de qualité pour évaluer les résultats de recherche. Ces évaluations sont la façon dont ils choisissent un changement d’algorithme plutôt qu’un autre – ne pas comment ils évaluent votre site. Personne ne peut deviner s’ils alimentent cela dans l’apprentissage automatique. Mais c’est une possibilité.)

Il est probable qu’une combinaison aléatoire de pondération ait donné des résultats plus pertinents pour les évaluateurs de qualité, alors ils l’ont testé davantage, les résultats du test l’ont confirmé et ils l’ont mis en ligne.

Comment pouvez-vous récupérer d’une mise à jour principale ?

Contrairement à une mise à jour majeure nommée qui ciblait des choses spécifiques, une mise à jour principale peut modifier les valeurs de tout.

Étant donné que les sites Web sont pondérés par rapport à d’autres sites Web pertinents pour votre requête (les ingénieurs appellent cela un corpus), la raison pour laquelle votre site a été abandonné peut être entièrement différente de la raison pour laquelle quelqu’un d’autre a augmenté ou diminué dans le classement.

Pour le dire simplement, Google ne vous dit pas comment « récupérer » car il s’agit probablement d’une réponse différente pour chaque site Web et chaque requête.

Tout dépend de ce que font tous ceux qui tentent de classer votre requête.

Est-ce que chacun d’eux mais vous avez leur mot-clé dans la balise H1 ? Si c’est le cas, cela pourrait être un facteur contributif.

Vous le faites tous déjà ? Alors cela a probablement moins de poids pour ce corpus de résultats.

Il est très probable que cette mise à jour de l’algorithme ne vous ait pas « pénalisé » pour quoi que ce soit. Il a probablement simplement récompensé un autre site pour autre chose.

Peut-être que vous le tuiez avec un texte d’ancrage interne et qu’ils faisaient un excellent travail de formatage du contenu pour correspondre à l’intention de l’utilisateur – et Google a déplacé les poids de sorte que le formatage du contenu soit légèrement supérieur et le texte d’ancrage interne légèrement inférieur.

(Encore une fois, des exemples hypothétiques ici.)

En réalité, il s’agissait probablement de plusieurs ajustements mineurs qui, lorsqu’ils étaient combinés, faisaient légèrement pencher la balance en faveur d’un site ou d’un autre (pensez à notre liste réorganisée ici).

Trouver cet « autre chose » qui aide vos concurrents n’est pas facile – mais c’est ce qui maintient les professionnels du référencement dans l’entreprise.

Prochaines étapes et éléments d’action

Les classements sont en baisse après une mise à jour de base – et maintenant ?

Votre prochaine étape consiste à rassembler des informations sur les pages qui se classent là où se trouvait votre site.

Effectuez une analyse SERP pour trouver des corrélations positives entre les pages qui se classent plus haut pour les requêtes où votre site est maintenant plus bas.

Essayez de ne pas trop analyser les détails techniques, tels que la vitesse de chargement de chaque page ou les scores de base de leurs éléments vitaux Web.

Faites attention au contenu lui-même. Au fur et à mesure, posez-vous des questions telles que :

  • Donne-t-il une meilleure réponse à la requête que votre article?
  • Le contenu contient-il des données plus récentes et les statistiques actuelles que les vôtres ?
  • Y a-t-il des photos et des vidéos qui aident à donner vie au contenu pour le lecteur ?

Google a pour objectif de diffuser du contenu qui offre la meilleur et plus Achevée réponses aux questions des chercheurs. La pertinence est le seul facteur de classement qui l’emportera toujours sur tous les autres.

Examinez honnêtement votre contenu pour voir s’il est aussi pertinent aujourd’hui qu’il l’était avant la mise à jour de l’algorithme de base.

À partir de là, vous aurez une idée de ce qui doit être amélioré.

Le meilleur conseil pour conquérir les mises à jour principales ?

Continuez à vous concentrer sur :

  • Intention de l’utilisateur.
  • Contenu de qualité.
  • Architecture épurée.
  • Les directives de Google.

Enfin, n’arrêtez pas d’améliorer votre site une fois que vous atteignez la Position 1, car le site en Position 2 ne va pas s’arrêter.

Ouais, je sais, ce n’est pas la réponse que tout le monde veut et ça ressemble à de la propagande de Google. Je jure que non.

C’est juste la réalité de ce qu’est une mise à jour de base.

Personne n’a dit que le référencement était facile.

Davantage de ressources:

  • Comment analyser l’algorithme de Google : les mathématiques et les compétences dont vous avez besoin
  • Comment fonctionnent les algorithmes ? Une introduction de base pour les non-marketeurs
  • Facteurs de classement Google : réalité ou fiction

Image en vedette : Ulvur/Shutterstock

Un guide complet de la mise à jour de l’algorithme Google Penguin

0

Dix ans se sont écoulés depuis que Google a introduit l’algorithme Penguin et a adopté une position plus ferme sur les pratiques manipulatrices de création de liens.

L’algorithme a eu un certain nombre de mises à jour et est devenu une partie en temps réel de l’algorithme principal de Google. Par conséquent, les sanctions sont devenues moins courantes, mais existent toujours à la fois au format partiel et à l’échelle du site.

Avertissement de liens non naturels dans Google Search Console

Pour la plupart, Google prétend ignorer de nombreux liens de mauvaise qualité en ligne, mais reste vigilant et surveille les modèles non naturels tels que les schémas de liens, les PBN, les échanges de liens et les modèles de liens sortants non naturels.

L’introduction du pingouin

En 2012, Google a officiellement lancé la «mise à jour de l’algorithme de spam Web», qui ciblait spécifiquement le spam de liens et les pratiques de création de liens manipulatrices.

L’algorithme de spam Web est devenu plus tard connu (officiellement) sous le nom de mise à jour de l’algorithme Penguin via un tweet de Matt Cutts, qui était alors à la tête de l’équipe Google Webspam.

Alors que Google a officiellement nommé l’algorithme Penguin, il n’y a pas de mot officiel sur l’origine de ce nom.

Le nom de l’algorithme Panda vient de l’un des principaux ingénieurs impliqués, et il est plus que probable que Penguin provienne d’une source similaire.

L’une de mes théories de dénomination de pingouin préférées est qu’elle rend hommage au pingouin, de Batman de DC.

Avant l’algorithme Penguin, le volume de liens jouait un rôle plus important dans la détermination du score d’une page Web lorsqu’elle était explorée, indexée et analysée par Google.

Cela signifiait que lorsqu’il s’agissait de classer les sites Web en fonction de ces scores pour les pages de résultats de recherche, certains sites Web et éléments de contenu de mauvaise qualité figuraient dans des positions plus importantes qu’ils n’auraient dû dans les résultats de recherche organiques.

Pourquoi Google Penguin était nécessaire

La guerre de Google contre la mauvaise qualité a commencé avec l’algorithme Panda, et Penguin était une extension et un ajout à l’arsenal pour mener cette guerre.

Penguin était la réponse de Google à la pratique croissante de la manipulation des résultats de recherche (et des classements) par le biais de techniques de création de liens chapeau noir.

Cutts, s’exprimant lors de la conférence SMX Advanced 2012, a déclaré :

Nous envisageons quelque chose conçu pour lutter contre le contenu de mauvaise qualité. Tout a commencé avec Panda, puis nous avons remarqué qu’il y avait encore beaucoup de spam et Penguin a été conçu pour y faire face.

L’objectif de l’algorithme était de mieux contrôler et de réduire l’efficacité d’un certain nombre de techniques de spamming blackhat.

En comprenant et en traitant mieux les types de liens que les sites Web et les webmasters gagnaient, Penguin s’est efforcé de garantir que des liens naturels, faisant autorité et pertinents récompensaient les sites Web vers lesquels ils pointaient, tandis que les liens manipulateurs et spammés étaient déclassés.

Penguin ne traite que les liens entrants d’un site. Google ne regarde que les liens pointant vers le site en question et ne regarde pas du tout les liens sortants de ce site.

Lancement initial et impact

Lorsque Penguin a été lancé pour la première fois en avril 2012, il a affecté plus de 3 % des résultats de recherche, selon les propres estimations de Google.

Penguin 2.0, la quatrième mise à jour (y compris le lancement initial) de l’algorithme a été publiée en mai 2013 et a affecté environ 2,3 % de toutes les requêtes.

Au lancement, Penguin aurait ciblé deux pratiques de manipulation spécifiques, en particulier les schémas de liens et le bourrage de mots clés.

Les schémas de liens sont le terme générique désignant les pratiques de création de liens manipulatrices, telles que les échanges, le paiement de liens et d’autres pratiques de liens non naturels décrites dans la documentation sur les schémas de liens de Google.

Le lancement initial de Penguin visait également le bourrage de mots clés, qui est depuis devenu associé à l’algorithme Panda (qui est davantage considéré comme un algorithme de contenu et de qualité du site).

Principales mises à jour et actualisations de Google Penguin

Il y a eu un certain nombre de mises à jour et d’actualisations de l’algorithme Penguin depuis son lancement en 2012, et peut-être un certain nombre d’autres ajustements qui sont entrés dans l’histoire en tant que mises à jour d’algorithmes inconnus.

Google Pingouin 1.1 : 26 mars 2012

Ce n’était pas une modification de l’algorithme lui-même, mais la première actualisation des données qu’il contient.

Dans ce cas, les sites Web qui avaient été initialement affectés par le lancement et qui avaient été proactifs dans la clarification de leurs profils de liens ont vu une certaine récupération, tandis que d’autres qui n’avaient pas été attrapés par Penguin la première fois ont vu un impact.

Google Pingouin 1.2 : 5 octobre, 2012

Il s’agissait d’une autre actualisation des données. Cela a affecté les requêtes en anglais, ainsi que les requêtes internationales.

Google Pingouin 2.0 : 22 mai, 2013

Il s’agissait d’une version plus avancée techniquement de l’algorithme Penguin et a modifié l’impact de l’algorithme sur les résultats de recherche.

Penguin 2.0 a touché environ 2,3 % des requêtes en anglais, ainsi que d’autres langues proportionnellement.

Il s’agissait également de la première mise à jour de Penguin à aller plus loin que la page d’accueil des sites Web et les pages de catégorie de niveau supérieur pour trouver des preuves de spam de lien dirigé vers le site Web.

Google Pingouin 2.1 : 4 octobre 2013

Le seul rafraîchissement de Penguin 2.0 (2.1) a eu lieu le 4 octobre de la même année. Cela a affecté environ 1 % des requêtes.

Bien qu’il n’y ait aucune explication officielle de Google, les données suggèrent que l’actualisation des données 2.1 a également avancé sur la profondeur à laquelle Penguin a examiné un site Web et a exploré plus profondément, et a effectué une analyse plus approfondie pour déterminer si les liens spammés étaient contenus.

Google Pingouin 3.0 : 17 octobre, 2014

Bien qu’il s’agisse d’une mise à jour majeure, il s’agissait en fait d’une autre actualisation des données ; permettant à ceux qui ont été touchés par les mises à jour précédentes d’émerger et de récupérer, tandis que de nombreux autres qui avaient continué à utiliser des pratiques de lien spammy et avaient échappé au radar des impacts précédents ont vu un impact.

Googler Pierre Far l’a confirmé dans un message sur son profil Google+ et que la mise à jour prendrait « quelques semaines » pour être pleinement déployée.

Far a également déclaré que cette mise à jour concernait moins de 1 % des requêtes de recherche en anglais.

Google Pingouin 4.0 : 23 septembre, 2016

Près de deux ans après l’actualisation 3.0, la dernière mise à jour de l’algorithme Penguin a été lancée.

Le plus grand changement avec cette itération était que Penguin est devenu une partie de l’algorithme de base.

Lorsqu’un algorithme transcende pour devenir une partie du noyau, cela ne signifie pas que la fonctionnalité de l’algorithme a changé ou peut changer de façon spectaculaire à nouveau.

Cela signifie que la perception de l’algorithme par Google a changé, pas l’algorithme lui-même.

Fonctionnant maintenant en même temps que le noyau, Penguin évalue les sites Web et les liens en temps réel. Cela signifie que vous pouvez voir les impacts (raisonnablement) instantanés de votre travail de création de liens ou de correction.

Le nouveau Penguin n’a pas non plus été fermé en distribuant des pénalités basées sur les liens, mais a plutôt dévalué les liens eux-mêmes. C’est un contraste avec les précédentes itérations de Penguin, où le négatif était puni.

Cela dit, des études et, par expérience personnelle, des pénalités algorithmiques relatives aux backlinks existent toujours.

Les données publiées par des professionnels du référencement (par exemple, Michael Cottam), ainsi que le fait de voir des déclassements algorithmiques supprimés via des fichiers de désaveu après Penguin 4.0, renforcent cette conviction.

Rétrogradations algorithmiques de Google Penguin

Peu de temps après l’introduction de l’algorithme Penguin, les webmasters et les marques qui avaient utilisé des techniques de création de liens manipulatrices ou rempli leurs profils de backlinks avec de grandes quantités de liens de mauvaise qualité ont commencé à voir une diminution de leur trafic organique et de leur classement.

Toutes les rétrogradations de Penguin n’étaient pas à l’échelle du site – certaines étaient partielles et n’affectaient que certains groupes de mots-clés qui avaient été fortement spammés et sur-optimisés, tels que les produits clés et dans certains cas même les marques.

Un site web impacté par une sanction Penguin, qui a mis 17 mois à être levée.

L’impact de Penguin peut également passer d’un domaine à l’autre, donc changer de domaine et rediriger l’ancien vers le nouveau peut causer plus de problèmes à long terme.

Des expériences et des recherches montrent que l’utilisation d’une redirection 301 ou 302 ne supprimera pas l’effet de Penguin, et dans le Google Webmasters Forum, John Mueller a confirmé que l’utilisation d’une méta-actualisation d’un domaine vers un nouveau domaine pouvait également entraîner des complications.

En général, nous vous recommandons de ne pas utiliser les redirections de type meta-refresh, car cela peut semer la confusion chez les utilisateurs (et les robots des moteurs de recherche, qui pourraient confondre cela avec une tentative de redirection).

Récupération de pingouin Google

L’outil de désaveu a été un atout pour les praticiens du référencement, et cela n’a pas changé même maintenant que Penguin existe dans le cadre de l’algorithme de base.

Comme vous vous en doutez, il y a eu des études et des théories publiées selon lesquelles le désaveu des liens ne fait en fait rien pour aider les déclassements algorithmiques basés sur les liens et les actions manuelles, mais cette théorie a été publiquement rejetée par les représentants de Google.

Cela étant dit, Google recommande que l’outil de désaveu ne soit utilisé qu’en dernier recours lorsqu’il s’agit de spam de liens, car désavouer un lien est beaucoup plus facile (et un processus plus rapide en termes d’effet) que de soumettre des demandes de réexamen pour de bons liens. .

Ce qu’il faut inclure dans un fichier de désaveu

Un fichier de désaveu est un fichier que vous soumettez à Google qui leur dit d’ignorer tous les liens inclus dans le fichier afin qu’ils n’aient aucun impact sur votre site.

Le résultat est que les liens négatifs ne causeront plus de problèmes de classement négatif avec votre site, comme avec Penguin.

Mais cela signifie également que si vous avez inclus par erreur des liens de haute qualité dans votre fichier de désaveu, ces liens n’aideront plus votre classement.

Vous n’avez pas besoin d’inclure de notes dans votre dossier de désaveu, sauf si elles sont strictement à titre de référence. C’est bien juste d’inclure les liens et rien d’autre.

Google ne lit aucune des notations que vous avez faites dans votre fichier de désaveu, car ils le traitent automatiquement sans qu’un humain ne le lise jamais.

Certains trouvent utile d’ajouter des notations internes, telles que la date à laquelle un groupe d’URL a été ajouté au fichier de désaveu ou des commentaires sur leurs tentatives de contacter le webmaster pour obtenir la suppression d’un lien.

Une fois que vous avez téléchargé votre fichier de désaveu, Google vous enverra une confirmation.

Mais bien que Google le traite immédiatement, il n’écartera pas immédiatement ces liens. Ainsi, vous ne récupérerez pas instantanément après avoir soumis le désaveu seul.

Google doit toujours explorer les liens individuels que vous avez inclus dans le fichier de désaveu, mais le fichier de désaveu lui-même n’invitera pas Google à explorer spécifiquement ces pages.

De plus, il n’y a aucun moyen de déterminer quels liens ont été réduits et lesquels ne l’ont pas été, car Google inclura toujours les deux dans votre rapport de liaison dans Google Search Console.

Si vous avez déjà soumis un fichier de désaveu à Google, ils remplaceront ce fichier par le vôtre, et non l’ajouteront.

Il est donc important de vous assurer que si vous avez déjà désavoué des liens, vous incluez toujours ces liens dans votre nouveau fichier de désaveu.

Vous pouvez toujours télécharger une copie du fichier de désaveu actuel dans Google Search Console.

Désavouer les liens individuels par rapport aux domaines

Il est recommandé de choisir de désavouer les liens au niveau du domaine au lieu de désavouer les liens individuels.

Il y aura des cas où vous voudrez désavouer des liens spécifiques individuellement, comme sur un site majeur qui a un mélange de liens de qualité et de liens payants.

Mais pour la majorité des liens, vous pouvez faire un désaveu basé sur le domaine.

Google n’a besoin d’explorer qu’une seule page de ce site pour que ce lien soit réduit sur votre site.

Faire des désaveux basés sur le domaine signifie également que vous n’avez pas à vous soucier de l’indexation de ces liens en tant que www ou non-www, car le désaveu basé sur le domaine en tiendra compte.

Trouver vos backlinks

Si vous pensez que votre site a été affecté négativement par Penguin, vous devez effectuer un audit des liens et supprimer ou désavouer les liens de mauvaise qualité ou spam.

Google Search Console inclut une liste de backlinks pour les propriétaires de sites, mais sachez qu’elle inclut également des liens qui ne sont déjà pas suivis.

Si le lien n’est pas suivi, cela n’aura aucun impact sur votre site. Mais gardez à l’esprit que le site pourrait supprimer ce nofollow à l’avenir sans avertissement.

Il existe également de nombreux outils tiers qui afficheront des liens vers votre site, mais comme certains sites Web empêchent ces robots tiers d’explorer leur site, ils ne pourront pas vous montrer tous les liens pointant vers votre site.

Et tandis que certains des sites bloquant ces bots sont des sites bien connus de haute qualité qui ne veulent pas gaspiller la bande passante de ces bots, il est également utilisé par certains sites de spam pour empêcher que leurs liens de mauvaise qualité ne soient signalés.

La surveillance des backlinks est également une tâche essentielle, car parfois l’industrie dans laquelle nous travaillons n’est pas entièrement honnête et des attaques SEO négatives peuvent se produire. C’est à ce moment qu’un concurrent achète des liens spammés et les dirige vers votre site.

Beaucoup utilisent le « SEO négatif » comme excuse lorsque leur site est pris par Google pour des liens de mauvaise qualité.

Cependant, Google a déclaré qu’ils étaient assez bons pour reconnaître cela quand cela se produit, donc ce n’est pas quelque chose dont la plupart des propriétaires de sites Web doivent s’inquiéter.

Cela signifie également que l’utilisation proactive de la fonction de désaveu sans signe clair d’une pénalité algorithmique ou d’une notification d’action manuelle est une bonne idée.

Fait intéressant, cependant, un sondage réalisé par SEJ en septembre 2017 a révélé que 38 % des référenceurs ne désavouent jamais les backlinks.

Parcourir un profil de backlink et examiner chaque domaine de liaison pour déterminer s’il s’agit d’un lien que vous souhaitez ou non n’est pas une tâche facile.

Sensibilisation à la suppression de liens

Google vous recommande d’essayer de contacter les sites Web et les webmasters d’où proviennent les mauvais liens et de demander leur suppression avant de commencer à les désavouer.

Certains propriétaires de sites exigent des frais pour supprimer un lien.

Google recommande de ne jamais payer pour la suppression de liens. Incluez simplement ces liens dans votre fichier de désaveu et passez à la suppression du lien suivant.

Bien que la sensibilisation soit un moyen efficace de récupérer d’une pénalité basée sur un lien, elle n’est pas toujours nécessaire.

L’algorithme Penguin prend également en compte le profil de lien dans son ensemble et le volume de liens naturels de haute qualité par rapport au nombre de liens spam.

En cas de pénalité partielle (affectant des mots-clés sur-optimisés), l’algorithme peut toujours vous affecter. Les éléments essentiels de la maintenance et de la surveillance des backlinks devraient vous permettre de rester couvert.

Certains webmasters vont même jusqu’à inclure des « conditions » dans les conditions générales de leur site Web et à contacter activement des sites Web qui, selon eux, ne devraient pas être liés :

Liaison TOS

Évaluation de la qualité des liens

Beaucoup ont du mal à évaluer la qualité des liens.

Ne présumez pas que parce qu’un lien provient d’un site .edu, il est de haute qualité.

De nombreux étudiants vendent des liens de leurs sites Web personnels sur ces domaines .edu qui sont extrêmement spammés et devraient être désavoués.

De même, il existe de nombreux sites piratés dans les domaines .edu qui ont des liens de mauvaise qualité.

Ne portez pas de jugements strictement basés sur le type de domaine. Bien que vous ne puissiez pas faire d’hypothèses automatiques sur les domaines .edu, il en va de même pour tous les TLD et ccTLD.

Google a confirmé que le simple fait d’être sur un TLD spécifique n’aide ni ne nuit au classement de recherche. Mais vous devez faire des évaluations individuelles.

Il y a une blague de longue date sur le fait qu’il n’y a jamais eu de page de qualité sur un domaine .info parce que tant de spammeurs les utilisaient, mais en fait, il y a des liens de grande qualité provenant de ce TLD, ce qui montre pourquoi l’évaluation individuelle des liens est si important.

Méfiez-vous des liens provenant de sites présumés de haute qualité

Ne regardez pas la liste des liens et considérez automatiquement les liens de sites Web spécifiques comme étant un lien de grande qualité, à moins que vous ne sachiez que ce lien très spécifique est de haute qualité.

Ce n’est pas parce que vous avez un lien provenant d’un site Web majeur tel que le Huffington Post ou la BBC qu’il s’agit d’un lien automatique de haute qualité aux yeux de Google – vous devriez plutôt le remettre en question.

Beaucoup de ces sites vendent également des liens, bien que certains soient déguisés en publicité ou réalisés par un contributeur malhonnête vendant des liens dans leurs articles.

Ces types de liens provenant de sites de haute qualité étant en fait de mauvaise qualité ont été confirmés par de nombreux référenceurs qui ont reçu des actions manuelles de liens qui incluent des liens de ces sites dans les exemples de Google. Et oui, ils pourraient probablement contribuer à un problème de pingouin.

À mesure que le contenu publicitaire augmente, nous allons voir de plus en plus de liens comme ceux-ci être signalés comme étant de mauvaise qualité.

Recherchez toujours les liens, surtout si vous envisagez de ne supprimer aucun d’entre eux simplement en fonction du site d’où provient le lien.

Liens promotionnels

Comme pour les publireportages, vous devez penser à tous les liens que les sites ont pu pointer vers vous et qui pourraient être considérés comme des liens promotionnels.

Les liens payants ne signifient pas toujours que de l’argent est échangé contre les liens.

Des exemples de liens promotionnels qui sont techniquement des liens payants aux yeux de Google sont tous les liens donnés en échange d’un produit gratuit pour examen ou d’une remise sur des produits.

Alors que ces types de liens étaient bons il y a des années, ils doivent maintenant être non suivis.

Vous obtiendrez toujours la valeur du lien, mais au lieu d’aider les classements, ce serait grâce à la notoriété de la marque et au trafic.

Vous pouvez avoir des liens provenant d’une campagne promotionnelle effectuée il y a des années qui ont maintenant un impact négatif sur un site.

Pour toutes ces raisons, il est extrêmement important d’évaluer individuellement chaque lien. Vous souhaitez supprimer les liens de mauvaise qualité car ils ont un impact sur Penguin ou pourraient entraîner une future action manuelle.

Mais, vous ne voulez pas supprimer les bons liens, car ce sont les liens qui aident votre classement dans les résultats de recherche.

Les liens promotionnels qui ne sont pas non suivis peuvent également déclencher l’action manuelle pour les liens sortants sur le site qui a placé ces liens.

Aucune récupération de pingouin en vue ?

Parfois, après que les webmasters se sont donné beaucoup de mal pour nettoyer leurs profils de liens, ils ne constatent toujours pas d’augmentation du trafic ou des classements.

Il y a un certain nombre de raisons possibles derrière cela, notamment :

  • L’augmentation initiale du trafic et du classement a été constatée avant que la pénalité algorithmique soit injustifiée (et probablement à court terme) et provenait des mauvais backlinks.
  • Lorsque des liens ont été supprimés, aucun effort n’a été fait pour obtenir de nouveaux backlinks de plus grande valeur.
  • Tous les backlinks négatifs n’ont pas été désavoués/une proportion suffisamment élevée de backlinks négatifs a été supprimée.
  • Le problème n’était pas basé sur les liens, pour commencer.

Lorsque vous récupérerez de Penguin, ne vous attendez pas à ce que votre classement revienne là où il était avant Penguin, ni à ce que le retour soit immédiat.

Beaucoup trop de propriétaires de sites ont l’impression qu’ils commenceront immédiatement à se classer au sommet pour leurs principales requêtes de recherche une fois que Penguin sera levé.

Premièrement, certains des liens que vous avez désavoués contribuaient probablement à un classement artificiellement élevé, vous ne pouvez donc pas vous attendre à ce que ces classements soient aussi élevés qu’avant.

Deuxièmement, parce que de nombreux propriétaires de sites ont du mal à évaluer la qualité des liens, certains liens de haute qualité sont inévitablement désavoués dans le processus, liens qui contribuaient aux meilleurs classements.

Ajoutez à cela le fait que Google modifie constamment son algorithme de classement, de sorte que les facteurs qui vous bénéficiaient auparavant pourraient ne pas avoir un impact aussi important maintenant, et vice versa.

Mythes et idées fausses sur Google Penguin

L’une des grandes choses à propos de l’industrie du référencement et de ceux qui y sont impliqués est qu’il s’agit d’une communauté très active et dynamique, et il y a toujours de nouvelles théories et des résultats d’expériences publiés en ligne quotidiennement.

Naturellement, cela a conduit à un certain nombre de mythes et d’idées fausses sur les algorithmes de Google. Le pingouin n’est pas différent.

Voici quelques mythes et idées fausses sur l’algorithme Penguin que nous avons vus au fil des ans.

Mythe : Le pingouin est une pénalité

L’un des plus grands mythes à propos de l’algorithme Penguin est que les gens l’appellent une pénalité (ou ce que Google appelle une action manuelle).

Penguin est de nature strictement algorithmique. Il ne peut pas être levé manuellement par Google.

Malgré le fait qu’un changement d’algorithme et une pénalité peuvent tous deux entraîner une forte baisse du classement des sites Web, il existe des différences assez drastiques entre eux.

Une sanction (ou action manuelle) se produit lorsqu’un membre de l’équipe de lutte contre le spam Web de Google a répondu à un signalement, a enquêté et a ressenti le besoin d’appliquer une sanction sur le domaine.

Vous recevrez une notification via Google Search Console concernant cette action manuelle.

Lorsque vous êtes touché par une action manuelle, vous devez non seulement examiner vos backlinks et soumettre un désaveu pour les spams qui vont à l’encontre des directives de Google, mais vous devez également soumettre une demande de réexamen à l’équipe Google Webspam.

En cas de succès, la sanction sera annulée ; et en cas d’échec, il est de retour à l’examen du profil de backlink.

Une rétrogradation Penguin se produit sans aucune implication d’un membre de l’équipe Google. Tout est fait de manière algorithmique.

Auparavant, vous deviez attendre une actualisation ou une mise à jour de l’algorithme, mais maintenant, Penguin s’exécute en temps réel, de sorte que les récupérations peuvent se produire beaucoup plus rapidement (si suffisamment de travail de correction a été effectué).

Mythe : Google vous avertira si Penguin accède à votre site

Un autre mythe à propos de l’algorithme Google Penguin est que vous serez averti lorsqu’il sera appliqué.

Malheureusement, ce n’est pas vrai. La console de recherche ne vous avertira pas que votre classement a baissé à cause de l’application du pingouin.

Encore une fois, cela montre la différence entre un algorithme et une pénalité – vous seriez averti si vous étiez touché par une pénalité.

Cependant, le processus de récupération de Penguin est remarquablement similaire à celui de récupération d’un penalty.

Mythe : désavouer les mauvais liens est le seul moyen d’inverser un coup de pingouin

Bien que cette tactique supprime une grande partie des liens de mauvaise qualité, elle prend énormément de temps et constitue un gaspillage potentiel de ressources.

Google Penguin examine le pourcentage de liens de bonne qualité par rapport à ceux de nature spam.

Ainsi, plutôt que de se concentrer sur la suppression manuelle de ces liens de mauvaise qualité, il peut être utile de se concentrer sur l’augmentation du nombre de liens de qualité sur votre site Web.

Cela aura un meilleur impact sur le pourcentage que Penguin prend en compte.

Mythe : Vous ne pouvez pas vous remettre d’un pingouin

Oui, vous pouvez récupérer de Penguin.

C’est possible, mais cela nécessitera une certaine expérience dans la gestion de la nature inconstante des algorithmes de Google.

La meilleure façon de se débarrasser des effets négatifs de Penguin est d’oublier tous les liens existants sur votre site Web et de commencer à obtenir des liens éditoriaux originaux.

Plus vous gagnerez de ces liens de qualité, plus il sera facile de libérer votre site Web de l’emprise de Penguin.


Image en vedette : Paulo Bobita/Journal des moteurs de recherche

La mise à jour de l’algorithme Google Page Experience arrive sur le bureau

0

Google confirme que la mise à jour de l’algorithme d’expérience de page, qui a été déployée sur la recherche mobile plus tôt cette année, sera appliquée aux résultats de recherche sur ordinateur.

Cette mise à jour devrait être lancée à partir de février 2022 et se terminera fin mars 2022.

Voici ce que cela signifie pour votre site Web.

Mise à jour de l’expérience de la page Google pour la recherche sur ordinateur

La mise à jour Page Experience de Google pour la recherche sur ordinateur s’appuie sur l’algorithme lancé sur mobile à l’été 2021.

La mise à jour de l’algorithme de bureau sera construite en utilisant les mêmes signaux de classement que la mise à jour mobile.

« Cela signifie que les trois mêmes métriques Core Web Vitals : LCP, FID et CLS, et leurs seuils associés s’appliqueront au classement des ordinateurs de bureau. D’autres aspects des signaux d’expérience de page, tels que la sécurité HTTPS et l’absence d’interstitiels intrusifs, resteront également les mêmes.

bureau d'expérience de page google

La convivialité mobile, qui est un signal intégré à l’expérience de la page pour la recherche mobile, ne pas appliquer au bureau.

Il est donc concevable que vous puissiez bénéficier de l’amélioration du classement de l’expérience de la page sur la recherche sur ordinateur, même si votre site n’est pas optimisé pour les mobiles.

Si votre site a des URL pour ordinateur et mobile distinctes, le signal pour ordinateur est basé sur les URL que les utilisateurs d’ordinateur voient.

Google ajoutera bientôt un nouveau rapport à la Search Console pour vous aider à comprendre les performances de vos pages de bureau en ce qui concerne la mise à jour de l’expérience de la page.

Attendez-vous à ce que ce rapport soit disponible avant mars 2022, car Google a l’intention d’aider les gens à se préparer à l’avance.

La source: Centre de recherche Google


Image en vedette : Piscine26/Shutterstock

L’algorithme de Facebook donne désormais la priorité aux rapports originaux

0

À partir d’aujourd’hui, Facebook change la façon dont les actualités sont classées dans son flux principal avec une mise à jour de l’algorithme qui donne la priorité aux rapports originaux.

De plus, l’algorithme de Facebook rétrogradera désormais les articles d’actualité sans « paternité transparente ».

Facebook affirme que ces deux mises à jour sont basées sur la recherche d’utilisateurs et construites avec l’aide des commentaires des éditeurs de nouvelles et des experts universitaires.

Voici plus d’informations sur chacun de ces changements apportés aux signaux de classement de Facebook.

Priorité aux actualités originales

L’algorithme de Facebook donnera désormais la priorité aux articles d’actualité qui ont été identifiés comme des reportages originaux.

Afin d’identifier les articles de presse originaux, Facebook examinera des groupes d’articles sur un sujet similaire pour déterminer quel article est le plus fréquemment lié à la source d’origine.

Lorsque plusieurs histoires sur le même sujet sont partagées par différents éditeurs, Facebook mettra en avant la plus originale dans les flux des internautes.

Ce changement ne s’applique pas aux articles de presse partagés par des relations personnelles telles que les amis et la famille. Cela s’applique uniquement aux articles partagés par les pages des éditeurs.

Il y a des défauts dans cette approche qui viennent immédiatement à l’esprit. Par exemple, il n’est pas rare qu’une histoire originale d’un petit éditeur soit reprise par un site Web plus important.

Dans ces cas, les journalistes peuvent finir par se connecter plus fréquemment au plus grand éditeur parce qu’il est plus connu.

Selon les normes de Facebook, l’article du grand éditeur serait considéré comme l’original, même si ce n’est pas le cas.

Facebook admet que la définition des normes de reporting d’origine est complexe et l’entreprise continuera d’affiner son approche au fil du temps.

Lié: La mise à jour de Facebook risque de nuire au trafic vers des pages Web plus anciennes

Rétrogradation de la paternité non transparente

Facebook insiste sur l’importance d’une paternité transparente, affirmant que le manque de transparence est un signe de manque de crédibilité.

À l’avenir, Facebook rétrogradera les articles d’actualité des éditeurs qui ne disposent pas d’informations sur leur équipe éditoriale.

Les articles de presse seront examinés pour les signatures ou une page du personnel sur le site Web de l’éditeur. Les informations doivent inclure le prénom et le nom des journalistes ou d’autres membres du personnel éditorial.

« Nous avons constaté que les éditeurs qui n’incluent pas ces informations manquent souvent de crédibilité auprès des lecteurs et produisent du contenu avec des pièges à clics ou des fermes publicitaires, tous les contenus que les gens nous disent qu’ils ne veulent pas voir sur Facebook. »

Il ne semble pas y avoir d’autres critères pour ce qui est considéré comme une «paternité transparente» autre que la liste des noms et prénoms des journalistes.

Bien que, je suppose, plus les informations fournies seront meilleures pour l’éditeur.

Ce changement n’est pas propre à la plateforme Facebook. La paternité transparente est une norme éditoriale dans le journalisme.

« La transparence éditoriale est une norme professionnelle soutenue par des organisations telles que Trust Project, SOS Support Public Broadcasting Coalition, Forum mondial pour le développement des médias et Journalism Trust Initiative de Reporters sans frontières.

Nous avons consulté ces organisations, en plus de plus de 20 autres experts mondiaux des médias, pour développer ces normes.

Cette approche présente également des défauts, admet Facebook. Dans certains cas, les auteurs peuvent se mettre en danger en incluant leurs informations personnelles dans des articles.

Facebook ne donne la priorité qu’aux marchés limités de la transparence des auteurs pour commencer, en tenant compte de l’environnement de la presse dans lequel les éditeurs opèrent.

Qu’est-ce que cela signifie pour les éditeurs ?

Au fur et à mesure de la mise en œuvre de ce changement, les nouvelles et les reportages originaux pourraient voir leur distribution augmenter.

Il est important que les éditeurs gardent à l’esprit que leurs articles sont toujours soumis aux signaux de classement des flux d’actualités existants de Facebook.

Cela dit, Facebook affirme que la plupart des éditeurs de nouvelles ne verront probablement pas de changements significatifs dans leur placement dans les fils de nouvelles des gens.

Source : Facebook

Davantage de ressources

  • Groupe Facebook vs Page Facebook : quoi de mieux pour votre marque ?
  • Comment optimiser complètement votre page Facebook

Pinterest met à jour l’algorithme pour afficher plus de types de contenu

0

Pinterest introduit un nouveau modèle de classement dans son flux d’accueil afin de faire apparaître plus souvent certains types de contenu.

Traditionnellement, Pinterest classe le contenu dans le flux d’accueil à l’aide d’un modèle de prédiction de clic.

Les épingles sur lesquelles un utilisateur est le plus susceptible de cliquer, en fonction de son activité passée, sont classées par ordre de priorité dans son flux d’accueil

Bien que ce modèle soit efficace pour maximiser l’engagement des utilisateurs, ce n’est pas le meilleur modèle pour faire apparaître une variété de types de contenu.

Par exemple, si un utilisateur ne clique jamais sur du contenu vidéo, il ne verra jamais d’épingles avec vidéo dans son flux d’accueil.

Mais cela ne signifie pas nécessairement qu’ils ne s’engageraient pas dans le contenu vidéo s’il devait être diffusé.

Pinterest s’est retrouvé avec un problème de vouloir augmenter plus de types de contenu tout en gardant les recommandations de contenu pertinentes.

Pour résoudre ce problème, Pinterest introduit un système de classement en temps réel pour son flux d’accueil appelé « distribution contrôlable ».

Répartition contrôlable

Pinterest décrit la distribution contrôlable comme un « système flexible en temps réel ».

Ce n’est pas une refonte complète de l’algorithme. Au contraire, la distribution contrôlable n’est appliquée que après l’algorithme traditionnel de classement des flux d’accueil.

Pinterest utilisera toujours son modèle de prédiction de clic pour trouver du contenu pertinent. Ensuite, il appliquera une distribution contrôlable pour diversifier les types de contenus affichés.

La distribution contrôlable permet de spécifier une cible pour le nombre d’impressions qu’un certain type de contenu doit recevoir.

Par exemple, la distribution contrôlable pourrait être utilisée pour spécifier que 4 % des flux d’accueil des utilisateurs doivent contenir du contenu vidéo.

Cela se fait via un système qui suit le pourcentage du flux qui était vidéo dans le passé. Ensuite, le système augmente ou rétrograde le contenu en fonction de la proximité de ce pourcentage avec la cible spécifiée.

Pinterest dit que cela peut être accompli tout en respectant les préférences de contenu des utilisateurs.

Qu’est-ce que cela signifie pour les spécialistes du marketing ?

En tant que système en temps réel, le modèle de distribution contrôlable sera ajusté en permanence.

D’une part, cela signifie que le flux d’accueil ne sera pas obsolète pour les utilisateurs.

D’un autre côté, il n’est pas exactement possible d’optimiser pour un algorithme qui change en temps réel.

Peut-être que le meilleur conseil pour les spécialistes du marketing de Pinterest est de suivre l’exemple de Pinterest.

Pinterest diversifie les types de contenu dans le flux d’accueil. Si vous souhaitez que davantage d’opportunités apparaissent dans les flux des utilisateurs, diversifiez les types de contenu que vous publiez.

Par exemple, si vous ne publiez que des photos, envisagez d’ajouter des vidéos ou des GIF au mélange. Peut-être quelques épingles de produit si vous êtes un détaillant de commerce électronique.

La cible de Pinterest pour afficher certains types de contenu changera tout le temps.

La publication d’une grande variété de contenus vous aidera à vous assurer que vous avez le bon type de contenu disponible au moment où Pinterest souhaite l’afficher.

Lié: 25 faits que vous devez savoir sur Pinterest

Notes complémentaires

L’équipe de classement des flux d’accueil de Pinterest avait l’habitude de faire manuellement ce que la distribution contrôlable est conçue pour faire de manière algorithmique.

Oui, l’équipe de classement du flux d’accueil de Pinterest avait l’habitude d’intervenir et d’ajuster la fréquence d’apparition de certains types de contenu dans le flux d’accueil des utilisateurs.

Yaron Greif de l’équipe de classement des flux d’accueil de Pinterest décrit l’ancien processus comme « douloureux pour des raisons à la fois pratiques et théoriques ».

« En pratique, ces boosts réglés à la main sont rapidement devenus ingérables et se sont interférés les uns avec les autres. Et pire, ils cessent souvent de fonctionner avec le temps, en particulier lorsque les modèles de classement sont mis à jour. Nous avons régulièrement dû retarder de nouveaux modèles de classement très prometteurs car ils cassaient les contraintes commerciales.

En théorie, contrôler le contenu à la demande n’est pas souhaitable car il empêche la personnalisation. Si nous montrons à chaque utilisateur le même nombre d’épingles vidéo, nous ne pouvons pas montrer plus de vidéos aux personnes qui aiment vraiment regarder des vidéos ou vice versa.

Pinterest dit qu’il s’est engagé à investir dans l’étape de post-classement du contenu de surfaçage. Il est donc possible que nous voyions ce modèle appliqué ailleurs sur la plate-forme à l’avenir.

Source : Médium

Lié: 10 conseils pour obtenir plus d’abonnés sur Pinterest

Google lance la mise à jour de l’algorithme Broad Core de novembre 2021

0

Google informe tout le monde à l’avance qu’une large mise à jour de l’algorithme de base sera publiée plus tard dans la journée.

Généralement, ces mises à jour prennent des jours ou des semaines. Bien qu’il commence à être déployé aujourd’hui, il ne sera probablement pas entièrement déployé d’ici la fin de la journée.

Les conseils de Google concernant la mise à jour de l’algorithme de base large sont les suivants :

  • Attendez-vous à des effets largement perceptibles, tels que des pics ou des baisses dans les classements de recherche.
  • Les mises à jour de base sont « larges » dans le sens où elles ne ciblent rien de spécifique. Ils sont plutôt conçus pour améliorer les systèmes de Google dans leur ensemble.
  • Les pages qui chutent dans le classement ne sont pas pénalisées ; ils sont réévalués par rapport à d’autres contenus Web publiés depuis la dernière mise à jour.
  • Se concentrer sur la fourniture du meilleur contenu possible est la meilleure méthode recommandée pour gérer l’impact d’une mise à jour de l’algorithme de base.
  • Les mises à jour de base étendues se produisent tous les quelques mois. Les sites peuvent ne pas récupérer d’une mise à jour tant que la suivante n’est pas déployée.
  • Les améliorations ne garantissent pas la récupération. Cependant, choisir de ne mettre en œuvre aucune amélioration ne garantira pratiquement aucune récupération.

Plus de détails seront révélés plus tard dans la journée lorsque la mise à jour de l’algorithme de base large de novembre 2021 commencera officiellement à être déployée.


Image en vedette : salarko/Shutterstock

Google ne peut pas fournir de détails sur les mises à jour de l’algorithme de base

0

Il est peu probable que les annonces concernant les mises à jour de l’algorithme de base soient plus détaillées à l’avenir, car Google indique qu’il ne peut pas fournir d’informations spécifiques.

Google a les détails en interne, mais il ne peut pas divulguer les informations publiquement.

Cela a été révélé dans le dernier épisode du podcast Search Off The Record avec John Mueller, Martin Splitt et Gary Illyes de l’équipe Search Relations de Google.

Illyes est particulièrement frustré par le fait que l’équipe ne peut pas donner plus d’informations à la communauté lorsqu’une mise à jour principale est annoncée.

Il se demande quelle valeur il y a même à annoncer des mises à jour de base si elles ne peuvent pas fournir d’autres conseils que de dire aux gens de consulter les consignes aux webmasters de Google.

Sur la base de la discussion, il semble que chaque annonce d’une mise à jour de base va être une répétition de celle qui la précède.

L’équipe des relations de recherche de Google compatit avec toutes les personnes concernées par les mises à jour principales et souhaite qu’elles puissent être plus utiles aux personnes concernées. Mais leurs mains sont liées.

Voici quelques faits saillants de la discussion sur les mises à jour principales.

Google sait ce qu’il y a dans une mise à jour principale, mais il ne peut pas vous le dire

Illyes dit que l’équipe derrière les mises à jour de base sait ce qu’elles contiennent :

«Eh bien, notre équipe sait généralement ce que nous faisons lorsque nous effectuons des mises à jour de base ou ce que font les choses dans les mises à jour de base, plus précisément. Et dans la grande majorité des cas, les choses se concentrent uniquement sur les lignes directrices que nous publions depuis 20 ans.

Donc, fondamentalement, écrivez du bon contenu, n’achetez pas de liens, peu importe, je ne sais pas. Donc, chaque fois que nous effectuons l’une de ces mises à jour de base, nous disons essentiellement que… suivez nos directives, et c’est aussi notre conseil.

Illyes remet en question l’avantage d’annoncer des mises à jour de base lorsque l’équipe ne peut pas fournir de détails spécifiques.

Il continue:

« … Si nous pouvions donner plus de conseils ou plus d’informations sur le contenu d’une mise à jour ou comment… Ou sur le type de sites ou de contenu qu’elle affecte, alors je serais tout à fait d’accord, mais pour le moment, nous ne pouvons pas. »

« Et pour le moment, nous disons simplement que : ‘Bonjour, il y a eu une mise à jour principale ou une mise à jour principale entrante dans deux heures.’ Et puis quatre semaines plus tard, nous nous disons : « Oui, nous en avons terminé avec cette mise à jour principale. »

En bref, la communication sur les mises à jour principales est limitée au moment où elles ont commencé à être déployées et à la fin de leur déploiement.

C’est comme ça que ça a toujours été jusqu’à présent, et c’est probablement tout ce que Google pourra en dire à l’avenir.

Idées fausses sur les mises à jour de base

Étant donné qu’il y a si peu d’informations disponibles sur les mises à jour principales, il y a beaucoup d’idées fausses à leur sujet.

L’une des idées fausses est que les mises à jour de base sont conçues pour punir les sites Web.

Illyes tient à préciser que ce n’est pas le cas :

« Et ce que je voulais dire, c’est qu’il y a aussi une idée fausse sur les mises à jour de base. Je pense que c’est punitif. Il s’agit essentiellement de punir les sites. Ce qui n’est pas le cas, mais plutôt, nous optimisons nos algorithmes de pertinence, par exemple, ou de qualité, ou des algorithmes qui évaluent la qualité d’un site/page/contenu. Et ce que nous essayons de faire, c’est de donner aux utilisateurs de meilleurs résultats dans un certain sens, n’est-ce pas ? »

Inévitablement, les mises à jour de base auront un effet positif sur certains sites, tout en ayant un effet négatif sur d’autres.

Lorsqu’un site est affecté négativement par une mise à jour principale, ce n’est pas nécessairement parce qu’il a fait quelque chose de mal, déclare Illyes :

« Donc, il se peut que ces sites qui ont été affectés négativement par une mise à jour de base n’aient rien fait de mal, mais plutôt, nos algorithmes ont changé et c’est très difficile à expliquer, et aussi à avaler, j’imagine.

Parce que si vous publiez du contenu et que vous publiez du contenu depuis cinq ans déjà, et que vous avez une base d’abonnés et peu importe, et tout à coup, vous vous classez plus bas et certains concurrents et vous vous classez plus haut parce que Google a fait un changement. Ce n’est pas facile à accepter, je suppose.

Si vous constatez que votre site est moins bien classé après une mise à jour principale, cela ne signifie pas que vous publiez du mauvais contenu ou qu’il y a quelque chose sur votre site que vous devez corriger.

C’est plutôt que d’autres sites ont été « primés » pour avoir publié un meilleur contenu. Tels que des articles plus approfondis ou des articles plus pertinents pour une requête spécifique.

Pour en savoir plus sur la récupération à partir des mises à jour principales, consultez ces conseils fournis par Google dans le passé :

  • Google dit d’améliorer le contenu pour récupérer des mises à jour de base
  • Google offre des détails sur les temps de récupération des mises à jour de base
  • Pourquoi certains sites perdent leur classement dans la mise à jour principale

La source: Recherche Off The Record


Image en vedette : salarko/Shutterstock

Comment l’algorithme de Facebook classe le contenu du fil d’actualité

0

Facebook a publié un article qui explique le fonctionnement de l’algorithme de Facebook News Feed. Par rapport au brevet d’algorithme de fil d’actualité de Facebook, les deux documents expliquent en grande partie la façon dont Facebook classe les publications dans le fil d’actualité.

Apprentissage automatique et classement

L’algorithme de flux d’actualités de Facebook est un système de classement d’apprentissage automatique. Ce n’est pas qu’un seul algorithme. C’est une combinaison de plusieurs algorithmes qui fonctionnent ensemble dans différentes phases.

Certaines parties de l’algorithme font différentes choses, comme sélectionner des messages « candidats » à afficher dans le fil d’actualités d’une personne, éliminer les messages contenant de la désinformation ou des pièges à clics, créer des listes d’amis avec lesquels une personne interagit, des sujets avec lesquels la personne a tendance à s’engager, puis en utilisant tous ces facteurs pour classer (ou ne pas classer) les publications dans un fil d’actualité Facebook.

Toutes ces différentes couches sont appliquées afin de prédire ce qu’un membre Facebook va trouver pertinent pour lui.

L’objectif des algorithmes est de classer les publications qui apparaissent dans le fil d’actualité, l’ordre dans lequel elles se trouvent et de sélectionner les publications susceptibles d’intéresser un membre de Facebook et avec lesquelles il peut interagir.

Ce ne sont pas seulement quelques signaux qui sont pris en compte. Facebook déclare utiliser des milliers de signaux.

Selon Facebook :

« Pour chaque personne sur Facebook, il y a des milliers de signaux que nous devons évaluer pour déterminer ce que cette personne pourrait trouver le plus pertinent… pour prédire ce que chacune de ces personnes veut voir dans son flux… »

Signaux de classement du fil d’actualités Facebook

Caractéristiques d’une publication Facebook

L’un des signaux de classement dont Facebook parle est le « les caractéristiques” d’un poste.

Facebook utilise une fonctionnalité ou la qualité d’une publication et détermine si c’est le genre de chose avec laquelle un utilisateur a tendance à interagir davantage.

Par exemple, si une publication est accompagnée d’une image colorée et qu’un membre a déjà interagi avec des publications contenant des images colorées, cela sera mieux classé.

Si une publication est accompagnée d’une vidéo et que c’est ce avec quoi un membre de Facebook aime interagir, cela sera mieux classé pour ce membre.

Que le message ait une image, une vidéo, si les amis d’un utilisateur sont tagués dans le message, ces caractéristiques et d’autres d’un message sont utilisées comme facteurs de classement pour déterminer si un message va être montré à un utilisateur et à quelle hauteur ça va être classé dans le fil d’actualité.

Facebook a utilisé l’exemple d’un utilisateur fictif appelé Juan (le nom « John » en espagnol) pour illustrer le facteur de classement des caractéristiques.

Voici ce que Facebook a dit à propos du facteur de classement des caractéristiques :

« Nous pouvons utiliser les caractéristiques d’une publication, telles que qui est tagué sur une photo et quand elle a été publiée, pour prédire si Juan pourrait l’aimer.

Par exemple, si Juan a tendance à interagir souvent avec les publications de Saanvi (par exemple, en partageant ou en commentant) et que sa vidéo en cours d’exécution est très récente, il y a une forte probabilité que Juan aimera sa publication.

Si Juan s’est engagé avec plus de contenu vidéo que de photos dans le passé, la prédiction similaire pour la photo de Wei de son cocker pourrait être assez faible.

Dans ce cas, notre algorithme de classement classerait la vidéo en cours d’exécution de Saanvi plus haut que la photo du chien de Wei, car il prédit une probabilité plus élevée que Juan l’aimerait.

Le temps est un facteur de classement Facebook

L’exemple de Facebook mentionné ci-dessus illustre également comment le temps, sous la forme de la date à laquelle quelque chose a été publié récemment, peut également être utilisé comme facteur de classement.

Ce qui est intéressant dans l’exemple du « Juan » fictif, c’est que Facebook a mentionné que le moment où un message a été publié est un facteur de classement.

« Nous pouvons utiliser les caractéristiques d’une publication, telles que qui est tagué sur une photo et quand elle a été publiée, pour prédire si Juan pourrait l’aimer. »

Cet aspect du temps en tant que facteur de classement coïncide avec un brevet Facebook relativement récent qui stipule que la date à laquelle quelque chose a été publié peut être utilisée comme facteur de classement.

Le brevet de fil d’actualité Facebook s’appelle Sélection et présentation d’articles d’actualité identifiant le contenu externe aux utilisateurs du système de réseautage social.

Voici ce que dit le brevet Facebook News Feed :

« … les reportages peuvent être classés en fonction des données chronologiques associées aux interactions avec les reportages, de sorte que les reportages les plus récemment partagés aient un classement plus élevé. »

Cela semble confirmer la valeur de publier le même message plus d’une fois au cours d’une journée. Il peut atteindre différentes personnes à travers les périodes et ceux qui interagissent avec le message peuvent aider à le montrer à leurs amis, etc.

Engagement et intérêt

Un autre facteur de classement consiste à prédire si un utilisateur sera susceptible d’être intéressé ou d’interagir avec une publication. Facebook utilise un certain nombre de signaux pour faire cette prédiction.

L’article est clair sur ce point :

« … le système détermine les publications qui s’affichent dans votre fil d’actualité et dans quel ordre, en prédisant ce qui vous intéresse le plus ou ce qui vous intéresse le plus. »

Et certains de ces facteurs utilisés par Facebook sont des signaux provenant de messages antérieurs et de personnes avec lesquelles l’utilisateur a interagi. Facebook utilise ces interactions passées pour l’aider à prédire avec quoi un utilisateur interagira à l’avenir.

Selon Facebook :

« Ces prédictions sont basées sur une variété de facteurs, y compris ce que vous avez suivi, aimé ou avec qui vous vous êtes engagé récemment. »

Facebook utilise des modèles d’apprentissage automatique pour prédire chacune de ces différentes choses. Il existe un modèle qui prédit le contenu qu’un utilisateur aimera, un autre modèle qui prédit sur quel message l’utilisateur commentera.

Chacune de ces formes d’engagement reçoit un score de classement et est ensuite classée.

Pour résumer, le processus de classement commence par identifier les messages candidats à classer, à partir d’un pool de messages qui ont été publiés depuis la dernière connexion de l’utilisateur.

L’étape suivante consiste à attribuer des scores de classement à chaque publication.

Voici comment Facebook l’explique en utilisant l’exemple d’un utilisateur fictif nommé Juan :

« Ensuite, le système doit noter chaque message pour une variété de facteurs, tels que le type de message, la similitude avec d’autres éléments et la correspondance entre le message et ce avec quoi Juan a tendance à interagir.

Pour calculer cela pour plus de 1 000 publications, pour chacun des milliards d’utilisateurs – le tout en temps réel – nous exécutons ces modèles pour toutes les histoires de candidats en parallèle sur plusieurs machines, appelées prédicteurs.

Les signaux de classement sont personnalisés pour l’utilisateur

Un aperçu intéressant des facteurs de classement est qu’ils sont pondérés différemment d’un utilisateur à l’autre. Pondéré signifie lorsqu’un signal de classement est plus important qu’un autre signal de classement.

Ce que Facebook a révélé, c’est que pour une personne, la prédiction selon laquelle elle « aimerait » une publication pourrait avoir une plus grande influence sur le classement de cette publication.

Pour un autre utilisateur, la prédiction selon laquelle l’utilisateur commentera une publication reçoit un poids de classement plus élevé.

Facebook a partagé :

«Vient ensuite la passe de notation principale, où se produit la majeure partie de la personnalisation.

Ici, un score pour chaque histoire est calculé indépendamment, puis les 500 messages sont classés par score.

Pour certains, le score peut être plus élevé pour les likes que pour les commentaires, car certaines personnes aiment s’exprimer davantage par des likes que par des commentaires.

Toute action dans laquelle une personne s’engage rarement (par exemple, une prédiction similaire qui est très proche de zéro) obtient automatiquement un rôle minimal dans le classement, car la valeur prédite est très faible.

Cela signifie que pour qu’une publication réussisse, elle doit inspirer différentes formes d’engagement de la part de chaque utilisateur.

Fonctionnalités contextuelles pour la diversité du fil d’actualité

La dernière étape du processus de classement consiste à assurer la diversité du type de contenu affiché dans le fil d’actualité. De cette façon, le flux de l’utilisateur ne devient pas répétitif.

Plusieurs facteurs de classement Facebook personnalisés

Facebook n’a pas répertorié tous les facteurs de classement utilisés pour classer les publications dans un fil d’actualité. Mais ils ont donné une idée, un aperçu du déroulement du processus de classement et des types de comportement prioritaires. Nous avons également appris que les signaux de classement sont dynamiques et peuvent être pondérés différemment selon la personne.

Citations

Comment le fil d’actualité prédit-il ce que vous voulez voir ?

Comment l’apprentissage automatique alimente l’algorithme de classement des fils d’actualités de Facebook

Sélection et présentation de reportages identifiant le contenu externe aux utilisateurs du système de réseautage social (PDF)

Polarité des sentiments pour les utilisateurs d’un système de réseau social (PDF)

Reclassement du contenu de l’histoire (PDF)

Résolution d’entités à partir de plusieurs sources de données pour les systèmes d’assistance (PDF)

Comment fonctionne l’algorithme d’Instagram et les meilleures pratiques de contenu IG

0

En mars 2016, Instagram est passé de son flux chronologique à l’utilisation d’un algorithme pour classer les « meilleures » publications en premier.

Eh bien, au rythme où les choses changent dans le monde du marketing numérique, c’est comme vous raconter une histoire qui commence : « Il y a longtemps, dans une galaxie très, très lointaine… »

Examinons de plus près le fonctionnement actuel de l’algorithme d’Instagram et découvrons quelques exemples des dernières meilleures pratiques vidéo.

Pour commencer, nous verrons comment l’algorithme d’Instagram fonctionne pour les publications de flux normales, les histoires, les vidéos IGTV et les bobines, car Instagram semble récompenser les créateurs de contenu qui investissent dans la création d’une combinaison de ces formats.

Comment fonctionne l’algorithme d’Instagram pour les publications de flux

En juin 2018, Instagram a partagé publiquement pour la première fois ses six facteurs de classement clés.

Et, étonnamment, cet algorithme n’a pas changé de façon spectaculaire depuis lors.

Trois facteurs principaux déterminent ce que les utilisateurs voient dans leur flux Instagram :

  • Intérêt: dans quelle mesure Instagram prédit que vous vous soucierez d’une publication, avec un classement plus élevé pour ce qui compte pour vous en fonction du comportement passé sur un contenu similaire (et, potentiellement, de la vision artificielle analysant le contenu réel de la publication).
  • Récence: la date à laquelle la publication a été partagée, en donnant la priorité aux publications opportunes par rapport à celles datant de plusieurs semaines.
  • Relation: À quel point vous êtes proche de la personne qui l’a partagé, avec un classement plus élevé pour les personnes avec lesquelles vous avez beaucoup interagi dans le passé sur Instagram, par exemple en commentant leurs publications ou en étant tagués ensemble sur des photos.

Au-delà de ces facteurs fondamentaux, trois signaux supplémentaires qui influencent les classements sont :

  • La fréquence: À quelle fréquence vous ouvrez Instagram, car il essaiera de vous montrer les meilleurs messages depuis votre dernière visite.
  • Suivant: Si vous suivez beaucoup de personnes, Instagram choisira parmi un plus large éventail d’auteurs afin que vous puissiez voir moins d’une personne en particulier.
  • Usage: Le temps que vous passez sur Instagram détermine si vous ne voyez que les meilleurs messages pendant de courtes sessions, ou s’il approfondit son catalogue si vous passez plus de temps à naviguer.

En fait, autre chose a changé depuis juin 2018.

Rachel Reichenbach, une artiste et propriétaire d’une petite entreprise qui crée de jolis personnages de grenouilles, a révélé ces changements dans un article sur le blog Rainylune intitulé Pourquoi votre engagement Instagram est un peu nul en ce moment.

Un expert médiatique anonyme de l’équipe des partenariats Instagram lui a donné des conseils sur la façon dont elle pourrait développer son compte – et a partagé « une tonne d’informations vraiment utiles », a-t-elle déclaré.

Mme Reichenbach a ajouté,

« Il y a plus de 500 facteurs différents, mais cela prend bien plus en compte que les goûts, les vues, les commentaires, etc. d’un message spécifique. L’algorithme classe votre publication spécifique en tenant compte de votre utilisation d’Instagram dans son ensemble.

Elle a également noté que l’algorithme prend en compte et considère favorablement l’utilisation de caméras et de filtres intégrés à l’application, le marquage de géolocalisation, la messagerie et les boutons d’histoire, entre autres facteurs.

Cela signifie également que vous devez utiliser tous les produits d’Instagram, y compris Stories, IGTV et Reels.

Et vous devez les utiliser régulièrement et fréquemment, même si ce n’est pas réaliste ou durable.

Selon Mme Reichenbach, l’algorithme d’Instagram pour les publications de flux normales vous récompense si vous publiez trois fois par semaine.

Ainsi, vous pouvez publier le lundi, le mercredi et le vendredi, ou le mardi, le jeudi et le samedi. Mais vous devriez poster tous les deux jours.

Elle a recommandé aux spécialistes du marketing d’essayer de publier des messages régulièrement à la même heure chaque jour, pendant les heures de pointe de vos abonnés. Reichenbach note que l’algorithme Instagram préfère la cohérence et les modèles.

Pour voir un exemple de pratique de ce que vous prêchez, consultez l’un de ses comptes Rainylune sur Instagram pour voir à quel point elle publie régulièrement et fréquemment :

Exemple de bonnes pratiques de contenu sur Instagram.

Maintenant, jetez un œil au compte DJ Bliss de Marwan Parham Al Awadhi sur Instagram pour voir à quel point ce disc-jockey émirati publie régulièrement et fréquemment :

À quelle fréquence publier sur Instagram ?  Un exemple.

Ensuite, analysez le compte ISpeakFootballOnly de Nabaa Al Dabbagh sur Instagram pour voir régulièrement et fréquemment les publications de cette analyste du football féminin :

Apprenez à publier régulièrement sur Instagram avec ces exemples.

Enfin, lancez les pneus du compte Ghaith_79 de Ghaith Al Falasi sur Instagram pour voir à quel point ce pilote de course et passionné de drift publie régulièrement et fréquemment :

Publiez régulièrement et souvent sur Instagram.

Comment fonctionne l’algorithme d’Instagram pour les histoires

Instagram Stories a été lancé en août 2016.

Le produit permet aux utilisateurs de publier des photos et des vidéos éphémères qui disparaissent en 24 heures, tout comme Snapchat Stories.

En fait, l’ancien PDG d’Instagram, Kevin Systrom, a ouvertement admis que la fonctionnalité avait été copiée à partir de Snapchat dans le but d’éloigner les utilisateurs de la start-up populaire de messages qui disparaissent.

En décembre 2017, Instagram a introduit Stories Highlights et Stories Archive comme un moyen de conserver vos histoires pendant plus de 24 heures.

Les faits saillants des histoires apparaissent dans une nouvelle section de votre profil sous votre biographie.

Selon un article de Jillian Warren, spécialiste du marketing de contenu chez Later basé au Royaume-Uni, les histoires Instagram qui apparaissent plus haut dans votre flux sont celles avec lesquelles vous interagissez le plus.

Elle ajoute : « L’algorithme Instagram Stories met également l’accent sur la rapidité, car il veut s’assurer qu’il vous montre toujours les dernières histoires de vos comptes préférés. »

C’est donc une bonne idée de publier régulièrement et fréquemment sur Instagram Stories.

Selon Reichenbach, cela devrait être « 8 à 10 histoires par semaine, de préférence 2+ par jour ».

Ce n’est pas une faute de frappe.

Cela explique pourquoi de nombreux influenceurs Instagram ont commencé à avoir l’impression de faire des heures supplémentaires pour l’application plutôt que pour eux-mêmes.

Et c’est pourquoi de plus en plus d’influenceurs Instagram se tournent vers des outils comme Later pour planifier, optimiser et programmer leurs Instagram Stories.

Désormais, il est possible de créer 8 à 10 histoires par semaine ou deux par jour, tout en les rendant intéressantes et engageantes. Mais ce n’est pas facile.

Donc, si vous voulez voir des exemples de faits saillants des histoires Instagram, alors consultez le dispositif grenouille de Rainylune :

Dispositif Grenouille Rainylune

Maintenant, jetez un œil à certaines des histoires sur la nourriture de DJ Bliss :

DJ Bliss Food - Les bonnes pratiques d'Instagram

Ensuite, analysez certaines des histoires d’ISpeakFootballOnly :

ISpeakFootballOnly Stories - Comment l'algorithme d'Instagram classe le contenu.

Enfin, lancez les pneus de certaines des histoires sur les marques de Ghaith_79 :

Ghaith_79 Marques

Comment fonctionne l’algorithme d’Instagram pour les vidéos IGTV

Instagram a lancé IGTV, une plateforme vidéo destinée à concurrencer YouTube, en juin 2018.

Les utilisateurs normaux peuvent télécharger des vidéos d’une durée de 1 à 15 minutes, tandis que les créateurs et les comptes avec un public plus large peuvent télécharger des vidéos d’une durée maximale d’une heure.

IGTV a un bouton dédié dans l’application Instagram, en plus d’une application autonome qui a été publiée le même jour.

Selon Fran Saraco, qui a publié sur le blog Shopify en décembre 2020, l’algorithme de la vidéo IGTV est similaire à l’algorithme du flux Instagram.

« Les histoires Instagram qui apparaissent en premier dans le flux d’un utilisateur proviennent des comptes avec lesquels il interagit le plus. Les commentaires, les likes et les DM comptent tous pour votre place dans le flux d’un utilisateur. Les utilisateurs voient également les histoires par lieu, c’est pourquoi l’utilisation de hashtags de localisation dans les histoires devient de plus en plus courante », a-t-elle déclaré.

Saraco a également noté que les gens sont plus susceptibles de voir vos nouvelles mises à jour lorsqu’ils interagissent avec vos histoires.

Et selon Mme Reichenbach, l’algorithme d’Instagram vous récompense pour la publication de 1 à 3 vidéos IGTV par semaine.

Maintenant, cela peut représenter plus de vidéos que certains créateurs de contenu ne peuvent produire semaine après semaine.

Mais c’est pourquoi Mme Saraco recommande de republier l’ancien contenu dans les histoires.

Elle dit: « Cela ramène votre meilleur contenu au sommet, le montrant à plus de personnes qui l’ont peut-être manqué la première fois. »

Cependant, Mme Saraco prévient que les Instagrammers ne doivent réutiliser le contenu qu’avec parcimonie, car vous ne voulez pas que les utilisateurs voient les mêmes photos revenir encore et encore sur votre galerie.

Voici un exemple de quelques vidéos IGTV de Rainylune :
Vidéos Rainylune IGTV, exemple de bonnes pratiques

Maintenant, jetez un œil à l’une des vidéos IGTV de DJ Bliss :

Vidéos DJ Bliss IGTV

Ensuite, analysez l’une des vidéos IGTV d’ISpeakFootballOnly :

Vidéos ISpeakFootballOnly IGTV

Et voir aussi l’une des vidéos IGTV de Ghaith_79 :

Ghaith_79 Vidéos IGTV

Comment fonctionne l’algorithme d’Instagram pour les bobines

Enfin, Instagram a déployé Reels, une fonctionnalité vidéo courte conçue pour concurrencer TikTok, en juillet 2020.

Comme les vidéos IGTV, Instagram propose des Reels suggérés dans un nouvel onglet, ainsi que des pages Explorer pertinentes.

Et comme l’algorithme d’Instagram pour les vidéos IGTV, l’algorithme pour Reels donne la priorité au contenu des comptes avec lesquels vous interagissez le plus, ainsi qu’au type de publications avec lesquelles vous interagissez généralement, sur la base d’un modèle d’apprentissage automatique de ce qu’Instagram pense que vous aimerez.

Selon Dani Rodriguez (alias Dani l’explorateur), un photographe d’aventure et blogueur indépendant (ainsi qu’un « amateur de burrito autoproclamé »), « Les bobines semblent être partagées sur plus de pages de conservateurs et sont la principale préoccupation d’Instagram en 2021. Lorsqu’ils sont partagés, vous êtes plus susceptible d’obtenir un afflux d’abonnés. Sans oublier que l’algorithme Instagram aime récompenser les utilisateurs qui utilisent leurs dernières fonctionnalités.

Et selon Mme Reichenbach, l’algorithme d’Instagram vous récompense pour la publication de 4 à 7 bobines par semaine.

Elle ajoute: « S’il vous plaît, gardez à l’esprit que tout cela n’est que l’idéal d’Instagram, et Instagram ne se soucie pas de votre santé mentale et de votre santé mentale !! »

Découvrez quelques-uns des moulinets de Rainylune :

Moulinets Rainylune

Maintenant, jetez un œil à certains des Reels de DJ Bliss :

DJ Bliss Bobines

Et Jim Louderback, le directeur général et vice-président de VidCon, faites-moi savoir qu’Instagram vient de rétrograder la publication croisée de TikTok vers Reels. Il dit:

« Dans un nouveau Article « Conseils pour se faire découvrir », Instagram indique que les vidéos avec des logos gravés seront moins accentuées dans l’algorithme. Ce même article propose des conseils sur la façon de créer des bobines qui surprendront, inspireront et raviront – et, espérons-le, obtiendront également plus de vues. Il y a quelques années à peine, Instagram était heureux que vous fassiez la promotion de votre contenu TikTok et Musical.ly, mais cela semble avoir changé.

Plus de flux nécessitent plus d’alimentation

Le message de Mme Reichenbach a non seulement été lu 200 000 fois et généré près de 500 commentaires, mais il a également attiré l’attention de John Herrman du New York Times, qui a récemment écrit un article intitulé Is There a Secret to Success on Instagram ?

Mais, au lieu d’examiner le fonctionnement de l’algorithme d’Instagram en 2021, Herrman s’est concentré sur la question de savoir si les conseils que Mme Reichenbach avait reçus étaient exacts.

« Selon Jackson Williams, qui aide à superviser la sensibilisation et le développement des talents sur Instagram, le contenu du message de Mme Reichenbach était généralement exact, tout comme sa caractérisation de la réunion », a écrit Herrman.

M. Williams a dit à M. Herrman que ce n’était pas un secret ; en fait, c’est le même genre de choses dont ils parlent lors d’événements d’influence tels que VidCon.

M. Williams, cependant, a repoussé l’idée qu’Instagram punissait les utilisateurs qui ne s’engageaient pas avec Reels. « Il n’y a pas de pénalité pour ne pas utiliser Reels », a-t-il déclaré. « Globalement parlant, il s’agit d’une sorte de bonnes pratiques Instagram », a-t-il ajouté.

Néanmoins, M. Williams a reconnu que « l’épuisement professionnel est une priorité pour nous » sur Instagram, et que la plate-forme essaie d’encourager les créateurs de contenu – ou « partenaires » dans le langage de la plate-forme – à être « intentionnels quant au rôle que joue Instagram dans leur des vies. »

Interrogé par M. Herrman sur la façon dont il pourrait transmettre cela aux Instagrammeurs anxieux avides d’informations privilégiées, puis découragés lorsqu’ils l’entendent enfin, M. Williams a fait écho à ce que le représentant de Mme Reichenbach lui a dit : « Il n’y a pas de solution unique pour tous ». il a dit. Mais, a-t-il ajouté, « la cohérence est la clé ».

Cependant, cela signifie en fait que les Instagrammers doivent créer de manière cohérente et fréquente un contenu intéressant et engageant qui obtient beaucoup de partages, de sauvegardes, de commentaires et de likes.

Khaled Akbik, directeur du contenu à la New Media Academy (NMA) aux Émirats arabes unis, mène actuellement une série d’expériences pour déterminer si différents types d’engagement ont des impacts plus importants.

M. Akbik était disposé à partager les premiers résultats des premières expériences pour deux publications Instagram organiques. Dans un mail qu’il m’a envoyé, il m’a dit :

« Nous nous sommes assurés que les articles étaient publiés à peu près à la même heure de la journée pendant deux jours consécutifs et que tout le reste était identique en termes de notre stratégie de publication habituelle. Nous avons créé une vidéo super courte demandant aux gens de seulement « ENREGISTRER » la publication et NON de l’aimer, de la commenter ou de la partager. Et une autre vidéo, même longueur, même format, demandant aux gens de « LIKE » seulement. »

Voici les premiers résultats de l’appel à l’action (CTA) « Enregistrer » :

  • Portée : 5 457
  • J’aime : 131
  • Commentaires : 12
  • Partages : 21
  • Sauvegarde : 200

Voici les premiers résultats pour le CTA « J’aime »:

  • Portée : 2 494
  • J’aime : 159
  • Commentaires : 3
  • Actions : 2
  • Sauvegardes : 13

M. Akbik a déclaré dans son e-mail : « Évidemment, c’est loin d’être scientifique, mais une petite expérience qui donne une indication. » Il doit encore expérimenter les CTA « Partager » et « Commenter ».

Mais, ajoute-t-il, « je crois que l’ordre de pondération en ce qui concerne l’algorithme d’Instagram est le suivant : partager, enregistrer, commenter et aimer. »

Alors, c’est quoi le net-net ? Plus nous en apprenons sur le fonctionnement de l’algorithme d’Instagram, plus il apparaît que les meilleures pratiques vidéo de la plate-forme en 2021 obligent les créateurs de contenu – ou « partenaires » – à passer plus de temps à alimenter plus de flux.

Et ce n’est pas facile.

Davantage de ressources:

  • 30 faits Instagram que vous devez savoir
  • 22 façons d’obtenir plus d’abonnés Instagram dès maintenant
  • Marketing des médias sociaux : un guide stratégique complet
  • Comment fonctionne l’algorithme LinkedIn et comment l’optimiser

Crédits image

Toutes les captures d’écran prises par l’auteur avec sa permission, février 2021

Un guide complet de la mise à jour de l’algorithme Google Penguin

0

Dix ans se sont écoulés depuis que Google a introduit l’algorithme Penguin et a adopté une position plus ferme sur les pratiques manipulatrices de création de liens.

L’algorithme a eu un certain nombre de mises à jour et est devenu une partie en temps réel de l’algorithme principal de Google. Par conséquent, les sanctions sont devenues moins courantes, mais existent toujours à la fois au format partiel et à l’échelle du site.

Avertissement de liens non naturels dans Google Search Console

Pour la plupart, Google prétend ignorer de nombreux liens de mauvaise qualité en ligne, mais reste vigilant et surveille les modèles non naturels tels que les schémas de liens, les PBN, les échanges de liens et les modèles de liens sortants non naturels.

L’introduction du pingouin

En 2012, Google a officiellement lancé la «mise à jour de l’algorithme de spam Web», qui ciblait spécifiquement le spam de liens et les pratiques de création de liens manipulatrices.

L’algorithme de spam Web est devenu plus tard connu (officiellement) sous le nom de mise à jour de l’algorithme Penguin via un tweet de Matt Cutts, qui était alors à la tête de l’équipe Google Webspam.

Alors que Google a officiellement nommé l’algorithme Penguin, il n’y a pas de mot officiel sur l’origine de ce nom.

Le nom de l’algorithme Panda vient de l’un des principaux ingénieurs impliqués, et il est plus que probable que Penguin provienne d’une source similaire.

L’une de mes théories de dénomination de pingouin préférées est qu’elle rend hommage au pingouin, de Batman de DC.

Avant l’algorithme Penguin, le volume de liens jouait un rôle plus important dans la détermination du score d’une page Web lorsqu’elle était explorée, indexée et analysée par Google.

Cela signifiait que lorsqu’il s’agissait de classer les sites Web en fonction de ces scores pour les pages de résultats de recherche, certains sites Web et éléments de contenu de mauvaise qualité figuraient dans des positions plus importantes qu’ils n’auraient dû dans les résultats de recherche organiques.

Pourquoi Google Penguin était nécessaire

La guerre de Google contre la mauvaise qualité a commencé avec l’algorithme Panda, et Penguin était une extension et un ajout à l’arsenal pour mener cette guerre.

Penguin était la réponse de Google à la pratique croissante de la manipulation des résultats de recherche (et des classements) par le biais de techniques de création de liens chapeau noir.

Cutts, s’exprimant lors de la conférence SMX Advanced 2012, a déclaré :

Nous envisageons quelque chose conçu pour lutter contre le contenu de mauvaise qualité. Tout a commencé avec Panda, puis nous avons remarqué qu’il y avait encore beaucoup de spam et Penguin a été conçu pour y faire face.

L’objectif de l’algorithme était de mieux contrôler et de réduire l’efficacité d’un certain nombre de techniques de spamming blackhat.

En comprenant et en traitant mieux les types de liens que les sites Web et les webmasters gagnaient, Penguin s’est efforcé de garantir que des liens naturels, faisant autorité et pertinents récompensaient les sites Web vers lesquels ils pointaient, tandis que les liens manipulateurs et spammés étaient déclassés.

Penguin ne traite que les liens entrants d’un site. Google ne regarde que les liens pointant vers le site en question et ne regarde pas du tout les liens sortants de ce site.

Lancement initial et impact

Lorsque Penguin a été lancé pour la première fois en avril 2012, il a affecté plus de 3 % des résultats de recherche, selon les propres estimations de Google.

Penguin 2.0, la quatrième mise à jour (y compris le lancement initial) de l’algorithme a été publiée en mai 2013 et a affecté environ 2,3 % de toutes les requêtes.

Au lancement, Penguin aurait ciblé deux pratiques de manipulation spécifiques, en particulier les schémas de liens et le bourrage de mots clés.

Les schémas de liens sont le terme générique désignant les pratiques de création de liens manipulatrices, telles que les échanges, le paiement de liens et d’autres pratiques de liens non naturels décrites dans la documentation sur les schémas de liens de Google.

Le lancement initial de Penguin visait également le bourrage de mots clés, qui est depuis devenu associé à l’algorithme Panda (qui est davantage considéré comme un algorithme de contenu et de qualité du site).

Principales mises à jour et actualisations de Google Penguin

Il y a eu un certain nombre de mises à jour et d’actualisations de l’algorithme Penguin depuis son lancement en 2012, et peut-être un certain nombre d’autres ajustements qui sont entrés dans l’histoire en tant que mises à jour d’algorithmes inconnus.

Google Pingouin 1.1 : 26 mars 2012

Ce n’était pas une modification de l’algorithme lui-même, mais la première actualisation des données qu’il contient.

Dans ce cas, les sites Web qui avaient été initialement affectés par le lancement et qui avaient été proactifs dans la clarification de leurs profils de liens ont vu une certaine récupération, tandis que d’autres qui n’avaient pas été attrapés par Penguin la première fois ont vu un impact.

Google Pingouin 1.2 : 5 octobre, 2012

Il s’agissait d’une autre actualisation des données. Cela a affecté les requêtes en anglais, ainsi que les requêtes internationales.

Google Pingouin 2.0 : 22 mai, 2013

Il s’agissait d’une version plus avancée techniquement de l’algorithme Penguin et a modifié l’impact de l’algorithme sur les résultats de recherche.

Penguin 2.0 a touché environ 2,3 % des requêtes en anglais, ainsi que d’autres langues proportionnellement.

Il s’agissait également de la première mise à jour de Penguin à regarder plus en profondeur que la page d’accueil des sites Web et les pages de catégorie de niveau supérieur pour trouver des preuves de spam de lien dirigé vers le site Web.

Google Pingouin 2.1 : 4 octobre 2013

Le seul rafraîchissement de Penguin 2.0 (2.1) a eu lieu le 4 octobre de la même année. Cela a affecté environ 1 % des requêtes.

Bien qu’il n’y ait eu aucune explication officielle de Google, les données suggèrent que l’actualisation des données 2.1 a également avancé sur la profondeur à laquelle Penguin a examiné un site Web et a exploré plus profondément, et a effectué une analyse plus approfondie pour déterminer si des liens de spam étaient contenus.

Google Pingouin 3.0 : 17 octobre, 2014

Bien qu’il s’agisse d’une mise à jour majeure, il s’agissait en fait d’une autre actualisation des données ; permettant à ceux qui ont été touchés par les mises à jour précédentes d’émerger et de récupérer, tandis que de nombreux autres qui avaient continué à utiliser des pratiques de lien spammy et avaient échappé au radar des impacts précédents ont vu un impact.

Googler Pierre Far l’a confirmé dans un message sur son profil Google+ et que la mise à jour prendrait « quelques semaines » pour être pleinement déployée.

Far a également déclaré que cette mise à jour concernait moins de 1 % des requêtes de recherche en anglais.

Google Pingouin 4.0 : 23 septembre, 2016

Près de deux ans après l’actualisation 3.0, la dernière mise à jour de l’algorithme Penguin a été lancée.

Le plus grand changement avec cette itération était que Penguin est devenu une partie de l’algorithme de base.

Lorsqu’un algorithme transcende pour devenir une partie du noyau, cela ne signifie pas que la fonctionnalité de l’algorithme a changé ou peut changer de façon spectaculaire à nouveau.

Cela signifie que la perception de l’algorithme par Google a changé, pas l’algorithme lui-même.

Fonctionnant maintenant en même temps que le noyau, Penguin évalue les sites Web et les liens en temps réel. Cela signifie que vous pouvez voir les impacts (raisonnablement) instantanés de votre travail de création de liens ou de correction.

Le nouveau Penguin n’a pas non plus été fermé en distribuant des pénalités basées sur les liens, mais a plutôt dévalué les liens eux-mêmes. C’est un contraste avec les précédentes itérations de Penguin, où le négatif était puni.

Cela dit, des études et, par expérience personnelle, des pénalités algorithmiques relatives aux backlinks existent toujours.

Les données publiées par des professionnels du référencement (par exemple, Michael Cottam), ainsi que le fait de voir des déclassements algorithmiques supprimés via des fichiers de désaveu après Penguin 4.0, renforcent cette croyance.

Rétrogradations algorithmiques de Google Penguin

Peu de temps après l’introduction de l’algorithme Penguin, les webmasters et les marques qui avaient utilisé des techniques de création de liens manipulatrices ou rempli leurs profils de backlinks avec de grandes quantités de liens de mauvaise qualité ont commencé à voir une diminution de leur trafic organique et de leur classement.

Toutes les rétrogradations de Penguin n’étaient pas à l’échelle du site – certaines étaient partielles et n’affectaient que certains groupes de mots-clés qui avaient été fortement spammés et sur-optimisés, tels que les produits clés et dans certains cas même les marques.

Un site web impacté par une sanction Penguin, qui a mis 17 mois à être levée.

L’impact de Penguin peut également passer d’un domaine à l’autre, donc changer de domaine et rediriger l’ancien vers le nouveau peut causer plus de problèmes à long terme.

Des expériences et des recherches montrent que l’utilisation d’une redirection 301 ou 302 ne supprimera pas l’effet de Penguin, et dans le Google Webmasters Forum, John Mueller a confirmé que l’utilisation d’une méta-actualisation d’un domaine vers un nouveau domaine pouvait également entraîner des complications.

En général, nous vous recommandons de ne pas utiliser les redirections de type meta-refresh, car cela peut semer la confusion chez les utilisateurs (et les robots des moteurs de recherche, qui pourraient confondre cela avec une tentative de redirection).

Récupération de pingouin Google

L’outil de désaveu a été un atout pour les praticiens du référencement, et cela n’a pas changé même maintenant que Penguin existe dans le cadre de l’algorithme de base.

Comme vous vous en doutez, il y a eu des études et des théories publiées selon lesquelles le désaveu des liens ne fait en fait rien pour aider les déclassements algorithmiques basés sur les liens et les actions manuelles, mais cette théorie a été publiquement rejetée par les représentants de Google.

Cela étant dit, Google recommande que l’outil de désaveu ne soit utilisé qu’en dernier recours lorsqu’il s’agit de spam de liens, car désavouer un lien est beaucoup plus facile (et un processus plus rapide en termes d’effet) que de soumettre des demandes de réexamen pour de bons liens. .

Ce qu’il faut inclure dans un fichier de désaveu

Un fichier de désaveu est un fichier que vous soumettez à Google qui leur dit d’ignorer tous les liens inclus dans le fichier afin qu’ils n’aient aucun impact sur votre site.

Le résultat est que les liens négatifs ne causeront plus de problèmes de classement négatif avec votre site, comme avec Penguin.

Mais cela signifie également que si vous avez inclus par erreur des liens de haute qualité dans votre fichier de désaveu, ces liens n’aideront plus votre classement.

Vous n’avez pas besoin d’inclure de notes dans votre dossier de désaveu, sauf si elles sont strictement à titre de référence. C’est bien juste d’inclure les liens et rien d’autre.

Google ne lit aucune des notations que vous avez faites dans votre fichier de désaveu, car ils le traitent automatiquement sans qu’un humain ne le lise jamais.

Certains trouvent utile d’ajouter des notations internes, telles que la date à laquelle un groupe d’URL a été ajouté au fichier de désaveu ou des commentaires sur leurs tentatives de contacter le webmaster pour obtenir la suppression d’un lien.

Une fois que vous avez téléchargé votre fichier de désaveu, Google vous enverra une confirmation.

Mais bien que Google le traite immédiatement, il n’écartera pas immédiatement ces liens. Ainsi, vous ne récupérerez pas instantanément après avoir soumis le désaveu seul.

Google doit toujours explorer les liens individuels que vous avez inclus dans le fichier de désaveu, mais le fichier de désaveu lui-même n’invitera pas Google à explorer spécifiquement ces pages.

De plus, il n’y a aucun moyen de déterminer quels liens ont été réduits et lesquels ne l’ont pas été, car Google inclura toujours les deux dans votre rapport de liaison dans Google Search Console.

Si vous avez déjà soumis un fichier de désaveu à Google, ils remplaceront ce fichier par le vôtre, et non l’ajouteront.

Il est donc important de vous assurer que si vous avez déjà désavoué des liens, vous incluez toujours ces liens dans votre nouveau fichier de désaveu.

Vous pouvez toujours télécharger une copie du fichier de désaveu actuel dans Google Search Console.

Désavouer les liens individuels par rapport aux domaines

Il est recommandé de choisir de désavouer les liens au niveau du domaine au lieu de désavouer les liens individuels.

Il y aura des cas où vous voudrez désavouer des liens spécifiques individuellement, comme sur un site majeur qui a un mélange de liens de qualité et de liens payants.

Mais pour la majorité des liens, vous pouvez faire un désaveu basé sur le domaine.

Google n’a besoin d’explorer qu’une seule page de ce site pour que ce lien soit réduit sur votre site.

Faire des désaveux basés sur le domaine signifie également que vous n’avez pas à vous soucier de l’indexation de ces liens en tant que www ou non-www, car le désaveu basé sur le domaine en tiendra compte.

Trouver vos backlinks

Si vous pensez que votre site a été affecté négativement par Penguin, vous devez effectuer un audit des liens et supprimer ou désavouer les liens de mauvaise qualité ou spam.

Google Search Console inclut une liste de backlinks pour les propriétaires de sites, mais sachez qu’elle inclut également des liens qui ne sont déjà pas suivis.

Si le lien n’est pas suivi, cela n’aura aucun impact sur votre site. Mais gardez à l’esprit que le site pourrait supprimer ce nofollow à l’avenir sans avertissement.

Il existe également de nombreux outils tiers qui afficheront des liens vers votre site, mais comme certains sites Web empêchent ces robots tiers d’explorer leur site, ils ne pourront pas vous montrer tous les liens pointant vers votre site.

Et tandis que certains des sites bloquant ces bots sont des sites bien connus de haute qualité qui ne veulent pas gaspiller la bande passante de ces bots, il est également utilisé par certains sites de spam pour empêcher que leurs liens de mauvaise qualité ne soient signalés.

La surveillance des backlinks est également une tâche essentielle, car parfois l’industrie dans laquelle nous travaillons n’est pas entièrement honnête et des attaques SEO négatives peuvent se produire. C’est à ce moment qu’un concurrent achète des liens spammés et les dirige vers votre site.

Beaucoup utilisent le « SEO négatif » comme excuse lorsque leur site est pris par Google pour des liens de mauvaise qualité.

Cependant, Google a déclaré qu’ils étaient assez bons pour reconnaître cela quand cela se produit, donc ce n’est pas quelque chose dont la plupart des propriétaires de sites Web doivent s’inquiéter.

Cela signifie également que l’utilisation proactive de la fonction de désaveu sans signe clair d’une pénalité algorithmique ou d’une notification d’action manuelle est une bonne idée.

Fait intéressant, cependant, un sondage réalisé par SEJ en septembre 2017 a révélé que 38 % des référenceurs ne désavouent jamais les backlinks.

Parcourir un profil de backlink et examiner chaque domaine de liaison pour déterminer s’il s’agit d’un lien que vous souhaitez ou non n’est pas une tâche facile.

Sensibilisation à la suppression de liens

Google vous recommande d’essayer de contacter les sites Web et les webmasters d’où proviennent les mauvais liens et de demander leur suppression avant de commencer à les désavouer.

Certains propriétaires de sites exigent des frais pour supprimer un lien.

Google recommande de ne jamais payer pour la suppression de liens. Incluez simplement ces liens dans votre fichier de désaveu et passez à la suppression du lien suivant.

Bien que la sensibilisation soit un moyen efficace de récupérer d’une pénalité basée sur un lien, elle n’est pas toujours nécessaire.

L’algorithme Penguin prend également en compte le profil de lien dans son ensemble et le volume de liens naturels de haute qualité par rapport au nombre de liens spam.

En cas de pénalité partielle (affectant des mots-clés sur-optimisés), l’algorithme peut toujours vous affecter. Les éléments essentiels de la maintenance et de la surveillance des backlinks devraient vous permettre de rester couvert.

Certains webmasters vont même jusqu’à inclure des « conditions » dans les conditions générales de leur site Web et à contacter activement des sites Web qui, selon eux, ne devraient pas être liés :

Liaison TOS

Évaluation de la qualité des liens

Beaucoup ont du mal à évaluer la qualité des liens.

Ne présumez pas que parce qu’un lien provient d’un site .edu, il est de haute qualité.

De nombreux étudiants vendent des liens de leurs sites Web personnels sur ces domaines .edu qui sont extrêmement spammés et devraient être désavoués.

De même, il existe de nombreux sites piratés dans les domaines .edu qui ont des liens de mauvaise qualité.

Ne portez pas de jugements strictement basés sur le type de domaine. Bien que vous ne puissiez pas faire d’hypothèses automatiques sur les domaines .edu, il en va de même pour tous les TLD et ccTLD.

Google a confirmé que le simple fait d’être sur un TLD spécifique n’aide ni ne nuit au classement de recherche. Mais vous devez faire des évaluations individuelles.

Il y a une blague de longue date sur le fait qu’il n’y a jamais eu de page de qualité sur un domaine .info parce que tant de spammeurs les utilisaient, mais en fait, il y a des liens de grande qualité provenant de ce TLD, ce qui montre pourquoi l’évaluation individuelle des liens est si important.

Méfiez-vous des liens provenant de sites présumés de haute qualité

Ne regardez pas la liste des liens et considérez automatiquement les liens de sites Web spécifiques comme étant un lien de grande qualité, à moins que vous ne sachiez que ce lien très spécifique est de haute qualité.

Ce n’est pas parce que vous avez un lien provenant d’un site Web majeur tel que le Huffington Post ou la BBC qu’il s’agit d’un lien automatique de haute qualité aux yeux de Google – vous devriez plutôt le remettre en question.

Beaucoup de ces sites vendent également des liens, bien que certains soient déguisés en publicité ou réalisés par un contributeur malhonnête vendant des liens dans leurs articles.

Ces types de liens provenant de sites de haute qualité étant en fait de mauvaise qualité ont été confirmés par de nombreux référenceurs qui ont reçu des actions manuelles de liens qui incluent des liens de ces sites dans les exemples de Google. Et oui, ils pourraient probablement contribuer à un problème de pingouin.

À mesure que le contenu publicitaire augmente, nous allons voir de plus en plus de liens comme ceux-ci être signalés comme étant de mauvaise qualité.

Recherchez toujours les liens, surtout si vous envisagez de ne supprimer aucun d’entre eux simplement en fonction du site d’où provient le lien.

Liens promotionnels

Comme pour les publireportages, vous devez penser à tous les liens que les sites ont pu pointer vers vous et qui pourraient être considérés comme des liens promotionnels.

Les liens payants ne signifient pas toujours que de l’argent est échangé contre les liens.

Des exemples de liens promotionnels qui sont techniquement des liens payants aux yeux de Google sont tous les liens donnés en échange d’un produit gratuit pour examen ou d’une remise sur des produits.

Alors que ces types de liens étaient bons il y a des années, ils doivent maintenant être non suivis.

Vous obtiendrez toujours la valeur du lien, mais au lieu d’aider les classements, ce serait grâce à la notoriété de la marque et au trafic.

Vous pouvez avoir des liens provenant d’une campagne promotionnelle effectuée il y a des années qui ont maintenant un impact négatif sur un site.

Pour toutes ces raisons, il est extrêmement important d’évaluer individuellement chaque lien. Vous souhaitez supprimer les liens de mauvaise qualité car ils ont un impact sur Penguin ou pourraient entraîner une future action manuelle.

Mais, vous ne voulez pas supprimer les bons liens, car ce sont les liens qui aident votre classement dans les résultats de recherche.

Les liens promotionnels qui ne sont pas non suivis peuvent également déclencher l’action manuelle pour les liens sortants sur le site qui a placé ces liens.

Aucune récupération de pingouin en vue ?

Parfois, après que les webmasters se sont donné beaucoup de mal pour nettoyer leurs profils de liens, ils ne constatent toujours pas d’augmentation du trafic ou des classements.

Il y a un certain nombre de raisons possibles derrière cela, notamment :

  • L’augmentation initiale du trafic et du classement a été constatée avant que la pénalité algorithmique soit injustifiée (et probablement à court terme) et provenait des mauvais backlinks.
  • Lorsque des liens ont été supprimés, aucun effort n’a été fait pour obtenir de nouveaux backlinks de plus grande valeur.
  • Tous les backlinks négatifs n’ont pas été désavoués/une proportion suffisamment élevée de backlinks négatifs a été supprimée.
  • Le problème n’était pas basé sur les liens, pour commencer.

Lorsque vous récupérerez de Penguin, ne vous attendez pas à ce que votre classement revienne là où il était avant Penguin, ni à ce que le retour soit immédiat.

Beaucoup trop de propriétaires de sites ont l’impression qu’ils commenceront immédiatement à se classer au sommet pour leurs principales requêtes de recherche une fois que Penguin sera levé.

Premièrement, certains des liens que vous avez désavoués contribuaient probablement à un classement artificiellement élevé, vous ne pouvez donc pas vous attendre à ce que ces classements soient aussi élevés qu’avant.

Deuxièmement, parce que de nombreux propriétaires de sites ont du mal à évaluer la qualité des liens, certains liens de haute qualité sont inévitablement désavoués dans le processus, liens qui contribuaient aux meilleurs classements.

Ajoutez à cela le fait que Google modifie constamment son algorithme de classement, de sorte que les facteurs qui vous bénéficiaient auparavant pourraient ne pas avoir un impact aussi important maintenant, et vice versa.

Mythes et idées fausses sur Google Penguin

L’une des grandes choses à propos de l’industrie du référencement et de ceux qui y sont impliqués est qu’il s’agit d’une communauté très active et dynamique, et il y a toujours de nouvelles théories et des résultats d’expériences publiés en ligne quotidiennement.

Naturellement, cela a conduit à un certain nombre de mythes et d’idées fausses sur les algorithmes de Google. Le pingouin n’est pas différent.

Voici quelques mythes et idées fausses sur l’algorithme Penguin que nous avons vus au fil des ans.

Mythe : Le pingouin est une pénalité

L’un des plus grands mythes à propos de l’algorithme Penguin est que les gens l’appellent une pénalité (ou ce que Google appelle une action manuelle).

Penguin est de nature strictement algorithmique. Il ne peut pas être levé manuellement par Google.

Malgré le fait qu’un changement d’algorithme et une pénalité peuvent tous deux entraîner une forte baisse du classement des sites Web, il existe des différences assez drastiques entre eux.

Une sanction (ou action manuelle) se produit lorsqu’un membre de l’équipe de lutte contre le spam Web de Google a répondu à un signalement, a enquêté et a ressenti le besoin d’appliquer une sanction sur le domaine.

Vous recevrez une notification via Google Search Console concernant cette action manuelle.

Lorsque vous êtes touché par une action manuelle, vous devez non seulement examiner vos backlinks et soumettre un désaveu pour les spams qui vont à l’encontre des directives de Google, mais vous devez également soumettre une demande de réexamen à l’équipe Google Webspam.

En cas de succès, la sanction sera annulée ; et en cas d’échec, il est de retour à l’examen du profil de backlink.

Une rétrogradation Penguin se produit sans aucune implication d’un membre de l’équipe Google. Tout est fait de manière algorithmique.

Auparavant, vous deviez attendre une actualisation ou une mise à jour de l’algorithme, mais maintenant, Penguin s’exécute en temps réel, de sorte que les récupérations peuvent se produire beaucoup plus rapidement (si suffisamment de travail de correction a été effectué).

Mythe : Google vous avertira si Penguin accède à votre site

Un autre mythe à propos de l’algorithme Google Penguin est que vous serez averti lorsqu’il sera appliqué.

Malheureusement, ce n’est pas vrai. La console de recherche ne vous avertira pas que votre classement a baissé à cause de l’application du pingouin.

Encore une fois, cela montre la différence entre un algorithme et une pénalité – vous seriez averti si vous étiez touché par une pénalité.

Cependant, le processus de récupération de Penguin est remarquablement similaire à celui de récupération d’un penalty.

Mythe : désavouer les mauvais liens est le seul moyen d’inverser un coup de pingouin

Bien que cette tactique supprime une grande partie des liens de mauvaise qualité, elle prend énormément de temps et constitue un gaspillage potentiel de ressources.

Google Penguin examine le pourcentage de liens de bonne qualité par rapport à ceux de nature spam.

Ainsi, plutôt que de se concentrer sur la suppression manuelle de ces liens de mauvaise qualité, il peut être utile de se concentrer sur l’augmentation du nombre de liens de qualité sur votre site Web.

Cela aura un meilleur impact sur le pourcentage que Penguin prend en compte.

Mythe : Vous ne pouvez pas vous remettre d’un pingouin

Oui, vous pouvez récupérer de Penguin.

C’est possible, mais cela nécessitera une certaine expérience dans la gestion de la nature inconstante des algorithmes de Google.

La meilleure façon de se débarrasser des effets négatifs de Penguin est d’oublier tous les liens existants sur votre site Web et de commencer à obtenir des liens éditoriaux originaux.

Plus vous gagnerez de ces liens de qualité, plus il sera facile de libérer votre site Web de l’emprise de Penguin.


Image en vedette : Paulo Bobita/Journal des moteurs de recherche