Facebook a annoncé une deuxième vague d’actions contre le spam. Facebook cible les publications promotionnelles liées à des fermes publicitaires de faible qualité qui copient le contenu d’autres sites. L’annonce de cette action a été ajoutée à une annonce préexistante sur la lutte contre le spam Facebook.

Ce que Facebook a annoncé :

« À partir d’aujourd’hui, nous déployons une mise à jour afin que les gens voient moins de messages qui renvoient à des sites de mauvaise qualité qui copient et republient principalement le contenu d’autres sites sans fournir de valeur unique. Nous ajustons nos consignes aux éditeurs en conséquence. »

Ce que Facebook a dit à TechCrunch

TechCrunch a rendu compte de la répression du spam de Facebook et a publié une déclaration représentant ce que Facebook a dit à TechCrunch :

« Aujourd’hui, TechCrunch a déclaré en exclusivité qu’il affichera les liens moins en évidence dans le fil d’actualité s’ils combinent ce nouveau signal sur l’authenticité du contenu avec des titres de clickbait ou des pages de destination débordant d’annonces de mauvaise qualité. »

Comment la mise à jour de Facebook vous affecte

Cette mise à jour a des implications considérables. Les messages que Facebook interdit de créer des liens vers ce que l’on appelle des sites de grattage, ou simplement des grattoirs. Les grattoirs sont appelés ainsi parce qu’ils utilisent des bots pour « gratter » (copier) le contenu du Web.

Ces robots peuvent générer un trafic important sur un site Web, ce qui empêche le propre robot de Google d’explorer correctement votre site Web. C’est l’une des raisons pour lesquelles Google Search Console affiche des codes de réponse 404 Page Not Found. impossible d’afficher les pages Web.

L’action de Facebook aura pour effet de couper le trafic, ce qui impactera alors la capacité de ces sites voyous à gagner de l’argent grâce aux impressions publicitaires. Si Facebook est efficace, cette action peut éventuellement avoir pour effet de ralentir la quantité de trafic de scraper.

Le ralentissement du trafic de scraper est une bonne chose car il permet à un serveur Web de fonctionner sous une charge normale au lieu d’une charge plus lourde qui peut empêcher Google d’indexer correctement le site.

Google est bon pour empêcher les « sites de grattage » de se classer pour les expressions de recherche réelles. Les grattoirs ont tendance à se classer pour des phrases extrêmement longues et absurdes comme des extraits de texte du site Web d’origine. Cependant, ces types de recherches d’extraits d’une page Web donnent une fausse idée de la façon dont Google classe le contenu original par rapport au contenu copié. Juger Google sur la base de phrases absurdes comme des extraits d’une page Web casse en quelque sorte le fonctionnement de la recherche Google aujourd’hui. Les résultats ne sont donc pas nécessairement représentatifs de la façon dont Google classe le contenu original.

Les moteurs de recherche sont réglés pour donner des résultats pour une requête de recherche. L’intention de l’utilisateur et la façon dont la réponse à la requête est exprimée sur les pages Web sont au cœur de la façon dont Google classe les sites Web. Un extrait de page Web n’est pas une requête de recherche. Donc, ceux-ci ne révèlent pas avec précision dans quelle mesure Google exclut les sites de scraper.

L’algorithme de Facebook a donné aux sites de grattage l’occasion de relancer le modèle commercial consistant à générer du trafic vers les fermes publicitaires. Mais ces mises à jour les ont fait reculer.

Images par Shutterstock, modifiées par l’auteur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici