Google affirme que les sites Web peuvent rencontrer des problèmes s’ils cachent du contenu derrière des captchas, car son robot d’exploration Web ne pourra pas le voir.

Googlebot n’interagit avec rien lorsqu’il explore des pages Web.

S’il atterrit sur une page avec un captcha bloquant le contenu principal, il supposera que c’est la seule chose sur la page.

Il existe cependant des moyens de contourner cela. Bien que les captchas soient problématiques, il n’y a aucune raison d’arrêter de les utiliser.

Tout cela est déclaré par John Mueller de Google lors des heures de bureau de Search Central SEO enregistrées le 24 septembre 2021.

Le propriétaire d’un site d’annuaire écrit en demandant à Mueller si les captchas qu’ils ont mis en place pour éviter le scraping peuvent avoir un impact sur le référencement.

En bref, oui, ils peuvent avoir un impact sur le référencement.

Mais il existe un moyen d’utiliser des captchas de blocage de contenu qui n’a pas interférer avec l’exploration ou l’indexation.

Voici ce que conseille Mueller.

John Mueller de Google sur les captchas qui bloquent le contenu

Mueller précise que Googlebot ne remplit pas les captchas, même les captchas basés sur Google.

Si le captcha doit être rempli avant d’accéder au contenu, le contenu ne sera pas exploré.

Google pourra indexer la page, mais aucun contenu derrière le captcha ne sera utilisé pour le classement.

« Googlebot ne remplit aucun captchas. Même s’il s’agit de captchas basés sur Google, nous ne les remplissons pas. C’est donc quelque chose où si le captcha doit être complété pour que le contenu soit visible, alors nous n’aurions pas accès au contenu.

Si, d’un autre côté, le contenu est disponible là-bas sans rien faire, et que le captcha est juste affiché en haut, alors ce serait généralement bien.

Comme le dit Mueller, vous pouvez utiliser les captchas en toute sécurité si le contenu principal est facilement accessible.

Pour être sûr qu’un captcha ne bloque pas la vue de Google, Mueller recommande d’utiliser l’outil Inspecter l’URL dans la Search Console.

« Ce que je ferais pour tester, c’est utiliser, dans la Search Console, l’outil d’inspection d’URL et récupérer ces pages et voir ce qui revient.

D’un côté [check] la page visible pour s’assurer qu’elle correspond au contenu visible. Et [then check] le code HTML qui y est rendu pour vous assurer qu’il inclut le contenu que vous souhaitez indexer. C’est le genre d’approche que j’adopterais là-bas.

C’est une solution, mais il y en a encore une autre.

Si vous souhaitez bloquer complètement le contenu avec un captcha et le garder compatible avec Google en même temps, vous pouvez également le faire.

Cela implique une technique que vous pensez peut-être contraire aux directives de Google, mais Mueller confirme qu’elle ne viole aucune politique.

Servez à Googlebot une version de la page différente de celle servie aux utilisateurs réguliers.

Googlebot peut avoir une version sans captcha de la page, tandis que les utilisateurs doivent compléter le captcha avant de visualiser tout contenu.

Ensuite, le contenu sera utilisé pour le classement, tandis que vous pourrez toujours atteindre votre objectif avec le captcha.

« D’un point de vue politique, nous sommes d’accord avec les situations où vous nous fournissez le contenu complet et où vous avez besoin d’un captcha du côté de l’utilisateur. Si vous devez le faire légèrement différemment pour Googlebot ou peut-être d’autres moteurs de recherche que vous ne le feriez pour l’utilisateur moyen, de notre point de vue, c’est très bien.

Écoutez la réponse complète de Mueller dans la vidéo ci-dessous :


Image en vedette : getronydesign / Shutterstock

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici