Accueil Tags Problème

Tag: problème

Les vulnérabilités ne sont pas un problème de référencement… jusqu’à ce que vous soyez piraté

0

John Mueller de Google a répondu à une question dans le hangout SEO Office-hours pour savoir si une vulnérabilité de sécurité avait un effet sur le référencement. Il a dit que techniquement, ce n’était pas un problème de référencement. Mais cette vulnérabilité avait en germe de devenir un problème de référencement à l’avenir.

Quand quelque chose devient-il un problème de référencement ?

C’est en quelque sorte une question un peu philosophique. Quelqu’un que je connais qui fait beaucoup d’audits de sites a été surpris d’apprendre que j’ai inclus un contrôle de sécurité dans le cadre de tous les audits SEO.

La raison pour laquelle je l’ai fait est qu’une vulnérabilité peut devenir un problème de référencement si le site est piraté et que Google le bloque des pages de résultats des moteurs de recherche (SERP).

À mon avis, ce n’est pas parce que l’effet sur le référencement est dans le futur que ce n’est pas un problème de référencement. Pourquoi attendre qu’une vulnérabilité devienne un problème SEO avant de s’y attaquer pour corriger le SEO ?

Si cela a le potentiel de devenir un problème de référencement à l’avenir, un peu comme le cloaking ou les liens payants, alors, à mon avis, c’est un problème de référencement.

Mais c’est juste mon opinion.

Voici la question :

« Après avoir rédigé un rapport Lighthouse sur notre site, nous avons remarqué qu’une bibliothèque JavaScript commune que nous utilisions était signalée comme présentant deux vulnérabilités de sécurité.

Ces vulnérabilités ont-elles un effet sur le SEO ? Ou diriez-vous que c’est plus juste pour nous le faire savoir ? »

Une bibliothèque JavaScript est un ensemble de fonctionnalités regroupées. Les bibliothèques JS permettent aux développeurs de plugins et de thèmes d’inclure plus facilement certaines fonctionnalités sans avoir à les coder à partir de zéro.

Tout ce qu’ils ont à faire est de retirer la bibliothèque de l’étagère (pour ainsi dire) et d’écrire le code qui déclenche le JS pour faire bouger les choses.

Certaines bibliothèques JS plus anciennes contiennent des vulnérabilités.

Ces bibliothèques JS se faufilent généralement sur les sites Web via un thème ou un plugin. Le réparer peut être aussi simple que de mettre à jour le thème ou le plugin, mais parfois cela ne le résout pas.

Et il n’est pas toujours possible de mettre à jour une bibliothèque JavaScript car l’ancienne peut être responsable d’une fonction dans le thème qui s’interrompt lorsque cette bibliothèque spécifique est manquante.

Dans ces situations, le réparer nécessite de remplacer le thème ou le plugin par un autre qui est plus responsable dans leur choix de bibliothèque JS.

Jean Mueller a répondu :

« Alors Lighthouse est, je pense, un outil au sein de Chrome et aussi un outil autonome, je pense. Je ne sais pas si c’est juste dans Chrome.

Mais c’est essentiellement du côté de Chrome.

Ce n’est pas par définition un outil de référencement.

Mais il a beaucoup de choses que vous pouvez utiliser pour le référencement.

Mueller a raison de dire que Lighthouse n’est pas par définition un outil de référencement. Mais il a quelques fonctions de référencement légères et l’audit de performance lui-même est lié au référencement, car les performances sous la forme de Core Web Vitals sont un facteur de classement.

Muller a poursuivi :

« Et plus précisément, les vulnérabilités de sécurité ne sont pas quelque chose que nous signalerions comme un problème de référencement.

Mais s’il s’agit de véritables vulnérabilités sur les scripts que vous utilisez… cela signifie que votre site Web finit par être piraté, alors l’état piraté de votre site Web, ce serait un problème pour le référencement.
Mais juste la possibilité qu’il soit piraté, ce n’est pas un problème en ce qui concerne le référencement.

Donc, de ce point de vue, je considérerais cela comme quelque chose à vérifier avec peut-être les développeurs ou à revérifier si vous pouvez mettre à jour ces bibliothèques.

Mais je ne le verrais pas comme quelque chose qui changerait votre classement immédiatement.

La vulnérabilité n’est pas quelque chose qui change immédiatement le classement

John a raison, bien sûr qu’une vulnérabilité n’est pas quelque chose qui aura un effet SEO immédiat.

Cependant, une vulnérabilité peut potentiellement devenir un problème de référencement et pour cette raison, il peut être prudent de considérer la sécurité du site comme un problème de référencement.

Citation

Les vulnérabilités ne sont pas un problème de référencement… jusqu’à ce que vous soyez piraté

Regarder à la marque de 37:27 minutes

Problème de recherche Google ? 100 % de publicités – Zéro liens organiques

0

Un utilisateur de Twitter a repéré un résultat de recherche commerciale composé d’annonces payantes sans aucune inscription organique et tweeté une capture d’écran de celui-ci. En fait, un utilisateur devrait cliquer sur un lien « Afficher tous les résultats » pour voir les listes organiques. Danny Sullivan a émis l’hypothèse qu’il pourrait s’agir d’un cas marginal qui doit être examiné. Voici une capture d’écran du résultat de recherche inhabituel :

Problème de recherche Google ?  100 % d'annonces –  Zéro liens organiques

Qu’est-ce que Google Shopping Actions ?

Google a annoncé une nouvelle fonctionnalité appelée Google Shopping Actions qui est censée afficher des publicités payantes à la performance à côté des résultats de recherche. L’objectif du programme Google Shopping Actions est de satisfaire l’intention de l’utilisateur d’acheter directement auprès de Google. Voici ce que Google a annoncé :

« Les consommateurs d’aujourd’hui ne veulent pas seulement des réponses ; de plus en plus, ils ont besoin d’une assistance pertinente, significative et immédiate pour mener à bien leurs tâches d’achat quotidiennes.

Nous le constatons dans nos données : les recherches mobiles pour « où acheter » ont augmenté de plus de 85 % au cours des 2 dernières années. De plus, 44 % de ceux qui utilisent leur haut-parleur à commande vocale au moins une fois par semaine déclarent utiliser l’appareil pour commander des produits dont ils ont besoin, comme des produits d’épicerie et des articles ménagers, au moins une fois par semaine. »

Il est clair que les gens veulent des interactions utiles, personnelles et sans friction qui leur permettent de faire leurs achats où et comme ils le souhaitent… ils veulent un moyen plus simple d’effectuer leurs tâches d’achat.

Danny Sullivan de Google suggère qu’il s’agit d’un bug

Danny Sullivan répondu sur Twitter pour suggérer que ce résultat de recherche était un cas marginal qui devait être examiné. Il a posté sur Twitter que ces résultats pourraient être un problème.

Problème de recherche Google ?  100 % d'annonces –  Zéro liens organiques

Danny Sullivan a également tweeté qu’il a transmis ces exemples pour examen :

Problème de recherche Google ?  100 % d'annonces –  Zéro liens organiques

Il s’agit de satisfaire l’intention de l’utilisateur

Dans le passé, Google a décidé de ne pas afficher les annuaires Web et les sites de comparaison d’achats dans ses résultats de recherche. Le raisonnement était qu’il n’était pas logique d’envoyer des utilisateurs d’une liste de dix sites Web vers une autre liste de dix sites Web. Google a décidé que c’était une meilleure expérience utilisateur d’envoyer directement les utilisateurs à la réponse qui satisfait l’intention de l’utilisateur.

Google Shopping Actions est conçu pour satisfaire l’intention de l’utilisateur plus rapidement et facilement. Comme l’indique Google dans son annonce, Google Shopping Actions offre des « interactions sans friction » qui permettent aux utilisateurs d’acheter facilement des produits directement via les applications et services Google.

Google Shopping Actions ne remplace pas les publicités

Les actions Google Shopping sont conçues pour s’afficher à côté des résultats de recherche organiques habituels. Cependant, un utilisateur de Google a publié un résultat de recherche qui affiche 100 % de publicité sans aucun résultat organique. Si un utilisateur souhaitait voir des résultats organiques, il devait cliquer sur un lien pour les trouver.

Le lien vers les résultats de recherche organiques est ombré dans une couleur grise destinée à s’effacer en arrière-plan et à ne pas détourner l’attention de la publicité. l’intention de la mise en page apparaît comme si Google essayait de minimiser la présence de ce lien afin d’attirer davantage l’attention sur les annonces payantes.

Ce n’est apparemment pas un test car de nombreux utilisateurs peuvent le voir. Mais comme le suggère Danny Sullivan, il s’agit peut-être simplement d’un cas marginal.

Captures d’écran par auteur

Google confirme un problème d’indexation affectant un grand nombre de sites

0

Aujourd’hui, à 10h50, heure de l’Est, Google confirme qu’il y a un problème d’indexation en cours affectant un grand nombre de sites.

La cause du problème est inconnue pour le moment. Google fournira une mise à jour dans les 12 prochaines heures.

Ceci est une histoire en développement…


Image en vedette : Sergei Elaguine/Shutterstock

Comment un référencement a résolu un problème étrange exploré actuellement non indexé

0

Un SEO technique a publié une étude de cas sur la façon dont il a résolu un curieux Exploré actuellement non indexé problème sur son site. Bien que la solution qu’il a trouvée ne soit peut-être pas universelle pour les autres personnes confrontées à ce problème, sa méthode pour identifier le problème et le résoudre présente une procédure pas à pas utile pour résoudre les problèmes techniques de référencement.

Ce qui est arrivé à l’indexation de son site était vraiment bizarre. Mais sa solution était simple et logique.

J’ai découvert une description de ce problème sur un tweet d’Adam Gent (@Adoubleagent)

Exploré – Actuellement non indexé

Il existe de nombreux rapports anecdotiques de Crawled Current Not Indexed sur Facebook, Twitter et même dans les lieux de rencontre de John Mueller pendant les heures de bureau.

Lors d’un récent hangout pendant les heures de bureau, quelqu’un a demandé pourquoi Google Search Console (GSC) affichait Crawled Not Indexed, mais lorsque vous cliquez dessus, ils s’avèrent être indexés. John Mueller a répondu qu’il s’agissait simplement d’un décalage entre les rapports.

Et dans un autre lieu de rencontre pendant les heures de bureau, John Mueller a souligné qu’il est tout à fait normal qu’un site ait de nombreuses pages qui ne soient pas indexées.

Il a noté:

« … si vous avez un site plus petit et que vous voyez qu’une partie importante de vos pages n’est pas indexée, alors je prendrais du recul et j’essaierais de reconsidérer la qualité globale du site Web et de ne pas me concentrer autant sur les problèmes techniques pour ces pages.

L’autre chose à garder à l’esprit en ce qui concerne l’indexation, c’est qu’il est tout à fait normal que nous n’indexions pas tout hors du site Web.

Et au fil du temps, lorsque vous arrivez à aimer 200 pages sur votre site Web et que nous en indexons 180, ce pourcentage diminue un peu.

Bien que ces deux raisons soient bonnes pour expliquer pourquoi le problème Crawled Not Indexed arrive à certaines personnes, ce n’est pas la raison pour laquelle Adam Gent l’a découvert.

Adam Gent a découvert un problème entièrement différent qui semblait être un problème d’algorithme chez Google lui-même. Il n’y avait rien de mal avec le site lui-même, le problème était avec l’indexation de Google.

Pourquoi crawlé – Actuellement non indexé

Adam a examiné le rapport GSC Index Coverage et a découvert que Google explorait et indexait ses flux comme s’il s’agissait de pages HTML.

Il a pris des mots au hasard de ces pages et a fait un site : rechercher avec ces mots et a découvert que le contenu de la page de flux était en effet indexé.

Pour aggraver les choses, Google avait apparemment canonisé le contenu du flux RSS sur la page Web réelle, expliquant pourquoi les vraies pages Web étaient explorées mais non indexées.

Le flux RSS a été généré par WordPress

Une chose étrange à propos de ce cas est que lorsque vous regardez la page de flux, elle s’affiche comme une page Web et non comme un fichier XML s’affiche habituellement.

Capture d’écran du cache du flux RSS

Capture d'écran d'une page RSS en cache

Je me trompe peut-être, mais cela ne ressemble pas à un flux RSS normal. Cela ressemble à une page HTML.

Bien que le code sous-jacent soit réellement du XML, ce n’est pas l’apparence normale de la plupart des flux.

Cela aurait-il pu jouer un rôle dans la raison pour laquelle Google a choisi de canoniser le flux ?

Il est difficile de comprendre comment cela pourrait se produire car il y a tellement de signaux comme les liens internes qui, dans des circonstances habituelles, amèneraient Google à privilégier les pages HTML comme canoniques.

Comment Adam a résolu le problème

Après qu’Adam ait compris ce qui s’était passé, il a supprimé ces pages de flux générées par WordPress, a soumis les URL de flux pour une exploration, puis a traité les pages en 404.

Une fois ces pages supprimées de l’index, il a ensuite soumis les URL correctes à Google et, en quelques jours, le problème a été résolu.

Qu’est-ce qui a causé le problème ?

Adam a écrit que le problème semble être du côté de Google.

J’ai demandé autour de moi et quelqu’un m’a dit qu’il y a apparemment quelques années, Google avait commencé à indexer les flux, mais qu’il pensait que ce problème avait été résolu.

Je ne suis pas un expert en XML, mais il semble inhabituel que le flux ressemble à une page HTML au lieu de la mise en page XML normale qui s’affiche sans style HTML.

Le flux n’a pas l’air normal, il semble donc que tout ce qui le fait ressembler à cela pourrait être une cause sous-jacente.

Quoi qu’il en soit, si vous rencontrez des problèmes de crawl actuellement non indexé, c’est une chose de plus à vérifier au cas où cela vous arriverait également.

Citation

Lisez le message d’origine qui explique comment résoudre le problème :

Un cas curieux de canonisation

Google a-t-il un problème avec les gros fichiers Robots.txt ?

0

Google aborde le sujet des fichiers robots.txt et si c’est une bonne pratique de référencement de les conserver dans une taille raisonnable.

Ce sujet est abordé par l’avocat de la recherche de Google, John Mueller, lors de la rencontre pendant les heures de bureau de Google Search Central SEO enregistrée le 14 janvier.

David Zieger, responsable SEO pour un grand éditeur de nouvelles en Allemagne, rejoint le livestream avec des inquiétudes concernant un fichier robots.txt « énorme » et « complexe ».

De quelle taille parle-t-on ici ?

Zieger dit qu’il y a plus de 1 500 lignes avec une « multitude » d’interdictions qui ne cesse de croître au fil des ans.

Les interdictions empêchent Google d’indexer les fragments HTML et les URL où les appels AJAX sont utilisés.

Zieger dit qu’il n’est pas possible de définir un noindex, qui est une autre façon de garder les fragments et les URL hors de l’index de Google, il a donc recouru à remplir le robots.txt du site avec des interdictions.

Y a-t-il des effets SEO négatifs qui peuvent résulter d’un énorme fichier robots.txt ?

Voici ce que dit Mueller.

Considérations SEO pour les gros fichiers Robots.txt

Un gros fichier robots.txt ne sera pas directement avoir un impact négatif sur le référencement d’un site.

Cependant, un fichier volumineux est plus difficile à gérer, ce qui peut entraîner des problèmes accidentels plus tard.

Muller explique :

« Aucun problème de référencement négatif direct avec cela, mais cela le rend beaucoup plus difficile à maintenir. Et il est beaucoup plus facile de pousser accidentellement quelque chose qui cause des problèmes.

Donc, ce n’est pas parce qu’il s’agit d’un fichier volumineux que c’est un problème, mais cela vous permet de créer plus facilement des problèmes.

Zieger poursuit en demandant s’il y a des problèmes à ne pas inclure un sitemap dans le fichier robots.txt.

Mueller dit que ce n’est pas un problème :

« Non. Ces différentes façons de soumettre un sitemap sont toutes équivalentes pour nous. »

Zieger se lance ensuite dans plusieurs autres questions de suivi que nous examinerons dans la section suivante.

Lié: Google SEO 101 : Blocage des fichiers spéciaux dans Robots.txt

Google reconnaît-il les fragments HTML ?

Zieger demande à Mueller quel serait l’impact SEO d’un raccourcissement radical du fichier robots.txt. Comme la suppression de tous les interdits, par exemple.

Les questions suivantes sont posées :

  • Google reconnaît-il les fragments HTML qui ne sont pas pertinents pour les visiteurs du site ?
  • Les fragments HTML se retrouveraient-ils dans l’index de recherche de Google s’ils n’étaient pas interdits dans robots.txt ?
  • Comment Google traite-t-il les pages où les appels AJAX sont utilisés ? (Comme un élément d’en-tête ou de pied de page)

Il résume ses questions en déclarant que la plupart des éléments interdits dans son fichier robots.txt sont des éléments d’en-tête et de pied de page qui ne sont pas intéressants pour l’utilisateur.

Mueller dit qu’il est difficile de savoir exactement ce qui se passerait si ces fragments étaient soudainement autorisés à être indexés.

Une approche par essais et erreurs pourrait être la meilleure façon de comprendre cela, explique Mueller :

« Il est difficile de dire ce que vous voulez dire par rapport à ces fragments

Ma pensée serait d’essayer de comprendre comment ces URL de fragment sont utilisées. Et si vous n’êtes pas sûr, prenez peut-être l’une de ces URL de fragment et autorisez son exploration, et examinez le contenu de cette URL de fragment, puis vérifiez ce qui se passe dans la recherche.

Cela affecte-t-il quelque chose en ce qui concerne le contenu indexé sur votre site ?
Une partie de ce contenu est-elle soudainement trouvable sur votre site ?
Est-ce un problème ou pas ?

Et essayez de travailler sur cette base, car il est très facile de bloquer des choses par robots.txt, qui ne sont en fait pas utilisées pour l’indexation, et ensuite vous passez beaucoup de temps à maintenir ce gros fichier robots.txt, mais ce n’est pas le cas changer autant pour votre site Web.

Lié: Meilleures pratiques pour configurer les balises Meta Robots et Robots.txt

Autres considérations pour la création d’un fichier Robots.txt

Zieger a un dernier suivi concernant les fichiers robots.txt, demandant s’il y a des directives spécifiques à suivre lors de la création d’un.

Mueller dit qu’il n’y a pas de format spécifique à suivre :

« Non, c’est essentiellement à vous de décider. Comme certains sites ont de gros fichiers, certains sites ont de petits fichiers, ils devraient tous fonctionner.

Nous avons un code open source de l’analyseur robots.txt que nous utilisons. Donc, ce que vous pouvez également faire, c’est demander à vos développeurs d’exécuter cet analyseur pour vous, ou de le configurer pour que vous puissiez le tester, puis de vérifier les URL de votre site Web avec cet analyseur pour voir quelles URL seraient réellement bloquées et ce que cela changerait. Et de cette façon, vous pouvez tester des choses avant de les faire vivre.

L’analyseur robots.txt auquel Mueller fait référence se trouve sur Github.

Écoutez la discussion complète dans la vidéo ci-dessous :


Image en vedette : Capture d’écran de YouTube.com/GoogleSearchCentral, janvier 2022.

Dépendance du site vis-à-vis de JavaScript, un problème pour Googlebot ?

0

Lors d’un récent hangout Google Search Central SEO pendant les heures de bureau, une question a été soumise à l’avocat de la recherche de Google, John Mueller, demandant s’il est mauvais pour un site Web de dépendre de JavaScript pour les fonctionnalités de base.

Cela pourrait-il avoir un effet négatif sur Googlebot en matière d’exploration et d’indexation ?

Mueller a observé que c’était probablement bien, mais a également suggéré des choses à faire pour s’assurer que Google et les utilisateurs n’ont aucun problème avec le site.

Le site n’est pas convivial sans JavaScript

La personne qui posait la question a noté qu’une grande partie des fonctionnalités du site dépendait de JavaScript et s’inquiétait de l’impact à la fois sur la convivialité et la convivialité pour le référencement.

Ceci est la question:

« Notre site Web n’est pas très convivial si JavaScript est désactivé.

La plupart des images ne sont pas chargées. Le menu déroulant ne peut pas être ouvert.

Cependant, la fonctionnalité Chrome Inspect, tous les liens de menu sont présents dans le code source.

Notre dépendance à JavaScript pourrait-elle encore être un problème pour Googlebot ? »

Ce que la personne veut dire à propos de la « fonctionnalité d’inspection de Chrome » est probablement l’outil d’inspection du code source de la page d’affichage intégré à Chrome.

Donc, ce qu’ils veulent dire, c’est que, bien que les liens ne soient pas accessibles lorsque JavaScript est désactivé dans un navigateur, les liens sont toujours là dans le code HTML.

Mueller recommande des tests sur site

La réponse de Mueller a reconnu que Google pourrait probablement gérer le site.

Mais ce qui n’a pas été dit, c’est le fait que la fonctionnalité de nombreux sites dépend de JavaScript et que l’expérience de la personne qui pose la question est à peu près normale.

Visitez la plupart des sites avec JavaScript désactivé sur un navigateur et de nombreuses images ne se chargeront pas, la mise en page peut être endommagée et certains menus ne fonctionneront pas.

Vous trouverez ci-dessous une capture d’écran de SearchEngineJournal tel qu’il est affiché avec JavaScript désactivé :

Capture d'écran de SEJ tel qu'il apparaît dans un navigateur avec JavaScript désactivé

Alors que Mueller a fait allusion à ce fait avec sa réponse, il devrait probablement être mis au premier plan de la réponse que la plupart des sites sont peu conviviaux sans JavaScript activé sur un navigateur et que l’expérience de la personne qui pose la question n’est pas hors de l’ordinaire mais c’est en fait assez fréquent.

Mueller a reconnu que tout irait probablement bien.

Il a dit:

«Et, de mon point de vue… je le testerais.

Donc probablement que tout ira bien.

Et probablement, je suppose que si vous utilisez JavaScript de manière raisonnable, si vous ne faites rien de spécial pour bloquer le JavaScript sur vos pages, alors cela fonctionnera probablement.

Testez pour voir comment le site fonctionne

Mueller a ensuite encouragé la personne à effectuer des tests afin de s’assurer que le site fonctionne de manière optimale et a mentionné que « nous » avons des outils, mais il n’a pas mentionné d’outils spécifiques.

Vraisemblablement, il parle des outils disponibles sur Google Search Console qui peuvent fournir des informations sur la capacité de Google à explorer des pages et des images.

Mueller a poursuivi sa réponse :

«Mais vous feriez bien mieux de ne pas simplement me croire, mais plutôt d’utiliser un outil de test pour l’essayer.

Et les outils de test dont nous disposons sont assez bien documentés.

Il y a beaucoup de… variations sur les choses que nous recommandons en ce qui concerne l’amélioration des choses si vous rencontrez des problèmes.

Je revérifierais donc nos guides sur JavaScript et le référencement et je penserais peut-être… à essayer des choses, à m’assurer qu’elles fonctionnent réellement comme vous le souhaitez, puis à les utiliser pour améliorer votre site Web dans son ensemble.

Expériences de site conviviales

Mueller a ensuite abordé la question de la convivialité, car la personne qui a posé la question a mentionné que le site n’était pas convivial avec JavaScript désactivé.

L’écrasante majorité des sites sur Internet utilisent JavaScript, W3Techs publie une statistique selon laquelle 97,9% des sites utilisent JavaScript.

HTTPArchive, qui utilise les données réelles des utilisateurs de Chrome provenant des utilisateurs inscrits, note dans son rapport annuel sur l’utilisation de JavaScript que le nombre médian de téléchargements de JavaScript pour les appareils mobiles est de 20 et aussi élevé que 33 JavaScript de première partie et 34 scripts tiers pour le 90e centile des sites Web.

HttpArchive souligne en outre que pour la moyenne médiane des sites Web, 36,2 % du JavaScript forcé sur le navigateur d’un visiteur du site reste inutilisé, c’est juste une bande passante gaspillée.

Comme vous pouvez le voir, le problème ne concerne pas les utilisateurs dont JavaScript est désactivé visitant un site, car la personne qui posait la question était préoccupée. Leur inquiétude était déplacée.

Le véritable problème concerne les utilisateurs rencontrant un site qui impose trop de JavaScript aux visiteurs du site et crée ainsi une mauvaise expérience utilisateur.

Mueller n’a pas mentionné la nuance de la façon dont les préoccupations de la personne étaient déplacées. Mais il a recommandé des moyens utiles pour déterminer si les utilisateurs ont une expérience négative en raison de problèmes de JavaScript.

Mueller a poursuivi sa réponse :

« Et vous avez mentionné la convivialité en ce qui concerne JavaScript, donc de notre point de vue, les conseils que nous avons sont essentiellement très techniques dans le sens où nous devons nous assurer que Googlebot peut voir le contenu d’un point de vue technique, et qu’il peut voir les liens sur vos pages d’un point de vue technique.

Il ne se soucie pas principalement de la convivialité.

Mais bien sûr, vos utilisateurs se soucient de la convivialité.

Et c’est quelque chose où il est peut-être logique d’en faire un peu plus pour que vos utilisateurs aient vraiment une bonne expérience sur vos pages.

Et il ne s’agit souvent pas d’un simple outil de test.

Mais plutôt quelque chose où vous devrez peut-être faire une petite étude d’utilisateurs ou une sorte d’interview de certains utilisateurs ou au moins faire une enquête sur votre site Web pour comprendre où ils sont bloqués, à quel type de problèmes ils sont confrontés.

Est-ce à cause de cela… vous avez mentionné les menus volants. Ou est-ce quelque chose de complètement différent lorsqu’ils voient des problèmes, que le texte est peut-être trop petit, ou qu’ils ne peuvent pas cliquer correctement sur les boutons, ce genre de choses qui ne correspondent pas vraiment aux problèmes techniques mais qui sont plus gentils des choses côté utilisateur que si vous pouvez les améliorer et si vous pouvez rendre vos utilisateurs plus heureux, ils resteront et ils reviendront et ils inviteront également plus de personnes à visiter votre site Web.

Test pour les utilisateurs et Google

Mueller n’a fait explicitement référence à aucun outil pour effectuer l’un des tests recommandés. Il est assez évident que la Search Console est le meilleur outil pour diagnostiquer les problèmes d’exploration avec Google. La Search Console alerte les éditeurs du nombre d’URL découvertes, par exemple.

En ce qui concerne les outils d’expérience utilisateur, l’un des meilleurs est l’outil gratuit d’analyse de l’expérience utilisateur Microsoft Clarity. Cet outil d’analyse conforme au GDPR fournit des informations sur la façon dont les utilisateurs perçoivent votre site et peut signaler lorsqu’ils ont une mauvaise expérience utilisateur.

Cela peut donc être très utile pour diagnostiquer les éventuels problèmes de site dont John Mueller a parlé.

Citation

Regardez John Mueller à la minute 10:23 :


Image en vedette : Elle Aon/Shutterstock