J’ai récemment découvert que 10 pages de notre site Web représentaient plus de 61,2 % du nombre total de clics signalés dans Google Search Console (GSC) au cours des trois derniers mois !

Il s’agit d’un site avec environ 300 catégories et 20 000 SKU de produits.

10 pages !

Tout aussi choquant, près de 74,8 % de toutes les pages signalées dans GSC n’ont reçu aucun clic.

Aujourd’hui, je vais partager un script Python qui extrait ces informations de Google Search Console, en exportant des graphiques prêts à l’emploi et une feuille Microsoft Excel prête à l’action.

Graphique à barres montrant le nombre total de clics V Pages

La feuille Excel est très exploitable, avec des plages de trafic élevé et faible réparties dans leurs propres onglets pour l’action.

Feuille Excel contenant une répartition des plages de trafic pour chaque page

La sortie est entièrement automatisée et fonctionne pour n’importe quel compte pour lequel vous avez accès à GSC.

Ce que nous apprendrons aujourd’hui

  • Comment exécuter le script.
  • Principaux composants et concepts du script.
  • Idées d’optimisation.

Commencer

L’exécution du script est simple, mais la configuration de l’accès à l’API Google Search Console et le téléchargement d’un fichier d’informations d’identification nécessitent une petite préparation.

La bonne nouvelle est que ce fichier peut être utilisé encore et encore pour d’autres projets Python, il vaut donc la peine de le faire et de le garder en sécurité.

Cela ne devrait pas prendre plus de 5 à 10 minutes.

Il y a un excellent guide ici que je recommande de suivre.

Une fois que vous avez ce fichier, stockez-le dans un endroit sûr, prêt à être téléchargé.

Maintenant, la partie la plus amusante : exécuter le script !

Exécuter le script

L’exécution du script est simple.

L’idée est d’exécuter toutes les cellules simultanément et de télécharger le fichier d’informations d’identification lorsque vous y êtes invité.

Le script générera et enregistrera automatiquement les graphiques à barres, les statistiques et le document Excel sans autre invite.

Étape 1: Ouvrez la feuille Google Colaboratory.

Étape 2: En haut de la page, choisissez Durée > Tout exécuter (Ou Appuyez sur les touches de raccourci Contrôler + F9).

Étape 3: Lorsque vous y êtes invité, importez le fichier d’informations d’identification qui a été téléchargé après l’activation de l’API Search Console.

Télécharger les informations d'identification de l'API Search Console dans Google Colaboratory

Une fois le fichier téléchargé, la cellule suivante vous invitera à visiter une URL pour autoriser l’application et saisir le code d’autorisation.

Google Collab Cell pour l'authentification avec la Search Console

Cliquez dessus et choisissez le compte associé au compte GSC dont vous souhaitez recevoir les données.

Écran du code d'autorisation de la console de recherche Google

Ensuite, nous devons définir les variables.

Cela devrait être explicite, mais je vais parler de chaque paramètre et partager un exemple.

URL

L’URL doit correspondre exactement à la façon dont elle apparaît dans GSC.

S’il y a des problèmes, c’est parce qu’il manque généralement une barre oblique finale !

Notez également que pour les comptes au niveau du domaine, la syntaxe est la suivante :

domaine-sc:exemple.com

J’ai inclus une option pour imprimer les comptes GSC disponibles si vous avez des problèmes.

Google Collab Cell pour afficher les comptes Search Console disponibles

Décommentez simplement la ligne :

#print(account.webproperties)

… pour voir la liste des comptes disponibles à votre disposition.

Copiez et collez le nom du compte exactement dans la cellule ci-dessus.

Filtre de pays

Une variable simple pour filtrer le trafic par pays. Pour définir dans le monde entier, commentez simplement cette ligne :

df_gsc = df_gsc[df_gsc[“country”].str.contains(country_filter)]# commentez cette ligne pour les données mondiales
Une liste des codes de pays peut être trouvée ici.

Type de recherche

Les options disponibles ici sont le Web, les actualités, la vidéo, l’image, la découverte et GoogleNews.

Date de début/fin

Entrez les dates de début et de fin pour lesquelles extraire les données GSC. Je recommande au moins trois mois si possible. Le format de date est :

AAAA-MM-JJ

Voici mes paramètres pour extraire les trois derniers mois de données de la propriété GSC pour Search Engine Journal.

URL = « https://www.searchenginejournal.com/ »
country_filter = « États-Unis »
search_type = « web » # les options disponibles sont : Web, actualités, vidéo, image, découverte et googleNews
start_date = « 2022-05-01 »
end_date = « 2022-08-01 »
Les données seront extraites de GSC. Cela peut prendre un certain temps, selon la taille du site et le nombre de mois demandés.
Une fois l’extraction des données terminée, la cellule suivante créera la trame de données à partir des données GSC.
Les 10 premières lignes seront prévisualisées afin que vous puissiez vérifier que les données sont correctes.
En faisant défiler la page, vous remarquerez qu’un graphique à barres a été créé.
Ce graphique regroupe les pages en plages en fonction du nombre de clics qui leur sont attribués.
Cela permet de voir facilement la répartition des clics entre les pages en un coup d’œil.
Graphique à barres montrant les pages par rapport au nombre total de clics par plage de trafic

Le graphique à barres peut être copié dans des présentations selon les besoins et raconte généralement une histoire puissante avec les données.

Lors des tests, j’ai constaté que la plupart des sites présentent le même type de répartition du trafic.

Savoir quelles pages sont responsables d’un pourcentage élevé de trafic facilite la hiérarchisation des tâches d’optimisation.

Juste en dessous du graphique à barres, certaines statistiques sont créées et affichées.

  • Le pourcentage de pages dans GSC sans clics.
  • Le pourcentage de clics générés par les 10 premières pages de GSC.
la statistique montre le pourcentage de pages dans la console de recherche qui ont 0 clics
la statistique montre la quantité de trafic que les dix premières pages de votre site génèrent

Enfin, un document Microsoft Excel est enregistré pour action.

Ce document contient tout ce dont vous avez besoin pour créer un plan d’action pour optimiser les pages en haut et en bas de l’échelle.

Comment ces données peuvent-elles être utilisées ?

Il existe de nombreuses façons créatives de transformer ces idées en actions.

Pages principales

Vérifiez l’apparence de chaque page dans les SERP

  • Le schéma pertinent se déclenche-t-il correctement ?
  • Les titres de page/méta descriptions sont-ils tronqués ?
  • Les titres de page/méta descriptions manquent-ils de mots-clés ?
  • Les titres de page/méta descriptions pourraient-ils être améliorés avec une meilleure messagerie, des mots-clés supplémentaires, de meilleurs CTA, etc. ?
  • Les bons liens annexes se déclenchent-ils ?

Optimisation du taux de conversion

  • Les pages à fort trafic sont des candidats idéaux pour les tests A/B – obtenez des données statistiquement significatives plus rapidement !
  • Examinez et actualisez le contenu.

Une analyse

  • Procédez à une analyse des concurrents.
  • Inverser ce qui fonctionne. Qu’est-ce qui différencie ces pages ?

Pages sans trafic

Examiner les pages dans la console de recherche

  • Passez en revue Découvert non indexé/Crawlé non indexé pour les bloqueurs techniques.
  • Les pages sont-elles dans des sitemaps ?

Contenu

  • Examinez le contenu. Le contenu est-il mince ou manquant ?
  • Existe-t-il un modèle pour les pages qui ne reçoivent aucun trafic ?

Conclusion

Ce ne sont là que quelques idées sur la façon dont quelqu’un pourrait agir en utilisant les données, mais je suis sûr qu’il y a beaucoup plus d’approches qui pourraient être adoptées.

Davantage de ressources:

  • Comment automatiser le clustering de mots clés SEO par intention de recherche avec Python
  • Analyse des backlinks des concurrents avec Python [Complete Script]
  • Référencement technique avancé : un guide complet

Image en vedette : CG_dmitriy/Shutterstock

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici