Accueil Tags Données

Tag: données

Transition d’Excel à Python : fonctions essentielles pour l’analyse de données SEO

0

Apprendre à coder, que ce soit avec Python, JavaScript ou un autre langage de programmation, présente de nombreux avantages, notamment la possibilité de travailler avec des ensembles de données plus volumineux et d’automatiser les tâches répétitives.

Mais malgré les avantages, de nombreux professionnels du référencement n’ont pas encore fait la transition – et je comprends parfaitement pourquoi ! Ce n’est pas une compétence essentielle pour le référencement, et nous sommes tous des gens occupés.

Si vous êtes pressé par le temps et que vous savez déjà comment accomplir une tâche dans Excel ou Google Sheets, changer de cap peut donner l’impression de réinventer la roue.

Lorsque j’ai commencé à coder, je n’utilisais initialement Python que pour des tâches que je ne pouvais pas accomplir dans Excel – et il a fallu plusieurs années pour en arriver au point où c’est mon choix de facto pour le traitement des données.

Avec le recul, je suis incroyablement heureux d’avoir persisté, mais c’était parfois une expérience frustrante, avec plusieurs heures passées à analyser des fils de discussion sur Stack Overflow.

Cet article est conçu pour épargner le même sort aux autres professionnels du référencement.

Dans celui-ci, nous couvrirons les équivalents Python des formules et fonctionnalités Excel les plus couramment utilisées pour l’analyse des données SEO – qui sont toutes disponibles dans un bloc-notes Google Colab lié dans le résumé.

Plus précisément, vous apprendrez les équivalents de :

  • LEN.
  • Supprimez les doublons.
  • Texte aux colonnes.
  • RECHERCHER/TROUVER.
  • ENCHAÎNER.
  • Trouver et remplacer.
  • GAUCHE/MILIEU/DROITE.
  • SI.
  • IFS.
  • RECHERCHEV.
  • COUNTIF/SUMIF/AVERAGEIF.
  • Tableaux croisés dynamiques.

Étonnamment, pour accomplir tout cela, nous utiliserons principalement une bibliothèque singulière – Pandas – avec un peu d’aide par endroits de son grand frère, NumPy.

Conditions préalables

Par souci de brièveté, il y a quelques points que nous n’aborderons pas aujourd’hui, notamment :

  • Installation de Python.
  • Pandas de base, comme l’importation de CSV, le filtrage et la prévisualisation des dataframes.

Si vous n’êtes pas sûr de tout cela, alors le guide de Hamlet sur l’analyse de données Python pour le référencement est l’introduction parfaite.

Maintenant, sans plus tarder, commençons.

LEN

LEN fournit un décompte du nombre de caractères dans une chaîne de texte.

Pour le référencement en particulier, un cas d’utilisation courant consiste à mesurer la longueur des balises de titre ou des méta-descriptions pour déterminer si elles seront tronquées dans les résultats de recherche.

Dans Excel, si nous voulions compter la deuxième cellule de la colonne A, nous saisirions :

=LEN(A2)
Formule LEN excel

Python n’est pas trop différent, car nous pouvons compter sur la fonction len intégrée, qui peut être combinée avec la loc de Pandas[] pour accéder à une ligne de données spécifique dans une colonne :

len(df['Title'].loc[0])

Dans cet exemple, nous obtenons la longueur de la première ligne dans la colonne « Titre » de notre dataframe.

len fonction python
Capture d’écran de VS Code, novembre 2022

Cependant, trouver la longueur d’une cellule n’est pas très utile pour le référencement. Normalement, nous voudrions appliquer une fonction à une colonne entière !

Dans Excel, cela serait réalisé en sélectionnant la cellule de formule dans le coin inférieur droit et en la faisant glisser vers le bas ou en double-cliquant.

Lorsque vous travaillez avec une base de données Pandas, nous pouvons utiliser str.len pour calculer la longueur des lignes d’une série, puis stocker les résultats dans une nouvelle colonne :

df['Length'] = df['Title'].str.len()

Str.len est une opération « vectorisée », conçue pour être appliquée simultanément à une série de valeurs. Nous utiliserons ces opérations de manière intensive tout au long de cet article, car elles finissent presque universellement par être plus rapides qu’une boucle.

Une autre application courante de LEN consiste à le combiner avec SUBSTITUTE pour compter le nombre de mots dans une cellule :

=LEN(TRIM(A2))-LEN(SUBSTITUTE(A2," ",""))+1

Dans Pandas, nous pouvons y parvenir en combinant les fonctions str.split et str.len :

df['No. Words'] = df['Title'].str.split().str.len()

Nous aborderons str.split plus en détail plus tard, mais essentiellement, ce que nous faisons est de diviser nos données en fonction des espaces dans la chaîne, puis de compter le nombre de composants.

nombre de mots Python

Suppression des doublons

La fonction « Supprimer les doublons » d’Excel offre un moyen simple de supprimer les valeurs en double dans un ensemble de données, soit en supprimant les lignes entièrement en double (lorsque toutes les colonnes sont sélectionnées), soit en supprimant les lignes avec les mêmes valeurs dans des colonnes spécifiques.

Excel supprime les doublons

Dans Pandas, cette fonctionnalité est fournie par drop_duplicates.

Pour supprimer les lignes en double dans un type de dataframe :

df.drop_duplicates(inplace=True)

Pour supprimer des lignes basées sur des doublons dans une colonne unique, incluez le paramètre de sous-ensemble :

df.drop_duplicates(subset="column", inplace=True)

Ou spécifiez plusieurs colonnes dans une liste :

df.drop_duplicates(subset=['column','column2'], inplace=True)

Un ajout ci-dessus qui mérite d’être signalé est la présence du paramètre inplace. Inclure inplace=True nous permet d’écraser notre dataframe existant sans avoir besoin d’en créer un nouveau.

Il y a, bien sûr, des moments où nous voulons conserver nos données brutes. Dans ce cas, nous pouvons affecter notre dataframe dédupliqué à une variable différente :

df2 = df.drop_duplicates(subset="column")

Texte aux colonnes

Un autre élément essentiel de tous les jours, la fonction « texte en colonnes » peut être utilisée pour diviser une chaîne de texte en fonction d’un délimiteur, tel qu’une barre oblique, une virgule ou un espace.

Par exemple, diviser une URL en son domaine et ses sous-dossiers individuels.

Excel supprime les doublons

Lorsqu’il s’agit d’une trame de données, nous pouvons utiliser la fonction str.split, qui crée une liste pour chaque entrée d’une série. Cela peut être converti en plusieurs colonnes en définissant le paramètre expand sur True :

df['URL'].str.split(pat="/", expand=True)
str diviser Python

Comme c’est souvent le cas, nos URL dans l’image ci-dessus ont été divisées en colonnes incohérentes, car elles ne comportent pas le même nombre de dossiers.

Cela peut compliquer les choses lorsque nous voulons enregistrer nos données dans une base de données existante.

Spécifier le paramètre n limite le nombre de divisions, nous permettant de créer un nombre spécifique de colonnes :

df[['Domain', 'Folder1', 'Folder2', 'Folder3']] = df['URL'].str.split(pat="/", expand=True, n=3)

Une autre option consiste à utiliser pop pour supprimer votre colonne du dataframe, effectuer la scission, puis la rajouter avec la fonction join :

df = df.join(df.pop('Split').str.split(pat="/", expand=True))

La duplication de l’URL dans une nouvelle colonne avant le fractionnement nous permet de conserver l’URL complète. On peut alors renommer les nouvelles colonnes :🐆

df['Split'] = df['URL']

df = df.join(df.pop('Split').str.split(pat="/", expand=True))

df.rename(columns = {0:'Domain', 1:'Folder1', 2:'Folder2', 3:'Folder3', 4:'Parameter'}, inplace=True)
Fonctions de jointure pop fractionnées Python

ENCHAÎNER

La fonction CONCAT permet aux utilisateurs de combiner plusieurs chaînes de texte, par exemple lors de la génération d’une liste de mots-clés en ajoutant différents modificateurs.

Dans ce cas, nous ajoutons « mens » et un espace blanc à la liste des types de produits de la colonne A :

=CONCAT($F$1," ",A2)
concaténer Excel
Capture d’écran de Microsoft Excel, novembre 2022

En supposant que nous ayons affaire à des chaînes, la même chose peut être obtenue en Python en utilisant l’opérateur arithmétique :

df['Combined] = 'mens' + ' ' + df['Keyword']

Ou spécifiez plusieurs colonnes de données :

df['Combined'] = df['Subdomain'] + df['URL']
concat Python

Pandas a une fonction concat dédiée, mais cela est plus utile lorsque vous essayez de combiner plusieurs dataframes avec les mêmes colonnes.

Par exemple, si nous avions plusieurs exportations depuis notre outil d’analyse de liens préféré :

df = pd.read_csv('data.csv')
df2 = pd.read_csv('data2.csv')
df3 = pd.read_csv('data3.csv')

dflist = [df, df2, df3]

df = pd.concat(dflist, ignore_index=True)

CHERCHER/TROUVER

Les formules SEARCH et FIND permettent de localiser une sous-chaîne dans une chaîne de texte.

Ces commandes sont généralement combinées avec ISNUMBER pour créer une colonne booléenne qui permet de filtrer un ensemble de données, ce qui peut être extrêmement utile lors de l’exécution de tâches telles que l’analyse des fichiers journaux, comme expliqué dans ce guide. Par exemple:

=ISNUMBER(SEARCH("searchthis",A2)
recherche isnumber Excel

La différence entre SEARCH et FIND est que find est sensible à la casse.

La fonction Pandas équivalente, str.contains, est sensible à la casse par défaut :

df['Journal'] = df['URL'].str.contains('engine', na=False)

L’insensibilité à la casse peut être activée en définissant le paramètre case sur False :

df['Journal'] = df['URL'].str.contains('engine', case=False, na=False)

Dans les deux cas, inclure na=False empêchera les valeurs nulles d’être renvoyées dans la colonne booléenne.

Un énorme avantage de l’utilisation de Pandas ici est que, contrairement à Excel, regex est pris en charge de manière native par cette fonction – comme c’est le cas dans les feuilles Google via REGEXMATCH.

Enchaînez plusieurs sous-chaînes à l’aide du caractère pipe, également connu sous le nom d’opérateur OR :

df['Journal'] = df['URL'].str.contains('engine|search', na=False)

Trouver et remplacer

La fonction « Rechercher et remplacer » d’Excel offre un moyen simple de remplacer individuellement ou en bloc une sous-chaîne par une autre.

trouver remplacer Excel

Lors du traitement des données pour le référencement, nous sommes plus susceptibles de sélectionner une colonne entière et de « Remplacer tout ».

La formule SUBSTITUTE fournit une autre option ici et est utile si vous ne souhaitez pas écraser la colonne existante.

Par exemple, nous pouvons changer le protocole d’une URL de HTTP à HTTPS, ou le supprimer en le remplaçant par rien.

Lorsque vous travaillez avec des dataframes en Python, nous pouvons utiliser str.replace :

df['URL'] = df['URL'].str.replace('http://', 'https://')

Ou:

df['URL'] = df['URL'].str.replace('http://', '') # replace with nothing

Encore une fois, contrairement à Excel, regex peut être utilisé – comme avec REGEXREPLACE de Google Sheets :

df['URL'] = df['URL'].str.replace('http://|https://', '')

Alternativement, si vous souhaitez remplacer plusieurs sous-chaînes par des valeurs différentes, vous pouvez utiliser la méthode de remplacement de Python et fournir une liste.

Cela vous évite d’avoir à enchaîner plusieurs fonctions str.replace :

df['URL'] = df['URL'].replace(['http://', ' https://'], ['https://www.', 'https://www.’], regex=True)

GAUCHE/MILIEU/DROITE

L’extraction d’une sous-chaîne dans Excel nécessite l’utilisation des fonctions LEFT, MID ou RIGHT, selon l’emplacement de la sous-chaîne dans une cellule.

Supposons que nous souhaitions extraire le domaine et le sous-domaine racine d’une URL :

=MID(A2,FIND(":",A2,4)+3,FIND("/",A2,9)-FIND(":",A2,4)-3)
gauche milieu droite Excel

Utilisant une combinaison de MID et de plusieurs fonctions FIND, cette formule est moche, c’est le moins qu’on puisse dire – et les choses s’aggravent pour les extractions plus complexes.

Encore une fois, Google Sheets le fait mieux qu’Excel, car il a REGEXEXTRACT.

Quel dommage que lorsque vous l’alimentez avec des jeux de données plus volumineux, il fonde plus rapidement qu’un Babybel sur un radiateur chaud.

Heureusement, Pandas propose str.extract, qui fonctionne de manière similaire :

df['Domain'] = df['URL'].str.extract('.*://?([^/]+)')
str extrait Python

Combinez avec fillna pour éviter les valeurs nulles, comme vous le feriez dans Excel avec IFERROR :

df['Domain'] = df['URL'].str.extract('.*://?([^/]+)').fillna('-')

Si

Les instructions IF vous permettent de renvoyer différentes valeurs, selon qu’une condition est remplie ou non.

Pour illustrer, supposons que nous voulions créer une étiquette pour les mots clés qui se classent dans les trois premières positions.

Excel SI

Plutôt que d’utiliser Pandas dans ce cas, nous pouvons nous appuyer sur NumPy et la fonction where (n’oubliez pas d’importer NumPy, si vous ne l’avez pas déjà fait) :

df['Top 3'] = np.where(df['Position'] <= 3, 'Top 3', 'Not Top 3')

Plusieurs conditions peuvent être utilisées pour la même évaluation en utilisant les opérateurs AND/OR et en plaçant les critères individuels entre parenthèses :

df['Top 3'] = np.where((df['Position'] <= 3) & (df['Position'] != 0), 'Top 3', 'Not Top 3')

Dans ce qui précède, nous renvoyons « Top 3 » pour tous les mots clés avec un classement inférieur ou égal à trois, à l’exclusion de tous les mots clés classés en position zéro.

IFS

Parfois, plutôt que de spécifier plusieurs conditions pour la même évaluation, vous souhaiterez peut-être plusieurs conditions renvoyant des valeurs différentes.

Dans ce cas, la meilleure solution consiste à utiliser IFS :

=IFS(B2<=3,"Top 3",B2<=10,"Top 10",B2<=20,"Top 20")
Excel IFS

Encore une fois, NumPy nous fournit la meilleure solution lorsque nous travaillons avec des dataframes, via sa fonction select.

Avec select, nous pouvons créer une liste de conditions, de choix et une valeur facultative lorsque toutes les conditions sont fausses :

conditions = [df['Position'] <= 3, df['Position'] <= 10, df['Position'] <=20]

choices = ['Top 3', 'Top 10', 'Top 20']

df['Rank'] = np.select(conditions, choices, 'Not Top 20')

Il est également possible d’avoir plusieurs conditions pour chacune des évaluations.

Supposons que nous travaillions avec un détaillant de commerce électronique avec des pages de liste de produits (PLP) et des pages d’affichage de produits (PDP), et nous voulons étiqueter le type de pages de marque se classant dans les 10 premiers résultats.

La solution la plus simple consiste à rechercher des modèles d’URL spécifiques, tels qu’un sous-dossier ou une extension, mais que se passe-t-il si des concurrents ont des modèles similaires ?

Dans ce scénario, nous pourrions faire quelque chose comme ceci :

conditions = [(df['URL'].str.contains('/category/')) & (df['Brand Rank'] > 0),
(df['URL'].str.contains('/product/')) & (df['Brand Rank'] > 0),
(~df['URL'].str.contains('/product/')) & (~df['URL'].str.contains('/category/')) & (df['Brand Rank'] > 0)]

choices = ['PLP', 'PDP', 'Other']

df['Brand Page Type'] = np.select(conditions, choices, None)

Ci-dessus, nous utilisons str.contains pour évaluer si une URL dans le top 10 correspond ou non au modèle de notre marque, puis utilisons la colonne « Brand Rank » pour exclure tous les concurrents.

Dans cet exemple, le signe tilde (~) indique une correspondance négative. En d’autres termes, nous disons que nous voulons que chaque URL de marque qui ne correspond pas au modèle d’un « PDP » ou d’un « PLP » corresponde aux critères de « Autre ».

Enfin, None est inclus car nous voulons que les résultats sans marque renvoient une valeur nulle.

np sélectionner Python

RECHERCHEV

VLOOKUP est un outil essentiel pour réunir deux ensembles de données distincts sur une colonne commune.

Dans ce cas, en ajoutant les URL de la colonne N aux données de mot-clé, de position et de volume de recherche dans les colonnes AC, à l’aide de la colonne « Mot-clé » partagée :

=VLOOKUP(A2,M:N,2,FALSE)
vrecherche Excel

Pour faire quelque chose de similaire avec Pandas, nous pouvons utiliser merge.

Répliquant la fonctionnalité d’une jointure SQL, la fusion est une fonction incroyablement puissante qui prend en charge une variété de types de jointures différents.

Pour nos besoins, nous souhaitons utiliser une jointure gauche, qui conservera notre première trame de données et ne fusionnera que les valeurs correspondantes de notre deuxième trame de données :

mergeddf = df.merge(df2, how='left', on='Keyword')

Un avantage supplémentaire d’effectuer une fusion sur un VLOOKUP, c’est que vous n’avez pas besoin d’avoir les données partagées dans la première colonne du deuxième ensemble de données, comme avec le plus récent XLOOKUP.

Il extraira également plusieurs lignes de données plutôt que la première correspondance dans les découvertes.

Un problème courant lors de l’utilisation de la fonction est la duplication de colonnes indésirables. Cela se produit lorsque plusieurs colonnes partagées existent, mais que vous tentez de faire correspondre une seule.

Pour éviter cela et améliorer la précision de vos correspondances, vous pouvez spécifier une liste de colonnes :

mergeddf = df.merge(df2, how='left', on=['Keyword', 'Search Volume'])

Dans certains scénarios, vous pouvez souhaiter activement que ces colonnes soient incluses. Par exemple, lorsque vous essayez de fusionner plusieurs rapports de classement mensuel :

mergeddf = df.merge(df2, on='Keyword', how='left', suffixes=('', '_october'))
    .merge(df3, on='Keyword', how='left', suffixes=('', '_september'))

L’extrait de code ci-dessus exécute deux fusions pour réunir trois dataframes avec les mêmes colonnes – qui sont nos classements pour novembre, octobre et septembre.

En étiquetant les mois dans les paramètres de suffixe, nous nous retrouvons avec une trame de données beaucoup plus propre qui affiche clairement le mois, par opposition aux valeurs par défaut de _x et _y vues dans l’exemple précédent.

Python multi-fusion

COUNTIF/SUMIF/AVERAGEIF

Dans Excel, si vous souhaitez exécuter une fonction statistique basée sur une condition, vous utiliserez probablement COUNTIF, SUMIF ou AVERAGEIF.

Généralement, COUNTIF est utilisé pour déterminer combien de fois une chaîne spécifique apparaît dans un ensemble de données, comme une URL.

Nous pouvons y parvenir en déclarant la colonne « URL » comme plage, puis l’URL dans une cellule individuelle comme critère :

=COUNTIF(D:D,D2)
Comptage Excel

Dans Pandas, nous pouvons obtenir le même résultat en utilisant la fonction groupby :

df.groupby('URL')['URL'].count()
Groupe Python par

Ici, la colonne déclarée entre parenthèses indique les groupes individuels, et la colonne indiquée entre crochets est celle où l’agrégation (c’est-à-dire le comptage) est effectuée.

La sortie que nous recevons n’est cependant pas parfaite pour ce cas d’utilisation, car elle consolide les données.

En règle générale, lors de l’utilisation d’Excel, nous aurions le nombre d’URL en ligne dans notre ensemble de données. Ensuite, nous pouvons l’utiliser pour filtrer les URL les plus fréquemment répertoriées.

Pour ce faire, utilisez transform et stockez le résultat dans une colonne :

df['URL Count'] = df.groupby('URL')['URL'].transform('count')
Transformation groupée Python

Vous pouvez également appliquer des fonctions personnalisées à des groupes de données en utilisant une fonction lambda (anonyme) :

df['Google Count'] = df.groupby(['URL'])['URL'].transform(lambda x: x[x.str.contains('google')].count())

Jusqu’à présent, dans nos exemples, nous avons utilisé la même colonne pour nos regroupements et nos agrégations, mais ce n’est pas nécessaire. Comme pour COUNTIFS/SUMIFS/AVERAGEIFS dans Excel, il est possible de regrouper en utilisant une colonne, puis d’appliquer notre fonction statistique à une autre.

Pour en revenir à l’exemple précédent de page de résultats de moteur de recherche (SERP), nous pouvons vouloir compter tous les PDP de classement par mot clé et renvoyer ce nombre avec nos données existantes :

df['PDP Count'] = df.groupby(['Keyword'])['URL'].transform(lambda x: x[x.str.contains('/product/|/prd/|/pd/')].count())
Python groupe par countifs

Ce qui, dans le langage Excel, ressemblerait à ceci :

=SUM(COUNTIFS(A:A,[@Keyword],D:D,{"*/product/*","*/prd/*","*/pd/*"}))

Tableaux croisés dynamiques

Dernier point, mais non des moindres, il est temps de parler des tableaux croisés dynamiques.

Dans Excel, un tableau croisé dynamique sera probablement notre première escale si nous voulons résumer un grand ensemble de données.

Par exemple, lorsque vous travaillez avec des données de classement, nous pouvons souhaiter identifier les URL qui apparaissent le plus fréquemment et leur position de classement moyenne.

tableau croisé dynamique Excel

Encore une fois, Pandas a ses propres tableaux croisés dynamiques équivalents – mais si tout ce que vous voulez est un nombre de valeurs uniques dans une colonne, cela peut être accompli en utilisant la fonction value_counts :

count = df['URL'].value_counts()

L’utilisation de groupby est également une option.

Plus tôt dans l’article, effectuer un groupby qui agrégeait nos données n’était pas ce que nous voulions – mais c’est précisément ce qui est requis ici :

grouped = df.groupby('URL').agg(
     url_frequency=('Keyword', 'count'),
     avg_position=('Position', 'mean'),
     )

grouped.reset_index(inplace=True)
groupby-pivot Python

Deux fonctions d’agrégation ont été appliquées dans l’exemple ci-dessus, mais cela pourrait facilement être étendu et 13 types différents sont disponibles.

Il y a, bien sûr, des moments où nous voulons utiliser pivot_table, comme lors de l’exécution d’opérations multidimensionnelles.

Pour illustrer ce que cela signifie, réutilisons les regroupements de classement que nous avons créés à l’aide d’instructions conditionnelles et essayons d’afficher le nombre de fois qu’une URL se classe dans chaque groupe.

ranking_groupings = df.groupby(['URL', 'Grouping']).agg(
     url_frequency=('Keyword', 'count'),
     )
python groupby regroupement

Ce n’est pas le meilleur format à utiliser, car plusieurs lignes ont été créées pour chaque URL.

Au lieu de cela, nous pouvons utiliser pivot_table, qui affichera les données dans différentes colonnes :

pivot = pd.pivot_table(df,
index=['URL'],
columns=['Grouping'],
aggfunc="size",
fill_value=0,
)
tableau croisé dynamique Python

Dernières pensées

Que vous cherchiez de l’inspiration pour commencer à apprendre Python ou que vous l’utilisiez déjà dans vos flux de travail SEO, j’espère que les exemples ci-dessus vous aideront tout au long de votre parcours.

Comme promis, vous pouvez trouver un bloc-notes Google Colab avec tous les extraits de code ici.

En vérité, nous avons à peine effleuré la surface de ce qui est possible, mais comprendre les bases de l’analyse de données Python vous donnera une base solide sur laquelle construire.

Davantage de ressources:

  • Essayez ces outils et méthodes pour exporter les résultats de recherche Google vers Excel
  • 12 points de données SEO essentiels pour tout site Web
  • Référencement technique avancé : un guide complet

Image en vedette : mapo_japan/Shutterstock

Mener un parcours de marketing de contenu basé sur les données avec Vitor Peçanha

0

Peu importe la façon dont l’espace numérique a considérablement évolué au cours de la dernière décennie, une chose reste la même : un directeur du marketing porte des chapeaux différents.

Exemple : Victor Peçanha, co-fondateur et CMO de Rock Content, un leader de renommée mondiale dans le marketing de contenu.

En utilisant de vieilles portes d’une maison de campagne du père de son co-fondateur, Peçanha a construit les premières tables pour la startup en 2013.

Les grandes (et petites) décisions qui ont façonné Rock Content pour en faire ce qu’il est aujourd’hui ont été prises autour de ces tables. Et le responsable marketing était au cœur de chaque processus de prise de décision, stimulant la croissance et l’objectif grâce à la créativité et à l’analyse.

Aujourd’hui, son rôle de CMO n’a jamais été aussi dynamique et influent.

Que faut-il aux directeurs marketing d’aujourd’hui pour devenir des leaders à fort impact qui conduisent leurs organisations vers le succès ?

Peçanha a quelques points de vue à partager.

Partager et atteindre un objectif commun

Quelle était votre vision lorsque vous avez commencé votre rôle de CMO ?

Victor Peçanha : « En tant que fondateur d’une start-up marketing, tout ce que j’avais au départ était une idée et un plan pour l’exécuter.

Nous avons fondé Rock Content parce que nous pensons qu’il existe une meilleure façon de faire du marketing en utilisant le contenu pour attirer et ravir votre public et générer des affaires.

Lorsque nous avons commencé en 2013, le marketing de contenu n’était pas très connu dans le pays, et notre vision était de devenir la plus grande entreprise de marketing de contenu au monde, en commençant par l’introduire au Brésil.

Comment vous assurez-vous que vos objectifs marketing sont alignés sur l’ensemble de l’organisation ?

vice-président : « Chez Rock Content, nous avons mis en place un modèle de gestion structuré.

Tous les six mois, l’équipe de direction passe en revue les objectifs de l’entreprise – comme les revenus, la rétention des revenus nets (NRR), etc. – pour créer le plan d’affaires global de l’entreprise.

Ensuite, nous avons un modèle de responsabilités en cascade et d’indicateurs de performance clés (KPI) qui commencent au sommet et se terminent chez le contributeur individuel, où toutes les étapes sont connectées les unes aux autres.

L’une des conséquences est que de nombreux objectifs du service sont généralement assez proches du chiffre d’affaires, parfois même partagés avec l’équipe de vente.

Mon objectif individuel, par exemple, est l’objectif de revenus de l’entreprise, pas une mesure spécifique au marketing. »

Investir dans les gens et la formation

Comment votre philosophie sur la constitution et la gestion d’une équipe a-t-elle évolué au fil du temps ?

vice-président : « J’ai appris quelques choses au cours des 10 dernières années, mais je crois que la plus importante est qu’un excellent membre de l’équipe qui offre une qualité constante et fait un « effort supplémentaire » vaut 10 fois quelqu’un qui fait juste ce qu’on lui dit, même correctement .

Ce courage que certaines personnes ont fait toute la différence, et maintenant je concentre mon embauche sur cette compétence non technique plus que tout.

Bien sûr, s’il s’agit d’un poste plus élevé, l’expérience jouera un grand rôle, mais je préfère former un employé junior passionné plutôt que de traiter avec un cadre supérieur adéquat.

Dans une enquête Gartner de 2022, le manque de ressources internes est apparu comme la plus grande lacune dans l’exécution des stratégies de contenu. Face à ce défi, comment attirer et fidéliser les meilleurs talents marketing ?

vice-président : « Nous avons construit une énorme marque dans le domaine du marketing numérique au cours des 10 dernières années. Nous sommes considérés comme des innovateurs et des créateurs de tendances dans l’espace, en particulier au Brésil, nous n’avons donc pas de problème d’attraction en matière de talents marketing.

De plus, l’un de nos «hacks» est notre centre d’apprentissage, Rock University, qui a déjà franchi la barre des 500 000 étudiants parce que nous éduquons essentiellement le marché pour nos besoins.

La fidélisation est un jeu différent car nous devons les garder engagés et enthousiastes envers l’entreprise, nous investissons donc beaucoup dans la formation et d’autres initiatives.

Je préfère avoir des équipes plus petites, pour que chaque membre ait plus de responsabilité et de reconnaissance. Comme nous sous-traitons notre création de contenu à notre propre réseau de freelances, il est plus facile d’avoir une équipe évolutive.

Leader dans une culture axée sur les données

Sur quel type de mesures de marketing de contenu vous concentrez-vous et comment déterminez-vous si vous avez la bonne stratégie en place ?

vice-président : « La principale mesure de mon équipe aujourd’hui est Sales Qualified Leads (SQLs), donc je dois générer non seulement un volume mais des prospects de haute qualité pour l’équipe de vente.

Il est facile de savoir si nous fonctionnons bien ou non avec cette métrique, et nous surveillons constamment les sources SQL en fonction de la quantité de pipeline générée par chaque source.

Ainsi, par exemple, si un parrainage génère 1 million dans le pipeline et me coûte 100 000, j’augmente l’investissement là-bas.

Ils disent que le rôle du CMO est largement motivé par l’analyse plutôt que par des décisions instinctives. Êtes-vous d’accord? Comment utilisez-vous les données dans votre travail quotidien ?

vice-président : « Je suis d’accord, et la plupart de mes décisions sont basées sur des données.

Je vérifie en permanence le nombre de requêtes SQL générées par mon équipe, le coût par dollar généré dans le pipeline et les performances des canaux et des campagnes. Mais les données seules ne suffisent pas pour prendre des décisions réfléchies, et c’est là que l’instinct et l’expérience entrent en jeu.

Un CMO doit examiner les données et voir une histoire, la comprendre et écrire son prochain chapitre.

Bien sûr, toutes les initiatives ne sont pas fortement basées sur des données. Il est toujours important de faire des choses qui ne sont pas directement mesurables, comme des campagnes de notoriété de marque, mais cela représente une petite partie de mon investissement et de mon temps.

Quelles sont les compétences dont les directeurs marketing ont besoin et qui ne reçoivent pas suffisamment d’attention ?

vice-président : « Être capable de créer et de raconter une belle histoire, à la fois en interne et en externe, est l’une des plus grandes compétences qu’un CMO doit avoir, et cela ne reçoit pas assez d’attention dans un monde axé sur les données.

Les données sont essentielles, bien sûr, mais si vous ne pouvez pas en faire une stratégie qui non seulement apporte des résultats, mais qui enthousiasme également les gens, vous aurez du mal à être un excellent CMO et leader.

Si vous deviez résumer la valeur d’un spécialiste du marketing de contenu, quelle serait-elle ?

vice-président : « Un excellent spécialiste du marketing de contenu peut créer des éléments de contenu qui semblent simples et faciles à écrire, mais derrière eux, il y a toujours une stratégie, beaucoup de recherche et des compétences qui sont invisibles pour l’utilisateur final, et c’est comme ça que ça devrait être. »

Selon vous, quel sera l’avenir du marketing de contenu ? Le rôle de l’IA dans la stratégie de contenu ?

vice-président : « Si tout se passe bien, le terme marketing de contenu ne sera plus utilisé dans un futur proche.

Les stratégies de contenu seront tellement intégrées au sein du département marketing que cela n’aura plus de sens de l’appeler marketing de contenu, de la même manière que nous ne disons plus Web 2.0.

Les bons CMO et spécialistes du marketing comprendront que le client suit un parcours où tout est contenu (même PPC, médias hors ligne, etc.), et cela n’a aucun sens de les traiter séparément. »

Découvrez cet épisode SEJShow avec Loren Baker, où Peçanha parle davantage de ce qui nous attend dans le marketing de contenu.

Davantage de ressources:

  • Une journée dans la vie d’un responsable du marketing de contenu
  • 11 conseils pour constituer une équipe de marketing de contenu exceptionnelle
  • 5 priorités clés en matière de référencement d’entreprise que les directeurs marketing doivent mettre en place


Image en vedette : Avec l’aimable autorisation de Vitor Peçanha

Données structurées de l’extrait d’examen des mises à jour Google

0

Google a mis à jour les données structurées de l’extrait d’avis afin de normaliser la façon dont les nombres sont écrits dans le code de données structurées pour les avis.

Le changement a pour effet de normaliser une version de l’écriture des nombres de décimales au lieu d’une autre qui est assez courante dans d’autres pays.

Examiner les données structurées d’extrait de code

Les données structurées de l’extrait d’avis sont importantes pour les sites qui présentent des avis sur les produits, car un balisage et des avis valides peuvent aboutir à un résultat d’extrait enrichi ou à un panneau de connaissances pouvant inclure des étoiles et un extrait de l’avis.

Les sujets éligibles concernés par ce changement sont :

  • « Livre
  • Cours
  • Événement
  • Comment
  • Entreprise locale (uniquement pour les sites qui enregistrent des avis sur d’autres entreprises locales…)
  • Film
  • Produit
  • Recette
  • Application logicielle »

La documentation de Google explique ce qu’est un extrait d’avis :

« Un extrait d’avis est un court extrait d’un avis ou d’une note d’un site Web d’avis, généralement une moyenne des scores d’évaluation combinés de nombreux critiques.

Lorsque Google trouve des avis ou des notes valides, nous pouvons afficher un extrait enrichi qui inclut des étoiles et d’autres informations récapitulatives des avis ou des notes.

En plus du texte de l’avis, une note est une évaluation décrite sur une échelle numérique (telle que 1 à 5).

Il est souhaitable de classer un avis avec un résultat riche, il est donc important de se tenir au courant de toute modification apportée à la documentation des données structurées.

Modification de la façon dont les nombres peuvent être exprimés

La modification apportée par Google aux données structurées affecte la manière dont les décimales sont écrites.

Dans certains pays, la devise peut être exprimée avec des virgules pour séparer la partie principale du nombre de la partie décimale ou des cents.

Par exemple, cent euros et vingt-cinq cents peuvent être exprimés de deux manières.

  1. Version virgule : 100,25 €
  2. Version point : 100,25 €

Google normalise la façon dont les nombres décimaux sont exprimés dans les données structurées.

Le changement n’affecte pas la façon dont il est écrit sur la page Web visible elle-même.

La documentation des données structurées de l’extrait d’examen elle-même reste presque exactement la même.

Il y a un changement trivial dans un paragraphe qui n’affecte pas le sens (suppression des guillemets).

Le changement important est contenu dans un paragraphe entièrement nouveau.

Voici le nouveau paragraphe :

« Pour les nombres décimaux, utilisez un point au lieu d’une virgule pour spécifier la valeur (par exemple 4,4 au lieu de 4,4).

Dans Microdata et RDFa, vous pouvez utiliser des attributs de contenu pour remplacer le contenu visible.

De cette façon, vous pouvez montrer à l’utilisateur la convention de style que vous souhaitez, tout en satisfaisant à l’exigence de points pour les données structurées.

Par exemple:
4,4 étoiles”

La modification des données structurées est-elle obligatoire ?

Les données structurées de l’extrait d’examen mises à jour indiquent clairement que des points doivent être utilisés pour spécifier des décimales au lieu d’une virgule.

Cependant, la documentation n’indique pas que l’utilisation de virgules entraînera des données structurées non valides. Il dit simplement d’utiliser des points au lieu de virgules.

Mais il y a une déclaration ailleurs qui communique cette information.

Les informations supplémentaires peuvent être trouvées sur le journal des modifications de Google, où Google fournit un journal des modifications apportées à la documentation de son développeur.

Les notes du journal des modifications de Google fournissent ces informations supplémentaires :

« Mise à jour des données structurées de l’extrait de révision pour recommander l’utilisation de séparateurs de points pour les notes décimales.

Si vous utilisez actuellement des séparateurs virgule pour les notes décimales dans votre balisage, vous serez toujours éligible pour les extraits d’avis.

Cependant, nous vous recommandons de mettre à jour votre balisage pour une interprétation plus précise.

Les points sont recommandés mais pas obligatoires

Les informations supplémentaires cachées dans le journal des modifications de Google indiquent qu’il est acceptable de continuer à utiliser des virgules dans les données structurées.

Google recommande l’utilisation de points, mais les virgules peuvent toujours être utilisées et seront toujours éligibles pour les extraits de révision.

En général, c’est une bonne pratique de faciliter les choses pour les moteurs de recherche. Donc, si Google recommande d’utiliser des points, l’utilisation de points peut inspirer la confiance que Google comprendra les données structurées.

Étrangement, il n’y a aucune déclaration dans la documentation officielle des données structurées de l’extrait de revue que les virgules sont acceptables, c’est là que cette déclaration devrait exister.

À moins d’avoir lu cet article, il faudrait tomber sur le journal des modifications pour savoir que les points sont recommandés et que les virgules restent valides.

Image sélectionnée par Shutterstock/Andrei Korzhyts

Les experts prédisent les pannes de Twitter et vous conseillent de télécharger vos données

0

De nombreux membres de la communauté technologique ont tweeté des avertissements d’une panne imminente de Twitter après que plusieurs tweets de Musk aient suscité des inquiétudes quant à la capacité de Twitter à rester en ligne.

Beaucoup ont recommandé de télécharger ses propres archives Twitter avant qu’il ne soit trop tard.

Musk aurait ordonné un gel complet de la base de code de Twitter et tweeté qu’il désactive de grandes parties de la base de code de Twitter, ce qui a suscité de vives inquiétudes dans les cercles technologiques sur Twitter.

Un directeur de la technologie, un ancien ingénieur logiciel principal de Twitter, un entrepreneur en technologie et des experts en sécurité influents ont tweeté des avertissements d’une éventuelle panne de Twitter, encourageant les utilisateurs à télécharger leurs données Twitter maintenant.

Prédictions de l’échec de Twitter

Un article récent de la revue MIT Technology a suggéré qu’une panne de Twitter se révélerait progressivement en petites pannes, certaines vues et d’autres non remarquées, qui finiraient par se transformer en une grosse panne.

L’article (Voici comment un ingénieur de Twitter dit qu’il va casser dans les semaines à venir) citait Ben Krueger, un ingénieur en fiabilité du site, expliquant pourquoi :

« Les pannes catastrophiques plus importantes sont un peu plus excitantes, mais le plus grand risque est que les petites choses commencent à se dégrader », explique Ben Krueger, un ingénieur en fiabilité du site qui a plus de deux décennies d’expérience dans l’industrie technologique.

Dans le même article, un ingénieur Twitter anonyme a proposé un scénario sur la façon dont Twitter va tomber :

« Les choses vont être brisées. Les choses seront cassées plus souvent. Les choses seront brisées pendant de plus longues périodes. Les choses seront brisées de manière plus grave », dit-il. « Tout va s’aggraver jusqu’à ce que, finalement, ce ne soit plus utilisable. »

Excuses de musc pour la lenteur des performances

La prise de conscience croissante que Twitter peut échouer en quelques jours a commencé après que Musk a tweeté des excuses pour la lenteur du service.

Musc tweeté:

« Btw, je voudrais m’excuser pour que Twitter soit super lent dans de nombreux pays. L’application fait plus de 1000 RPC mal groupés juste pour rendre une chronologie personnelle ! »

Un RPC est un appel de procédure à distance, qui est un protocole permettant aux logiciels de communiquer entre eux.

Musk blâmait essentiellement la lenteur du service sur trop d’appels de procédure à distance ralentissant le service (en déplaçant le blâme du fait que l’entreprise fonctionne avec une équipe réduite).

Un ancien ingénieur principal en infrastructure de Twitter, Sam Pullara, a tweeté une réponse expliquant comment les RPC ne sont pas le problème.

Il a expliqué que Musk confondait le backend de Twitter avec « l’application » car l’application Twitter n’utilise pas de RPC.

Sam a également réfuté l’idée que les RPC sont le problème en dehors des États-Unis, expliquant que tous les pays partageaient les mêmes RPC, donc ce n’est pas le backend qui est le problème.

Il a tweeté que le problème n’était pas les RPC :

Sam a poursuivi son explication :

Sam Pullara n’est pas seulement l’ancien ingénieur senior en infrastructure de Twitter, il a écrit la base de code qui a précédé la base de code actuelle et est également l’ancien technologue en chef de Yahoo.

Pullara est l’une des personnes qui savent comment Twitter fonctionne au niveau du code, donc quand il dit quelque chose, il parle avec ce niveau d’autorité et d’arrière-plan.

Musk a écarté l’explication de Sam et a non seulement insisté sur le fait que le problème venait des RPC, mais il a annoncé qu’il avait ordonné la suppression de ce qu’il considérait comme du code superflu.

Élon tweeté:

« Une partie de la journée consistera à désactiver les bloatwares » microservices « . Moins de 20% sont réellement nécessaires pour que Twitter fonctionne !

Twitter verrouille la base de code

La deuxième chaussure à tomber était un tweet de Zoë Schiffer (@ZoeSchiffer) Rédacteur en chef de Platformer (@plateforme) que Twitter verrouille sa base de code.

En elle a révélé ce qui se passe sur Twitter dans trois tweets (1, 2, 3):

« NOUVEAU : Twitter a verrouillé sa base de code, gelant les modifications de production apportées aux systèmes Twitter jusqu’à nouvel ordre. Des exceptions sont faites si Elon le dit explicitement, selon un e-mail interne. 1/

…Pendant un gel normal de la production, les ingénieurs peuvent valider du code, ils ne peuvent tout simplement pas le déployer. Ceci est différent. 2/

… Les employés de Twitter à qui j’ai parlé ne savent pas ce qui se passe. 3/3″

Plusieurs publications de professionnels de la technologie, de codeurs et de CTO ont commencé à tweeter la prudence de télécharger vos données Twitter maintenant plutôt que plus tard en raison de la perception que Twitter pourrait subir une panne en quelques jours, et non en quelques mois.

Ian Coldwater, un spécialiste reconnu de la sécurité informatique (qui a sa propre page Wikipédia) a tweeté son inquiétude à propos de Twitter :

Anil Dash, entrepreneur de Silicon Valley Tech (@anildash) tweeté:

« Pour les personnes extérieures à l’industrie : c’est une voix aussi crédible que possible. Agir en conséquence.

Téléchargez vos données Twitter ici : https://twitter.com/settings/download_your_data”

La référence d’Anil à une voix crédible était celle d’Erica Joy (@EricaJoy)directeur de la technologie du Comité de campagne du Congrès démocratique (DCCC).

Erica a tweeté qu’il y avait de « fortes chances » d’une panne de Twitter d’ici quelques jours :

Les utilisateurs de Twitter ne peuvent pas télécharger les archives

Certains utilisateurs ont tenté de télécharger leurs archives Twitter mais ont découvert que le SMS de Twitter était en panne ou que le système de téléchargement des archives ne fonctionnait plus.

La panne de Twitter arrive-t-elle plus tôt que tard ?

Bon nombre des personnes qui mettaient en garde contre une panne imminente de Twitter étaient des personnes hautement crédibles possédant une connaissance approfondie de la technologie et même une expertise du fonctionnement de Twitter.

Experte en sécurité influente, Jane Manchun Wong (@wongmjane), dont le MIT Technology Review a récemment écrit qu’il déversait les secrets de la Silicon Valley, un tweet à la fois, a tweeté ses réflexions sur la viabilité de Twitter.

Elle a expliqué qu’elle avait déjà téléchargé son archive Twitter au cours du week-end car elle avait des doutes sur ce qui arriverait à Twitter.

Si quelqu’un comme Jane Manchun Wong s’inquiète de ce qui va arriver à Twitter, tout comme un ancien ingénieur principal de Twitter, et qu’ils téléchargent tous les deux leurs archives Twitter, alors il est peut-être prudent de considérer que la capacité de Twitter à rester en ligne diminue plus rapidement qu’il ne l’est généralement visible.

Image sélectionnée par Shutterstock/Krakenimages.com

Comment les experts SEO prédisent & Résoudre les changements de demande surprise avec les données de recherche

0

Stimuler la croissance de vos clients est l’objectif ultime d’un professionnel du référencement, à la fois en termes de trafic et de revenus.

Pourtant, la demande étant une cible mobile encore plus forte qu’auparavant, comment savez-vous que vos objectifs de référencement sont sur la bonne voie ?

Comment repérer un changement soudain dans les tendances du volume de recherche de mots clés avant qu’il ne fasse dérailler vos campagnes de référencement ?

Les dernières années ont apporté des comportements de recherche changeants et des virages soudains, et la tendance semble se poursuivre à la fin de 2022.

Nous nous sommes associés à Lee Dobson, responsable des services clients chez Bulldog Digital Media, une agence de marketing e-commerce, pour en savoir plus sur la façon dont son agence :

  • Utilise les tendances de recherche et les données de saisonnalité d’une année sur l’autre pour garder le contrôle de ses campagnes de référencement.
  • La découverte du bon niveau de granularité les aide à repérer les problèmes et les nouvelles opportunités.
  • Établit la confiance avec la communication client.

Comme le soutient Dobson, « être capable de garder les clients satisfaits et à jour, surtout ces derniers temps et en traversant une récession, conduit à une meilleure rétention ». Et cela signifie communiquer constamment sur l’état de leurs campagnes et être proactif avec des solutions.

Découvrons comment Dobson et son équipe abordent tout ce qui précède.

Comment prédire les changements de demande surprise avec les données de recherche

Au sens SEO, les changements de demande sont tout changement qui se produit dans le volume de recherche dans une tendance de recherche normalement cohérente.

Ces changements de demande signifient généralement que les gens recherchent soudainement plus souvent ou beaucoup moins que d’habitude, et de grands changements peuvent faire dérailler toute stratégie de référencement que vous avez en place.

Au cours d’une année normale, les changements de demande attendus se produisent généralement autour des vacances ou d’autres événements bien connus lorsque les acheteurs en ligne et les recherches d’intention transactionnelle augmentent ; ces changements constants de la demande sont appelés tendances saisonnières du volume de recherche. Ceux-ci peuvent être suivis avec succès en comparant vos données connues, avec des pics réguliers dans les volumes de recherche. Ces données connues peuvent vous aider à créer avec succès une année complète de campagnes de référencement à l’avance.

Ensuite, il y a des changements de demande inattendus. Ces changements ne sont pas aussi simples, comme Dobson nous le montrera avec son client B2B dans l’espace hôtelier – qui a connu des pics et des baisses spectaculaires depuis 2020.

Depuis 2020, les volumes de recherche moyens sur 12 mois n’ont pas été aussi fiables pour brosser le tableau d’ensemble, car les changements rapides de la demande sont devenus la norme. Alors que diverses industries ont commencé à se redresser, de nouveaux changements sociaux ont créé de nouveaux comportements d’achat.

Jetons un coup d’œil de haut niveau sur le sujet du cas de Dobson avec le référencement hôtelier.

Étape 1 : Utiliser les tendances connues des données de recherche pour découvrir des informations ciblées

Tout d’abord, il est important de pouvoir suivre les changements connus de la demande.

Connaître vos changements de demande constants, d’une année sur l’autre, offre généralement un avantage. Grâce à cet avantage, vous pourrez consulter vos clients pour savoir où concentrer leurs budgets, quelles catégories prioriser et comment maximiser leurs stratégies gagnantes.

Connaître ces changements de demande vous aide à voir visiblement que votre campagne de référencement est sur la bonne voie. Dès que vous commencez à voir que le volume de recherche n’atteint pas les marqueurs prévus ou que de nouvelles tendances semblent émerger, vous vous dirigez peut-être vers un changement de demande. Il est temps de pivoter.

Et c’est ce que Dobson et son équipe ont fait.

En fait, ils devaient relever de nombreux défis avec un client de l’industrie hôtelière, mais les différences de saisonnalité étaient l’objectif principal.

«En tant qu’effet d’entraînement des tendances depuis la pandémie, la saisonnalité a changé avec les divers verrouillages et réouvertures qui se sont produits. Alors que les recherches B2B avaient massivement diminué, les recherches de termes B2C avaient explosé, ceux qui cherchaient maintenant à créer des bars à domicile voulant créer l’atmosphère à la maison.

« Avance rapide d’un an, l’industrie hôtelière recommence à s’ouvrir et nous commençons à voir les clients B2B revenir en masse. Y a-t-il quelque chose, en particulier, qu’ils recherchent ? La demande pourrait-elle être considérée comme accrue? Tombera-t-il encore ? Il y avait beaucoup d’incertitude, donc les données de recherche étaient essentielles ici.

Maintenant, en 2022, une année sans restrictions, le défi est de savoir comment la demande a de nouveau changé, et même plus récemment, avec la crise du coût de la vie. Cela va-t-il maintenant changer les attentes de la performance de Noël ?

Avec des volumes de recherche moyens, des tendances d’une année sur l’autre et la saisonnalité côte à côte, l’équipe SEO de Bulldog Digital Media pourrait intervenir rapidement et conseiller sur le meilleur plan d’action tout en réussissant à répondre à toutes les questions ci-dessus.

Les tendances de saisonnalité + les données spécifiques à la verticale vous aident à voir les changements de demande plus rapidement

Mis à part les événements saisonniers réguliers à travers les périodes de l’année ou les jours fériés internationaux, bien connus pour le secteur du commerce électronique, chaque secteur vertical a ses spécificités, dont certaines ne sont pas si évidentes, en particulier lorsque vous travaillez avec des acteurs B2B.

Montrer le savoir-faire de ces spécificités avec les données de recherche renforce la confiance dans vos capacités de conseil, faisant de vous un partenaire et pas seulement l’équipe qui exécute les actions de référencement.

C’est pourquoi il est important de disposer d’un outil qui rende efficace le suivi de la saisonnalité afin que vous puissiez vous concentrer sur la prochaine étape stratégique.

Dans SEOmonitor, cela est réalisé avec des étiquettes automatiques, vous informant lorsque les mots-clés ciblés approchent de la haute saison ou sont hors saison, vous permettant ainsi de planifier le contenu à l’avance.

Pourtant, à mesure que l’histoire de Dobson se poursuit, tout dépend de la façon dont tous les points de données clés se rejoignent.

Étape 2 : Créez des catégories de mots-clés SEO et voyez facilement quels secteurs fluctuent

Pour que les données fonctionnent pour vous, le bon niveau de granularité est également important.

En ce qui concerne le site de commerce électronique de Dobson, ils segmentent leurs mots clés ciblés par la structure des catégories, car c’est le moyen le plus simple de voir comment se portent des zones spécifiques. C’est simple et efficace, car la logique métier est intégrée à l’architecture d’information du site Web.

De plus, être en mesure de suivre des catégories prioritaires spécifiques et leurs concurrents de section signifie repérer les lacunes plus tôt, donc une prise de décision plus rapide.

C’est pourquoi Bulldog Digital Media exploite le tracker de classement de SEOmonitor avec des données de classement quotidiennes pour les ordinateurs de bureau et mobiles en standard, ainsi qu’un système de regroupement de mots clés qui leur permet de conserver la hiérarchie des catégories.

« Parce que toutes les catégories sont clairement divisées en sections, nous sommes rapidement en mesure de voir quels domaines connaissent une demande soutenue, accrue ou réduite à l’aide des données de recherche. »

À quoi cela ressemble-t-il ?

« Prenons l’exemple de la catégorie Verres à cocktail ci-dessous. Nous avons constaté que la visibilité, dans l’ensemble, s’était améliorée. Le trafic provenant de l’organique, cependant, avait considérablement diminué.

Ce que nous constatons, en fait, c’est que la demande a considérablement chuté, nous laissant avec une victoire douce-amère, car bien que nous ayons amélioré le classement de nos clients, les effets souhaités ne se sont pas produits grâce aux changements de la demande.

Comment les experts SEO prédisent &  Résoudre les changements de demande surprise avec les données de recherche

Disposant d’un outil permettant de rassembler toutes les données critiques en une seule vue, l’équipe pourrait les extraire lors de réunions avec le client pour l’aider à l’informer rapidement des changements survenus sur le marché, tout en expliquant pourquoi le trafic n’était pas là où il s’y attendait. être.

Étape 3 : Tirez parti des balises, des annotations et de la transparence pour découvrir rapidement ce qui s’est passé et quand

Dobson souligne l’importance d’examiner et de communiquer constamment à la fois en interne et avec le client.

« Pour le B2B, où le secteur de l’hôtellerie était sur le point d’avoir une saison estivale complète, nous pourrions également utiliser les données de tendance dans toutes les catégories pour voir quelles gammes de produits sont les plus demandées, en faisant rapidement pivoter la stratégie pour nous concentrer sur ces zones chaudes afin de maximiser la visibilité », il explique.

Il s’agissait d’être structuré et transparent dès le départ.

Utilisez les annotations pour plus d’efficacité

Pour rendre le processus de gestion des campagnes plus efficace, il conseille d’utiliser des annotations.

« Dans les analyses du client, nous avions ajouté des annotations aux événements clés, ce qui nous permettait de faire facilement correspondre n’importe quel modèle rapide aux événements. »

Comment les experts SEO prédisent &  Résoudre les changements de demande surprise avec les données de recherche

Vous devriez penser à améliorer la fonction d’annotation dans chaque outil de votre pile SEO, car vous :

  • Sachez exactement ce qui s’est passé et quand.
  • Rapport sur les performances SEO par rapport aux forces externes influençant l’objectif.
  • Expliquez la logique et le marché à vos clients, en étant proactif sur toute correction de cap nécessaire.

Étape bonus pour les agences de référencement : gérez constamment les attentes de vos clients

À chaque changement de demande et baisse de trafic, Bulldog Digital Media a tenu le client au courant.

« Alors que le client avait des inquiétudes concernant les chutes de trafic, l’utilisation des données et des outils à notre disposition nous a permis d’être proactifs pour fournir des informations précieuses pour son entreprise. Par exemple, en 2020, l’un des grands domaines de croissance de l’entreprise était les ventes de spas, principalement en raison de la météo, mais aussi parce que les gens savaient qu’ils passeraient beaucoup plus de temps à la maison. Pour le printemps 2021, nous voulions surveiller de près si nous anticipions une augmentation similaire, et si ce n’est pas le cas, aligner rapidement les tendances du trafic et des données pour voir si nous manquions ailleurs.

Avec ce niveau d’agilité et de transparence, on peut faire confiance à l’équipe SEO pour diriger l’entreprise dans le bon contexte.

Mais cela signifie également que vous devez être honnête et signaler chaque étape du processus. Même lorsque des baisses se produisent et que la campagne de référencement semble faiblir.

« Les retours ont été positifs de la part du client, qui a pu associer rapidement ce qui se passait, mais aussi capable de relayer en interne pour aider le client à être agile avec les prochaines étapes et à aligner rapidement les attentes. »

De nombreux niveaux doivent être alignés pour qu’une campagne de référencement reste sur la bonne voie. Des rapports constants, une communication excessive et des interventions rapides sont donc essentiels pour s’assurer que chaque partie fait sa part.

Pour certains clients, Bulldog Digital Media inclut même un accès en lecture seule dans leur outil de référencement pour les aider avec les rapports internes et l’alignement.

SEOmonitor peut vous aider à détecter et à corriger facilement les changements de demande dans le référencement

Avec des changements de demande qui se produisent dans des boucles plus rapides, en particulier lorsque vous travaillez avec des acteurs du commerce électronique, il ne suffit pas d’examiner les volumes de recherche en eux-mêmes.

L’utilisation des tendances de recherche d’une année sur l’autre, la surveillance étroite de la saisonnalité et la compréhension de l’évolution du marché aident à prendre les bonnes décisions et à adapter constamment les efforts de référencement.

Bien sûr, comme l’a expliqué Bulldog Digital Media, il s’agit également de connaître l’entreprise du client, ses points forts et à quoi ressemble la concurrence pour chaque catégorie de produits ou de services.

Et avoir le bon niveau de granularité pour savoir quand c’est un problème de performance et quand c’est un problème de marché.

En gardant tout ce qui précède à l’esprit, chez SEOmonitor, nous avons développé un tracker de classement qui aide les professionnels du référencement à évoluer. Vous obtenez:

  • Classements quotidiens pour ordinateur et mobile inclus dans le même prix.
  • Suivi de tous les concurrents, vous n’avez donc qu’à choisir ceux qui vous intéressent.
  • Trois niveaux de regroupement de mots-clés pour gérer facilement des campagnes complexes.
  • Utilisateurs illimités, vous pouvez donc inviter à la fois votre équipe et vos clients sur la plateforme.

Ce ne sont là que quelques-unes des caractéristiques qui aident les clients à se concentrer sur la croissance de leur entreprise.

Rejoignez-nous dans notre voyage pour renforcer la transparence et la confiance dans et pour l’industrie du référencement.

Google déploie 2 nouvelles façons d’analyser les données dans Ads Data Hub

0

Google déploie de nouvelles façons d’analyser les données à l’aide d’Ads Data Hub avec des solutions conçues pour les spécialistes du marketing et les partenaires de mesure tiers.

Google Ads Data Hub permet aux spécialistes du marketing d’analyser les données par rapport à des objectifs commerciaux spécifiques, tels que la quantification du parcours d’achat d’un client.

Les partenaires de mesure utilisent également ads Data Hub pour effectuer des évaluations tierces de mesures telles que la visibilité des vidéos et la portée de l’audience.

Pour satisfaire les deux groupes d’utilisateurs, Google lance deux outils dédiés dans Ads Data Hub : Ads Data Hub for Marketers et Ads Data Hub for Measurement Partners.

Centre de données Google Ads pour les spécialistes du marketing

Avec Ads Data Hub for Marketers, Google vise à aider les marques et les agences à analyser davantage de leurs données en un seul endroit et à fournir un accès plus rapide aux informations.

La version d’Ads Data Hub conçue pour les spécialistes du marketing offre une expérience simplifiée, en se concentrant sur des informations qui informent mieux sur la façon dont les marques et les agences achètent des médias.

Google partage un exemple de la façon dont Riot Games, les développeurs du jeu PC League of Legends, utilise Ads Data Hub pour analyser ses efforts marketing :

« L’entreprise a centralisé ses informations et les a combinées avec les données de Display & Video 360 et de Campaign Manager 360. Cela a permis à Riot Games d’attribuer le crédit à divers points de contact publicitaires, de mesurer avec précision le retour sur les dépenses publicitaires (ROAS) et d’établir une nouvelle référence montrant que pour chaque dollar dépensé par Riot Games sur les médias Google, il a reçu 2 dollars de revenus. Les spécialistes du marketing, comme Riot Games, effectuent ces analyses régulièrement, avec des centaines de milliers de requêtes exécutées rien qu’en 2022. »

À mesure que les spécialistes du marketing utilisent la version simplifiée d’Ads Data Hub et accumulent de nouveaux modèles de requête et flux de travail, Google suggère qu’il y aura moins besoin de ressources techniques supplémentaires.

Dans les futures mises à jour, les spécialistes du marketing pourront activer des segments d’audience sur le nouvel inventaire, y compris YouTube.

Hub de données Google Ads pour les partenaires de mesure

Les partenaires de données tiers peuvent utiliser Ads Data Hub For Measurement Partners pour fournir des services de mesure YoUTube au nom de spécialistes du marketing, d’annonceurs, d’agences ou d’éditeurs.

Google affirme que la version d’Ads Data Hub conçue pour les partenaires de mesure facilite l’offre d’informations précises et en temps quasi réel.

Cela permet aux spécialistes du marketing de travailler avec des partenaires tiers indépendants pour calculer et rapporter les performances des publicités YouTube sur tous les appareils, formats et statistiques.

En outre, Google étend les services de mesure sur Ads Data Hub pour permettre des solutions cross-média pour YouTube. Cela permet d’analyser les performances des campagnes YouTube par rapport à d’autres canaux médiatiques.


La source: Google

Image en vedette : Capture d’écran de blog.google/products/marketingplatform/360/ads-data-hub-powered-solutions/, octobre 2022.

Données SEO et nouvelles opportunités [Podcast]

0

Qu’est-ce qui est le plus important pour votre résultat SEO ? Données ou sentiments ?

Les données, bien sûr !

Dmitrii Kustov de Regex SEO me rejoint sur le SEJShow pour parler des données SEO, des opportunités de référencement des services à domicile (qui ont explosé après Covid) et d’autres tendances de recherche émergentes.

Vous obtiendrez également des informations sur les mises à jour, le suivi et les attentes de retour sur investissement de Google en matière de référencement, ainsi que sur la création de prospects localisés axés sur les services.

Commencez à enregistrer les données. Commencez à suivre les données dès aujourd’hui. Sans cela, vous ne pouvez prendre aucune décision basée sur les données dont vous ne disposez pas. –Dmitri Kustov, 13:57

Au lieu de l’optimisation des moteurs de recherche, j’aime la génération de revenus organiques. Quel est l’intérêt de la recherche organique ? Ce n’est pas seulement le trafic, c’est la génération de revenus à partir de ce canal. Beaucoup de gens n’ont pas cette expression, mais c’est ce que je préfère appeler SEO, « Génération organique de revenus ». –Dmitri Kustov, 21:48

J’ai toujours constaté que je ne considérais pas le référencement comme un service autonome que les gens achètent, et c’est tout. Il doit être intégré dans la machine marketing globale, où la qualité et le suivi des prospects entrent en jeu. Le marketing amène quelqu’un plus loin dans l’entonnoir pour effectuer cette vente. –Loren Baker, 16:28

[00:00] – À propos de Dimitri.
[02:10] – Services à domicile dans lesquels Dmitri est spécialisé.
[03:18] – Que signifie être data-driven ?
[06:12] – Ce que signifie le retour sur investissement pur.
[09:27] – Devriez-vous vous concentrer sur les articles coûteux pour une optimisation sur site ?
[17:48] – Le point de vue de Dmitri sur le classement uniquement pour le front-end.
[22:59] – Rôle de la recherche directe sur les données.
[27:46] – Questions à poser aux équipes produit pour commencer à enregistrer les données.
[29:55] – Pouvez-vous tirer parti du trafic national des publications de blog pour les services à domicile ?
[35:07] – Le point de vue de Dmitri sur les récentes mises à jour de contenu de Google.
[40:47] – Les réflexions de Dmitri sur EAT

Ressources citées :

Référencement Regex – https://www.regexseo.com/

Le contenu n’est pas seulement du contenu textuel. De nos jours, le contenu textuel disparaît. Donc, si vous êtes une entreprise établie, un médecin, un cabinet de santé ou un vétérinaire, engagez un vidéaste ou un monteur stagiaire et laissez-le simplement vous suivre et faire un petit YouTube montrant n’importe quoi ou de petites interviews. Il est beaucoup plus facile pour un médecin ou un expert de s’asseoir devant la caméra pendant 15 minutes et de répondre à quelques questions que de s’asseoir et d’écrire un article de 2000 qui va prendre une journée ou plus. Si vous avez du contenu vidéo, YouTube est votre ami. De nos jours, le contenu textuel devient une plus petite partie du marketing de contenu. –Dmitri Kustov, 50:53

Si vous êtes dans l’industrie du marketing et du jeu SEO et que vous le faites correctement, ce qui signifie que vous produisez un excellent contenu, n’utilisez pas de chapeau noir, de construction de backlinks de chapeau gris ou de tout ce genre de choses,
aucune des mises à jour ne vous affectera. Ils devraient même améliorer votre classement. –Dmitri Kustov, 37:49

Il y a une grande différence entre la confiance et la connaissance. Quelqu’un peut être l’individu le plus intelligent dans son espace, et quelqu’un peut être incroyablement bien informé. Pourtant, cela ne signifie pas nécessairement qu’ils sont dignes de confiance. –Loren Baker, 46:32

Pour plus de contenu comme celui-ci, abonnez-vous à notre chaîne YouTube : https://www.youtube.com/user/searchenginejournal

Connectez-vous avec Dmitri Kustov:

Ayant une forte passion pour les affaires et un désir d’aider les autres ont conduit Dmitri à créer sa propre entreprise – Regex SEO. Il travaille avec des entreprises de toutes tailles pour les aider à développer leur présence en ligne.

En tant que directeur marketing axé sur les données, il aide les entreprises à augmenter leur part de marché et leurs revenus en optimisant leurs budgets marketing. Parmi d’autres plateformes marketing de haut niveau, il a été présenté sur Forbes, MOZ et SEMrush HackerNoon.

Connectez-vous avec Dmitri sur LinkedIn : https://www.linkedin.com/in/digitalspaceman/
Suivez-le sur Twitter : https://twitter.com/DigitalSpaceman

Connectez-vous avec Loren Baker, fondatrice de Search Engine Journal :

Suivez-le sur Twitter : https://www.twitter.com/lorenbaker

Connectez-vous avec lui sur LinkedIn : https://www.linkedin.com/in/lorenbaker

L’état du référencement : données d’enquête pour planifier votre prochaine année en référencement

0

Vous vous demandez sur quoi vous devriez concentrer vos efforts de référencement en 2023 ?

Notre deuxième rapport annuel de données de première partie contient toutes les informations dont vous avez besoin pour faire avancer votre stratégie.

Découvrez les événements les plus importants de l’industrie du référencement cette année, ainsi que la façon dont les professionnels du référencement réagissent à l’évolution de la technologie et de la dynamique des consommateurs.

Plus que 3 600 professionnels du référencement ont répondu au sujet de leurs expériences au cours de l’année écoulée et de ce qu’ils attendent pour l’avenir.

Dans notre rapport annuel sur l’état du référencement, nous répondons à vos questions les plus urgentes avec des données utiles directement de notre public.

Téléchargez le rapport pour lire nos conclusions complètes sur :

  • Carrière SEO, salaire et aperçu du marché du travail.
  • Budgets SEO et priorités budgétaires pour différents professionnels du référencement.
  • Objectifs, métriques et résultats de la campagne.
  • Défis auxquels les professionnels du référencement ont été confrontés cette année et défis attendus pour 2023.
  • Ce que les pros du référencement surveillent l’année prochaine.

Nouveaux professionnels du référencement entrant dans l’industrie

Plus d’un quart des participants au sondage avaient deux ans ou moins d’expérience dans l’industrie du référencement. Les réponses indiquent également que la demande de professionnels du référencement est élevée.

Dans des régions comme les États-Unis, le Canada et l’Australie, les professionnels du référencement au cours des quatre premières années de leur carrière ont la possibilité d’accéder à des tranches de salaire élevées.

Environ 31 % de ceux qui ont moins de deux ans d’expérience et 34 % de ceux qui ont de deux à quatre ans d’expérience ont déclaré gagner entre 75 000 $ et 90 000 $.

Téléchargez le rapport complet sur l’état du référencement et approfondissez les dernières données sur les salaires SEO.

Il y a eu une baisse des salaires moyens par rapport à l’année dernière, probablement en raison du nombre de nouveaux arrivants et de la croissance du référencement dans les régions où la devise est très différente du dollar américain.

L'état du référencement : données d'enquête pour planifier votre prochaine année en référencement

Alors que beaucoup prédisent une nouvelle croissance de l’industrie, beaucoup ont cité l’acquisition de talents comme une préoccupation importante l’année prochaine.

Nous ne pouvons pas non plus ignorer les ombres menaçantes d’une récession et les politiques de la Réserve fédérale américaine visant à refroidir le marché du travail américain. L’année prochaine pourrait s’avérer difficile pour les professionnels du référencement et les nouveaux demandeurs d’emploi.

Le référencement technique était la priorité absolue cette année

Les principales activités auxquelles les participants ont passé leur temps à faire cette année étaient :

  • Référencement technique (15,0%).
  • Stratégie et planification SEO (13,5%).
  • Recherche de mots-clés (13,5%).
  • Référencement sur la page (12,9 %).

L'état du référencement : données d'enquête pour planifier votre prochaine année en référencement

Cela est probablement dû aux mises à jour de Google donnant la priorité à la vitesse, à la sécurité et à la stabilité du site Web.

La mise à jour Page Experience est arrivée sur le bureau en février 2022. L’expérience de la page est une priorité pour de nombreux professionnels du référencement depuis Core Web Vitals en 2020, et la mise en œuvre a été finalisée cette année.

Les entreprises pourraient également se recentrer sur les bases techniques après l’énorme croissance des canaux numériques au cours des deux dernières années.

Cela pourrait également expliquer l’accent mis sur la stratégie et la recherche. Les spécialistes du marketing ont dû expérimenter et agir rapidement pour suivre le rythme. Cette année, les professionnels du référencement ont semblé adopter une approche plus réflexive et technique.

Téléchargez le rapport complet sur l’état du référencement et plongez plus profondément dans les dernières tendances du secteur.

La preuve du retour sur investissement et le suivi des résultats continuent de s’avérer difficiles

Le référencement prend beaucoup de temps. Il y a aussi tellement de paramètres à mesurer qu’il peut être difficile de s’assurer que les objectifs de la campagne et le suivi des performances correspondent.

Lorsque vous creusez dans les données du rapport, vous verrez que les services que les professionnels du référencement ont été invités à fournir sont quelque peu différents des mesures qu’ils utilisent pour suivre les performances.

  • Le « classement des mots clés » était la mesure la plus suivie, mais seulement le troisième service le plus demandé.
  • Les « prospects qualifiés » étaient à égalité pour la cinquième place en tant que métrique suivie, mais la génération de prospects était le deuxième service le plus demandé.
  • Et tandis que les pages vues occupaient la deuxième place sur la liste des mesures suivies, le trafic Web était le service le plus demandé.

De plus, un nombre surprenant de participants, 29%, étaient ambivalents – ni satisfaits ni insatisfaits – de leurs résultats SEO au cours de la dernière année.

L'état du référencement : données d'enquête pour planifier votre prochaine année en référencement

Les deux dernières années ont été difficiles, pour faire un euphémisme sévère.

Il est logique que les entreprises et les professionnels du référencement aient du mal à examiner leurs résultats ; de nombreuses industries ont beaucoup changé en peu de temps.

Surtout avec les changements qui se profilent à l’horizon, il est essentiel de mettre en place des campagnes de référencement pour réussir en choisissant les mesures que vous suivez attentivement.

L’IA et l’apprentissage automatique devraient avoir un impact important l’année prochaine

2022 a été une grande année, apportant des changements à la fois attendus et inattendus.

Les professionnels du SEO et du SEM sont aux prises avec des mises à jour de la plateforme qui changeront la façon dont ils collectent et rapportent les données ainsi que la façon dont ils gèrent les campagnes.

L'état du référencement : données d'enquête pour planifier votre prochaine année en référencement

De nombreux professionnels du référencement s’attendent à ce que l’IA et l’apprentissage automatique provoquent de grands changements et présentent de grands défis l’année prochaine.

Performance Max, GA4 et la suppression progressive des cookies tiers sont quelques-uns des changements auxquels il faut prêter attention.

L'état du référencement : données d'enquête pour planifier votre prochaine année en référencement

Les plateformes publicitaires et les moteurs de recherche se tournent vers l’IA et l’apprentissage automatique pour améliorer leurs services et leurs fonctionnalités.

Performance Max est un exemple fantastique de la direction que voient de nombreux professionnels du référencement.

Les gestionnaires de campagnes publicitaires perdront bon nombre des options de personnalisation auxquelles ils sont habitués au profit de laisser les algorithmes faire des ajustements en fonction des données de performance.

Et, bien sûr, il y a les algorithmes de Google en constante amélioration. Au fur et à mesure que de nouveaux brevets et mises à jour sont ajoutés à Google et à d’autres moteurs de recherche, les professionnels du référencement devront être rapides pour réagir et suivre les coups.

Prêt à en savoir plus sur les salaires, les budgets et les performances SEO ?

Dans notre rapport complet, vous verrez des informations à côté des données, ainsi que des commentaires d’experts de notre équipe.

Téléchargez le rapport principal sur l’état du référencement et référencez-le pendant que vous élaborez votre stratégie pour l’année prochaine.

L'état du référencement : données d'enquête pour planifier votre prochaine année en référencement

Google met à jour les données structurées des images

0

Google a ajouté trois nouvelles propriétés de données structurées à utiliser avec le type ImageObject afin d’ajouter la prise en charge des informations sur le crédit, le droit d’auteur et le créateur d’image via des données structurées.

Il s’agit d’une amélioration par rapport à la méthode précédente qui reposait sur les métadonnées de photo IPTC.

IPTC est l’abréviation de International Press Telecommunications Council, qui est l’organisme de normalisation des médias d’information.

Les métadonnées IPTC permettent d’ajouter des informations de crédit et de licence aux photos.

Google facilite la communication de ce type d’informations à Google en ajoutant une prise en charge via les données structurées d’image.

Le journal des modifications de l’assistance aux développeurs de Google indique :

“Ajout de la prise en charge des crédits d’image dans la documentation des données structurées des métadonnées d’image.

Auparavant, vous ne pouviez fournir des informations de crédit d’image qu’avec les métadonnées de photo IPTC. »

Les pages officielles des développeurs pour les métadonnées de licence d’image ont été mises à jour pour refléter la prise en charge mise à jour via des données structurées.

La documentation a été mise à jour pour refléter les changements.

Cela commence maintenant avec cette toute nouvelle déclaration d’ouverture :

« Lorsque vous spécifiez des métadonnées d’image, Google Images peut afficher plus de détails sur l’image, comme qui est le créateur, comment les gens peuvent utiliser une image et des informations de crédit. »

Voici les nouvelles propriétés des données structurées :

  • creditText
  • créateur
  • Copyright

C’est à cela que servent les nouveaux types de données structurées, selon Schema.org :

  • « créditTexte

    Texte pouvant être utilisé pour créditer les personnes et/ou les organisations associées à une œuvre créative publiée.

  • créateur

    Le créateur/auteur de ce CreativeWork. C’est la même chose que la propriété Author pour CreativeWork.

  • Copyright

    Texte d’un avis approprié pour décrire les aspects du droit d’auteur de cette œuvre créative, indiquant idéalement le propriétaire du droit d’auteur pour l’œuvre. »

Exemples de modifications des exigences en matière de données structurées

Google a mis à jour les exemples de données structurées pour montrer comment les nouvelles propriétés peuvent être utilisées.

Avant de

Voici à quoi ressemblait l’exemple précédent :

<script type="application/ld+json">
{
"@context": "https://schema.org/",
"@type": "ImageObject",
"contentUrl": "https://example.com/photos/1x1/black-labrador-puppy.jpg",
"license": "https://example.com/license",
"acquireLicensePage": "https://example.com/how-to-use-my-images"
}
</script>

Après

Voici l’exemple de données structurées mis à jour :

<script type="application/ld+json">
{
"@context": "https://schema.org/",
"@type": "ImageObject",
"contentUrl": "https://example.com/photos/1x1/black-labrador-puppy.jpg",
"license": "https://example.com/license",
"acquireLicensePage": "https://example.com/how-to-use-my-images",
"creditText": "Labrador PhotoLab",
"creator": {
"@type": "Person",
"name": "Brixton Brownstone"
},
"copyrightNotice": "Clara Kent"
}
</script>

Plus facile d’ajouter des données de créateur et de copyright

Ces modifications permettent aux éditeurs d’ajouter plus facilement des données sur les créateurs. Ce qui est particulièrement pratique dans l’utilisation de données structurées pour ce type d’informations, c’est que les plug-ins peuvent faciliter leur ajout à l’échelle.


Citation

Lire la documentation officielle

Métadonnées d’image dans Google Images

Lire la version archivée de l’ancienne documentation

Licence d’image dans Google Images

Image sélectionnée par Shutterstock/Daniel Krason

Privacy Shield 2.0 : le cadre de protection des données peut profiter aux entreprises américaines

0

Le président des États-Unis, Joe Biden, a signé ce mois-ci un décret exécutif pour mettre en œuvre le cadre de confidentialité des données de l’Union européenne (UE) et des États-Unis connu sous le nom de Privacy Shield 2.0.

Privacy Shield 2.0 rétablit une voie légale pour que les données personnelles circulent des États-Unis vers l’Europe. Le décret exécutif fait suite à plus d’un an de pourparlers entre les négociateurs américains et européens.

De plus, Privacy Shield 2.0 fait suite à deux rejets de précédents accords de transfert de données transatlantiques par la Cour de justice de l’UE – l’un en 2015 et l’autre en 2020.

Pour mieux comprendre ce que le nouveau cadre de confidentialité des données signifie pour les entreprises, il est utile de savoir comment et pourquoi l’accord Privacy Shield 2.0 a été conclu en premier lieu.

Voici une chronologie des événements menant à la signature du décret, suivie d’une analyse de la manière dont le cadre peut aider les entreprises.

Privacy Shield 2.0 : Chronologie des événements

  • 2000: Les États-Unis et l’UE ont établi le Safe Harbor Framework pour protéger les transferts de données entre les États-Unis et l’Europe.
  • 2013: Edward Snowden dénonce un programme de surveillance de masse aux États-Unis appelé PRISM.
  • 2014: Le militant européen de la protection de la vie privée Max Schrems dépose une plainte contre Facebook auprès du commissaire irlandais à la protection des données. L’affaire est connue sous le nom de Schrems I.
    • Les lois européennes sur la protection de la vie privée interdisent les transferts de données vers des pays non membres de l’UE, sauf si l’entreprise peut garantir une protection adéquate.
    • La plainte initiale a été rejetée et il a fait appel de la décision devant la Cour de justice de l’UE.
  • 2015: La Cour de justice de l’UE décide que le cadre de la sphère de sécurité entre les États-Unis et l’UE n’est plus suffisant en raison du programme de surveillance PRISM.
    • La décision signifie que le transfert de données personnelles entre l’UE et les États-Unis a été n’est plus autorisé.
  • 2016: Les États-Unis et l’UE adoptent un autre accord de transfert de données appelé Privacy Shield.
    • L’accord est resté en place pendant quatre ans avant que Schrems ne dépose une autre affaire connue sous le nom de Schrems II.
  • 2020: Schrems gagne son deuxième procès. La Cour de justice de l’UE annule le Privacy Shield 1.0 après avoir décidé que les programmes de surveillance américains vont au-delà de ce qui est nécessaire et proportionné.
  • 2022: Le 25 mars, le président américain Joe Biden et la présidente de la Commission européenne Ursula von der Leyen ont signé un accord politique sur un nouveau cadre transatlantique de confidentialité des données. L’accord est appelé Privacy Shield 2.0.
  • 2022: Le 6 octobre, le président Biden a signé un décret exécutif pour mettre en œuvre le Privacy Shield 2.0.

Le nouvel accord-cadre transatlantique sur la confidentialité des données de Biden et Von der Leyen promet de mettre en œuvre de nouvelles garanties pour garantir que les activités de renseignement américaines sont « nécessaires et proportionnées à la poursuite d’objectifs provocants de sécurité nationale ».

Le nouveau cadre permettra également aux citoyens de l’UE de prendre des mesures s’ils pensent que les activités de renseignement américaines les visent illégalement.

Privacy Shield 2.0 permet aux citoyens de l’UE de porter plainte contre la confidentialité devant un tribunal de révision de la protection des données composé de personnes extérieures au gouvernement américain. La cour de révision a la décision finale sur l’utilisation légale des données.

Que signifie Privacy Sheild 2.0 pour les entreprises ?

De nombreuses entreprises présentes aux États-Unis et en Europe soutiennent le Privacy Shield 2.0, car il renouvelle une relation de protection des données d’une valeur de 7,1 billions de dollars américains.

Meta est l’une de ces entreprises, ce qui est ironique étant donné que le traitement des données personnelles par Facebook a conduit à l’annulation de l’ancien cadre.

Nick Clegg, président des affaires mondiales de Meta, déclare sur Twitter (en réponse à la nouvelle de Biden signant le décret exécutif):

« Nous nous félicitons de cette mise à jour de la loi américaine qui contribuera à préserver l’internet ouvert et à garder les familles, les entreprises et les communautés connectées, où qu’elles se trouvent dans le monde. »

Les données personnelles sont très précieuses pour les entreprises dont les annonceurs utilisent ces données, il n’est donc pas surprenant que Meta favorise la réouverture du pipeline de données.

Les entreprises américaines diffusant des publicités sur Facebook pourraient bénéficier de la possibilité de proposer des publicités plus personnalisées aux clients européens.

À cette fin, le cadre peut aider toutes les entreprises basées aux États-Unis qui font des affaires à l’étranger. Les données sont l’élément vital de toute campagne de marketing et de publicité réussie, et les entreprises américaines peuvent désormais collecter légalement davantage de données auprès de leur public européen.

Linda Moore, présidente et chef de la direction du groupe industriel TechNet, a également déclaré son soutien au Privacy Shield 2.0 :

« Nous félicitons l’administration Biden d’avoir pris des mesures positives pour garantir l’efficience et l’efficacité des flux de données transfrontaliers américains et européens et nous continuerons à travailler avec l’administration et les membres du Congrès des deux parties pour adopter un projet de loi fédéral sur la confidentialité. »

Pour illustrer davantage ce que ce cadre signifie pour les entreprises, il est important de souligner ce qu’elles risquent de perdre sans un accord de confidentialité des données.

Mikołaj Barczentewicz, chercheur principal au Centre international de droit et d’économie (ICLE), souligne les implications d’un report supplémentaire de l’accord :

« Il est urgent de parvenir rapidement à un accord sur un bouclier de protection des données efficace, car les citoyens de l’UE risquent déjà de perdre l’accès à des services tels que Google Analytics et Facebook, sans parler de la perturbation potentielle des services financiers tels que les réseaux d’assurance et de paiement.

Ce qui sera crucial, c’est que la proposition américaine aborde les deux aspects que l’UE s’attend à voir couverts : la réparation pour les citoyens européens et l’assurance que les pratiques américaines de surveillance des données sont « nécessaires et proportionnées ». Nous pouvons espérer que les tribunaux de l’UE seront raisonnables, mais les litiges sont presque certains.

Que se passe-t-il ensuite ?

Le décret signé par le président Biden va maintenant être soumis à un processus de ratification par la Commission européenne.

On ne sait pas combien de temps le processus prendra, car le décret exécutif pourrait faire face à des contestations judiciaires en Europe.

Nous continuerons à suivre cette histoire et fournirons une mise à jour lorsque plus d’informations seront disponibles.


Sources supplémentaires: Whitehouse.gov (1, 2), IAPP.org, ec.europa.eu.

Image en vedette : J_UK/Shutterstock

Comment utiliser le nouvel éditeur Bing Ads pour faire évoluer la gestion des données des extensions

0

Comme les extensions d’annonces peuvent générer une croissance à deux chiffres du CTR par rapport aux annonces textuelles classiques, vous êtes nombreux à les adopter à un rythme rapide. Un moyen populaire de créer rapidement des extensions consiste à exporter des données de campagne vers un fichier Excel, à copier et coller des extensions existantes et à les appliquer à des campagnes supplémentaires. Pour vous aider à organiser facilement les données d’extensions, le tout nouveau Bing Ads Editor v10.1 est livré avec un format de données d’extensions avancé qui vous aide à accélérer l’adoption des extensions à l’aide du fichier d’exportation. Passons en revue sa conception et les étapes faciles pour l’adopter.

Quoi de neuf

Avant Bing Ads Editor v10.1, après avoir exporté des comptes sous forme de fichiers CSV, vous trouviez les paramètres de chaque extension (par exemple, une adresse complète pour les extensions de lieu) répertoriés et répétés dans les lignes du CSV pour les types d’enregistrements suivants :

1) Extension d’annonce de lien annexe de campagne/groupe d’annonces
2) Extension d’annonce de lieu de campagne
3) Extension d’annonce d’appel de campagne
4) Extension d’annonce de produit de campagne (actuellement en version bêta et n’est pas disponible pour tous les utilisateurs de Bing Ads)

Pour une extension adoptée par des centaines de campagnes, les mêmes informations sont répétées des centaines de fois dans le fichier exporté. Vous trouverez ci-dessous un exemple de fichier exporté dans la version antérieure d’Editor.

Exemple un (avant): Paramètres d’extensions répétés sur plusieurs lignes
BAE_DATA_01

La même adresse s’applique à plusieurs campagnes et apparaît donc à plusieurs reprises dans la colonne Paramètre d’extension. Avec des comptes plus importants, la répétition des informations sur chaque ligne rendait plus difficile la modification de ces données dans plusieurs associations et le décompte du nombre d’extensions uniques créées. De plus, cela générait une charge utile supplémentaire inutile, ralentissant les processus de chargement et de téléchargement. Pour augmenter votre productivité tout en gérant une grande taille d’enregistrements d’extensions, Bing Ads Editor v10.1 divise les informations sur les extensions en deux groupes sur ses fichiers d’exportation.

Groupe 1 – Suivi des paramètres des extensions avec les quatre nouveaux types d’enregistrements suivants :

• Extension d’annonce de lieu : pour gérer un paramètre d’extension de lieu individuel, par exemple « Contoso 1234 88th Ave., Seattle, WA 98105 »
• Extension d’annonce d’appel : pour gérer un paramètre d’extension d’appel individuel, par exemple « États-Unis, 4255551234 »
• Extension d’annonce de lien annexe : pour gérer un paramètre d’extension de lien annexe individuel, par exemple « Commander maintenant !, www.contoso.com/order »
• Extension d’annonce de produit : pour gérer un paramètre d’extension de produit individuel, par exemple « BingAds_Label = chaussures habillées pour hommes ».

Groupe 2 – Suivi des groupes d’annonces/campagnes associés à des extensions pour les cinq types d’enregistrements suivants :

• Extension d’annonce de lien annexe de groupe d’annonces
• Extension d’annonce de lien annexe de la campagne
• Extension d’annonce de lieu de campagne
• Extension d’annonce d’appel de campagne
• Extension d’annonce de produit de campagne

En associant la colonne ID des enregistrements du groupe 2 à l’ID d’une extension du groupe 1 et en associant sa colonne ParentID à différents ID de campagnes ou de groupes d’annonces, les utilisateurs peuvent facilement appliquer une seule extension à plusieurs campagnes/groupes d’annonces..

L’exemple ci-dessous montre comment un paramètre d’extension individuel n’apparaît qu’une seule fois et est appliqué à plusieurs campagnes. Comme le même paramètre d’extension ne doit être saisi qu’une seule fois, vous pouvez facilement compter le nombre d’extensions que vous avez dans le groupe 1 pour respecter la limite de 150 000 extensions par compte sur Bing Ads, et vous bénéficiez d’une plus grande vitesse de téléchargement et de chargement de votre compte. Pour marquer cette amélioration, vous constaterez également que, par défaut, la deuxième ligne du fichier d’exportation—FormatVersion type— est réglé sur « 2 » pour indiquer le fichier exporté prenant en charge le format de données d’extension amélioré.

Exemple 2 (Nouveau): L’amélioration affichera les mêmes données que celles présentées dans l’exemple 1 dans le nouveau format ci-dessous :
BAE_DATA_02

Meilleures pratiques d’adoption de cette amélioration

Les exemples suivants sont basés sur l’extension de lieu, mais les mêmes pratiques s’appliquent aux autres types d’extensions.
Ajouter une nouvelle extension

1) Ajoutez une nouvelle extension et attribuez-lui un ID temporaire, qui peut être n’importe quel nombre négatif. L’éditeur reconnaîtra le signe négatif comme un identifiant temporaire et lui attribuera un identifiant permanent après que vous l’aurez publié sur Bing Ads en ligne.
2) Associez l’extension nouvellement ajoutée aux campagnes existantes en ajoutant « Extension d’annonce de lieu de campagne » comme type d’enregistrement. Attribuez ensuite à l’enregistrement un ID et un ID parent :

  • Entrez l’ID temporaire de la nouvelle extension dans la colonne ID
  • Entrez un ID de campagne dans la colonne ID parent

BAE_DATA_03

3) Importez les modifications du fichier CSV dans l’éditeur, puis publiez les modifications sur Bing Ads en ligne. Bing Ads attribuera un ID permanent (remplaçant le numéro négatif que vous avez créé à l’origine) à votre nouvelle extension la prochaine fois que vous obtenez les modifications et exportez les données sous forme de fichier CSV.
BAE_DATA_04

Mettre à jour des associations ou des extensions

1) Mettre à jour les associations : vous pouvez mettre à jour les détails de l’extension d’annonce directement sur les lignes de la feuille de calcul qui correspondent aux types d’enregistrement d’extension d’annonce suivants : extension d’annonce de lieu, extension d’annonce d’appel, extension d’annonce de lien annexe et extension d’annonce de produit. Les modifications que vous apportez aux détails ici seront appliquées à toutes les campagnes et tous les groupes d’annonces associés à l’ID d’extension.
2) Mettre à jour les extensions : vous pouvez mettre à jour l’ID et l’ID parent des types d’enregistrements d’extension d’annonce suivants pour mettre à jour leurs associations dans différentes campagnes : extension d’annonce de lien annexe de campagne/groupe d’annonces, extension d’annonce de lieu de campagne, extension d’appel de campagne et annonce de produit de campagne. Extension.
BAE_DATA_05

Supprimer des associations ou des extensions

• Pour supprimer une association d’extension via la feuille de calcul, remplacez la colonne État par « Actif » et saisissez « Supprimé ». Après avoir réimporté les modifications dans Editor à partir du fichier CSV et publié les modifications sur Bing Ads en ligne, la prochaine fois que vous téléchargerez des données dans Editor, les extensions supprimées et les enregistrements d’association auront disparu.
BAE_DATA_06

• Pour supprimer une extension sur la feuille d’envoi groupé :
1) Changer son statut en « supprimé »
BAE_DATA_07

2) Après avoir importé et publié les modifications, lors de la prochaine exportation, vous constaterez que Bing Ads a supprimé les extensions supprimées et ses enregistrements d’association.
BAE_DATA_08

FAQ :

Puis-je supprimer la ligne FormatVersion si je le souhaite ?

La ligne FormatVersion est ajoutée pour prendre en charge le format d’extension amélioré. Vous ne devez pas le supprimer ni modifier son numéro par défaut.

Puis-je continuer à utiliser l’ancien format pour ajouter d’autres enregistrements d’extension à mon compte ?

Oui, vous pouvez continuer à ajouter des extensions dans l’ancien format (c’est-à-dire combiner les paramètres d’extension et les noms de campagnes/groupes d’annonces dans une entrée) sur les types d’enregistrements suivants :

1) Extension d’annonce de lien annexe de campagne/groupe d’annonces
2) Extension d’annonce de lieu de campagne
3) Extension d’annonce d’appel de campagne
4) Extension d’annonce de produit de campagne

Editor v10.1 les convertira automatiquement dans le nouveau format lorsque vous publierez des modifications sur Bing Ads en ligne. La prochaine fois que vous obtenez les modifications de Bing Ads et que vous les exportez vers Excel, vous trouverez des enregistrements d’extension créés pour suivre les paramètres et les enregistrements d’association mis à jour pour suivre l’ID, l’ID parent et les données de performance.
BAE_DATA_09

Avec cette amélioration, puis-je supprimer l’extension unique et ses associations de l’interface utilisateur de l’éditeur ?

Non, SEULES les associations peuvent être supprimées de l’interface utilisateur de l’éditeur. Pour exécuter une suppression complète de l’extension et de ses associations d’extensions, vous pouvez exporter les enregistrements d’extension vers une feuille de calcul, marquer les extensions comme « supprimées » et réimporter dans l’outil pour supprimer les extensions et leurs associations.

Les enregistrements d’extension peuvent-ils partager le même identifiant ?

• Les enregistrements d’extension d’annonce de lieu et d’extension d’annonce d’appel ont des identifiants uniques.
• Plusieurs enregistrements d’extensions d’annonces de liens annexes peuvent partager le même ID tant qu’ils ont des numéros de commande différents.

Exemple : un groupe de liens annexes a le même ID mais des numéros de commande différents
BAE_DATA_10

Comment puis-je profiter de cette amélioration via l’interface utilisateur de l’éditeur ?

Cette amélioration doit principalement être adoptée via les fichiers d’exportation de l’éditeur, mais pour les extensions de lieu, vous pouvez ajouter de nouvelles extensions de lieu dans ce format avancé en utilisant sa fonction de modification multiple. Comme illustré ci-dessous, l’utilisation de la fonction Modification multiple pour ajouter des extensions de lieu génère automatiquement deux groupes d’enregistrements :

• Extension d’annonce de lieu : pour effectuer le suivi d’un paramètre d’extension de lieu individuel
• Extension d’annonce de lieu de campagne : pour suivre l’association entre les campagnes et les extensions d’annonce de lieu
BAE_DATA_11

Y a-t-il d’autres changements d’accompagnement sur l’interface utilisateur de l’éditeur pour cette amélioration ?

Il y a des changements pour les liens annexes créés avec le format avancé.

• Une modification apportée à une campagne/un groupe d’annonces via l’interface utilisateur de l’éditeur sera appliquée aux autres campagnes/groupes d’annonces associés.
Exemple : Une mise à jour d’une campagne sera appliquée aux autres campagnes partageant le même lien annexe :
BAE_DATA_12

Exemple : la suppression d’un lien annexe d’une campagne le supprimera des autres campagnes :
BAE_DATA_13

• Vous pouvez cliquer avec le bouton droit sur un lien annexe et utiliser une nouvelle fonction, Dissocier, pour supprimer un groupe de liens annexes partageant le même ID de la campagne sélectionnée sans supprimer les mêmes liens annexes des autres campagnes.
Exemple : dissocier un groupe de liens annexes d’une campagne :
BAE_DATA_14

Installez Bing Ads Editor v01.1 dès aujourd’hui pour profiter de son format de données d’extensions avancé, de vitesses de téléchargement/chargement plus rapides et d’une gestion de synchronisation améliorée. Des conseils supplémentaires sur la maîtrise des outils de l’éditeur sont également disponibles ici et j’illustrerai les options les plus fréquemment posées de l’éditeur dans mon prochain article.

Crédit d’image en vedette : site Web officiel de Microsoft Bing Ads
Toutes les captures d’écran prises le 28 février et les images créées/fournies par l’auteur.

Les données des requêtes de recherche dans AdWords ne sont pas mortes : voici ce qui a réellement changé

0

Si vous avez entendu parler de la suppression des données de recherche payante de Google AdWords, vous pouvez naturellement avoir des questions et des préoccupations. Mais qu’est-ce qui change réellement et qu’est-ce que cela signifie pour votre entreprise ?

Les rumeurs et les rapports couvrent toute la gamme allant de « Google bloquera l’accès aux données de mots-clés de recherche payante », à « Google cessera de fournir à des tiers des données de requête de recherche payante », à « Les données de requête de recherche payante seront bloquées comme des données organiques ». données « non fournies ».

Heureusement rien de tout cela n’était vrai et dans mon article, je vais vous expliquer tout ce que vous devez savoir sur ce qui a réellement changé.

1. Ce que Google a réellement dit

Bien qu’il soit amusant de spéculer sur les rumeurs, il est également agréable de regarder ce que Google a réellement dit :

« Aujourd’hui, nous étendons nos efforts pour sécuriser la recherche en supprimant la requête du référent sur les clics publicitaires provenant de recherches SSL sur Google.com. »

Beaucoup ont pris cela comme une confirmation que les rumeurs étaient vraies; que Google allait empêcher les annonceurs de voir leurs données de requête de recherche payante, comme ils ont supprimé l’accès aux données de requête de recherche organique. Toutefois, il est important de savoir que vous pouvez toujours accéder aux données de vos requêtes de recherche payante à l’aide du rapport sur les termes de recherche dans AdWords.

2. Le rapport sur les termes de recherche n’est ni nouveau ni modifié

Cette section de l’annonce de Google a causé un peu de confusion :

« Le rapport sur les termes de recherche AdWords (anciennement connu sous le nom de rapport sur les performances des requêtes de recherche) vous permet de voir les requêtes de recherche qui ont généré des clics sur les annonces, ainsi que des données de performances clés. »

Cela a conduit certains à signaler que Google avait créé un nouveau rapport ou qu’il venait juste de changer le nom du rapport sur les performances des requêtes de recherche en « rapport sur les termes de recherche » et de modifier son fonctionnement, même si ce rapport était dans AdWords depuis plus de 12 ans. années! La réalité est que le rapport n’est pas nouveau et n’a pas changé.

Un groupe de personnes a souligné qu’il y a des années, Google avait initialement affirmé que les données de requête de recherche organique ne seraient que peu affectées, mais au fil du temps, ils ont fini par éliminer presque complètement toutes les données de requête de recherche organique, et que cela pourrait peut-être aussi être le cas ici pour la qualité et la quantité de données de requête de recherche payante. J’ai demandé à Paul Feng, Product Management Director chez AdWords, de clarifier ce point. Il nous a fait savoir sans équivoque, par e-mail : « Il n’y a aucun changement dans les rapports sur les requêtes de recherche, ni dans le frontal AdWords ni dans l’API. »

3. Alors, les données de mots-clés de recherche payante disparaissent-elles ou quoi ?

Non.

Les annonceurs peuvent toujours obtenir les termes de recherche complets dans AdWords. Vous ne pouvez tout simplement pas les obtenir à partir de la chaîne de référence dans l’URL. Voici le changement : lorsqu’un utilisateur clique sur une annonce AdWords, le terme de recherche qui a déclenché l’annonce apparaît dans l’URL de référence, comme indiqué ci-dessous. Cela n’arrivera plus.

URL de référence

Mais comme mentionné précédemment, vous pouvez toujours obtenir ces précieuses données directement dans AdWords !

4. Où puis-je trouver les données des requêtes de recherche payantes ?

Au même endroit où vous l’auriez trouvé jusqu’à présent : dans le rapport sur les termes de recherche AdWords, comme indiqué ci-dessous. Vous ne le trouverez tout simplement pas dans Google Analytics.

afficher-les-termes-de-recherche-adwords

Si vous utilisez une plate-forme de gestion PPC tierce comme Acquisio, WordStream, Kenshoo ou Marin, vous pouvez toujours y voir vos données de requête de recherche car elles accèdent aux données via l’API AdWords.

Fondamentalement, si vous souhaitez accéder aux données de vos requêtes de recherche, vous devez les obtenir directement auprès d’AdWords ou via un partenaire AdWords qui utilise l’API AdWords. Cela n’affectera que ceux qui utilisaient auparavant Google Analytics ou les personnes qui ont analysé les données de requête de recherche à partir d’une chaîne d’URL de référence à l’aide d’un analyseur de fichiers journaux ou d’un outil d’analyse qui a utilisé des chaînes d’URL de référence pour les données de requête de recherche, par exemple.

5. Que faire si j’ai vraiment besoin de données de requête de recherche dans l’URL de référence

Les paramètres ValueTrack vous rapprochent de là où vous étiez. Jetez un œil à cet exemple d’URL de destination d’annonce qui utilise un paramètre ValueTrack pour remplir dynamiquement le mot-clé dans l’URL de destination (le paramètre « adurl », surligné en jaune).

value-track-example-url

Remarquez que le paramètre adurl n’est pas crypté, donc si vous en avez vraiment besoin, vous pouvez toujours extraire les données de mots clés de l’URL de référence. Il est important de noter que ValueTrack vous permet d’ajouter le mot clé de votre compte qui a été déclenché dans votre compte, ce qui n’est pas la même que la requête de recherche que l’utilisateur a saisie pour déclencher votre annonce. Mais si vous utilisez des types de correspondance comme Phrase et Exact match, c’est assez proche.

6. Que dois-je faire à l’avenir ?

Selon la manière dont vous avez géré vos campagnes et vos données AdWords jusqu’à présent, vous devrez peut-être effectuer tout ou partie (voire aucune !) des actions suivantes :

  • Obtenez des données de requête de recherche AdWords dans AdWords.
  • Utilisez le code de suivi des conversions AdWords pour suivre les conversions dans AdWords.
  • Si nécessaire, utilisez ValueTrack, la fonctionnalité de balisage d’URL d’AdWords, pour ajouter vos données de mots clés dans votre URL de destination de manière non chiffrée.

Questions ou commentaires? Partagez-les ci-dessous !

Facebook met à jour les métriques publicitaires pour combiner les données d’achat sur le Web, les applications et hors ligne

0

Facebook met à jour ses statistiques publicitaires pour donner aux annonceurs une vue plus globale de la façon dont les clients interagissent avec leur entreprise sur toutes les plateformes.

Pour ce faire, Facebook remplace les mesures de coût qui rendent compte des interactions sur un seul canal par une seule mesure de « coût par achat ».

Les données qui étaient précédemment rapportées dans les mesures Coût par achat de site Web, Coût par achat d’application mobile et Coût par achat hors ligne seront désormais combinées dans la nouvelle mesure Coût par achat.

Les annonceurs qui souhaitent calculer des mesures de coût spécifiques à un canal peuvent toujours le faire en divisant leurs dépenses totales par le nombre de conversions d’un seul canal.

Facebook explique pourquoi ce changement est effectué :

« Les gens interagissent avec les entreprises sur différentes plates-formes et canaux, il est donc important d’évaluer les performances publicitaires de manière globale pour tenir compte de toutes les façons dont les gens peuvent avoir interagi avec votre entreprise et de l’impact de ces interactions sur les résultats de votre entreprise. C’est pourquoi nous remplaçons les mesures de coût qui ne rendent compte que des interactions sur un seul canal par des mesures qui rendent compte du coût de ces actions sur le Web, le mobile et hors ligne. »

Dans le cadre de ce changement, Facebook a également repensé le sélecteur de colonne de personnalisation dans le gestionnaire de publicités pour consolider les métriques du site Web, du mobile et hors ligne.

Auparavant, si les annonceurs voulaient une mesure globale des achats sur ces trois canaux, ils auraient dû les sélectionner séparément.

Les annonceurs peuvent désormais obtenir ces données dans un rapport en sélectionnant une statistique.

Faites-vous partie des 533 millions d’utilisateurs de Facebook dont les données ont été volées ?

0

Les données extraites de Facebook entre juin 2017 et avril 2018 ont été divulguées à un forum de piratage de bas niveau le 3 avril 2021.

Les données divulguées comprenaient des informations provenant de 533 millions d’utilisateurs de Facebook, notamment :

  • Données de création de compte
  • Date de naissance
  • Adresse e-mail
  • Facebook ID
  • Biographie Facebook
  • Nom et prénom
  • Emplacement
  • Détails du mariage
  • Numéro de téléphone
  • Lieu passé
  • Données relationnelles

Les utilisateurs piratés n’ont peut-être pas eu tous ces points de données volés, et il est actuellement difficile de déterminer précisément quelles informations et de qui les données ont été extraites.

La fuite comprend des informations provenant d’utilisateurs de 106 pays avec 32 millions d’enregistrements appartenant à des utilisateurs de Facebook aux États-Unis, 11 millions d’enregistrements du Royaume-Uni et plus à travers l’Europe :

Numéros de fuite de données Facebook

La fuite a été découverte par Alon Gal, directeur de la technologie de Hudson Rock :

Alon a déclaré à Business Insider :

« Les individus qui s’inscrivent à une entreprise réputée comme Facebook leur font confiance avec leurs données, et Facebook [is] censés traiter les données avec le plus grand respect »,

Il a également déclaré que la fuite de données est un abus de confiance et doit être traitée en conséquence.

Facebook qualifie la fuite d’informations personnelles de « vieilles nouvelles »

Liz Bourgeois, directrice des communications de réponse stratégique de Facebook, a tweeté le jour où la fuite a été découverte, la qualifiant de « vieille nouvelle ».

Cependant, les informations personnelles telles que les adresses e-mail, les noms complets, les numéros de téléphone et les emplacements ne changent pas régulièrement, de sorte que cette dernière fuite est toujours précieuse pour les cybercriminels qui pourraient utiliser ces informations de manière frauduleuse.

Bien que toutes les informations ne soient pas pertinentes aujourd’hui, il est juste de supposer que beaucoup le seront, laissant les utilisateurs vulnérables aux attaques de phishing et au smishing ; où les pirates ou les cybercriminels tentent de faire cliquer leurs victimes sur un lien ou de répondre à un SMS.

Ulrich Kelber, un régulateur fédéral allemand des données, a tweeté une photo d’une tentative :

Son commentaire à côté de l’image se traduit par :

Traduction du tweet d'Ulrich Kelber

Ivan Righi, analyste du renseignement sur les cybermenaces chez Digital Shadows, a déclaré que les informations personnelles auraient été initialement disponibles à un prix élevé, limitant le nombre de pirates choisissant d’acheter les informations.

Il a précisé que les informations ont probablement été revendues plusieurs fois jusqu’à ce que le prix demandé devienne si bas qu’elles soient publiées publiquement, ce qui est un comportement typique des pirates.

Il a également déclaré que :

« Bien que les données soient anciennes, elles ont toujours beaucoup de valeur pour les cybercriminels. »

Il est possible que ces informations puissent être utilisées pour accéder à des comptes nécessitant une authentification à deux facteurs, tels que des comptes bancaires.

À tout le moins, les victimes de Facebook peuvent s’attendre à une augmentation des appels importuns.

Lié: 7 étapes urgentes à suivre lorsque votre compte Facebook est piraté

S’agit-il d’une violation du RGPD ?

Le Bureau du commissaire à l’information stipule que le régulateur concerné doit être informé de toute violation ou fuite de données significative dans les 72 heures.

La question de savoir si Facebook enfreint la législation européenne sur le règlement général sur la protection des données (RGPD) fait actuellement l’objet de discussions.

La fuite d’origine s’est produite avant la mise en œuvre du RGPD ; cependant, comme la plateforme sociale déclare avoir fermé la brèche en 2019, un an après l’activation du RGPD, on se demande s’ils auraient dû suivre le processus de notification.

La Commission irlandaise de protection des données a déclaré hier que des enquêtes étaient en cours pour déterminer si des règles avaient été enfreintes.

Pouvez-vous savoir si vos informations ont été supprimées ?

Vous pouvez découvrir si votre adresse e-mail ou votre numéro de téléphone a été divulgué à l’aide d’un outil appelé Have I Been Pwned? Troy Hunt, créateur de l’outil et directeur régional et MVP de Microsoft a déclaré que l’outil peut être utilisé pour découvrir si vous êtes victime de la fuite :

Facebook s’exprime

Le directeur de la gestion des produits de Facebook, Mike Clark, a publié hier un article sur la violation.

L’article révèle que les informations ont été extraites à l’aide d’une fonction d’importation de contacts Facebook conçue pour aider les utilisateurs à trouver et à se connecter avec leurs amis.

Lorsque la plate-forme sociale a pris conscience de la façon dont les pirates utilisaient cette fonctionnalité, ils ont mis en œuvre des mises à jour.

Sécuriser votre compte Facebook

L’article conseille aux utilisateurs de mettre à jour le contrôle « Comment les gens vous trouvent et vous contactent », d’effectuer régulièrement des contrôles de confidentialité et d’activer l’authentification à deux facteurs.

Malheureusement, les hacks ne sont pas une nouveauté, et à mesure qu’Internet se développe, la technologie qui tire parti de toutes les données disponibles se développera également.

Les utilisateurs de Twitter ont été victimes de hacks le 15 juillet 2020, et WordPress a aussi ses problèmes. Malheureusement, la protection contre ces événements est souvent réactive car les pirates trouvent de nouvelles vulnérabilités à exploiter.

Autres articles relatant l’histoire :

politique
Chaud pour la sécurité
Interne du milieu des affaires

Comment utiliser les données structurées pour soutenir EAT

0

Le concept de Google « EAT » (Expertise, Authoritativeness, and Trustworthiness) est devenu un sujet brûlant dans la communauté SEO ces dernières années, ainsi qu’une source de nombreux mythes et idées fausses.

L’une des questions et des mystères les plus importants entourant l’EAT est de savoir si et dans quelle mesure il s’agit d’un facteur de classement direct dans les algorithmes de Google.

Cependant, Google a été cohérent sur le rôle que joue EAT à la fois dans ses algorithmes et sur la façon dont il est utilisé par les évaluateurs de la qualité de la recherche, déclarant que « les algorithmes de Google identifient des signaux sur les pages qui sont en corrélation avec la fiabilité et l’autorité », par opposition à EAT lui-même étant un quantifiable , métrique mesurable utilisée dans les algorithmes de Google.

Pour consolider ce point, Google a récemment fourni une mise à jour sur cette question, indiquant que EAT n’est pas en soi un facteur de classement, mais plutôt un cadre qui englobe les nombreux signaux que Google utilise pour évaluer et classer un excellent contenu.

Dans une mise à jour de mars 2020, Google a déclaré que :

« Évaluer votre propre contenu en termes de critères EAT peut aider à l’aligner conceptuellement sur les différents signaux que nos systèmes automatisés utilisent pour classer le contenu. »

Les communications de Google sur EAT laissent beaucoup de place à l’interprétation et au débat, ce qui tend à susciter une question commune chez de nombreux professionnels du référencement :

Si l’EAT est si important, comment puis-je optimiser mon contenu pour améliorer son EAT perçu ?

Alors que les réponses officielles de Google aux questions liées à EAT laissent de nombreux professionnels du référencement incertains sur les prochaines étapes à suivre, il existe une méthode fiable et sous-utilisée que nous pouvons utiliser pour améliorer non seulement EAT, mais également les performances organiques globales : tirer parti données structurées (Schema.org) à sa pleine capacité.

Comment les données structurées peuvent aider avec EAT

L’utilisation appropriée des données structurées peut aider EAT pour un certain nombre de raisons.

D’une part, les données structurées aident à établir et à solidifier la relation entre les entités, en particulier entre les différents lieux où elles sont mentionnées en ligne.

Selon les propres termes de Google, fournir ce balisage les « aide » en « fournissant des indices explicites sur le sens d’une page » que Google utilise ensuite pour « comprendre le contenu de la page, ainsi que pour recueillir des informations sur le Web et le monde dans général. »

L’utilisation de données structurées pour établir ces relations peut rationaliser la capacité de Google à évaluer l’EAT d’une page, d’un site Web ou d’une entité donnée, car cela peut aider :

  • Réduire l’ambiguïté entre les entités.
  • Créez de nouvelles connexions que Google n’aurait pas faites autrement dans son Knowledge Graph.
  • Fournissez des informations supplémentaires sur une entité que Google n’aurait peut-être pas obtenues sans les données structurées.

Selon Knowledge Graph et l’expert en brevets de Google, Bill Slawski :

« Les données structurées ajoutent un niveau de précision dont un moteur de recherche a besoin, et pourrait ne pas saisir, car il n’a pas le bon sens d’un humain. »

Sans confiance quant aux entités incluses sur une page, il peut être difficile pour les moteurs de recherche d’évaluer avec précision l’expertise, l’autorité et la fiabilité de ces entités.

Les données structurées aident également à lever l’ambiguïté des entités portant le même nom, ce qui est sans aucun doute important lors de l’évaluation de l’EAT.

Slawski a fourni quelques exemples intéressants de la façon dont cela pourrait fonctionner :

« Lorsque vous avez une personne qui fait l’objet d’une page et qu’elle partage un nom avec quelqu’un, vous pouvez utiliser une propriété SameAs et pointer vers une page la concernant sur une base de connaissances telle que Wikipedia pour indiquer clairement que lorsque vous vous référez pour quelqu’un comme Michael Jackson, vous voulez dire le roi de la pop, et non l’ancien directeur de la sécurité intérieure – ce sont des gens très différents.

Les entreprises ont parfois des noms qu’elles pourraient partager avec d’autres, comme le groupe Boston, qui partage un nom avec une ville.

Les données structurées servent essentiellement à fournir à Google des informations cruciales sur les sujets de votre site, ainsi que sur les personnes qui y contribuent.

Il s’agit d’une première étape cruciale pour que Google puisse ensuite évaluer avec précision la fiabilité et la crédibilité de votre site et des créateurs de son contenu.

Mise en œuvre des données structurées pour EAT

Il existe plusieurs méthodes différentes pour mettre en œuvre des données structurées : JSON-LD (qui est préféré par Google), les microdonnées et RDFa.

Google a également récemment ajouté de la documentation sur l’ajout dynamique de données structurées à l’aide de JavaScript et de Google Tag Manager.

Pour les sites Web WordPress, le plugin SEO populaire Yoast possède de nombreuses fonctionnalités de schéma intégrées et a activement développé de nouveaux types et fonctionnalités de schéma au cours des derniers mois.

Dans le but d’améliorer EAT, la méthode de mise en œuvre des données structurées est moins importante que les types de Schema balisés sur le site Web.

Améliorer EAT nécessite de fournir aux moteurs de recherche autant d’informations sur la crédibilité, la réputation et la fiabilité des auteurs et des experts qui contribuent au contenu de votre site Web et qui composent votre entreprise.

EAT englobe également la réputation de votre marque et l’expérience des utilisateurs à la fois sur votre site Web et lors de l’utilisation de vos produits ou services.

Ces aspects sont particulièrement importants à baliser avec Schema chaque fois que possible.

Il est également crucial de structurer correctement votre schéma afin que les moteurs de recherche puissent comprendre les différentes propriétés d’une entité donnée et la relation entre elles et d’autres entités.

Alexis Sanders offre une explication fantastique des avantages de l’imbrication de schéma et comment le faire correctement dans cet article sur JSON-LD.

Par exemple, le schéma ci-dessous provient de la page d’accueil de mon site Web personnel et montre à quoi ressemble l’imbrication lorsqu’elle est effectuée correctement.

(Cela a été fait en définissant les paramètres de mon site sur une « Personne » à l’aide du plugin Yoast et en remplissant tous les champs pertinents de mon profil.)

Schéma d'imbrication fait correctement pour une page Web.

L’imbrication appropriée de Schema vous permet de :

  • Lisez essentiellement le schéma résultant à voix haute à partir de l’outil de test de données structurées.
  • Obtenez une compréhension des principales entités de la page, ainsi que de leurs relations les unes avec les autres.

L’imbrication élimine également le problème courant d’avoir plusieurs types de schémas redondants ou conflictuels sur la même page (souvent en raison du fait que plusieurs plugins injectent simultanément Schema).

Sur une page produit, par exemple, il est important de décrire clairement et de différencier les relations entre les Organisme qui publie le siteet le Organisme qui fabrique le produit.

En les plaçant correctement dans une structure imbriquée, vous pouvez décrire clairement la différence dans leurs rôles – plutôt que de simplement dire que les deux sont « sur la page ».

Quels types de schéma utiliser pour améliorer EAT

Il existe une variété de types de schémas et de propriétés qu’il est essentiel d’avoir sur votre site Web pour envoyer les bons signaux aux moteurs de recherche concernant l’EAT de votre organisation.

Vous trouverez ci-dessous cinq exemples de certaines des opportunités les plus prioritaires d’utiliser Schema pour signaler un bon EAT, mais il y en a beaucoup d’autres d’où cela vient.

1. Schéma de personne

La première mention d’EAT par Google dans ses directives d’évaluation de la qualité commence par demander aux évaluateurs de considérer « l’expertise » ainsi que « l’autorité du créateur du contenu principal ».

Ces informations peuvent être communiquées aux moteurs de recherche via l’utilisation de Person Schema.

Ce type de schéma comprend des dizaines d’options pour que les propriétés soient répertoriées afin de fournir plus de contexte sur la personne, dont beaucoup soutiennent fortement EAT, y compris (mais sans s’y limiter) :

  • affiliation
  • alumniOf
  • décerner
  • marque
  • aCredential
  • aOccupation
  • préfixe honorifique
  • Suffixe honorifique
  • titre d’emploi
  • pareil que

Envisagez d’inclure Person Schema avec les propriétés ci-dessus au moins une fois lorsque votre fondateur, vos créateurs de contenu et/ou vos contributeurs experts sont répertoriés sur votre site.

(En supposant que ces informations soient également affichées sur la page – ce qui est une condition préalable à la conformité des données structurées.)

Une page de biographie d’auteur est un bon candidat pour présenter ce type de schéma.

N’oubliez pas que tout contenu balisé avec Schema doit également être visible sur la page afin d’éviter une action manuelle de données structurées spammées.

Une autre façon d’améliorer votre utilisation de Person Schema consiste à l’utiliser pour lever l’ambiguïté du nom de cette personne par rapport à d’autres noms identiques dans le Knowledge Graph de Google.

Si cette personne est répertoriée dans le Knowledge Graph (que vous pouvez vérifier à l’aide de cet outil pratique), envisagez de créer un lien vers l’URL de son Knowledge Graph à l’aide de la propriété sameAs.

Cet effort peut donner à Google le peu de confiance supplémentaire dont il a besoin pour s’assurer que le panneau de connaissances de la bonne personne est affiché pour les requêtes qui lui sont spécifiques.

Même si Google a annoncé qu’il a déprécié le balisage sameAs pour les profils sociaux, vous pouvez toujours utiliser sameAs à d’autres fins, telles que les liens vers :

  • L’URL du Knowledge Graph de la personne.
  • Leur page Wikipedia, un profil freebase ou Crunchbase.
  • Autres sources fiables où la personne est mentionnée en ligne.

De plus, il convient de rappeler qu’il existe plus de moteurs de recherche qui utilisent Schema que Google, donc répertorier les profils sociaux en utilisant sameAs est probablement toujours une bonne approche.

2. Organisation

Le schéma d’organisation est sans aucun doute l’un des meilleurs types de schéma pour soutenir les efforts EAT.

Ce type de schéma offre une variété de propriétés qui peuvent fournir un contexte supplémentaire sur votre entreprise ou votre marque, par exemple :

  • adresse
  • dunes
  • fondateur
  • date de fondation
  • aCredential
  • sait à propos
  • membre de
  • Organisationparente

De nombreuses entreprises implémentent le schéma d’organisation sans tirer parti de ces champs ou des nombreuses autres propriétés disponibles à l’aide de ce type de schéma.

Envisagez d’incorporer toutes ces informations dans votre page la plus pertinente sur votre organisation (généralement une page « À propos de nous » ou « Contactez-nous ») et de marquer la page en conséquence.

3. Auteur (propriété du schéma)

Author est une propriété de schéma qui peut être utilisée pour tout type de schéma relevant de la classification CreativeWork ou Review, comme Article ou NewsArticle.

Cette propriété doit être utilisée comme balisage pour la signature de l’auteur sur un élément de contenu.

Les types attendus pour la propriété Author sont soit une Personne, soit une Organisation. Par conséquent, si votre site publie du contenu au nom de l’entreprise, il est important de répertorier l’auteur en tant qu’Organisation et non en tant que Personne.

4. reviewBy (propriété de schéma)

La propriété reviewBy est une excellente occasion de mettre en valeur le bon EAT de votre site Web.

Si vous utilisez des réviseurs experts sur votre contenu, tels que des réviseurs médicaux ou juridiques, envisagez d’afficher leur nom sur la page en tant que personne qui a révisé votre contenu pour en vérifier l’exactitude.

Ensuite, vous pouvez tirer parti de la propriété reviewBy pour répertorier le nom de cette personne (ou organisation).

C’est une excellente approche à utiliser si vos auteurs manquent d’EAT ou d’une forte présence en ligne, mais vos réviseurs sont les véritables experts avec une présence en ligne connue.

Pour WordPress vers les sites Web utilisant Yoast, une fonctionnalité reviewBy est actuellement envisagée pour leur feuille de route, qui vous permettra d’indiquer la personne qui a révisé votre contenu en sélectionnant parmi vos auteurs dans WordPress.

5. Citations (propriété Schema)

À l’aide de la propriété Citation Schema, vous pouvez répertorier les autres publications, articles ou travaux créatifs auxquels votre contenu cite ou renvoie.

C’est un excellent moyen de montrer aux moteurs de recherche que vous faites référence à des sources fiables et faisant autorité pour soutenir votre travail, ce qui est une excellente stratégie pour EAT.

De plus, la liste des citations dans le balisage Schema peut aider à positionner votre marque par rapport aux autres marques auxquelles vous vous associez, ce qui peut potentiellement fournir à Google des informations qualitatives sur votre fiabilité.

Utiliser des données structurées pour soutenir les initiatives EAT

La bibliothèque Schema.org est continuellement étendue.

Et bien que les données structurées elles-mêmes ne soient pas un facteur de classement direct, Google recommande systématiquement d’adopter son utilisation et d’en utiliser autant que possible pour aider son moteur de recherche à donner un sens à votre site.

Vraisemblablement, en aidant Google à mieux comprendre votre contenu et les entités incluses sur votre site grâce à des données structurées, cela rationalisera et améliorera également ses efforts pour évaluer la qualité et l’EAT de votre site Web.

Faites attention à la bibliothèque Schema.org en constante évolution et profitez des nombreux types et propriétés de schéma qui y sont répertoriés pour vous guider dans la manière dont votre contenu doit être structuré.


Crédits image

Image en vedette : Paulo Bobita
Capture d’écran prise par l’auteur

WordPress 6.1 contient « une amélioration massive des performances de la base de données »

0

WordPress 6.1, prévu pour novembre 2022, comportera une « amélioration massive des performances de la base de données » grâce à la nouvelle mise en cache des requêtes post.

Cette nouvelle fonctionnalité promet d’accélérer les performances des sites Web WordPress.

L’amélioration exacte de la mise en cache concerne la mise en cache post-requête.

Dans l’annonce du fil Twitter, quelqu’un a demandé si cette amélioration était déjà lancée dans la version 6.0.

Ils a demandé:

« Merci! N’y avait-il pas déjà une amélioration dans la 6.0 ?

Avec cela, nous avons eu des problèmes majeurs sur les grands woo-stores : des catégories qui disparaissent sur les pages d’archives lorsque seules les catégories enfants sont cochées, pas la catégorie de niveau supérieur (parent).

Curieux de la note avec plus de contexte”

Le committer principal de WordPress a répondu:

« Nous améliorons constamment les performances de la base de données.

La mise en cache des requêtes a été améliorée dans la version 6.0. Il s’agit de la mise en cache post-requête. Connexe mais pas le même.

Ce problème a été corrigé dans la version 6.0.1. Je l’ai corrigé moi-même.

Base de données et requêtes WordPress

WordPress stocke différentes parties du site Web dans une base de données.

Une base de données contient des informations sur le site organisées en tables.

Par exemple, tout le contenu des publications de pages Web est stocké dans un tableau.

Lorsque quelqu’un visite une page Web, WordPress « interroge » la base de données pour rechercher et trouver le contenu de cette page Web dans la base de données.

WordPress effectue plusieurs requêtes dans la base de données pour chaque page Web demandée et le fait pour chaque visiteur du site.

Par conséquent, cela peut devenir une lourde charge sur un serveur lorsque cela se produit des milliers de fois par minute, ce qui entraîne un ralentissement des performances de la base de données qui, à son tour, ralentit l’ensemble du site.

Avec cette nouvelle fonctionnalité de mise en cache de la base de données, au lieu de faire une requête de base de données, il vérifiera d’abord si ce qu’il recherche se trouve dans un cache et en extraira les informations.

C’est comme passer une commande pour le déjeuner et au lieu d’avoir à attendre que le déjeuner soit préparé, le preneur de commande passe sous le comptoir et le produit immédiatement.

Amélioration massive

Selon le contributeur principal de WordPress qui a travaillé sur ce projet, la fonctionnalité de mise en cache entraînera une amélioration spectaculaire.

Le contributeur principal a tweeté :

« Dans WordPress 6.1, il y a une amélioration massive des performances de la base de données.

Les requêtes de base de données dans WP_Query sont désormais mises en cache. Un ticket sur lequel je travaille depuis plus de 5 ans a été fusionné.

Cela devrait entraîner des milliards de requêtes de base de données moins répétées « 

Un brouillon de note de développement a également été lancé contenant plus d’informations sur le cache :

« WordPress 6.1 inclut une amélioration de la façon dont les requêtes de base de données sont effectuées dans la classe ‘WP_Query’ afin que le résultat des requêtes de base de données soit mis en cache dans la mise en cache d’objets.

Cela signifie que si la même requête de base de données est exécutée plusieurs fois, le résultat sera chargé à partir du cache.

Pour ceux qui utilisent la mise en cache d’objets persistants, cela signifie que tant que les caches ne seront pas invalidés, la requête de la base de données ne sera plus exécutée, ce qui entraînera très peu de requêtes vers la base de données.

Réponse de la communauté WordPress

L’annonce non officielle a été accueillie avec enthousiasme.

Problèmes de dernière minute résolus

Malgré le tweet enthousiaste annonçant que cette fonctionnalité sera dans la prochaine version de WordPress, un problème de dernière minute est survenu qui semblait jeter un doute sur le fait que cette fonctionnalité soit intégrée à la prochaine version de WordPress.

Le ticket GitHub pour le projet de cache a été fermé, ce qui signifie que tous les bogues semblaient avoir été résolus et c’était terminé.

Mais quelques heures plus tard, le même contributeur WordPress a rouvert le ticket car de nouveaux problèmes ont été découverts.

Le problème qui a été découvert était lié à la mise en cache persistante des objets.

Ils ont écrit une explication :

« Réouverture, car j’ai découvert quelques problèmes lors de la persistance de la mise en cache d’objets.
Problème 1 – L’ajout de cache est souvent appelé lorsque la mise en cache d’objets persistants est activée. C’est parce que update_post_caches est appelé. Cette fonction ne doit pas être appelée lorsque le cache d’objets est activé.
Problème 2 – L’ensemble de cache est appelé à chaque exécution de WP_Query, pas seulement la première.

Une nouvelle version d’extraction GitHub a été ouverte pour documenter le correctif des problèmes nouvellement découverts.

Confirmé : le cache de la base de données sera dans WordPress 6.1

J’ai contacté le développeur par message direct sur Twitter et il a répondu qu’il n’y aurait pas de retard.

Il a confirmé qu’à partir d’aujourd’hui, il reste six semaines et que ces problèmes nouvellement découverts seront corrigés et que la nouvelle fonctionnalité de mise en cache sera incluse dans WordPress 6.1.

Rien n’a encore été annoncé officiellement mais ce n’est pas inhabituel. Chaque version contient des centaines d’améliorations et les plus importantes sont généralement mises en évidence le jour même de la sortie.

Attendez-vous à ce que la nouvelle fonctionnalité qui améliorera les performances de WordPress débarque dans la version 6.1, actuellement prévue pour novembre 2022.


Image sélectionnée par Shutterstock/iViDI Studio

Wix s’intègre à Semrush pour fournir aux utilisateurs des données de mots-clés

0

Wix annonce une intégration avec Semrush, permettant aux utilisateurs de Wix d’accéder aux données de mots-clés SEO de Semrush directement via le tableau de bord.

Les données fournies par Semrush donneront aux utilisateurs de Wix des informations qui peuvent les aider à améliorer les classements de recherche et à identifier les mots-clés à cibler.

Cette intégration est offerte sans frais supplémentaires aux utilisateurs de Wix, bien qu’un abonnement payant à Semrush vous permette d’en faire plus.

Le quota d’utilisation disponible pour les utilisateurs dépendra du compte Semrush connecté à leur site Web, à partir d’une limite quotidienne de 10 mots pour les comptes Semrush gratuits.

La base de données mondiale de plus de 21 milliards de mots-clés de Semrush permet aux éditeurs de la plateforme Wix de trouver des termes et expressions pertinents sans quitter le tableau de bord.

Les utilisateurs de Wix peuvent accéder à des métriques telles que l’intention de recherche et la difficulté des mots clés à partir de la boîte à outils SEO de Semrush.

Les informations de Semrush seront fournies dans le cadre de la liste de contrôle de configuration SEO de Wix, un outil qui guide les éditeurs à travers les pratiques fondamentales d’optimisation de la recherche et d’indexation.

Marcus Tober, SVP Enterprise Solutions chez Semrush, déclare dans un communiqué de presse :

« En tirant parti des bases de données de mots-clés et des métriques de Semrush, Wix donne aux utilisateurs les outils nécessaires pour trouver des opportunités intelligentes et améliorer leur classement sur Google. Comme le trafic de recherche organique est incroyablement précieux, la nouvelle intégration dans Wix peut aider à développer leurs activités.

Il est maintenant temps pour les propriétaires d’entreprise de prendre en main la gestion du site Web et du marketing en ligne, et des plateformes comme Wix et Semrush peuvent les aider à le faire.

Nati Elimelech, Head of SEO chez Wix, explique comment cette intégration contribue à rendre le SEO plus accessible :

« Notre mission a toujours été d’aider les entreprises et les professionnels de la recherche à disposer d’une plate-forme unifiée pour accroître la visibilité de leur site dans les moteurs de recherche.

Avec cette intégration, nous franchissons une autre étape notable dans la démocratisation du référencement en permettant à nos utilisateurs d’effectuer de meilleures recherches et de choisir les bons mots-clés et sujets sur lesquels se concentrer dans leur stratégie de contenu, directement depuis leur tableau de bord. Nous nous engageons à rendre le référencement plus accessible à tous et à aider nos utilisateurs à prendre de meilleures décisions qui auront un impact sur leur croissance organique.

L’intégration de Semrush est disponible dès aujourd’hui pour tous les utilisateurs de Wix en anglais.


La source: Wix
Image en vedette : T. Schneider/Shutterstock

Google AdWords actualisera plus fréquemment certains ensembles de données

0

Le chef de produit AdWords, Jon Diorio, a annoncé aujourd’hui sur Google+ que des mises à jour plus fréquentes sont apportées à certains ensembles de données. Plus précisément, les termes de recherche, les performances géographiques et les statistiques de placement automatique seront désormais mis à jour toutes les 6 heures.

Alors que la plupart des ensembles de données, tels que les clics, les conversions et les impressions, sont disponibles dans un délai de 3 heures, d’autres ensembles de données ne sont mis à jour qu’une fois par jour.

Les termes de recherche, les performances géographiques et les statistiques de placement automatiques faisaient partie des ensembles de données que les spécialistes du marketing devaient attendre un certain temps avant de pouvoir voir les résultats. Vous aurez désormais accès à ces données en seulement 6 heures après le lancement d’une campagne, avec des mises à jour à effectuer dans les 6 heures qui suivent.

Ce changement est certainement une amélioration, mais il existe encore des ensembles de données qui ne seront mis à jour qu’une fois par jour. Cela inclut la part d’impressions, les informations sur les enchères et les meilleurs mouvements.

Quant aux données de conversion de Google Analytics, aucune modification n’y a été apportée. Les objectifs d’Analytics sont importés quotidiennement et peuvent prendre 24 à 72 heures pour apparaître dans vos statistiques de conversion.

Pour plus d’informations sur la mise à jour des données Google AdWords, consultez cet article du centre d’aide Google.

Comment exporter vos données Google+ avant qu’il ne s’arrête

0

Google a décidé de fermer la version grand public de Google+ en raison d’un bogue de sécurité, ainsi que de taux d’utilisation alarmants.

Bien que le réseau social n’ait jamais atteint une adoption grand public similaire à celle de Facebook et Twitter, il a attiré un groupe d’utilisateurs de niche.

Ceux qui se sont engagés avec le réseau au cours de ses sept années de fonctionnement voudront peut-être conserver la date qu’ils ont partagée avec lui.

Voici donc une procédure pas à pas rapide pour vous aider. Les utilisateurs ont jusqu’au mois d’août prochain pour télécharger leurs données avant qu’elles ne disparaissent définitivement.

Télécharger les données Google+ – Procédure pas à pas

Étape 1 : Google Takeout

Les utilisateurs peuvent télécharger toutes les données de leur compte Google avec un service appelé Google Takeout.

Visitez Google Takeout en accédant à takeout.google.com et en vous connectant avec votre compte Google.

Comment exporter vos données Google+ avant qu'il ne s'arrête

Étape 2 : Sélectionnez les données à exporter

Sélectionnez les ensembles de données à exporter à l’aide des boutons bascule sur le côté droit.

Les ensembles de données de Google+ pouvant être exportés incluent :

  • +1s
  • Cercles Google+
  • Communautés Google+
  • Flux Google+
  • Hangouts
  • Hangouts en direct
  • Profil

Affinez encore plus les jeux de données en utilisant les menus déroulants à côté des boutons bascule.

Comment exporter vos données Google+ avant qu'il ne s'arrête

Une fois les jeux de données sélectionnés, cliquez sur le bouton « Suivant » en bas.

Étape 3 : Personnalisez le format d’archive

La troisième et dernière étape consiste à choisir le type de fichier pour l’archive et la méthode de livraison.

Les données peuvent être envoyées par e-mail et téléchargées en pièce jointe ou enregistrées sur des services cloud tels que Google Drive ou Dropbox.

Comment exporter vos données Google+ avant qu'il ne s'arrête

Cliquez sur « Créer une archive » et vous avez terminé.

Google met à jour la documentation sur les données structurées des questions et réponses sur l’éducation

0

Google a mis à jour la documentation sur les données structurées Education avec de nouvelles consignes de contenu et un avertissement d’action manuelle pour les sites qui ne sont pas conformes aux nouvelles exigences.

Carrousel de questions-réponses sur l’éducation dans les résultats de recherche

Google a ajouté de la documentation pour les nouvelles données structurées qui ont aidé les pages pertinentes à devenir éligibles pour être affichées dans le carrousel de questions-réponses sur l’éducation.

Le carrousel de questions et réponses sur l’éducation est une liste de recherche avancée disponible dans les types de recherche suivants :

  • Résultats de recherche Google
  • Assistant Google
  • Objectif Google

Deux types de pages très différents sont éligibles pour cette fonctionnalité de recherche avancée.

  1. Pages de cartes mémoire
  2. Pages de questions-réponses uniques

Google a décrit les deux types de pages éligibles pour l’affichage du carrousel de l’éducation dans la recherche :

« Page flashcard : une page qui contient des flashcards qui ont généralement une question d’un côté et une réponse de l’autre côté. Pour baliser les pages de carte mémoire, continuez à lire ce guide pour savoir comment ajouter un schéma de questions et réponses sur l’éducation.

Page de questions et réponses unique : une page qui ne contient qu’une seule question et est suivie de réponses soumises par l’utilisateur. Pour baliser des pages de questions-réponses uniques, ajoutez plutôt le balisage QAPage. »

Les pages Flashcard utilisent le balisage Quiz. Les pages Q&A utilisent les données structurées QAPage.

Directives relatives au contenu

Les nouvelles directives de Google sur le contenu des questions et réponses sur l’éducation indiquent que les pages non conformes feront l’objet d’une action manuelle, qui est une pénalité qui empêche un site d’apparaître dans les résultats de recherche Google.

La nouvelle section de la documentation met en garde :

« Nous avons créé ces directives de contenu de questions-réponses sur l’éducation pour nous assurer que nos utilisateurs sont connectés à des ressources d’apprentissage pertinentes.

Si nous trouvons du contenu qui enfreint ces consignes, nous répondrons de manière appropriée, ce qui peut inclure une action manuelle et ne pas afficher votre contenu dans le résultat enrichi Q&R de l’éducation sur Google.

Il y a trois points à garder à l’esprit :

1. Les éditeurs de pages de questions-réponses sur l’éducation sont invités à consulter les directives de contenu de Google pour les pages de questions-réponses.

Ces directives stipulent que le balisage de données structurées QAPage ne peut être utilisé que sur les pages où les utilisateurs peuvent répondre aux questions. L’exemple de cas d’utilisation valide donné est un forum Web.

Les sites qui n’offrent pas aux utilisateurs un moyen de répondre aux questions mais qui présentent plutôt une question et une réponse sont invités à utiliser les données structurées de la page FAQ à la place.

2. La page doit présenter un contenu lié à l’éducation sous forme de questions et de réponses, et la réponse répond à la question.

3. Les réponses doivent être précises et correctes. Les directives stipulent que si une quantité (non spécifiée) du contenu s’avère inexacte, alors Google rendrait tout le contenu inéligible pour être vu dans le carrousel de questions-réponses sur l’éducation.

Concentrez-vous sur la précision

L’éducation est un sujet sensible, il est donc logique que Google ajoute une couche supplémentaire de rigueur concernant la qualité des informations présentées dans son carrousel de questions-réponses sur l’éducation.

Google met de plus en plus l’accent sur les informations correctes et utiles, qui pourraient faire partie du processus continu d’amélioration des résultats de recherche.


Citation

Lisez les nouvelles directives sur les données structurées pour les questions-réponses

Consignes de contenu

Image sélectionnée par Shutterstock/Elnur

Google met à jour les directives relatives aux données structurées de l’article

0

Google a mis à jour ses directives sur les données structurées par article pour refléter qu’ils ont abandonné l’exigence AMP et modifié les directives sur les images pour l’éligibilité aux Top Stories.

Trois modifications apportées aux directives indiquent clairement que l’éligibilité à la section des histoires d’actualité qui peut dominer le haut des résultats de recherche est devenue plus accessible pour un plus grand nombre d’éditeurs.

Les données structurées ne sont plus nécessaires pour les Top Stories

Les meilleures histoires sont un moyen pour Google de présenter de nouveaux contenus d’actualité dans les résultats de recherche.

Les recherches sur les sujets d’actualité dans les actualités généreront la section Top Stories, qui apparaît en haut des résultats de recherche dans des tailles qui peuvent dominer l’écran lors des recherches sur mobile et sur ordinateur.

Capture d'écran des meilleures histoires

Les articles les plus populaires peuvent également s’afficher plus bas au milieu de la page.

Par conséquent, être affiché dans les meilleurs articles est crucial pour les sites qui publient des nouvelles de dernière heure.

Quelque chose d’intéressant est que Google a ajouté un libellé au premier paragraphe des directives sur les données structurées de l’article pour noter que les données structurées ne sont pas nécessaires pour apparaître dans les articles les plus populaires.

Voici le nouveau paragraphe :

« Ajout de données structurées par article à vos actualités, blog et article de sport peuvent aider Google à mieux comprendre la page Web et à afficher un meilleur texte de titre, des images et des informations de date pour l’article dans les résultats de recherche sur la recherche Google et d’autres propriétés (par exemple, Google Actualités et l’Assistant Google). Bien qu’il n’y ait aucune exigence de balisage pour être éligible aux fonctionnalités de Google Actualités telles que les articles à la une, vous pouvez ajouter un article pour indiquer plus explicitement à Google le sujet de votre contenu (par exemple, qu’il s’agit d’un article d’actualité, qui en est l’auteur ou le titre de l’article est).

Qu’il ait toujours été vrai que les données structurées n’étaient pas nécessaires pour être éligibles, ou s’il s’agit de quelque chose de nouveau, c’est remarquable car cela montre que les exigences documentées de Google sont moins restrictives et plus inclusives.

Cela signifie que les sources d’information qui n’ajoutent pas de données structurées par article peuvent néanmoins être éligibles pour apparaître dans les articles les plus populaires.

C’est également le cas avec d’autres listes améliorées. Il est donc naturel que la documentation de Google pour Top Stories suive également la tendance consistant à ne plus exiger de données structurées pour être éligible.

Cependant, il est toujours recommandé d’inclure des données structurées, y compris les données structurées Article Schema.org, car cela permet aux éditeurs de faciliter la compréhension des pages Web par Google.

Google supprime les références à AMP

AMP, qui signifie Accelerated Mobile Pages, est un framework pour développer des pages HTML qui se chargent extrêmement rapidement sur les appareils mobiles.

L’utilisation d’AMP était, à un moment donné, nécessaire pour être éligible à l’inclusion dans les meilleures histoires.

Ce n’est plus le cas, et Google a supprimé les informations liées à l’AMP des directives sur les données structurées de l’article pour refléter ce changement.

Google n’a pas simplement modifié les directives pour inclure les informations AMP et non AMP. Google a complètement supprimé toutes les références à AMP des directives sur les données structurées.

Les éditeurs qui utilisent AMP n’ont plus de référence dans les consignes relatives aux données structurées de l’article.

Google a publié un préavis de ce changement en 2020 dans un article de blog :

« AMP ne sera plus nécessaire pour que les histoires soient présentées dans Top Stories sur mobile ; il sera ouvert à n’importe quelle page.

Changer pour les Top Stories Image Guidelines

Un autre changement, qui pourrait être considéré comme le plus important, rend l’inclusion dans les top stories plus facile à réaliser.

Le changement concerne la taille de l’image. Google a réduit l’exigence de taille d’image,

Les directives de données structurées de Google pour les images exigeaient auparavant des photos haute résolution avec un minimum de 800 000 pixels lorsque la largeur et la hauteur étaient multipliées.

Voici ce que les directives spécifiaient avant et après le changement.

Avant de:

« Pour de meilleurs résultats, fournissez plusieurs images haute résolution (minimum de 800 000 pixels en multipliant la largeur et la hauteur) avec les rapports d’aspect suivants : 16 × 9, 4 × 3 et 1 × 1. »

Après:

« Pour de meilleurs résultats, fournissez plusieurs images haute résolution (minimum de 50 000 pixels en multipliant la largeur et la hauteur) avec les proportions suivantes : 16 × 9, 4 × 3 et 1 × 1. »

« Pour de meilleurs résultats, fournissez plusieurs images haute résolution (minimum de 50 000 pixels en multipliant la largeur et la hauteur) avec les proportions suivantes : 16 × 9, 4 × 3 et 1 × 1. »

Lignes directrices pour les articles à la une

Ces changements peuvent, à première vue, sembler insignifiants. Mais ils sont significatifs.

La suppression complète de tout guide pour les éditeurs qui utilisent AMP est un peu curieuse. C’est presque comme si Google se retirait de l’AMP.

La mise à jour de Google des directives relatives aux images pour les articles les plus populaires est un changement bienvenu car elle encourage l’utilisation de tailles d’image plus petites, ce qui est bon pour les utilisateurs et les éditeurs.


Citations

Archive des directives sur les données structurées de l’article précédent de Google

Directives actuelles de Google sur les données structurées des articles

Image sélectionnée par Shutterstock/Les visages

Envoyez de meilleurs e-mails à l’aide de ces 7 conseils basés sur des données [INFOGRAPHIC]

0

L’e-mail est l’un des canaux de marketing en ligne les plus efficaces et il continuera à produire des conversions pendant longtemps, s’il est utilisé correctement. Vos efforts de marketing par e-mail fonctionnent-ils aussi bien que vous le souhaiteriez ? Sont-ils correctement optimisés ?

Mon entreprise a collaboré avec nos amis de HubSpot pour créer l’infographie ci-dessous. Nous avons utilisé les données du rapport 2014 sur la science des e-mails pour expliquer comment les consommateurs lisent et filtrent les e-mails, et pourquoi ils se désabonnent des listes de diffusion.

Chaque entreprise a un marché et un client cible uniques, les données fournies dans l’infographie doivent donc être utilisées comme base. Vous voudrez effectuer vos propres tests et voir à quoi votre marché particulier répond le mieux, et bien qu’il n’y ait pas de solution unique, ces données sont un excellent point de départ.

Envoyez de meilleurs e-mails à l'aide de ces 7 conseils basés sur des données [Infographic]

L’outil de planification des mots clés de Google fournit des données limitées aux annonceurs à faibles dépenses

0

Hé, gros dépensier ! Dépenser davantage sur AdWords est désormais le seul moyen d’accéder à des ensembles complets de données dans l’outil de planification des mots clés de Google. Pas un gros dépensier? Préparez-vous ensuite à un accès limité aux données de mots-clés à l’avenir.

Un responsable de la communauté Google AdWords a annoncé une mise à jour de Keyword Planner qui est sur le point de résoudre et de créer des problèmes pour certains utilisateurs. La bonne nouvelle est que les problèmes techniques précédents ont été résolus. La nouvelle qui ne plaira pas à tout le monde est la suivante : les comptes AdWords à faibles dépenses n’auront plus accès à autant de données qu’auparavant.

« Les annonceurs dont les dépenses mensuelles sont inférieures peuvent voir une vue limitée des données dans le planificateur de mots clés. »

La principale différence se trouve dans la colonne « Recherches mensuelles moyennes ». Dans une vue de données limitée, l’outil affichera désormais des plages de données au lieu de valeurs spécifiques au lieu de valeurs spécifiques. Par exemple, si un mot-clé a 500 recherches par mois, la vue de données limitée affichera une plage de 100 à 1K.

Les plages de données seront regroupées comme suit :

  • 0
  • 1–100
  • 100–1K
  • 1K–10K
  • 10K–100K
  • 100K–1M
  • 1M+

De plus, vous pourriez finir par déclencher la vue de données limitée en atteignant une limite sur le nombre de recherches de données de volume de recherche. Cependant, Google n’a pas précisé exactement quelle est cette limite. Vraisemblablement, cela signifie que vous pouvez être un gros dépensier et que vos données de mots clés sont toujours limitées dans Keyword Planner si vous effectuez trop de recherches.

Google n’a pas fourni plus de détails sur ce qu’il considère comme un annonceur avec des « dépenses mensuelles inférieures ». Apparemment, « la plupart » des annonceurs continueront à voir les données de volume de recherche dans Keyword Planner comme d’habitude. Pour ce que ça vaut, je n’ai pas encore rencontré la vue limitée des données dans Keyword Planner et je ne me considère pas comme un gros consommateur AdWords, mais votre kilométrage peut varier.

Qu’est-ce que la visualisation de données et comment l’utiliser pour le référencement

0

La planification et l’exécution d’une excellente stratégie de référencement sont essentielles pour toute campagne de marketing numérique.

Cependant, l’effort nécessite des données pour raconter l’histoire d’une manière qui résonne avec nos clients.

Mais se pencher sur des pools de chiffres peut être fastidieux et mentalement épuisant. C’est là qu’intervient la visualisation des données.

La visualisation des données prend vos données (chiffres) et les place dans un contexte visuel, tel qu’un tableau, un graphique ou une carte. Cela aide également à créer des récits de données qui communiquent des informations avec clarté.

Sans visualisation des données pour extraire des informations, des tendances et des modèles, les chances d’obtenir le soutien d’autres services s’effondrent. Les meilleures visualisations de données décomposent des ensembles de données complexes pour présenter un message concis et clair.

Lisez la suite pour en savoir plus sur la visualisation des données, son importance et comment l’utiliser pour votre campagne de référencement.

Types de visualisations de données

Pendant des années, le moyen le plus simple de créer une visualisation de données consistait à ajouter des informations à une feuille de calcul Excel et à la transformer en graphique, graphique ou tableau.

Bien que toujours efficace, la méthode a subi quelques mises à jour au cours des dernières décennies.

Les options permettent aujourd’hui aux utilisateurs de créer des visualisations de données élaborées, notamment :

  • Graphiques à puces.
  • Graphiques animés.
  • Arbres radiaux.
  • Graphiques interactifs.
  • Nuages ​​de bulles.
  • Art des données.
  • Cartes thermiques.
  • Tableaux de bord.
  • Infographies.

Et beaucoup plus.

Ceci est un exemple de visualisation de données pour voir la hiérarchie de crawl d'un site Web.

Ce qui précède est un exemple de visualisation de données pour voir la hiérarchie d’exploration d’un site Web.

Comment choisir le bon type de visualisation

Choisissez le bon type de visualisation pour communiquer efficacement votre message.

Avant de commencer :

  1. Identifiez le message clé que vous souhaitez communiquer et résumez-le en une courte phrase.
  2. Trouvez les données dont vous avez besoin pour communiquer votre message et pensez également à les simplifier pour rendre ce message plus clair.
  3. Tenez compte du type de données dont vous disposez, telles que les comparaisons, les tendances, les modèles, la distribution et les données géographiques.
  4. Considérez quel type d’affichage est simple et captera l’attention du public.
  5. Comme tout contenu Web, votre visualisation doit être accessible à tous les utilisateurs.
  6. Considérez les informations à inclure dans la visualisation, et les lecteurs peuvent comprendre et interpréter les données.

Importance de la visualisation des données

Les entreprises modernes génèrent des quantités massives de données grâce à l’apprentissage automatique.

Bien qu’excellents, nous devons trier, filtrer et expliquer les informations ; il est donc logique pour les parties prenantes et les propriétaires d’entreprise.

Il est facile d’identifier rapidement les modèles et les tendances de votre stratégie de référencement à l’aide de la visualisation des données. La visualisation permet de transmettre facilement et rapidement des informations. Faire de la visualisation des données une habitude dans votre entreprise offre plusieurs avantages.

Créer des propositions de valeur solides

Il est facile d’expliquer aux parties prenantes ou aux clients comment et pourquoi vos produits sont bons, mais pas aussi facile pour les mêmes personnes de comprendre ce que vous dites.

La visualisation de vos données est une excellente stratégie qui peut augmenter l’adhésion aux idées. La stratégie peut également transformer le trafic du site en ventes, contribuant ainsi au succès d’une entreprise.

Permettre une communication plus rapide et plus facile

Toutes les entreprises cherchent à faire connaître leurs produits au public. Mais peu de gens prennent le temps de lire des tonnes de mots.

Au lieu de cela, simplifiez le message en un contenu visuel facile à présenter.

Plus de gens se concentreront sur les données visuelles que sur le texte. Les visuels aident à capter l’attention et à persuader les clients potentiels, les clients et les investisseurs.

En conséquence, cela contribue à générer du trafic vers votre entreprise, ce qui mène au succès.

Analyser les modèles et les tendances

Les secteurs d’activité dépendent de modèles et de tendances spécifiques. C’est votre rôle de prendre des décisions en fonction des modèles et des tendances du marché.

La visualisation des données résume l’ensemble du processus d’identification des opportunités actuelles et futures.

Les données aident également les propriétaires d’entreprise à prendre des décisions prudentes alignées sur la situation du marché.

Motiver les membres de l’équipe

Le succès de l’entreprise dépend des efforts déployés par les membres de l’équipe dans le processus. Chaque membre de votre organisation est heureux lorsque l’entreprise fait des progrès en matière de développement.

La visualisation des données peut aider à identifier la position initiale de l’entreprise et la direction dans laquelle elle se dirige.

Le processus peut motiver les membres de l’équipe à travailler plus fort et à élever votre entreprise à de plus hauts sommets.

Améliorer l’expérience client

La visualisation des données joue un rôle essentiel dans l’amélioration de l’expérience de vos clients. Les données permettent de s’assurer que les clients sont satisfaits et que leurs exigences sont incluses.

La visualisation des données facilite la mise en forme, le filtrage et la déségrégation des données à la demande.

Visualisation des données et référencement

Les données SEO affectent de manière significative le volume de recherche de mots-clés contribuant au classement d’un site.

Le volume de recherche par mot-clé est le nombre de fois que les visiteurs recherchent un mot-clé spécifique dans un laps de temps donné. Le terme fait également référence au nombre de personnes intéressées par un mot-clé.

Les données SEO sont également essentielles pour le trafic organique dans différents aspects du marketing en ligne. Ce dernier est le nombre de personnes visitant votre site.

La vitesse des pages est une autre pratique SEO essentielle qui détermine la fiabilité de votre site Web.

Vos visiteurs en ligne n’ont pas le temps d’attendre qu’une page se charge. De plus, la vitesse de la page affecte également votre position sur le moteur de recherche.

Utiliser la visualisation de données pour améliorer le référencement

La visualisation de vos données a un impact significatif sur l’interprétation. La visualisation peut aider à représenter le volume de recherche pour différents ensembles de mots-clés que vous souhaitez utiliser dans votre prochaine campagne.

Les outils de visualisation peuvent également présenter une analyse détaillée de votre site du point de vue SEO.

La présentation de votre contenu dans des tableaux et des graphiques aide le public à saisir tous les aspects d’une campagne de référencement.

Augmentez les capacités de référencement

La visualisation des données peut vous aider à améliorer vos stratégies de référencement de plusieurs manières. Voici les domaines les plus efficaces dans cette visualisation qui aideront à booster le référencement.

Analyse compétitive

Travailler sur votre stratégie de référencement, c’est aussi évaluer ce que font les concurrents. L’analyse vous aide à comprendre ce qui doit être fait et les domaines à améliorer.

La visualisation peut vous aider à :

  • Déterminez la force des médias sociaux des concurrents.
  • Trouvez les meilleurs concurrents pour un mot-clé.
  • Analysez les profils de backlinks des concurrents.
Distribution de la difficulté des mots clés

Ce qui précède est un exemple d’utilisation d’un graphique à barres pour visualiser la répartition de la difficulté des mots clés des classements actuels des mots clés.

Analyse des backlinks

La visualisation vous aide également à créer une campagne de création de liens efficace.

Certains éléments à analyser comprennent :

  • Emplacements géographiques de backlink.
  • Qualité des backlinks.
  • La distribution du texte d’ancrage de backlink.

Envelopper

La visualisation des données est une contribution essentielle au succès de toute pratique commerciale.

Ce qui rend la visualisation essentielle, c’est sa capacité à transmettre visuellement des ensembles de données complexes.

Tout ce qui peut condenser de grandes quantités de données dans des infographies, des tableaux et des graphiques est une recette réussie.

Il est clair que l’intégration de la visualisation dans vos opérations de marketing numérique améliore également les capacités de référencement.

De plus, la visualisation de vos données joue un rôle majeur dans le développement commercial et les décisions de référencement.

Davantage de ressources:

  • 8 conseils pour rendre votre visualisation de données plus engageante et efficace
  • 14 visualisations Data Studio essentielles pour les spécialistes du marketing de recherche payante
  • Marketing de contenu : le guide ultime du débutant


Image en vedette : ra2 studio/Shutterstock

Google continue d’afficher les données de niveau de qualité jusqu’au 10 octobre

0

Il a été signalé le mois dernier que Google renverrait des scores de qualité nuls pour les mots clés nouveaux et sous-performants dans AdWords à partir du 12 septembre. Si vous vous êtes connecté récemment à votre compte AdWords, vous avez peut-être remarqué que vous disposiez toujours d’informations sur le niveau de qualité des mots clés nouveaux et peu performants. Et non, ce n’est pas un accident.

Google a repoussé la date au 10 octobre. C’est la nouvelle date à laquelle Google supprimera les informations sur le score de qualité. Pourquoi repousser la date ? Google explique dans un article sur Google+ :

« Pour donner aux annonceurs plus de temps pour examiner leurs rapports, filtres, règles et scripts qui s’appuient sur les niveaux de qualité, les niveaux de qualité nuls seront désormais déployés la semaine du 10 octobre 2016. »

Avec le fonctionnement actuel d’AdWords, lorsqu’un niveau de qualité ne peut pas être déterminé, AdWords signale par défaut un score de « 6 ». Après le 10 octobre, vous commencerez à voir des tirets dans les niveaux de qualité des lieux lorsque vous ajoutez de nouveaux mots clés à une campagne ou que vous avez des mots clés dans votre campagne qui n’ont pas d’activité récente.

Pour plus d’informations sur les scores de qualité et leur mode de calcul, veuillez consulter l’article d’un ancien Googleur.

Mise à jour de Google Search Console : Plus de données dans les rapports Core Web Vitals

0

Google Search Console commencera à générer des rapports sur les scores Core Web Vitals (CWV) d’URL spécifiques, en plus des scores agrégés pour les groupes d’URL.

Cela signifie des données plus granulaires pour les utilisateurs de la Search Console.

Le rapport Core Web Vitals mis à jour dans Google Search Console vous permettra d’identifier les URL qui empêchent votre site d’atteindre des scores « Bons ».

Grâce aux informations disponibles dans les rapports mis à jour, vous saurez où concentrer vos efforts si vos scores CWV ne sont pas à la hauteur.

En savoir plus sur ce qui change et comment lire le nouveau rapport Core Web Vitals dans la Search Console.

Rapport Core Web Vitals – Quoi de neuf ?

Avant la mise à jour d’aujourd’hui, le rapport Core Web Vitals de la Search Console fournissait des scores agrégés basés sur des groupes d’URL.

Google continuera d’évaluer Core Web Vitals pour les groupes d’URL, bien que vous puissiez désormais aller plus loin.

Cliquer sur un groupe d’URL dans le rapport de la Search Console fera apparaître un nouveau panneau sur le côté droit avec des données au niveau de l’URL.

Voir un exemple dans la capture d’écran ci-dessous :

Mise à jour de Google Search Console : Plus de données dans les rapports Core Web Vitals

Cet exemple montre quelqu’un enquêtant sur des scores CLS qui doivent être améliorés. Lorsqu’ils cliquent sur un groupe d’URL dans le rapport, ils peuvent voir les URL individuelles qui nécessitent leur attention.

En outre, le rapport indique quelles URL du groupe ont obtenu de « bons » scores CLS. Vous pouvez donc probablement ignorer ces pages lorsque vous parcourez et résolvez les problèmes CLS.

C’est beaucoup plus efficace que de parcourir toutes les URL du groupe et de rechercher des problèmes qui n’existent peut-être pas.

Une page d’aide mise à jour indique que les valeurs aberrantes dans les groupes d’URL sont rares. Dans la plupart des cas, le score attribué à un groupe s’appliquera à la plupart des URL du groupe :

« Les statuts LCP, FID et CLS s’appliquent à l’ensemble du groupe. Certaines URL aberrantes peuvent avoir des valeurs meilleures ou pires lors de certaines visites, mais 75 % des visites sur toutes les URL du groupe ont connu le statut de groupe affiché. ».


La source: @GoogleSearchSC sur Twitter
Image en vedette : Piscine26/Shutterstock

Comment écrire de meilleurs titres en utilisant des stratégies basées sur les données [Infographic]

0

Combien de temps as-tu mis dans le titre de ton dernier article de blog ? Si votre réponse était « Pas grand-chose », ne vous inquiétez pas, c’est souvent l’élément de contenu le plus négligé.

La majorité des gens tapent un titre de blog, puis cliquent sur le bouton « publier » sans trop y penser.

Votre titre impactera directement votre taux de clics. Un titre de blog horrible tirera un CTR faible, tandis qu’un titre convaincant tirera un CTR plus élevé. C’est logique, non ? C’est la première partie de votre contenu à laquelle un visiteur potentiel sera exposé. Votre titre peut être responsable d’attirer un lecteur ou de repousser quelqu’un, l’amenant à s’engager avec du contenu ailleurs.

La rédaction d’excellents titres d’articles de blog contribuera à améliorer votre CTR, et plus de personnes interagissent avec votre contenu, ce qui se traduira par plus de prospects, de ventes et de revenus pour votre entreprise. Mon entreprise a collaboré avec HubSpot pour créer l’infographie ci-dessous. Les données mettent en évidence des mots spécifiques que vous pouvez utiliser pour augmenter l’engagement, ainsi que les longueurs de titre les meilleures pour la recherche, les réseaux sociaux, le taux de clics et le post-engagement.

Rédigez de meilleurs titres et titres à l'aide de stratégies basées sur les données

Remplacement des lancements de l’outil de test de données structurées de Google

0

Un remplaçant de l’outil de test de données structurées de Google, appelé Schema Markup Validator, est désormais disponible pour une utilisation en version bêta ouverte.

Lancé en tant que sous-domaine sur le site officiel Schema.org, le nouvel outil n’est pas une copie exacte 1: 1 de l’outil de test de données structurées de Google, mais il est fonctionnellement similaire.

Google a fermé l’outil d’origine en juillet 2020, affirmant que toutes ses fonctionnalités avaient été migrées vers Rich Results Rest et n’avaient plus besoin d’exister en tant qu’offre autonome.

Ce n’était cependant pas vrai à 100 %, car le test des résultats enrichis se limite à tester le balisage de données structurées officiellement pris en charge dans les résultats de recherche de Google.

Il existe de nombreux autres types de données structurées au-delà de ce que Google utilise pour afficher des résultats riches dans les SERP, et le test des résultats enrichis n’offre pas la possibilité de les tester.

Après avoir entendu les commentaires des référenceurs déplorant la perte de l’outil de test de données structurées, Google a décidé qu’il vivrait dans un nouveau domaine.

En décembre 2020, Google a annoncé que son outil fermé passerait à Schema.org en avril 2021. Un mois avant l’objectif, l’outil peut désormais être utilisé sur validator.schema.org.

Comment se compare-t-il à l’original ? Nous allons jeter un coup d’oeil.

Un outil de test de données structurées « recentré »

Google a informé les utilisateurs à l’avance que l’outil Schema.org serait une version recentrée de l’original.

Le Schema Markup Validator est recentré dans le sens où il teste strictement les propriétés de Schema.org. Voici ce qui est indiqué dans la documentation de l’outil :

« L’outil est axé sur Schema.org. Dans le cas de JSON-LD, cela signifie qu’il ne récupérera ni n’interprétera d’autres URL @context. »

Il est capable de tester toutes les propriétés de schéma, pas seulement celles prises en charge dans les résultats de recherche de Google.

Les propriétaires de sites et les développeurs peuvent exécuter un test dans Schema Markup Validator en soumettant une URL ou en fournissant le code brut. Il teste les données structurées dans le code HTML de la page, ainsi que le balisage injecté par JavaScript.

Les fonctionnalités du Schema Markup Validator incluent :

  • Extrait JSON-LD 1.0, RDFa 1.1, balisage de microdonnées.
  • Affiche un résumé du graphique de données structurées extrait.
  • Identifie les erreurs de syntaxe dans le balisage.

Outre l’absence de marque Google, l’utilisation du validateur ressemble exactement à l’ancien outil de test de données structurées.

Après avoir navigué vers le Schema Markup Validator, les utilisateurs sont accueillis par une invite familière pour entrer une URL ou un extrait de code.

Remplacement des lancements d'outils de test de données structurées de Google

Les résultats sont livrés quelques secondes après avoir cliqué sur « Exécuter le test » et se présentent comme prévu. Voici un exemple de test de la page d’accueil du Search Engine Journal.

Remplacement des lancements d'outils de test de données structurées de Google

Curieusement, il n’y a eu aucune annonce de Google ou de Schema.org concernant le lancement de cet outil.

Bien que le Schema Markup Validator soit confirmé comme étant le remplacement auquel Google faisait référence en décembre, selon cette ligne dans la documentation :

« Il est basé sur l’outil précédemment connu sous le nom de Google Structured Data Testing Tool (SDTT), et est fourni par Google en tant que service pour la communauté Schema.org. »

Ceux qui utilisent l’outil dans le cadre de leur travail quotidien doivent garder à l’esprit qu’il s’agit d’une version bêta et que des erreurs inattendues peuvent se produire.

Sources : validateur de balisage Schema.org

Google Analytics suivra les données sans cookies

0

Google annonce plusieurs mises à jour qui aideront à fournir aux propriétaires de sites et aux annonceurs des données pertinentes lorsque les cookies ne sont pas disponibles.

Les nouvelles méthodes de suivi sécurisées pour la vie privée, qui n’impliquent pas la technologie FLoC controversée de Google, reposent sur des données de première partie et sur l’apprentissage automatique.

Ces nouvelles solutions sont conçues pour aider les spécialistes du marketing à réussir dans un monde avec moins de cookies et d’identifiants tiers, en introduisant des moyens de mesurer les conversions et de débloquer des informations utiles tout en respectant le consentement de l’utilisateur.

Grâce à ces mises à jour destinées aux propriétaires de sites et aux annonceurs, Google :

  • Étendez ses modèles avancés d’apprentissage automatique aux rapports comportementaux dans Google Analytics.
  • Autorisez un accès transparent au mode Consentement, qui ajuste le fonctionnement des balises Google en fonction des choix de consentement des cookies de l’utilisateur.
  • Mettez en œuvre des conversions améliorées qui permettent aux balises d’utiliser des données de première partie avec consentement pour suivre la façon dont les utilisateurs convertissent après avoir interagi avec des publicités.

En savoir plus sur les alternatives sans cookies de Google au suivi des données.

Suivi Google Analytics sans cookies

Google Analytics utilisera bientôt l’apprentissage automatique pour améliorer la compréhension qu’ont les spécialistes du marketing du parcours client avec ou sans cookies.

Il s’agit d’une extension des capacités d’apprentissage automatique ajoutées à Google Analytics l’année dernière qui lui permettent de faire apparaître des informations marketing pertinentes, telles que la probabilité que les clients effectuent un achat.

Les modèles avancés d’apprentissage automatique de Google seront étendus aux rapports comportementaux dans Analytics. Ces modèles combleront les lacunes dans les données laissées par les cookies non disponibles.

Grâce à ces données, les spécialistes du marketing auront une vue plus complète du parcours client et pourront utiliser ces informations pour améliorer les campagnes.

Google indique que l’apprentissage automatique sera utilisé, si nécessaire, que les cookies soient disponibles ou non.

Lié: La place du référencement dans un Web sans cookie

Mode de consentement

« Il est maintenant temps d’adopter de nouvelles techniques de confidentialité pour garantir que votre mesure reste précise et exploitable », déclare Vidhya Srinivasan de Google dans l’annonce.

L’une de ces techniques consiste à créer une base de données de première partie, ce que les spécialistes du marketing peuvent faire avec le mode consentement de Google.

Le mode de consentement ajuste le fonctionnement des balises Google en fonction des choix de consentement de l’utilisateur pour les cookies publicitaires ou les cookies d’analyse.

Lorsque les utilisateurs ne consentent pas aux cookies, le mode Consentement utilisera la modélisation des conversions pour récupérer, en moyenne, plus de 70 % des trajets annonce-clic-conversion.

Cela permet de s’assurer que les spécialistes du marketing peuvent continuer à mesurer les performances complètes de leur campagne tout en respectant la confidentialité.

Pour faciliter l’intégration des sites Web au mode Consentement, Google permettra bientôt la mise en œuvre directement à partir des comptes Tag Manager, permettant aux spécialistes du marketing de modifier et de personnaliser le comportement des balises en réponse aux préférences de consentement des utilisateurs.

Conversions améliorées

Les conversions améliorées sont un moyen supplémentaire de mesurer les données avec précision lorsque moins de cookies sont disponibles.

S’appuyant sur la base créée par le mode Consentement, les conversions améliorées utilisent des données de première partie consenties pour donner une vue plus précise des actions entreprises par les utilisateurs après avoir interagi avec les publicités.

Les spécialistes du marketing obtiendront les données dont ils ont besoin pour débloquer des informations sur les performances, telles que l’augmentation des conversions, et améliorer la mesure dans les cas où une annonce est diffusée sur un appareil et que l’utilisateur effectue une conversion sur un autre.

Google note que les données de première partie sont hachées pour protéger la confidentialité des utilisateurs et assurer la sécurité, ce qui signifie que les spécialistes du marketing recevront des rapports de conversion agrégés et anonymisés.

Lors des premiers tests de conversions améliorées, le détaillant ASOS aurait enregistré une augmentation des ventes de 8,6 % dans la recherche et de 31 % dans YouTube.

Google dévoilera plus d’informations sur ces nouvelles solutions de mesure sécurisées pour la confidentialité lors de Google Marketing Livestream 2021 le jeudi 27 mai à 8h00 PT / 11h00 HE.

Source : Blog Google Ads et Commerce