ChatGPT est un chatbot d’intelligence artificielle qui peut suivre des instructions et accomplir des tâches telles que la rédaction d’essais. Il y a de nombreux problèmes à comprendre avant de prendre une décision sur la façon de l’utiliser pour le contenu et le référencement.

La qualité du contenu ChatGPT est étonnante, donc l’idée de l’utiliser à des fins de référencement doit être envisagée.

Explorons.

Pourquoi ChatGPT peut faire ce qu’il fait

En un mot, ChatGPT est un type d’apprentissage automatique appelé Large Learning Model.

Un grand modèle d’apprentissage est une intelligence artificielle qui est formée sur de grandes quantités de données qui peuvent prédire quel est le mot suivant dans une phrase.

Plus il est formé de données sur le plus de types de tâches qu’il est capable d’accomplir (comme écrire des articles).

Parfois, les grands modèles de langage développent des capacités inattendues.

L’Université de Stanford écrit sur la façon dont une augmentation des données de formation a permis à GPT-3 de traduire du texte de l’anglais vers le français, même s’il n’était pas spécifiquement formé pour faire cette tâche.

Les grands modèles de langage comme GPT-3 (et GPT-3.5 qui sous-tend ChatGPT) ne sont pas formés pour effectuer des tâches spécifiques.

Ils sont formés avec un large éventail de connaissances qu’ils peuvent ensuite appliquer à d’autres domaines.

Ceci est similaire à la façon dont un humain apprend. Par exemple, si un humain apprend les bases de la menuiserie, il peut appliquer ces connaissances pour construire une table même si cette personne n’a jamais été spécifiquement enseignée à le faire.

GPT-3 fonctionne comme un cerveau humain en ce qu’il contient des connaissances générales qui peuvent être appliquées à plusieurs tâches.

L’article de l’Université de Stanford sur GPT-3 explique :

« Contrairement aux moteurs d’échecs, qui résolvent un problème spécifique, les humains sont » généralement « intelligents et peuvent apprendre à faire n’importe quoi, de l’écriture de poésie au football en passant par la production de déclarations de revenus.

Contrairement à la plupart des systèmes d’IA actuels, le GPT-3 se rapproche d’une telle intelligence générale… »

ChatGPT intègre un autre grand modèle de langage appelé InstructGPT, qui a été formé pour recevoir des instructions d’humains et des réponses longues à des questions complexes.

Cette capacité à suivre les instructions permet à ChatGPT de prendre des instructions pour créer un essai sur pratiquement n’importe quel sujet et de le faire de la manière spécifiée.

Il peut écrire un essai dans les contraintes telles que le nombre de mots et l’inclusion de points de sujet spécifiques.

Six choses à savoir sur ChatGPT

ChatGPT peut rédiger des essais sur pratiquement n’importe quel sujet car il est formé sur une grande variété de textes accessibles au grand public.

Il y a cependant des limitations à ChatGPT qu’il est important de connaître avant de décider de l’utiliser sur un projet SEO.

1. Programmé pour éviter certains types de contenu

Par exemple, ChatGPT est spécifiquement programmé pour ne pas générer de texte sur les thèmes de la violence graphique, du sexe explicite et du contenu préjudiciable, comme des instructions sur la façon de construire un engin explosif.

2. Inconscient des événements actuels

Une autre limitation est qu’il n’est au courant d’aucun contenu créé après 2021.

Donc, si votre contenu doit être à jour et frais, ChatGPT dans sa forme actuelle peut ne pas être utile.

3. A des biais intégrés

Une limitation importante dont il faut être conscient est qu’il est formé pour être utile, véridique et inoffensif.

Ce ne sont pas seulement des idéaux, ce sont des préjugés intentionnels qui sont intégrés à la machine.

Il semble que la programmation soit inoffensive fait que la sortie évite la négativité.

C’est une bonne chose, mais cela change aussi subtilement l’article d’un article qui pourrait idéalement être neutre.

En quelque sorte, il faut prendre le volant et dire explicitement à ChatGPT de conduire dans la direction souhaitée.

Voici un exemple de la façon dont le biais modifie la sortie.

J’ai demandé à ChatGPT d’écrire une histoire dans le style de Raymond Carver et une autre dans le style de l’écrivain mystérieux Raymond Chandler.

Les deux histoires avaient des fins optimistes qui n’étaient pas caractéristiques des deux écrivains.

Afin d’obtenir une sortie qui correspondait à mes attentes, j’ai dû guider ChatGPT avec des instructions détaillées pour éviter les fins optimistes et pour la fin de style Carver pour éviter une résolution de l’histoire car c’est ainsi que les histoires de Raymond Carver se jouaient souvent.

Le fait est que ChatGPT a des biais et qu’il faut être conscient de la façon dont ils pourraient influencer la sortie.

4. ChatGPT nécessite des instructions très détaillées

ChatGPT nécessite des instructions détaillées afin de produire un contenu de meilleure qualité qui a plus de chances d’être très original ou d’adopter un point de vue spécifique.

Plus il reçoit d’instructions, plus la sortie sera sophistiquée.

C’est à la fois une force et une limite dont il faut être conscient.

Moins il y a d’instructions dans la demande de contenu, plus il est probable que la sortie partagera une sortie similaire avec une autre demande.

À titre de test, j’ai copié la requête et la sortie que plusieurs personnes ont publiées sur Facebook.

Lorsque j’ai posé exactement la même requête à ChatGPT, la machine a produit un essai complètement original qui suivait une structure similaire.

Les articles étaient différents mais ils partageaient la même structure et abordaient des sous-thèmes similaires mais avec des mots 100% différents.

ChatGPT est conçu pour choisir des mots complètement aléatoires lors de la prédiction du mot suivant dans un article, il est donc logique qu’il ne se plagie pas.

Mais le fait que des requêtes similaires génèrent des articles similaires met en évidence les limites de simplement demander « donnez-moi ceci ». ”

5. Le contenu ChatGPT peut-il être identifié ?

Les chercheurs de Google et d’autres organisations travaillent depuis de nombreuses années sur des algorithmes pour détecter avec succès le contenu généré par l’IA.

Il existe de nombreux articles de recherche sur le sujet et j’en mentionnerai un de mars 2022 qui a utilisé la sortie de GPT-2 et GPT-3.

Le document de recherche est intitulé, Robustesse contradictoire des caractéristiques neurologiques-statistiques dans la détection des transformateurs génératifs (PDF).

Les chercheurs testaient pour voir quel type d’analyse pouvait détecter le contenu généré par l’IA qui utilisait des algorithmes conçus pour échapper à la détection.

Ils ont testé des stratégies telles que l’utilisation d’algorithmes BERT pour remplacer les mots par des synonymes, une autre qui a ajouté des fautes d’orthographe, entre autres stratégies.

Ce qu’ils ont découvert, c’est que certaines caractéristiques statistiques du texte généré par l’IA, telles que les scores Gunning-Fog Index et Flesch Index, étaient utiles pour prédire si un texte était généré par ordinateur, même si ce texte avait utilisé un algorithme conçu pour échapper à la détection.

6. Filigrane invisible

Plus intéressant encore, les chercheurs d’OpenAI ont développé un filigrane cryptographique qui facilitera la détection du contenu créé via un produit OpenAI comme ChatGPT.

Un article récent a attiré l’attention sur une discussion d’un chercheur d’OpenAI qui est disponible sur une vidéo intitulée Scott Aaronson Talks AI Safety.

Le chercheur déclare que les pratiques éthiques de l’IA telles que le filigrane peuvent évoluer pour devenir une norme de l’industrie de la même manière que Robots.txt est devenu une norme pour l’exploration éthique.

Il a déclaré:

« … nous avons vu au cours des 30 dernières années que les grandes entreprises de l’Internet peuvent s’entendre sur certaines normes minimales, que ce soit par peur d’être poursuivi, par désir d’être perçu comme un acteur responsable, ou quoi que ce soit d’autre.

Un exemple simple serait robots.txt : si vous souhaitez que votre site Web ne soit pas indexé par les moteurs de recherche, vous pouvez le spécifier et les principaux moteurs de recherche le respecteront.

De la même manière, vous pourriez imaginer quelque chose comme le filigrane – si nous pouvions le démontrer et montrer que cela fonctionne et que c’est bon marché et ne nuit pas à la qualité de la sortie et ne nécessite pas beaucoup de calcul, etc. cela deviendrait simplement une norme de l’industrie, et quiconque voudrait être considéré comme un acteur responsable l’inclurait.

Le tatouage que le chercheur a mis au point est basé sur une cryptographie. Quiconque a la clé peut tester un document pour voir s’il a le filigrane numérique qui montre qu’il est généré par une IA.

Le code peut être sous la forme de la façon dont la ponctuation est utilisée ou dans le choix des mots, par exemple.

Il a expliqué comment fonctionne le filigrane et pourquoi c’est important :

« Mon projet principal jusqu’à présent a été un outil de tatouage statistique des sorties d’un modèle de texte comme GPT.

Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu’il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT.

Nous voulons qu’il soit beaucoup plus difficile de prendre une sortie GPT et de la faire passer comme si elle provenait d’un humain.

Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande – vous savez, spammer chaque blog avec des commentaires apparemment sur le sujet soutenant l’invasion de l’Ukraine par la Russie, sans même un bâtiment plein de trolls à Moscou.

Ou se faire passer pour le style d’écriture de quelqu’un afin de l’incriminer.

Ce sont toutes des choses que l’on pourrait vouloir rendre plus difficiles, non ? »

Le chercheur a partagé que le filigrane va à l’encontre des efforts algorithmiques pour échapper à la détection.

Mais il a également déclaré qu’il est possible de vaincre le filigrane :

« Maintenant, tout cela peut être vaincu avec suffisamment d’efforts.

Par exemple, si vous avez utilisé une autre IA pour paraphraser la sortie de GPT, eh bien, nous ne pourrons pas détecter cela. »

Le chercheur a annoncé que l’objectif était de déployer le filigrane dans une future version de GPT.

Devriez-vous utiliser l’IA à des fins de référencement ?

Le contenu de l’IA est détectable

Beaucoup de gens disent que Google n’a aucun moyen de savoir si le contenu a été généré à l’aide de l’IA.

Je ne comprends pas pourquoi quelqu’un aurait cette opinion, car la détection de l’IA est un problème qui a déjà été résolu.

Même le contenu qui déploie des algorithmes anti-détection peut être détecté (comme indiqué dans le document de recherche auquel j’ai lié ci-dessus).

La détection de contenu généré par une machine fait l’objet de recherches depuis de nombreuses années, y compris des recherches sur la manière de détecter un contenu traduit à partir d’une autre langue.

Le contenu généré automatiquement enfreint les directives de Google

Google affirme que le contenu généré par l’IA enfreint les directives de Google. Il est donc important de garder cela à l’esprit.

ChatGPT peut à un moment donné contenir un filigrane

Enfin, le chercheur d’OpenAI a déclaré (quelques semaines avant la sortie de ChatGPT) que le filigrane arriverait « espérons-le » dans la prochaine version de GPT.

Ainsi, ChatGPT peut à un moment donné être mis à niveau avec le filigrane, s’il n’est pas déjà filigrané.

La meilleure utilisation de l’IA pour le référencement

La meilleure utilisation des outils d’IA consiste à faire évoluer le référencement de manière à rendre un travailleur plus productif. Cela consiste généralement à laisser l’IA faire le travail fastidieux de recherche et d’analyse.

Résumer des pages Web pour créer une méta description pourrait être une utilisation acceptable, car Google indique spécifiquement que cela n’est pas contraire à ses directives.

Utiliser ChatGPT pour générer un aperçu ou un résumé de contenu peut être une utilisation intéressante.

Mais confier la création de contenu à une IA et le publier tel quel n’est peut-être pas l’utilisation la plus efficace de l’IA pour de nombreuses raisons, notamment la possibilité qu’elle soit détectée et qu’un site reçoive une action manuelle (c’est-à-dire interdit).

Image sélectionnée par Shutterstock/Roman Samborskyi

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici