Google a annoncé une recherche révolutionnaire dans le traitement du langage naturel appelée Chain of Thought Prompting qui élève l’état de l’art des technologies avancées comme PaLM et LaMDA à ce que les chercheurs appellent un niveau remarquable.

Le fait que Chain of Thought Prompting puisse améliorer PaLM et LaMDA à ces taux significatifs est un gros problème.

LaMDA et PaLM

La recherche a mené des expériences en utilisant deux modèles de langage, le modèle de langage pour les applications de dialogue (LaMDA) et le modèle de langage Pathways (PaLM).

LaMDA est un modèle axé sur la conversation, comme un chatbot, mais peut également être utilisé pour de nombreuses autres applications qui nécessitent de parler, de dialoguer.

PaLM est un modèle qui suit ce que Google appelle l’architecture Pathways AI où un modèle de langage est formé pour apprendre à résoudre des problèmes.

Auparavant, les modèles d’apprentissage automatique étaient formés pour résoudre un type de problème et ils étaient essentiellement libérés pour faire très bien cette chose. Mais pour faire autre chose, Google devrait former un nouveau modèle.

L’architecture Pathways AI est un moyen de créer un modèle capable de résoudre des problèmes qu’il n’a pas nécessairement rencontrés auparavant.

Comme cité dans l’explicateur Google PaLM :

« … nous aimerions former un modèle capable non seulement de gérer de nombreuses tâches distinctes, mais également de tirer parti de ses compétences existantes et de les combiner pour apprendre de nouvelles tâches plus rapidement et plus efficacement. »

Ce qu’il fait

Le document de recherche énumère trois percées importantes pour le raisonnement en chaîne de pensée :

  1. Il permet aux modèles de langage de décomposer des problèmes complexes à plusieurs étapes en une séquence d’étapes
  2. La chaîne du processus de pensée permet aux ingénieurs de jeter un coup d’œil dans le processus et lorsque les choses tournent mal, cela leur permet d’identifier où cela s’est mal passé et de le réparer
  3. Peut résoudre des problèmes de mots mathématiques, peut accomplir un raisonnement de bon sens et, selon le document de recherche, peut (en principe) résoudre n’importe quel problème basé sur des mots qu’un humain peut.

Tâches de raisonnement en plusieurs étapes

La recherche donne un exemple de tâche de raisonnement en plusieurs étapes sur laquelle des modèles de langage sont testés :

« Q : La cafétéria avait 23 pommes. S’ils en ont utilisé 20 pour préparer le déjeuner et en ont acheté 6 de plus, combien de pommes ont-ils ?

R : La cafétéria avait 23 pommes à l’origine. Ils en ont utilisé 20 pour préparer le déjeuner. Ils avaient donc 23 – 20 = 3. Ils ont acheté 6 pommes de plus, donc ils ont 3 + 6 = 9. La réponse est 9. »

PaLM est un modèle de langage de pointe qui fait partie de l’architecture Pathways AI. Il est si avancé qu’il peut expliquer pourquoi une blague est drôle.

Pourtant, aussi avancé que soit PaLM, les chercheurs affirment que la Chain of Thought Prompting améliore considérablement ces modèles, et c’est ce qui rend cette nouvelle recherche si digne d’être notée.
Google l’explique ainsi :

« Le raisonnement en chaîne de pensée permet aux modèles de décomposer des problèmes complexes en étapes intermédiaires qui sont résolues individuellement.

De plus, la nature linguistique de la chaîne de pensée la rend applicable à toute tâche qu’une personne pourrait résoudre via le langage.

Le document de recherche poursuit en notant que l’incitation standard ne s’améliore pas vraiment lorsque l’échelle du modèle est augmentée.

Cependant, avec cette nouvelle approche, l’échelle a un impact positif significatif et notable sur la performance du modèle.

Résultats

Chain of Thought Prompting a été testé sur LaMDA et PaLM, en utilisant deux ensembles de données de problèmes de mots mathématiques.

  • GSM8K
  • MultiArith

Ces ensembles de données sont utilisés par les chercheurs comme un moyen de comparer les résultats sur des problèmes similaires pour différents modèles de langage.

Vous trouverez ci-dessous des images de graphiques montrant les résultats de l’utilisation de Chain of Thought Prompting sur LaMDA.

Chaîne d'incitation à la pensée et LaMDA

Les résultats de la mise à l’échelle de LaMDA sur l’ensemble de données MultiArith montrent qu’il en résulte une amélioration modeste. Mais LaMDA obtient des scores nettement plus élevés lorsqu’il est mis à l’échelle avec Chain of Thought Prompting.

Les résultats sur le jeu de données GSM8K montrent une amélioration modeste.

C’est une autre histoire avec le modèle de langage PaLM.

Chaîne d'incitation à la pensée et PALM

Comme on peut le voir dans le graphique ci-dessus, les gains de la mise à l’échelle de PaLM avec Chain of Thought Prompting sont énormes, et ils sont énormes pour les deux ensembles de données (MultiArith et GSM8K).

Les chercheurs qualifient ces résultats de remarquables et de nouvel état de l’art :

« Sur l’ensemble de données GSM8K de problèmes de mots mathématiques, PaLM affiche des performances remarquables lorsqu’il est mis à l’échelle avec des paramètres 540B.

… la combinaison de la chaîne d’incitation à la pensée avec le modèle PaLM à paramètres 540B conduit à une nouvelle performance de pointe de 58 %, dépassant l’état de l’art antérieur de 55 % obtenu en affinant le GPT-3 175B sur une grande formation définir puis classer les solutions potentielles via un vérificateur spécialement formé.

De plus, des travaux de suivi sur l’auto-cohérence montrent que les performances de la chaîne d’incitation à la pensée peuvent être encore améliorées en prenant le vote majoritaire d’un large ensemble de processus de raisonnement générés, ce qui se traduit par une précision de 74% sur GSM8K.

conclusion

La conclusion d’un document de recherche est l’une des parties les plus importantes à vérifier pour comprendre si la recherche fait progresser l’état de l’art ou est une impasse ou nécessite plus de recherche.

La section de conclusion du document de recherche de Google a une note très positive.

Il note :

« Nous avons exploré la chaîne d’incitation à la pensée en tant que méthode simple et largement applicable pour améliorer le raisonnement dans les modèles de langage.

Grâce à des expériences sur le raisonnement arithmétique, symbolique et de bon sens, nous constatons que le traitement de la chaîne de pensée est une propriété émergente de l’échelle du modèle qui permet à des modèles de langage suffisamment grands d’effectuer des tâches de raisonnement qui, autrement, ont des courbes d’échelle plates.

L’élargissement de l’éventail des tâches de raisonnement que les modèles de langage peuvent effectuer inspirera, espérons-le, de nouveaux travaux sur les approches du raisonnement basées sur le langage.

Cela signifie que Chain of Thought Prompting peut avoir le potentiel de fournir à Google la capacité d’améliorer considérablement ses différents modèles de langage, ce qui à son tour peut conduire à des améliorations significatives dans le genre de choses que Google peut faire.

Citations

Lire l’article sur l’IA de Google

Les modèles de langage effectuent un raisonnement via la chaîne de pensée

Télécharger et lire le document de recherche

L’incitation à la chaîne de pensée suscite le raisonnement dans de grands modèles de langage (PDF)

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici