Facebook a annoncé une nouvelle technologie d’intelligence artificielle capable d’identifier rapidement les contenus préjudiciables afin de rendre Facebook plus sûr. Le nouveau modèle d’IA utilise l’apprentissage « peu de coups » pour réduire le temps de détection de nouveaux types de contenu préjudiciable de plusieurs mois à plusieurs semaines.

Apprentissage en quelques coups

L’apprentissage peu de coups a des similitudes avec l’apprentissage zéro coup. Ce sont deux techniques d’apprentissage automatique dont le but est d’apprendre à une machine à résoudre une tâche invisible en apprenant à généraliser les instructions pour résoudre une tâche.

Les modèles d’apprentissage à quelques coups sont formés sur quelques exemples et à partir de là, ils sont capables d’évoluer et de résoudre les tâches invisibles, et dans ce cas, la tâche consiste à identifier de nouveaux types de contenu préjudiciable.

L’avantage du nouveau modèle d’IA de Facebook est d’accélérer le processus d’action contre les nouveaux types de contenus préjudiciables.

L’annonce Facebook a déclaré:

« Le contenu préjudiciable continue d’évoluer rapidement – qu’il soit alimenté par les événements actuels ou par des personnes à la recherche de nouvelles façons d’échapper à nos systèmes – et il est crucial que les systèmes d’IA évoluent parallèlement.

Mais il faut généralement plusieurs mois pour collecter et étiqueter des milliers, voire des millions, d’exemples nécessaires pour entraîner chaque système d’IA individuel à repérer un nouveau type de contenu.

… Ce nouveau système d’IA utilise une méthode appelée « apprentissage en quelques coups », dans laquelle les modèles commencent par une compréhension générale de nombreux sujets différents, puis utilisent beaucoup moins – ou parfois zéro – exemples étiquetés pour apprendre de nouvelles tâches.

La nouvelle technologie est efficace dans une centaine de langues et fonctionne aussi bien sur les images que sur le texte.

La nouvelle IA d’apprentissage à quelques coups de Facebook est conçue comme un complément aux méthodes actuelles d’évaluation et de suppression des contenus nuisibles.

Bien qu’il s’agisse d’un ajout aux méthodes actuelles, ce n’est pas un petit ajout, c’est un gros ajout. L’impact de la nouvelle IA est à la fois d’échelle et de vitesse.

« Ce nouveau système d’IA utilise une méthode relativement nouvelle appelée » apprentissage en quelques coups « , dans laquelle les modèles commencent par une compréhension large et générale de nombreux sujets différents, puis utilisent beaucoup moins, et dans certains cas zéro, exemples étiquetés pour apprendre de nouvelles tâches. .

Si les systèmes traditionnels sont analogues à une ligne de pêche qui peut piéger un type spécifique de prise, le FSL est un filet supplémentaire qui peut également rassembler d’autres types de poissons.

Nouveau Facebook AI Live

Facebook a révélé que le nouveau système est actuellement déployé et en direct sur Facebook. Le système d’IA a été testé pour détecter les informations erronées sur la vaccination COVID-19.

Il a également été utilisé pour identifier le contenu destiné à inciter à la violence ou simplement à se rendre au bord du gouffre.

Facebook a utilisé l’exemple suivant de contenu préjudiciable qui s’arrête juste avant d’inciter à la violence :

« Est-ce que ce type a besoin de toutes ses dents? »

L’annonce affirme que le nouveau système d’IA a déjà contribué à réduire le nombre de discours de haine publiés sur Facebook.

Facebook a partagé un graphique montrant comment la quantité de discours de haine sur Facebook a diminué à mesure que chaque nouvelle technologie était mise en œuvre.

Le graphique montre le succès de la détection des discours de haine sur Facebook

IA du discours de haine sur Facebook

Apprentissage en quelques coups

Facebook appelle sa nouvelle technologie Entailment Few-Shot Learning.

Il a une capacité remarquable à étiqueter correctement un texte écrit qui est un discours de haine. Le document de recherche associé (Entailment as Few-Shot Learner PDF) rapporte qu’il surpasse les autres techniques d’apprentissage à quelques coups jusqu’à 55% et réalise en moyenne une amélioration de 12%.

L’article de Facebook sur la recherche a utilisé cet exemple :

« … nous pouvons reformuler une entrée de classification de sentiment apparent et une paire d’étiquettes :

[x : “I love your ethnic group. JK. You should all be six feet underground” y : positive] comme exemple d’implication textuelle suivant :

[x : I love your ethnic group. JK. You should all be 6 feet underground. This is hate speech. y : entailment].”

Facebook travaille pour développer une IA humaine

L’annonce de cette nouvelle technologie a clairement indiqué que l’objectif est une « flexibilité et efficacité d’apprentissage » humaine qui lui permettra d’évoluer avec les tendances et d’appliquer de nouvelles politiques de contenu Facebook dans un laps de temps rapide, tout comme un humain.

La technologie n’en est qu’à ses débuts et avec le temps, Facebook envisage qu’elle devienne plus sophistiquée et plus répandue.

« Un système d’IA enseignable comme Few-Shot Learner peut considérablement améliorer l’agilité de notre capacité à détecter et à nous adapter aux situations émergentes.

En identifiant les contenus évolutifs et préjudiciables beaucoup plus rapidement et avec plus de précision, FSL promet d’être un élément technologique essentiel qui nous aidera à continuer à évoluer et à lutter contre les contenus préjudiciables sur nos plateformes.

Citations

Lire l’annonce de Facebook sur la nouvelle IA

Notre nouveau système d’IA pour aider à lutter contre les contenus préjudiciables

Article sur la nouvelle technologie de Facebook

Les contenus préjudiciables peuvent évoluer rapidement. Notre nouveau système d’IA s’adapte pour y faire face

Lire le document de recherche de Facebook

Implication en tant qu’apprenant peu actif (PDF)

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici