Nous explorons l'utilisation des LLM pour relever ces défis. Nos grands modèles linguistiques comme GPT-4 peuvent comprendre et générer du langage naturel, ce qui les rend applicables à la modération de contenu. Les modèles peuvent porter des jugements de modération sur la base des directives politiques qui leur sont fournies.
Avec ce système, le processus de développement et de personnalisation des politiques de contenu passe de plusieurs mois à quelques heures.
- Une fois qu’une ligne directrice politique est rédigée, les experts politiques peuvent créer un ensemble précieux de données en identifiant un petit nombre d’exemples et en leur attribuant des étiquettes en fonction de la politique.
- Ensuite, GPT-4 lit la politique et attribue des étiquettes au même ensemble de données, sans voir les réponses.
- En examinant les divergences entre les jugements de GPT-4 et ceux d'un humain, les experts politiques peuvent demander à GPT-4 de trouver le raisonnement derrière ses étiquettes, d'analyser l'ambiguïté des définitions de politique, de résoudre la confusion et de fournir des éclaircissements supplémentaires dans la politique en conséquence. Nous pouvons répéter les étapes 2 et 3 jusqu'à ce que nous soyons satisfaits de la qualité de la politique.
Ce processus itératif produit des politiques de contenu affinées qui sont traduites en classificateurs, permettant le déploiement de la politique et la modération du contenu à grande échelle.
En option, pour gérer de grandes quantités de données à grande échelle, nous pouvons utiliser les prédictions de GPT-4 pour affiner un modèle beaucoup plus petit.