À mesure que les modèles linguistiques génératifs s’améliorent, ils ouvrent de nouvelles possibilités dans des domaines aussi divers que la santé, le droit, l’éducation et la science. Mais comme pour toute nouvelle technologie, il convient de réfléchir à la manière dont elles peuvent être utilisées à mauvais escient. Sur fond d’opérations d’influence en ligne récurrentes…secret ou trompeur efforts pour influencer les opinions d’un public cible – le document demande :
Comment les changements de modèles linguistiques pourraient-ils influencer les opérations, et quelles mesures peuvent être prises pour atténuer cette menace ?
Notre travail a rassemblé différents horizons et expertises – des chercheurs rompus aux tactiques, techniques et procédures des campagnes de désinformation en ligne, ainsi que des experts en apprentissage automatique dans le domaine de l’intelligence artificielle générative – pour fonder notre analyse sur les tendances dans les deux domaines.
Nous pensons qu’il est essentiel d’analyser la menace des opérations d’influence basées sur l’IA et de définir les mesures qui peuvent être prises. avant les modèles de langage sont utilisés pour influencer les opérations à grande échelle. Nous espérons que nos recherches informeront les décideurs politiques qui sont nouveaux dans les domaines de l’IA ou de la désinformation, et stimuleront des recherches approfondies sur les stratégies d’atténuation potentielles pour les développeurs d’IA, les décideurs politiques et les chercheurs en désinformation.