Comme toujours, vous contrôlez vos données avec ChatGPT. Vos discussions avec les GPT ne sont pas partagées avec les constructeurs. Si un GPT utilise des API tierces, vous choisissez si les données peuvent être envoyées à cette API. Lorsque les constructeurs personnalisent leur propre GPT avec des actions ou des connaissances, le constructeur peut choisir si les discussions des utilisateurs avec ce GPT peuvent être utilisées pour améliorer et former nos modèles. Ces choix s'appuient sur l'existant contrôles de confidentialité les utilisateurs ont, y compris la possibilité de désactiver l'intégralité de votre compte de la formation de modèle.
Nous avons mis en place de nouveaux systèmes pour faciliter l'examen des GPT par rapport à nos politiques d'utilisation. Ces systèmes s'ajoutent à nos mesures d'atténuation existantes et visent à empêcher les utilisateurs de partager des GPT nuisibles, y compris ceux qui impliquent des activités frauduleuses, des contenus haineux ou des thèmes réservés aux adultes. Nous avons également pris des mesures pour renforcer la confiance des utilisateurs en permettant aux constructeurs de vérifier leur identité. Nous continuerons de surveiller et d'apprendre comment les gens utilisent les GPT et de mettre à jour et de renforcer nos mesures d'atténuation de sécurité. Si vous avez des préoccupations concernant un GPT spécifique, vous pouvez également utiliser notre fonction de rapport sur la page partagée GPT pour en informer notre équipe.
Les GPT continueront à devenir de plus en plus utiles et intelligents, et vous pourrez éventuellement les laisser accomplir de vraies tâches dans le monde réel. Dans le domaine de l’IA, ces systèmes sont souvent qualifiés d’« agents ». Nous pensons qu'il est important d'avancer progressivement vers cet avenir, car cela nécessitera un travail technique et de sécurité minutieux et du temps pour que la société s'adapte. Nous avons réfléchi en profondeur aux implications sociétales et aurons bientôt plus d’analyses à partager.