Pourtant, « il ne semble pas que cette technologie puisse être utilisée pour surveiller les employés avant très longtemps », déclare Elcock.
Autocensure
L’IA générative présente plusieurs risques potentiels, mais les entreprises et les employés individuels peuvent prendre certaines mesures pour améliorer la confidentialité et la sécurité. Premièrement, ne mettez pas d'informations confidentielles dans une invite pour un outil accessible au public tel que ChatGPT ou Gemini de Google, explique Lisa Avvocato, vice-présidente du marketing et de la communauté de la société de données Sama.
Lorsque vous créez une invite, soyez générique pour éviter de trop partager. « Demandez : « Écrivez un modèle de proposition de dépenses budgétaires » et non « Voici mon budget, rédigez une proposition de dépenses pour un projet sensible » », dit-elle. « Utilisez l'IA comme première ébauche, puis ajoutez les informations sensibles que vous devez inclure. »
Si vous l'utilisez à des fins de recherche, évitez les problèmes tels que ceux rencontrés avec les aperçus de l'IA de Google en validant ce qu'il fournit, explique Avvocato. « Demandez-lui de fournir des références et des liens vers ses sources. Si vous demandez à l’IA d’écrire du code, vous devez quand même le réviser, plutôt que de supposer que tout est prêt.
Microsoft a lui-même déclaré que Copilot doit être configuré correctement et le « moindre privilège» – le concept selon lequel les utilisateurs ne devraient avoir accès qu'aux informations dont ils ont besoin – devrait être appliqué. C'est « un point crucial », déclare Robinson de Prism Infosec. « Les organisations doivent jeter les bases de ces systèmes et ne pas se contenter de faire confiance à la technologie et supposer que tout ira bien. »
Il convient également de noter que ChatGPT utilise les données que vous partagez pour entraîner ses modèles, à moins que vous ne le désactiviez dans les paramètres ou que vous utilisiez la version entreprise.
Liste des assurances
Les entreprises intégrant l'IA générative dans leurs produits affirment qu'elles font tout ce qui est en leur pouvoir pour protéger la sécurité et la confidentialité. Microsoft tient à contour considérations de sécurité et de confidentialité dans son produit Recall et la possibilité de contrôler la fonctionnalité dans Paramètres > Confidentialité et sécurité > Rappel et instantanés.
Google dit L'IA générative dans Workspace « ne modifie pas nos protections fondamentales de la vie privée en donnant aux utilisateurs le choix et le contrôle de leurs données » et stipule que les informations ne sont pas utilisées à des fins publicitaires.
OpenAI réitère comment il maintient sécurité et confidentialité dans ses produits, tandis que les versions entreprise sont disponibles avec des contrôles supplémentaires. « Nous voulons que nos modèles d'IA apprennent à connaître le monde, pas les individus, et nous prenons des mesures pour protéger les données et la vie privée des gens », a déclaré un porte-parole d'OpenAI à WIRED.
OpenAI affirme offrir des moyens de contrôler la façon dont les données sont utilisées, y compris des outils en libre-service pour accéder, exporteret supprimer informations personnelles, ainsi que la possibilité de refuser l'utilisation du contenu pour améliorer ses modèles. ChatGPT Team, ChatGPT Enterprise et son API ne sont pas formés sur les données ou les conversations, et ses modèles n'apprennent pas de l'utilisation par défaut, selon l'entreprise.
Quoi qu’il en soit, il semble que votre collègue IA soit là pour rester. À mesure que ces systèmes deviennent plus sophistiqués et omniprésents sur le lieu de travail, les risques ne feront que s'intensifier, explique Woollven. « Nous assistons déjà à l'émergence d'IA multimodales telles que GPT-4o qui peut analyser et générer des images, de l’audio et de la vidéo. Désormais, les entreprises ne doivent plus se préoccuper uniquement de la protection des données textuelles.»
Dans cet esprit, les particuliers – et les entreprises – doivent adopter la mentalité de traiter l’IA comme n’importe quel autre service tiers, explique Woollven. « Ne partagez rien que vous ne voudriez pas diffuser publiquement. »