SkopeAl pour ChatGPT et l’IA générative
Bien que les applications d’IA puissent potentiellement améliore l’efficacité du travail, elles engendrent de nouveaux risques et exposent les données sensibles aux menaces externes. Les organisations doivent surmonter ces obstacles pour garantir la confidentialité, l’intégrité et la sécurité de leurs données. Voici quelques exemples de risques auxquels les données sensibles peuvent être exposées via ChatGPT et d’autres applications d’IA basées sur le cloud :
-
Du texte contenant des informations personnelles identifiables (PII) peut être publié et donc exposé sur le chatbot pour demander des modèles d’e-mail, des réponses client, des lettres personnalisées ou une analyse des sentiments.
-
Des informations de santé confidentielles, telles que des traitements individuels et des données d’imagerie médicale peuvent être entrées dans le chatbot et potentiellement compromettre les données personnelles des patients.
-
Les développeurs de logiciels peuvent charger du code source propriétaire et inédit à des fins de débogage, de complétion de code et d’amélioration des performances.
-
Les documents confidentiels de l’entreprise tels que les ébauches de rapport d’activité, les documents de fusion‑acquisition et les annonces non encore diffusées peuvent être téléchargés pour en vérifier la grammaire et l’orthographe, les exposant par négligence à des fuites de données potentielles.