SkopeAl para ChatGPT e IA generativa
Aunque las aplicaciones de IA tienen el potencial de mejorar la eficiencia, también introducen nuevos riesgos y exponen los datos confidenciales a amenazas externas. Las organizaciones deben afrontar estos retos para garantizar la confidencialidad, integridad y seguridad de sus datos. A continuación se muestran algunos ejemplos de cómo los datos confidenciales pueden quedar expuestos a ChatGPT y otras aplicaciones de IA basadas en la nube:
-
Textos que contienen información de identificación personal (IIP) pueden publicarse y, por tanto, exponerse en el chatbot para solicitar ideas de correo electrónico, respuestas a clientes, cartas personalizadas o análisis de sentimiento.
-
Información sanitaria confidencial, incluidos planes de tratamiento individualizados y datos de imágenes médicas, puede introducirse en el chatbot, lo que podría comprometer la privacidad de los pacientes.
-
Los desarrolladores de software pueden cargar código fuente con derechos de autor que no se haya publicado para depurarlo, completarlo y mejorar el rendimiento.
-
Archivos de documentos confidenciales de la empresa, como borradores de informes de resultados, documentos de fusiones y adquisiciones, y anuncios previos a la publicación podrían cargarse para someterlos a comprobaciones gramaticales y de redacción, lo que podría crear por negligencia un riesgo de una posible filtración de de datos.