Encontrar la armonía con la innovación, ChatGPT y la seguridad
HogarHogar > Blog > Encontrar la armonía con la innovación, ChatGPT y la seguridad

Encontrar la armonía con la innovación, ChatGPT y la seguridad

Nov 18, 2023

Por Zscaler |

Vea por qué la arquitectura basada en proxy de Zscaler se basa en un marco SSE líder en la industria para brindar una seguridad superior para proteger las empresas modernas de hoy.

A estas alturas, estás familiarizado con ChatGPT. Se convirtió en una de las aplicaciones de consumo de más rápido crecimiento que el mundo había visto solo dos meses después de su lanzamiento.

Debido a la atención, cada organización ha llegado a una conclusión diferente con respecto al uso de modelos de lenguaje extenso en chatbots avanzados, tanto el uso cotidiano de la tecnología en el trabajo como incluso las cuestiones sociales más importantes que plantean.

Para muchas organizaciones, estas herramientas han generado un interés considerable, ya que buscan aprovecharlas para impulsar la productividad. Sin embargo, también ha llamado la atención de las autoridades, dada la forma en que recopila y produce datos. Además de las cuestiones de cumplimiento de datos que se debaten activamente, algo que debe tenerse en cuenta es proteger la propiedad intelectual corporativa o los datos confidenciales de los clientes para que no se utilicen en ChatGPT u otros proyectos de IA.

Zscaler identificó cientos de herramientas y sitios de IA, incluido OpenAI ChatGPT, y creó una categoría de URL llamada "Aplicaciones de IA y ML". Las organizaciones pueden usar esta categoría de URL para realizar algunas acciones diferentes: bloquear el acceso directamente a estos sitios, ampliar el acceso basado en precauciones, en el que se asesora a los usuarios sobre el uso de estas herramientas, o permitir el uso, pero con medidas de seguridad, a través del aislamiento del navegador para proteger los datos. .

Ahora veremos más a fondo cómo el aislamiento enhebrará la productividad y mantendrá la seguridad de los datos.

Primero, es esencial comprender por qué la seguridad de los datos es tan importante. The Economist Korea ha detallado una advertencia sobre la seguridad de los datos de ChatGPT. En abril, Samsung fue testigo de tres filtraciones separadas de datos confidenciales de la empresa con ChatGPT en su división de semiconductores. Una instancia involucró el uso de la herramienta para verificar el código fuente confidencial, otro empleado solicitó "optimización de código" y un tercero cargó la grabación de una reunión para generar una transcripción. Esa información ahora es parte de ChatGPT. Por su parte, Samsung ha limitado el uso de la herramienta y puede prohibirla o incluso construir una versión interna.

En Zscaler, escuchamos a las organizaciones en ambos lados de la moneda ChatGPT, por lo que ofrecemos varias acciones para acceder a estos sitios. El aislamiento puede ayudar de las siguientes maneras.

Equilibrar la seguridad de los datos con la innovación

Aprovechando Zscaler Zero Trust Exchange, esas aplicaciones de modelo de lenguaje grande o destinos de Internet de IA en la categoría de URL "Aplicaciones de IA y ML" se pueden representar en Zscaler Browser Isolation. ¿El beneficio? Potentes controles sobre cómo se manejan los datos confidenciales, tanto archivos como piezas específicas de información confidencial.

Para empezar, podría bloquear todas las cargas y descargas (en los sitios de IA que las permitan) y restringir el acceso al portapapeles por completo, pero dado el deseo de permitir algún uso, permitir entradas de texto. Los usuarios aún pueden escribir consultas y jugar con los conocimientos generados.

¿Qué pasa con los riesgos asociados con los usuarios que comparten datos confidenciales en sus consultas de chat? Con el aislamiento del navegador, cualquier dato confidencial ingresado puede detectarse y protegerse para que no sea enviado por el motor Zscaler DLP. Además, para una visibilidad completa de cómo los empleados usan estos sitios, podemos ver y registrar las consultas que los empleados hacen en un lugar como ChatGPT, incluso si las reglas de DLP no están activadas.

Digamos, por ejemplo, que un usuario intenta cargar una gran cantidad de texto, incluidos datos confidenciales, en un aviso. Los usuarios pueden ingresar datos dentro de los límites del aislamiento del navegador, que se activa como un contenedor efímero. Aún así, no se permitirá que los datos confidenciales salgan de la empresa; se bloquearán en la sesión de aislamiento del navegador.

¿Qué hay de evitar problemas de propiedad intelectual asegurándose de que no se puedan descargar datos en la computadora de un usuario? Esto se puede evitar bloqueando las descargas de forma aislada o usando un "almacenamiento protegido" temporal sin que dichos datos vayan al punto final o violen cualquier política de carga/descarga del punto final. Del mismo modo, cualquier archivo de productividad de salida, como .docx, .xlsx, etc., se puede ver como archivos PDF de solo lectura dentro de ese almacenamiento protegido sin que necesariamente se descarguen en el punto final.

Además, incluso si se permiten las cargas, a herramientas de IA o a cualquier otro sitio, el motor DLP puede detectar contenido confidencial en los archivos e incluso aprovechar el reconocimiento óptico de caracteres para encontrar datos confidenciales en los archivos de imagen.

En última instancia, las organizaciones también querrán un seguimiento completo de cómo los empleados usan estos sitios en forma aislada. Aquí es donde entra en juego el receptor de incidentes de DLP, que captura y registra cualquier solicitud a las aplicaciones de IA para que la revisen los equipos de seguridad o auditoría.

Pero, ¿qué pasa con las organizaciones que aún no están listas para permitir el uso de aplicaciones de IA? Las empresas pueden bloquear el acceso a la categoría de URL "Aplicaciones de IA y ML".

Por lo tanto, Zscaler Zero Trust Exchange brinda protección completa al tiempo que permite la productividad de sus usuarios y evita el uso de TI en la sombra.

Vea nuestras protecciones en acción en esta breve demostración, o explore cómo limitar el uso de herramientas de IA y adoptarlas de manera segura.

Derechos de autor © 2023 IDG Communications, Inc.

Equilibrar la seguridad de los datos con la innovación