Proteja su organización de los riesgos de la IA de última generación con Harmony SASE

Nos guste o no, los modelos de lenguaje grandes (LLM) como ChatGPT y otras herramientas de inteligencia artificial están transformando el lugar de trabajo moderno. A medida que la IA se convierte en una parte fundamental del trabajo diario, es fundamental establecer límites e implementar herramientas de monitoreo para estas herramientas.

Ahí es donde entra en juego Harmony SASE de Check Point. Ya hemos hablado sobre la seguridad del navegador y la función de control del portapapeles para ayudar a definir qué tipos de información no se pueden compartir con los LLM.

Para monitorear estos servicios, nuestro servicio Gen AI Security muestra exactamente qué herramientas de inteligencia artificial está utilizando su equipo, quién las está utilizando, qué tipo de información están compartiendo con las herramientas, así como el riesgo que supone para la empresa compartir información.

Esta es una información fundamental que debe tener una organización. Por ejemplo, es muy fácil cargar una hoja de cálculo en un LLM y pedirle que analice los datos. Ya sean resultados de encuestas o informes de gastos del trimestre anterior, estas herramientas pueden analizar y proporcionar información rápidamente.

Sin embargo, una vez que los datos se comparten con un LLM, pueden almacenarse como datos de entrenamiento o compartirse inadvertidamente con otro usuario como parte de una respuesta. Incluso sin un uso indebido directo, cargar datos de encuestas sin procesar a un servicio externo podría violar las políticas de manejo de datos de la empresa o incluso incumplir las regulaciones de cumplimiento como GDPR (Reglamento General de Protección de Datos), CCPA (Ley de Privacidad del Consumidor de California) o HIPAA (Ley de Portabilidad y Responsabilidad de Seguros Médicos), todas las cuales rigen estrictamente el uso de información de identificación personal (PII).
Por estos motivos, es fundamental tener visibilidad de la información que su fuerza laboral comparte con las herramientas de IA generativa.


El panel de seguridad Gen AI



Gen AI Security le muestra toda la información esencial que necesita saber sobre cómo se utiliza la IA en su organización. Check Point puede monitorear las acciones de su fuerza laboral en más de 300 servicios para brindar esta información.La parte superior del panel presenta tres paneles de resumen que desglosan el uso de IA por aplicación (p. ej., ChatGPT, Claude, Google Gemini, Microsoft Copilot), casos de uso (p. ej., generación de código, análisis de datos) y tipos de información confidencial compartida.

Debajo de esa sección hay un conjunto de mosaicos más pequeños que muestran la cantidad total de sesiones de usuario de Gen AI en toda la empresa, la cantidad de aplicaciones que usa su equipo y un resumen de mensajes confidenciales agrupados por el tipo de información que comparten.El núcleo del panel de seguridad de Gen AI es el resumen por interacción.

Puede filtrar estas interacciones en función de los elementos en los que se puede hacer clic en los mosaicos de arriba o utilizando las herramientas de filtrado que se encuentran justo encima de los resúmenes detallados.

Cada interacción incluye detalles clave como el nivel de riesgo de la sesión, el servicio Gen AI utilizado, una descripción de la información confidencial compartida, el caso de uso, el tipo de datos compartidos, el nombre del usuario y la fecha y hora de la interacción.Además de la supervisión, las empresas necesitan políticas claras que definan qué herramientas están aprobadas y qué tipos de información se pueden compartir con herramientas de IA externas.

También puede haber ocasiones en las que no desee que su equipo utilice determinadas herramientas de IA. Esto podría deberse a que no pasaron la evaluación de riesgo del proveedor de su empresa o simplemente porque, en general, parecen demasiado riesgosas.En esos casos, SASE de Check Point lo tiene cubierto con sólidas reglas de filtrado web que pueden bloquear el acceso de los usuarios a sitios web no deseados y que se aplican a las personas en la oficina y que trabajan de forma remota.

Las reglas son granulares, lo que significa que puede aplicarlas a toda la empresa o solo a equipos específicos.Si le preocupa que los empleados utilicen la herramienta durante el horario laboral, puede aprovechar nuestro servicio híbrido para aplicar las reglas de filtrado web Gen AI solo cuando los usuarios estén conectados a la red de la empresa, lo que garantiza la flexibilidad.

Ver más: Microstrategy acumula 461.000 bitcoin mientras refinancia deuda

Ver más: Davos 2025: CEO de BlackRock “ahora” es un gran creyente de bitcoin

Ver más: Senado de EE. UU. crea su primer subcomité de activos digitales