Barreras de seguridad de la IA

Las Barreras de seguridad de la IA proporcionan un mecanismo de intercepción en línea que aplica las políticas de seguridad y cumplimiento para proteger datos sensibles y asegurar prácticas éticas de IA.

Emplean una tokenización inteligente para identificar datos sensibles utilizados dentro de los indicadores y reemplazarlos con valores tokenizados. De manera similar, interceptan las respuestas del modelo para reconstruir y reemplazar los valores tokenizados para asegurar la relevancia de la respuesta. Además, monitorean los niveles de toxicidad de los indicadores y las respuestas del modelo para auditar los niveles de toxicidad.

Al configurar las Barreras de seguridad de la IA en Automation 360, la configuración de reglas de enmascaramiento de datos y la comprensión de la supervisión de toxicidad son cruciales. Estas características definen cómo el sistema gestiona diferentes tipos de datos sensibles y evalúa la adecuación del lenguaje utilizado en interacciones con LLM, lo que previene posibles problemas durante la ejecución del bot. Este tema proporciona información sobre la implementación y la funcionalidad de Barreras de seguridad de la IA y refuerza su papel en la promoción de la seguridad de los datos y las prácticas responsables de la IA.


Barreras de seguridad de la IA

En el núcleo de las Barreras de seguridad de la IA está la función de enmascaramiento de datos, que opera identificando y sustituyendo elementos de datos sensibles dentro del indicador de un bot con valores tokenizados antes de transmitir la solicitud al modelo de lenguaje extenso (LLM). Este proceso protege la información sensible de ser procesada directamente por el LLM, al mismo tiempo que preserva el contexto necesario para generar una respuesta precisa. Además, la capacidad de supervisión de toxicidad supervisa los mensajes enviados a los LLM y las respuestas generadas por ellos para detectar lenguaje potencialmente dañino.

Ventajas

Enmascaramiento de datos
La ocultación de datos es una técnica de ofuscación que identifica datos sensibles conocidos y los reemplaza con valores ficticios.
Categorías de datos confidenciales para el enmascaramiento

Para garantizar una protección de datos sólida, es crucial identificar y enmascarar la información sensible de manera efectiva. Barreras de seguridad de la IA lo ayuda a establecer reglas precisas de enmascaramiento de datos adaptadas a las siguientes categorías críticas: Información de identificación personal (PII), información de salud protegida (PHI) y datos de la industria de tarjetas de pago (PCI).

Estas categorías permiten la organización y aplicación de un comportamiento de enmascaramiento consistente para tipos particulares de datos confidenciales. Por ejemplo, puede optar por anonimizar de forma irreversible todos los datos de la PCI para evitar su almacenamiento o uso en cualquier forma, mientras que puede eligir el enmascaramiento reversible para los datos PII que permiten mantener la funcionalidad.

Al adoptar estos enfoques estratégicos, las organizaciones pueden proteger datos confidenciales, cumplir con las regulaciones y mitigar riesgos potenciales.

Configuración del comportamiento de enmascaramiento

Dentro de las Barreras de seguridad de la IA de Automation 360, tiene la flexibilidad de determinar cómo se maneja cada categoría de datos:

  • Enmascarar: Un proceso reversible en el que los datos confidenciales se reemplazan temporalmente con un token. Los datos originales se recuperan y se restablecen en la respuesta del LLM antes de presentarlos al usuario.
  • Anonimizar: Un proceso irreversible que reemplaza de manera permanente los datos confidenciales con un token. Los datos originales no se almacenan ni se utilizan para reconstruir la respuesta final, lo que los hace adecuados para escenarios con prohibiciones estrictas de retención de datos.
  • Permitir: Para casos de uso específicos que requieren acceso a datos sensibles, puede optar por permitir que los datos se envíen al LLM en texto claro.

De forma predeterminada, el sistema aplica el enmascaramiento: si no se selecciona ningún comportamiento específico, lo que garantiza un nivel de protección base para todos los datos confidenciales. Puede configurar estas reglas y asignarlas a carpetas designadas, esto garantiza que cualquier bot que opere dentro de una carpeta con una regla asignada implemente automáticamente el comportamiento de enmascaramiento definido.

Supervisión de toxicidad

Las Barreras de seguridad de la IA analizan tanto los mensajes enviados a los LLM como las respuestas generadas por ellos en busca de lenguaje potencialmente dañino, y lo clasifican como de toxicidad baja, moderada o alta. Aunque, en la actualidad, se encuentra en modo de “solo observación”, esta función permite identificar usos del lenguaje potencialmente problemáticos. Las futuras versiones incluirán la capacidad de bloquear mensajes según su nivel de toxicidad.

Supervisión y registro

Automation 360 registra todas las acciones de la barrera de seguridad, incluidos detalles del proceso de enmascaramiento de datos. Este registro exhaustivo proporciona un rastro de auditoría, lo que permite a los administradores supervisar la funcionalidad de las Barreras de seguridad de la IA y verificar el cumplimiento de las políticas de protección de datos.

Requisitos de licencia

Para activar y usar el servicio de Barreras de seguridad de la IA para la aplicación, debe comprar un SKU de consumo: Barreras de seguridad de IA (número de indicadores LLM) junto con la licencia Enterprise Platform. Consulte Enterprise Platform.
Nota: Los créditos de Barreras de seguridad de la IA de su volumen comprado se consumen al ejecutar indicadores desde automatizaciones o Habilidades de IA en un espacio de trabajo público, o al probar en el editor Habilidades de IA dentro de un espacio de trabajo privado.