Crear y gestionar AI Guardrails

Este tema explorará cómo crear AI Guardrails en Automation 360. Las AI Guardrails actúan como una protección fundamental, ya que garantizan el uso responsable de la IA y protegen la información confidencial durante la ejecución de bots.

Para crear una barrera de seguridad en la Control Room:

Nota: Se crea automáticamente una barrera de seguridad predeterminada preconfigurada para nuevos clientes con la licencia requerida. Esta barrera de seguridad predeterminada se puede asignar a carpetas, o puede crear barreras de seguridad personalizadas siguiendo las instrucciones en este tema.

Procedimiento

  1. En su entorno de la Control Room, diríjase a IA > AI Guardrails y haga clic en + para crear nuevas AI Guardrails.
  2. En la pantalla Crear barrera de seguridad, configure esta Configuración general:
    1. Nombre: Proporcione un nombre para identificar fácilmente las AI Guardrails.
    2. Descripción (opcional): Agregue una breve descripción que defina las AI Guardrails.
    3. Haga clic en Siguiente para ir a la sección Toxicidad.
  3. En la sección Regla de toxicidad, configure reglas para escanear indicadores y respuestas del modelo en busca de contenido tóxico. Verá opciones para configurar los niveles de toxicidad tanto para los Indicadores como para las Respuestas del modelo. Para obtener más información sobre cómo seleccionar una regla de toxicidad adecuada, consulte Toxicidad en IA.
  4. En la sección Regla de enmascaramiento de datos, configure las reglas de enmascaramiento de datos para todos los Task Bots y AI Skills. Puede configurar estas reglas y asignarlas a carpetas para asegurar que cualquier bot en esa carpeta siga automáticamente el comportamiento de enmascaramiento.
    1. Enmascarar todas las categorías: Seleccione esta opción para habilitar el enmascaramiento de datos para todas las categorías y tipos de datos confidenciales conocidos de forma predeterminada. Seleccionar esta opción proporciona un enfoque integral hacia la protección de datos al enmascarar automáticamente cualquier información confidencial que se detecte en los indicadores y las respuestas del modelo.
    2. Seleccione las categorías y los tipos para los que desea cambiar el tratamiento de datos. Las categorías y los tipos que no aparezcan en la lista se enmascararán de manera predeterminada.: Al seleccionar esta opción, se ofrece la posibilidad de personalizar la manera en que el sistema de AI Guardrails maneja los datos confidenciales. Puede comenzar a crear una regla para el enmascaramiento de datos. Para obtener más información sobre la creación de una regla, consulte Enmascaramiento de datos en IA.
    3. Haga clic en Agregar.
    4. Haga clic en Siguiente para pasar a la sección Prueba.
  5. Opcional: Pruebas de las barreras de seguridad: Puede ingresar un ejemplo de indicador para probar cómo se comporta la barrera de seguridad con la configuración establecida. Una vez que ingrese un indicador y haga clic en Probar barrera de seguridad, según la configuración de toxicidad establecida, la barrera de seguridad indicará si el indicador se permite o se bloquea. En la respuesta, verá el contenido enmascarado.
  6. Haga clic en Siguiente para pasar a la sección Asignar a carpetas.
  7. En la sección Asignar a carpetas, seleccione las carpetas en el espacio de trabajo público. Las AI Guardrails se implementarán en todos los Task Bots y AI Skills dentro de las carpetas seleccionadas.
    Nota:
    1. Una sola barrera de seguridad por carpeta: Solo se puede implementar una barrera de seguridad en cada carpeta.
    2. Herencia para carpetas secundarias: Si una carpeta principal dentro de la carpeta Bots tiene una barrera de seguridad asignada, todas sus carpetas secundarias heredarán automáticamente la misma barrera de seguridad.
    3. Selección de carpeta principal: Al asignar AI Guardrails, solo puede seleccionar carpetas principales dentro de la carpeta Bots. No se pueden asignar de manera individual AI Guardrails a las carpetas secundarias.
  8. Haga clic en Crear para completar la creación de la barrera de seguridad.

    Recibirá un mensaje de éxito generado por el sistema que indica que se creó su barrera de seguridad. Se lo dirigirá hasta la pantalla AI Guardrails que muestra una lista de AI Guardrails.

    Para cada barrera de seguridad, puede Ver barrera de seguridad, Editar barrera de seguridad o Eliminar haciendo clic en los puntos suspensivos junto a ellas. Además, la tabla muestra la Carpeta asignada a, la fecha y hora de la última modificación y Modificado por para cada barrera de seguridad.

    Ver, Editar, Eliminar AI Guardrails

    Acciones Función
    Ver barrera de seguridad

    Los detalles de la barrera de seguridad le brindan una vista resumida de la barrera de seguridad.

    Configuración general muestra el nombre, la descripción, el enmascaramiento de datos y la configuración de asignación a carpetas.

    Editar barrera de seguridad Le permite editar los detalles de la barrera de seguridad.
    El botón Editar está habilitado solo para el administrador de automatización.
    Nota: Los usuarios, como el desarrollador profesional y el citizen developer, con los permisos de AI STUDIO > Ver barreras de seguridad de IA podrían ver detalles de las AI Guardrails, pero no editarlas.
    Eliminar

    Al hacer clic en Eliminar, se muestra un mensaje que solicita su confirmación y, luego, se elimina la barrera de seguridad. Recibirá un mensaje de confirmación de la eliminación.

    Si elimina una barrera de seguridad, todas las AI Skills y las automatizaciones en la carpeta que hacen referencia a la barrera de seguridad eliminada no tendrán ninguna AI Guardrails asignada.

    El botón Eliminar está habilitado solo para el administrador de automatización.
    Nota: Los usuarios, como el desarrollador profesional y el citizen developer, con los permisos de AI STUDIO > Ver barreras de seguridad de IA podrían ver detalles de las AI Guardrails, pero no eliminarlas.

Qué hacer a continuación

Al crearse, las AI Guardrails se aplican automáticamente en todas las automatizaciones dentro de una carpeta específica. A medida que se ejecutan estas automatizaciones, el panel de AI Governance proporcionará información sobre las técnicas de enmascaramiento de datos aplicadas y los niveles de toxicidad identificados. Los registros del tablero también incluyen una columna para las AI Guardrails.