Revise las novedades y los cambios, además de las correcciones y limitaciones en AI Agent Studio para la versión 36.

Novedades

AI Guardrails

Esta versión introduce AI Guardrails, una nueva función que protege datos sensibles y promueve el uso responsable de la IA. Las AI Guardrails protegen los datos sensibles enmascarando PII, PHI y PCI dentro de los indicadores enviados a los LLM. Además, supervisan los indicadores y las respuestas para detectar lenguaje potencialmente dañino. Los administradores pueden configurar reglas de enmascaramiento de datos y asignarlas a carpetas específicas para garantizar una protección de datos consistente en todas las automatizaciones.

Importante: La oferta de AI Guardrails está disponible en Automation 360 en Cloud y se podrá utilizar con la licencia de AI Guardrail (número de indicadores de LLM) junto con la licencia de Enterprise Platform. Para obtener detalles sobre esta licencia, consulte Plataforma empresarial.

AI Guardrails

System prompt en AI Skills

Dentro de AI Skills, se introducirá una nueva función llamada Indicador de sistema. Este campo opcional, visible para cualquiera con acceso para ver o editar la AI Skill, le permite proporcionar instrucciones iniciales o contexto al modelo subyacente. El System prompt ayuda a orientar o fundamentar el modelo, influye en sus respuestas a los indicadores del usuario y asegura resultados más relevantes y precisos. El campo System prompt se muestra para todos los modelos. Para los modelos que admiten System prompt, el texto proporcionado se enviará como un System prompt. Para los modelos que no admiten indicadores del sistema, el texto proporcionado en el campo System prompt se colocará antes del User prompt.

Indicación del sistema

Habilitar o deshabilitar las políticas de AI Guardrails a nivel global dentro de la Control Room

Ahora, los administradores pueden habilitar las AI Guardrails en la Control Room con una licencia en la nube navegando a Administración > Configuración > AI Guardrails .

Cuando esta configuración está habilitada, los desarrolladores profesionales pueden crear las AI Guardrails para hacer cumplir las reglas de protección de información sensible y promover el uso responsable de la IA.

Asignación de roles y permiso para habilitar AI Guardrails

Compatibilidad con la capacidad de RAG en AI Agent Studio para crear Model connections fundamentadas utilizando Azure OpenAI Grounded by AI Search

Cree Model connections Grounded by AI Search mediante la capacidad nativa de RAG (generación aumentada por recuperación) de Azure OpenAI para recuperar información de los índices de Azure AI Search y obtener respuestas más precisas y relevantes.

Crear Model connections Grounded con capacidad de Azure OpenAI RAG

Probar con AI guardrail en AI Skills

Mejore la confiabilidad y seguridad de sus AI Skills probándolas contra las AI Guardrails antes de su implementación. Esta nueva función le permite simular los efectos de las barreras de seguridad elegidas en los indicadores y las respuestas del modelo. Esta actualización proporciona resultados de toxicidad y enmascaramiento de datos. Puede hacer clic en la opción ver ejecución de enmascaramiento de datos para revelar los valores enmascarados tokenizados de los datos sensibles. Obtenga valiosos conocimientos sobre cómo funcionará la AI Skill en un entorno de producción con las barreras de seguridad habilitadas. Acceda a esta funcionalidad dentro del editor de AI Skills y revise los registros de AI Governance para un registro detallado de cada prueba.

Crear AI Skills

Definiciones de modelos personalizados: autenticar con autenticación de firma de AWS

Esta versión introduce soporte para la autenticación de firma de AWS al definir modelos personalizados en AI Agent Studio. Esta mejora le permite integrarse sin problemas con una gama más amplia de servicios de IA/ML basados en AWS que utilizan este método de autenticación. Ahora puede establecer el authType en FIRMA AWS al definir un nuevo modelo personalizado. Por ejemplo: "authType" : "AWS_SIGNATURE_V4". Esto requerirá proporcionar las credenciales necesarias de AWS: ID de clave de acceso, clave de acceso secreta, clave de sesión (opcional), región.

Por ejemplo:

{
   "name":"Bedrock - Claude2.1",
   "description":"string",
   "version":"string",
   "authAction":{
      "authType":"AWS_SIGNATURE_V4",
      "awsSignatureV4":{
         "accessKey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "secretkey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "sessionkey":{
            "location":"header",
            "keyName":"aws_sign_session_key"
         }
      }
   },
   "api_type":"REST",
   "actions":[
      {
         .... 
      }
   ]
}

Definiciones de modelos personalizados

Definiciones de modelos personalizados: actualizar modelo existente

Esta versión introduce la capacidad de modificar definiciones de modelos personalizados existentes mediante los métodos PUT y PATCH recién introducidos. Anteriormente, no se admitían modificaciones a un modelo personalizado existente.

PUT (Reemplazar/actualizar todo el modelo): Utiliza el endpoint PUT para reemplazar o actualizar completamente una definición de modelo personalizado existente. Este método se utiliza cuando necesita actualizar múltiples propiedades del modelo.
PUT https://{ControlRoom}/gai/prompttools/v1/custommodel
Nota: Esta acción está restringida a modelos personalizados que no tienen asociada ninguna Model connection.
PATCH (Actualización parcial: nombre y descripción): Utilice el endpoint PATCH para actualizar solo el nombre y la descripción de una definición de modelo personalizado existente.
PATCH https://{ControlRoom}/gai/prompttools/v1/custommodel

Ambos puntos de acceso requieren el vendorName y el modelName para identificar el modelo personalizado que se va a actualizar y devolverán una respuesta 200 OK con los detalles del modelo actualizado tras una ejecución exitosa.

Definiciones de modelos personalizados

Definiciones de modelos personalizados: API de lista de modelos personalizados, se puede filtrar por nombre de proveedor

Esta versión introduce la capacidad de filtrar la lista de modelos personalizados por nombre del proveedor y ordenar los resultados según criterios específicos.

POST https://{ControlRoom}/gai/prompttools/v1/custommodel/list
Cuerpo de la solicitud:
{
   "sort":[
      {
         "field":"name",
         "direction":"asc"
      }
   ],
   "filter":{
      "operator":"and",
      "operands":[
         {
            "operator":"eq",
            "field":"name",
            "value":"CustomVendor"
         }
      ]
   }
}

API de AI Agent Studio

Compatibilidad con la capacidad de RAG en AI Agent Studio para crear Model connections fundamentadas utilizando Azure OpenAI Grounded by AI Search

Cree Model connections Grounded by AI Search utilizando la capacidad nativa de RAG (generación aumentada por recuperación) de Azure OpenAI para construir experiencias de búsqueda enriquecidas que combinen modelos de lenguaje grandes con datos empresariales de Azure AI Search.

Crear Model connections Grounded con capacidad de Azure OpenAI RAG

Presentación del widget de llamadas del modelo GenAI

El nuevo modelo GenAI llama al widget dentro del tablero AI Governance en la pantalla de inicio, y muestra los cinco principales modelos GenAI utilizados en las automatizaciones. Al hacer clic en el nombre de un modelo, se accede al Registro de eventos de AI Governance, prefiltrado para ese modelo.

Usar widgets del panel de AI Governance

Cambios

Mejoras en la integración de modelos personalizados (ID de caso de Servicio de nube: 02147228)

AI Agent Studio ahora admite la integración de modelos de lenguaje extenso (LLM) personalizados que ha desarrollado o implementado. Esta función ahora incluye API para la gestión completa del ciclo de vida de estos modelos personalizados, incluida la definición, recuperación, modificación y eliminación de estos, para brindarle la capacidad de usar modelos de IA especializados dentro de AI Agent Studio.

Definiciones de modelos personalizados

Buscar y agregar roles en el asistente de creación de Model connections

Ahora puede buscar y agregar roles mientras crea Model connections.

Crear y gestionar Model connections

Registro AI Governance mejorado de ejecución de bot principal/secundario

Los registros de AI Governance ahora brindan una visibilidad mejorada en la ejecución de bots al reflejar con precisión los detalles del bot principal al iniciar bots secundarios, aplicable tanto a los paquetes de Comandos de IA generativa como a las automatizaciones que utilizan AI Skills. Anteriormente, los registros mostraban información de los bots secundarios, lo que creaba inconsistencia. Esta mejora garantiza que los registros ahora incluyan el ID del bot principal, el nombre y la ruta de la carpeta para mejorar las pistas de auditoría. Por ejemplo, si el bot principal con ID 103 activa un bot secundario, los registros mostrarán correctamente 103, no el ID del bot secundario. Esta mejora afecta tanto a los registros de solicitud como a los registros de eventos dentro de AI Governance.

AI Governance

Pestañas AI prompt log y Event log de AI Governance: Nueva columna de AI guardrail

Se ha añadido una nueva columna, AI guardrail, a las pantallas de AI prompt log y Event log de AI Governance. Un nuevo campo de AI guardrail también se incluye dentro de los detalles de la sesión o eventos cuando abre registros individuales de indicadores o eventos. Esta columna proporciona información sobre las medidas de seguridad específicas aplicadas a cada indicador y evento.

AI prompt log | Event log

Mejora de AI prompt log de AI Governance: Nuevo análisis de toxicidad e System prompt/User prompt
  1. Toxicidad general: Las puntuaciones de toxicidad ahora se muestran tanto para los mensajes del sistema como para los indicadores del usuario.
  2. Toxicidad de la respuesta: El nivel de toxicidad de la respuesta del LLM también se incluye, lo que permite una mejor evaluación del contenido generado.
  3. Visualización de doble indicador: Tanto el System prompt como el User prompt ahora se muestran claramente. Esto aclara el contexto de la interacción, sobre todo con la introducción de indicadores del sistema junto con los indicadores del usuario. El campo anterior de Indicador ha sido renombrado a Indicador del usuario.
  4. Tipo de conexión del modelo: El AI prompt log ahora muestra el Tipo de conexión del modelo y detalla cómo se conectan los modelos, como Estándar, Ajustado o varias opciones fundamentadas.

AI prompt log

Mejora de Event log de AI Governance: Nuevo análisis de toxicidad e System prompt/User prompt
  1. Toxicidad general: Las puntuaciones de toxicidad ahora se muestran tanto para los mensajes del sistema como para los indicadores del usuario.
  2. Toxicidad de la respuesta: El nivel de toxicidad de la respuesta del LLM también se incluye, lo que permite una mejor evaluación del contenido generado.
  3. Visualización de doble indicador: Tanto el System prompt como el User prompt ahora se muestran claramente. Esto aclara el contexto de la interacción, sobre todo con la introducción de indicadores del sistema junto con los indicadores del usuario. El campo anterior de Indicador ha sido renombrado a Indicador del usuario.
  4. Tipo de conexión del modelo: El Event log ahora muestra el Tipo de conexión del modelo y detalla cómo se conectan los modelos, como Estándar, Ajustado o varias opciones fundamentadas.

Event log

Correcciones

Los modelos Claude de Anthropic 2.1 y Claude de Anthropic 3.5, que no son compatibles en Amazon Bedrock como modelos ajustados, han sido eliminados de las opciones de modelos disponibles dentro de los tipos ajustados de Amazon Bedrock. Anteriormente, estos modelos se mostraban de forma incorrecta en la selección de modelos al elegir Ajustado como el tipo bajo Amazon Bedrock.
Solución de un problema en el que los registros de AI Governance no eran compatibles para API Tasks ejecutadas en modo en tiempo real (automatización asistida). Esta limitación se ha resuelto en esta versión.
Corrección del mensaje de error engañoso que indica de forma incorrecta que el Bot Agent necesita una actualización para un registro preciso de AI Governance. Anteriormente, se observó este error dentro de las secciones de AI Governance, específicamente en AI prompt log y Event log para las versiones Bot Agent 22.100.xx o posteriores.
Corrección de un problema en el que se recibía de manera incorrecta una notificación que solicitaba una actualización del Bot Agent para los registros de auditoría de Gobernanza de IA. Anteriormente, esta notificación aparecía de manera incorrecta en la configuración de Administración > Configuración > Gestión de datos de IA > Configuración de registro de datos y en los registros de AI Governance (AI prompt log y Event log) incluso al usar versiones compatibles de Bot Agent (22.60.10 y posteriores).
Solución para un problema que le impide agregar ap-southeast-2 como una región al crear un Model connection. Anteriormente, al escribir ap-southeast-2 no se agregaba la región de manera correcta.

ID de caso de Servicio de nube: 02175254

Solución para un problema que impedía crear una Model connection al usar Automation Anywhere Enterprise Knowledge. Anteriormente, se generaba una falla al intentar crear la Model connection.

ID de caso de Servicio de nube: 02204046

Limitaciones

Asignar carpetas a AI Guardrails
  • Las AI Guardrails solo se pueden asignar a carpetas principales. Las carpetas secundarias dentro de la carpeta principal no heredan ni tienen asignaciones específicas de barreras de seguridad.
  • Cuando un bot principal invoca a un bot secundario que reside en una carpeta diferente, se aplicará la política de protección asociada con la carpeta del bot principal.
Archivo no encontrado error en la página de inicio de las barreras de seguridad:

En esta versión, es posible que encuentre un error de Archivo no encontrado al intentar acceder a la página principal de barreras de seguridad. Esto ocurre si carece de permisos para ver el contenido de cualquier carpeta que tenga una barrera de seguridad asignada, independientemente de si esa barrera fue creada por usted u otro usuario, o si está directamente asignada a usted. Esta limitación impide la navegación general y la gestión de las barreras de seguridad.

Al hacer clic en un nombre de modelo que contiene caracteres especiales (como "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":" o palabras entre comillas dobles) dentro de la pestaña del panel de control de AI Governance en la pantalla de inicio, se muestra un mensaje de error similar a la siguiente captura de pantalla. Esto ocurre porque la funcionalidad de búsqueda dentro del tablero de AI Governance actualmente no admite estos caracteres especiales.

Mensaje de error al hacer clic en el nombre del modelo que contiene caracteres especiales

El campo Carpeta dentro de las Propiedades del archivo de una AI Skill o una plantilla de AI Skill actualmente no funciona como se esperaba. Cambiar la ubicación de la carpeta en esta pantalla no mueve realmente la AI Skill o la plantilla de AI Skill a la ubicación especificada cuando se guardan los cambios.
La prueba con la AI guardrail no está disponible para el System prompt en AI Skills

La prueba con la AI guardrail actualmente no es compatible para indicadores del sistema dentro del editor de AI Skills. Sin embargo, las barreras de seguridad funcionarán correctamente para los indicadores del sistema cuando se utilicen dentro de automatizaciones y se ejecuten en el tiempo de ejecución. Esto significa que no puede probar directamente la aplicación de barreras de seguridad a los indicadores del sistema durante la fase de desarrollo de AI Skill. Esta limitación solo afecta las pruebas con AI guardrail.

Problema de registro de API Task de AI Skill

Las ejecuciones de AI Skill activadas mediante API Tasks a pedido no registran respuestas en el Event log de AI Governance. Agregar una acción de retraso de, al menos, un segundo después de la AI Skill: Ejecutar la acción para todas las ejecuciones de la API Task bajo demanda es una solución temporal actual para resolver este problema de registro.


Problema de registro de ejecución de AI Skill con API Tasks bajo demanda

Actualizaciones de la interfaz

AI Guardrails
Se introduce un nuevo menú de navegación para acceder a las AI Guardrails:

Nueva navegación para acceder a AI Guardrails

AI Guardrails