AI Agent Studio versão v.36

Revise as novidades, as alterações, as correções e as limitações do AI Agent Studio para a versão v.36.

Novidades

AI Guardrails

Esta versão apresenta as AI Guardrails, um novo recurso que protege dados confidenciais e promove o uso responsável de IA. As AI Guardrails protegem dados confidenciais mascarando PII, PHI e PCI dentro de prompts enviados para LLMs. Além disso, eles monitoram os avisos e as respostas em busca de linguagem potencialmente prejudicial. Os administradores podem configurar regras de mascaramento de dados e atribuí-las a pastas específicas, garantindo uma proteção de dados consistente em todas as automações.

Importante: A oferta de AI Guardrails está disponível no Automation 360 Cloud e estará disponível para uso com a licença de Proteção de IA (Número de prompts de LLM) juntamente com a licença Enterprise Platform. Para obter detalhes sobre essa licença, consulte Plataforma Enterprise.

AI Guardrails

System prompt em AI Skills

Dentro de AI Skills, um novo recurso chamado Prompt do sistema será introduzido. Esse campo opcional, visível para qualquer pessoa com acesso para visualizar ou editar a AI Skill, permite que você forneça Instruções iniciais ou contexto para o modelo subjacente. O System prompt ajuda a orientar ou fundamentar o modelo, influenciando suas respostas às solicitações dos usuários e garantindo resultados mais relevantes e precisos. O campo System prompt é exibido para todos os modelos. Para os modelos compatíveis com System prompt, o texto fornecido será enviado como um System prompt. Para modelos que não são compatíveis com prompts de sistema, o texto fornecido no campo System prompt será colocado antes do User prompt.

Prompt do sistema

Ativar ou desativar políticas de AI Guardrails globalmente na Control Room

Os administradores agora podem ativar AI Guardrails na Control Room com uma licença de nuvem, navegando até Administração > Configurações > AI Guardrails .

Quando esta configuração está ativada, desenvolvedores profissionais podem criar AI Guardrails para impor regras de proteção de informações confidenciais e promover o uso responsável da IA.

Atribuir funções e permissão para habilitar AI Guardrails

Suporte para o recurso de RAG no AI Agent Studio para criar Model connections fundamentadas usando Azure OpenAI Grounded by AI Search

Crie Model connections Grounded by AI Search usando o recurso nativo de RAG (geração aumentada por recuperação) do Azure OpenAI para recuperar informações dos índices do Azure AI Search para respostas mais precisas e relevantes.

Criar Model connections fundamentadas com o recurso de RAG da Azure OpenAI

Testar com AI guardrail em AI Skills

Aumente a confiabilidade e a segurança das suas AI Skills testando-as com AI Guardrails antes da implantação. Esse novo recurso permite que você simule os efeitos das proteções escolhidas nos prompts e nas respostas do modelo. Essa atualização apresenta resultados de toxicidade e mascaramento de dados. Você pode clicar na opção exibir execução de mascaramento de dados para revelar os valores mascarados tokenizados de dados confidenciais. Obtenha insights importantes sobre como sua AI Skill vai se comportar em um ambiente de produção com proteções ativadas. Acesse essa funcionalidade no editor de AI Skills e revise os logs de AI Governance para um registro detalhado de cada teste.

Criar AI Skills

Definições de modelo personalizado — Autenticar com autenticação AWS Signature

Essa versão introduz suporte para autenticação AWS Signature ao definir modelos personalizados no AI Agent Studio. Esse aprimoramento permite que você se integre perfeitamente a uma variedade maior de serviços de IA/ML baseados na AWS que usam esse método de autenticação. Agora você pode definir o authType como AWS SIGNATURE ao definir um novo modelo personalizado. Por exemplo: "authType" : "AWS_SIGNATURE_V4". Para isso, será necessário fornecer as credenciais necessárias do AWS — ID da chave de acesso, chave de acesso secreta, chave de sessão (opcional), região.

Por exemplo:

{
   "name":"Bedrock - Claude2.1",
   "description":"string",
   "version":"string",
   "authAction":{
      "authType":"AWS_SIGNATURE_V4",
      "awsSignatureV4":{
         "accessKey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "secretkey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "sessionkey":{
            "location":"header",
            "keyName":"aws_sign_session_key"
         }
      }
   },
   "api_type":"REST",
   "actions":[
      {
         .... 
      }
   ]
}

Definições de modelo personalizado

Definições de modelos personalizados — Atualizar modelo existente

Esta versão introduz a capacidade de modificar as definições de modelos personalizados existentes usando os métodos PUT e PATCH recém-introduzidos. Anteriormente, não havia suporte para modificações em um modelo personalizado existente.

PUT (Substituir/Atualizar todo o modelo): Use o endpoint PUT para substituir ou atualizar completamente uma definição de modelo personalizado existente. Esse método é usado quando você precisa atualizar várias propriedades do modelo.
PUT https://{ControlRoom}/gai/prompttools/v1/custommodel
Nota: Essa ação é restrita a modelos personalizados que não têm Model connection associada.
PATCH (atualização parcial — nome e descrição): Use o endpoint PATCH para atualizar apenas o nome e a descrição de uma definição de modelo personalizado existente.
PATCH https://{ControlRoom}/gai/prompttools/v1/custommodel

Ambos os endpoints exigem o vendorName e o modelName para identificar o modelo personalizado a ser atualizado e retornarão uma resposta 200 OK com os detalhes do modelo atualizado após a execução bem-sucedida.

Definições de modelo personalizado

Definições de modelos personalizados — Lista de modelos personalizados da API, que pode ser filtrada pelo nome do fornecedor

Essa versão introduz a capacidade de filtrar a lista de modelos personalizados por nome de fornecedor e classificar os resultados com base em critérios específicos.

POST https://{ControlRoom}/gai/prompttools/v1/custommodel/list
Corpo da solicitação:
{
   "sort":[
      {
         "field":"name",
         "direction":"asc"
      }
   ],
   "filter":{
      "operator":"and",
      "operands":[
         {
            "operator":"eq",
            "field":"name",
            "value":"CustomVendor"
         }
      ]
   }
}

API do AI Agent Studio

Suporte para o recurso de RAG no AI Agent Studio para criar Model connections fundamentadas usando Azure OpenAI Grounded by AI Search

Crie Model connections Grounded by AI Search usando o recurso nativo de RAG (geração aumentada por recuperação) do Azure OpenAI para criar experiências de busca ricas que combinam grandes modelos de linguagem com dados empresariais do Azure AI Search.

Criar Model connections fundamentadas com o recurso de RAG da Azure OpenAI

Apresentando o widget de chamadas do modelo de IA generativa

O novo modelo de IA generativa chama o widget dentro do painel de AI Governance na tela inicial, exibindo os 5 principais modelos de IA generativa usados nas automações. Clicar no nome de um modelo leva ao Log de eventos de AI Governance, pré-filtrado para esse modelo.

Usar widgets de painel de AI Governance

O que foi alterado

Melhorias na integração de modelos personalizados (ID de caso do Service Cloud: 02147228)

O AI Agent Studio agora é compatível com a integração de grandes modelos de linguagem (LLMs) personalizados que você desenvolveu ou implantou. Esse recurso agora inclui APIs para o gerenciamento completo do ciclo de vida desses modelos personalizados, incluindo a definição, a recuperação, a modificação e a remoção deles, permitindo que você use modelos especializados de IA no AI Agent Studio.

Definições de modelo personalizado

Pesquisar e adicionar funções no assistente de criação de Model connections

Agora você pode pesquisar e adicionar funções ao criar Model connections.

Criar e gerenciar Model connections

Registro aprimorado de AI Governance para execução de bot pai/filho

Os logs de AI Governance agora fornecem visibilidade aprimorada na execução do bot refletindo com precisão os detalhes do bot pai ao iniciar bots filhos, aplicável tanto a pacotes de comando de IA generativa quanto a automações que utilizam AI Skills. Anteriormente, os registros exibiam informações do bot filho, criando inconsistência. Esse aprimoramento garante que os registros agora incluam o ID do bot pai, o nome e o caminho da pasta para melhorar as trilhas de auditoria. Por exemplo, se o ID 103 do bot pai acionar um bot filho, os registros mostrarão corretamente 103, não o ID do bot filho. Essa melhoria afeta os registros de prompt e de eventos na AI Governance.

AI Governance

Abas AI Governance AI prompt log e Event log: Nova coluna de AI guardrail

Uma nova coluna, AI guardrail, foi adicionada às telas AI Governance AI prompt log e Event log. Um novo campo de AI guardrail também é incluído nos detalhes da sessão ou eventos quando você abre logs individuais de prompts ou eventos. Essa coluna fornece informações sobre as proteções específicas aplicadas a cada prompts e eventos.

AI prompt log | Event log

Melhorias em AI Governance AI prompt log: Nova análise de toxicidade e System prompt/User prompt
  1. Toxicidade geral: As pontuações de toxicidade agora são exibidas tanto para o sistema quanto para os prompts do usuário.
  2. Toxicidade da resposta: O nível de toxicidade da resposta do LLM também é incluído, permitindo uma melhor avaliação do conteúdo gerado.
  3. Exibição de prompt duplo: Tanto o System prompt quanto o User prompt agora estão claramente visíveis. Isso esclarece o contexto da interação, especialmente com a introdução de prompts do sistema juntamente com prompts do usuário. O campo Prompt anterior foi renomeado para Prompt do usuário.
  4. Tipo de conexão do modelo: O AI prompt log agora exibe o Tipo de conexão do modelo, detalhando como os modelos estão conectados, como Padrão, Ajustado ou várias opções fundamentadas.

AI prompt log

Melhorias em AI Governance Event log: Nova análise de toxicidade e System prompt/User prompt
  1. Toxicidade geral: As pontuações de toxicidade agora são exibidas tanto para o sistema quanto para os prompts do usuário.
  2. Toxicidade da resposta: O nível de toxicidade da resposta do LLM também é incluído, permitindo uma melhor avaliação do conteúdo gerado.
  3. Exibição de prompt duplo: Tanto o System prompt quanto o User prompt agora estão claramente visíveis. Isso esclarece o contexto da interação, especialmente com a introdução de prompts do sistema juntamente com prompts do usuário. O campo Prompt anterior foi renomeado para Prompt do usuário.
  4. Tipo de conexão do modelo: O Event log agora exibe o Tipo de conexão do modelo, detalhando como os modelos estão conectados, como Padrão, Ajustado ou várias opções fundamentadas.

Event log

Correções

Os modelos Anthropic Claude 2.1 e Anthropic Claude 3.5, que não são compatíveis no Amazon Bedrock como modelos ajustados, foram removidos das opções de modelos disponíveis dentro dos tipos ajustados do Amazon Bedrock. Anteriormente, esses modelos eram exibidos incorretamente na seleção de modelos ao escolher Ajustado como o tipo em Amazon Bedrock.
Correção para um problema onde os logs de AI Governance não eram compatíveis com API Tasks executados em modo em tempo real (automação assistida). Essa limitação foi resolvida nesta versão.
Correção para a mensagem de erro enganosa que afirma incorretamente que o Bot Agent precisa de uma atualização para o registro preciso de AI Governance. Antes, esse erro foi observado nas seções de AI Governance, especificamente no AI prompt log e no Event log para as versões 22.100.xx ou posteriores do Bot Agent.
Correção para um problema em que você recebe incorretamente uma notificação solicitando uma atualização do Bot Agent para os logs de auditoria de governança de IA. Antes, essa notificação aparecia incorretamente nas configurações de Administração > Configurações > Gerenciamento de dados de IA > Configurações de registro de dados e nos logs de AI Governance (AI prompt log e Event log), mesmo ao usar versões compatíveis do Bot Agent (22.60.10 e posteriores).
Correção para um problema que impedia você de adicionar ap-southeast-2 como uma região ao criar uma Model connection. Anteriormente, digitar ap-southeast-2 não adicionava corretamente a região.

ID de caso do Service Cloud: 02175254

Correção para um problema que impedia você de criar uma Model connection ao usar o Automation Anywhere Enterprise Knowledge. Antes, a tentativa de criação da Model connection falhava.

ID de caso do Service Cloud: 02204046

Limitações

Atribuição de pastas a AI Guardrails
  • AI Guardrails só podem ser atribuídas a pastas principais. As pastas filhas dentro da pasta pai não herdam nem têm atribuições específicas de proteção.
  • Quando um bot pai invoca um bot filho que reside em uma pasta diferente, a política de proteção associada à pasta do bot pai será aplicada.
Arquivo não encontrado erro na página inicial das proteções:

Nesta versão, você poderá encontrar um erro de arquivo não encontrado ao tentar acessar a página inicial das proteções. Isso ocorre se você não tiver permissões de visualização de conteúdo para qualquer pasta que tenha uma proteção atribuída, independentemente de essa proteção ter sido criada por você ou por outro usuário, ou de ter sido atribuída diretamente a você. Essa limitação impede a navegação geral e o gerenciamento de proteções.

Ao clicar em um nome de modelo que contenha caracteres especiais (como "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":" ou palavras entre aspas duplas) na aba do painel de AI Governance na tela inicial, é exibida uma mensagem de erro semelhante à seguinte captura de tela. Isso ocorre porque a funcionalidade de busca no painel de AI Governance atualmente não é compatível com esses caracteres especiais.

Mensagem de erro ao clicar no nome do modelo contendo caracteres especiais

O campo Pasta dentro das Propriedades do arquivo de uma AI Skill ou de um modelo de AI Skill atualmente não funciona como pretendido. Alterar o local da pasta nesta tela não move realmente a AI Skill ou o modelo de AI Skill para o local especificado quando as alterações são salvas.
O teste com AI guardrail não está disponível para System prompt em AI Skills

Testes com AI guardrail atualmente não são compatíveis para prompts do sistema no editor de AI Skills. Embora as proteções funcionem corretamente para prompts do sistema quando usadas em automações e executadas em tempo de execução. Por causa disso, você não pode testar diretamente a aplicação de proteções aos prompts do sistema durante a fase de desenvolvimento da AI Skill. Essa limitação afeta apenas o teste com AI guardrail.

Problema de registro da API Task AI Skill

Execuções de AI Skill acionadas sob demanda API Tasks não registram respostas no Event log de AI Governance. Adicionar ação de atraso de pelo menos 1 segundo após a AI Skill: Executar a ação para todas as execuções sob demanda de API Task é uma solução temporária atual para resolver esse problema de registro.


AI Skill Problema de registro de execução com API Tasks sob demanda

Atualizações na interface

AI Guardrails
Um novo menu de navegação é apresentado para acessar AI Guardrails:

Nova navegação para acessar AI Guardrails

AI Guardrails