AI Agent Studio versão v.36

Revise as novidades, as alterações, as correções e as limitações do AI Agent Studio para a versão v.36.

Novidades

Proteções de IA

Esta versão apresenta as Proteções de IA, um novo recurso que protege dados confidenciais e promove o uso responsável de IA. As Proteções de IA protegem dados confidenciais mascarando PII, PHI e PCI dentro de prompts enviados para LLMs. Além disso, eles monitoram os avisos e as respostas em busca de linguagem potencialmente prejudicial. Os administradores podem configurar regras de mascaramento de dados e atribuí-las a pastas específicas, garantindo uma proteção de dados consistente em todas as automações.

Importante: A oferta de Proteções de IA está disponível no Automation 360 Nuvem e estará disponível para uso com a licença de Proteção de IA (Número de prompts de LLM) juntamente com a licença Enterprise Platform. Para obter detalhes sobre essa licença, consulte Plataforma Enterprise.

Proteções de IA

Prompt do sistema em Habilidades de IA

Dentro de Habilidades de IA, um novo recurso chamado Prompt do sistema será introduzido. Esse campo opcional, visível para qualquer pessoa com acesso para visualizar ou editar a Habilidade de IA, permite que você forneça Instruções iniciais ou contexto para o modelo subjacente. O Prompt do sistema ajuda a orientar ou fundamentar o modelo, influenciando suas respostas às solicitações dos usuários e garantindo resultados mais relevantes e precisos. O campo Prompt do sistema é exibido para todos os modelos. Para os modelos compatíveis com Prompt do sistema, o texto fornecido será enviado como um Prompt do sistema. Para modelos que não são compatíveis com prompts de sistema, o texto fornecido no campo Prompt do sistema será colocado antes do Prompt do usuário.

Prompt do sistema

Ativar ou desativar políticas de Proteções de IA globalmente na Control Room

Os administradores agora podem ativar Proteções de IA na Control Room com uma licença de nuvem, navegando até Administração > Configurações > Proteções de IA .

Quando esta configuração está ativada, desenvolvedores profissionais podem criar Proteções de IA para impor regras de proteção de informações confidenciais e promover o uso responsável da IA.

Atribuir funções e permissão para habilitar Proteções de IA

Suporte para o recurso de RAG no AI Agent Studio para criar Conexões de modelo fundamentadas usando Azure OpenAI Fundamentado em pesquisa de IA

Crie Conexões de modelo Fundamentado em pesquisa de IA usando o recurso nativo de RAG (geração aumentada por recuperação) do Azure OpenAI para recuperar informações dos índices do Azure AI Search para respostas mais precisas e relevantes.

Criar Conexões de modelo fundamentadas com o recurso de RAG da Azure OpenAI

Testar com Proteções para IA em Habilidades de IA

Aumente a confiabilidade e a segurança das suas Habilidades de IA testando-as com Proteções de IA antes da implantação. Esse novo recurso permite que você simule os efeitos das proteções escolhidas nos prompts e nas respostas do modelo. Essa atualização apresenta resultados de toxicidade e mascaramento de dados. Você pode clicar na opção exibir execução de mascaramento de dados para revelar os valores mascarados tokenizados de dados confidenciais. Obtenha insights importantes sobre como sua Habilidade de IA vai se comportar em um ambiente de produção com proteções ativadas. Acesse essa funcionalidade no editor de Habilidades de IA e revise os logs de Governança de IA para um registro detalhado de cada teste.

Criar Habilidades de IA

Definições de modelo personalizado - Autenticar com autenticação AWS Signature

Essa versão introduz suporte para autenticação AWS Signature ao definir modelos personalizados no AI Agent Studio. Esse aprimoramento permite que você se integre perfeitamente a uma variedade maior de serviços de IA/ML baseados na AWS que usam esse método de autenticação. Agora você pode definir o authType como AWS SIGNATURE ao definir um novo modelo personalizado. Por exemplo: "authType" : "AWS_SIGNATURE_V4". Para isso, será necessário fornecer as credenciais necessárias do AWS - ID da chave de acesso, chave de acesso secreta, chave de sessão (opcional), região.

Por exemplo:

{
   "name":"Bedrock - Claude2.1",
   "description":"string",
   "version":"string",
   "auth_action":{
      "auth_type":"AWS_SIGNATURE_V4",
      "awsSignatureV4":{
         "accessKey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "secretkey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "sessionkey":{
            "location":"header",
            "keyName":"aws_sign_session_key"
         }
      }
   },
   "api_type":"REST",
   "actions":[
      {
         .... 
      }
   ]
}

Definições de modelo personalizado

Definições de modelos personalizados - Atualizar modelo existente

Esta versão introduz a capacidade de modificar as definições de modelos personalizados existentes usando os métodos PUT e PATCH recém-introduzidos. Anteriormente, não havia suporte para modificações em um modelo personalizado existente.

PUT (Substituir/Atualizar todo o modelo): Use o endpoint PUT para substituir ou atualizar completamente uma definição de modelo personalizado existente. Esse método é usado quando você precisa atualizar várias propriedades do modelo.
PUT https://{ControlRoom}/gai/prompttools/v1/custommodel
Nota: Essa ação é restrita a modelos personalizados que não têm conexões de modelo associadas.
PATCH (atualização parcial - nome e descrição): Use o endpoint PATCH para atualizar apenas o nome e a descrição de uma definição de modelo personalizado existente.
PATCH https://{ControlRoom}/gai/prompttools/v1/custommodel

Ambos os endpoints exigem o vendorName e o modelName para identificar o modelo personalizado a ser atualizado e retornarão uma resposta 200 OK com os detalhes do modelo atualizado após a execução bem-sucedida.

Definições de modelo personalizado

Definições de modelos personalizados - Lista de modelos personalizados da API, que pode ser filtrada pelo nome do fornecedor

Essa versão introduz a capacidade de filtrar a lista de modelos personalizados por nome de fornecedor e classificar os resultados com base em critérios específicos.

POST https://{ControlRoom}/gai/prompttools/v1/custommodel/list
Corpo da solicitação:
{
   "sort":[
      {
         "field":"name",
         "direction":"asc"
      }
   ],
   "filter":{
      "operator":"and",
      "operands":[
         {
            "operator":"eq",
            "field":"name",
            "value":"CustomVendor"
         }
      ]
   }
}

API do AI Agent Studio

Suporte para o recurso de RAG no AI Agent Studio para criar Conexões de modelo fundamentadas usando Azure OpenAI Fundamentado em pesquisa de IA

Crie Conexões de modelo Fundamentado em pesquisa de IA usando o recurso nativo de RAG (geração aumentada por recuperação) do Azure OpenAI para criar experiências de busca ricas que combinam grandes modelos de linguagem com dados empresariais do Azure AI Search.

Criar Conexões de modelo fundamentadas com o recurso de RAG da Azure OpenAI

Apresentando o widget de chamadas do modelo de IA generativa

O novo modelo de IA generativa chama o widget dentro do painel de Governança de IA na tela inicial, exibindo os 5 principais modelos de IA generativa usados nas automações. Clicar no nome de um modelo leva ao Log de eventos de Governança de IA, pré-filtrado para esse modelo.

Usar widgets de painel de Governança de IA

O que foi alterado

Melhorias na integração de modelos personalizados (ID de caso do Service Cloud: 02147228)

O AI Agent Studio agora é compatível com a integração de grandes modelos de linguagem (LLMs) personalizados que você desenvolveu ou implantou. Esse recurso agora inclui APIs para o gerenciamento completo do ciclo de vida desses modelos personalizados, incluindo a definição, a recuperação, a modificação e a remoção deles, permitindo que você use modelos especializados de IA no AI Agent Studio.

Definições de modelo personalizado

Pesquisar e adicionar funções no assistente de criação de Conexões de modelo

Agora você pode pesquisar e adicionar funções ao criar Conexões de modelo.

Criar e gerenciar Conexões de modelo

Registro aprimorado de Governança de IA para execução de bot pai/filho

Os logs de Governança de IA agora fornecem visibilidade aprimorada na execução do bot refletindo com precisão os detalhes do bot pai ao iniciar bots filhos, aplicável tanto a pacotes de comando de IA generativa quanto a automações que utilizam Habilidades de IA. Anteriormente, os registros exibiam informações do bot filho, criando inconsistência. Esse aprimoramento garante que os registros agora incluam o ID do bot pai, o nome e o caminho da pasta para melhorar as trilhas de auditoria. Por exemplo, se o ID 103 do bot pai acionar um bot filho, os registros mostrarão corretamente 103, não o ID do bot filho. Essa melhoria afeta os registros de prompt e de eventos na Governança de IA.

Governança de IA

Abas Governança de IA Log do prompt de IA e Log de eventos: Nova coluna de Proteções para IA

Uma nova coluna, Proteções para IA, foi adicionada às telas Governança de IA Log do prompt de IA e Log de eventos. Um novo campo de Proteções para IA também é incluído nos detalhes da sessão ou eventos quando você abre logs individuais de prompts ou eventos. Essa coluna fornece informações sobre as proteções específicas aplicadas a cada prompts e eventos.

Monitorar interações de Log do prompt de IA | Monitorar interações de Log de eventos

Melhorias em Governança de IA Log do prompt de IA: Nova análise de toxicidade e Prompt do sistema/Prompt do usuário
  1. Toxicidade geral: As pontuações de toxicidade agora são exibidas tanto para o sistema quanto para os prompts do usuário.
  2. Toxicidade da resposta: O nível de toxicidade da resposta do LLM também é incluído, permitindo uma melhor avaliação do conteúdo gerado.
  3. Exibição de prompt duplo: Tanto o Prompt do sistema quanto o Prompt do usuário agora estão claramente visíveis. Isso esclarece o contexto da interação, especialmente com a introdução de prompts do sistema juntamente com prompts do usuário. O campo Prompt anterior foi renomeado para Prompt do usuário.
  4. Tipo de conexão do modelo: O Log do prompt de IA agora exibe o Tipo de conexão do modelo, detalhando como os modelos estão conectados, como Padrão, Ajustado ou várias opções fundamentadas.

Monitorar interações de Log do prompt de IA

Melhorias em Governança de IA Log de eventos: Nova análise de toxicidade e Prompt do sistema/Prompt do usuário
  1. Toxicidade geral: As pontuações de toxicidade agora são exibidas tanto para o sistema quanto para os prompts do usuário.
  2. Toxicidade da resposta: O nível de toxicidade da resposta do LLM também é incluído, permitindo uma melhor avaliação do conteúdo gerado.
  3. Exibição de prompt duplo: Tanto o Prompt do sistema quanto o Prompt do usuário agora estão claramente visíveis. Isso esclarece o contexto da interação, especialmente com a introdução de prompts do sistema juntamente com prompts do usuário. O campo Prompt anterior foi renomeado para Prompt do usuário.
  4. Tipo de conexão do modelo: O Log de eventos agora exibe o Tipo de conexão do modelo, detalhando como os modelos estão conectados, como Padrão, Ajustado ou várias opções fundamentadas.

Monitorar interações de Log de eventos

Correções

Os modelos Anthropic Claude 2.1 e Anthropic Claude 3.5, que não são compatíveis no Amazon Bedrock como modelos ajustados, foram removidos das opções de modelos disponíveis dentro dos tipos ajustados do Amazon Bedrock. Anteriormente, esses modelos eram exibidos incorretamente na seleção de modelos ao escolher Ajustado como o tipo em Amazon Bedrock.
Correção para um problema onde os logs de Governança de IA não eram compatíveis com Tarefas de API executados em modo em tempo real (automação assistida). Essa limitação foi resolvida nesta versão.
Correção para a mensagem de erro enganosa que afirma incorretamente que o Agente de bot precisa de uma atualização para o registro preciso de Governança de IA. Antes, esse erro foi observado nas seções de Governança de IA, especificamente no Log do prompt de IA e no Log de eventos para as versões 22.100.xx ou posteriores do Agente de bot.
Correção para um problema em que você recebe incorretamente uma notificação solicitando uma atualização do Agente de bot para os logs de auditoria de governança de IA. Antes, essa notificação aparecia incorretamente nas configurações de Administração > Configurações > Gerenciamento de dados de IA > Configurações de registro de dados e nos logs de Governança de IA (Log do prompt de IA e Log de eventos), mesmo ao usar versões compatíveis do Agente de bot (22.60.10 e posteriores).

Limitações

Atribuição de pastas a Proteções de IA
  • Proteções de IA só podem ser atribuídas a pastas principais. As pastas filhas dentro da pasta pai não herdam nem têm atribuições específicas de proteção.
  • Quando um bot pai invoca um bot filho que reside em uma pasta diferente, a política de proteção associada à pasta do bot pai será aplicada.
Ao clicar em um nome de modelo que contenha caracteres especiais (como "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":" ou palavras entre aspas duplas) no painel de Governança de IA na tela inicial do widget Modelos mais usados, uma mensagem de erro será exibida semelhante à captura de tela a seguir. Isso ocorre porque a funcionalidade de busca no painel de Governança de IA atualmente não é compatível com esses caracteres especiais.

Mensagem de erro ao clicar no nome do modelo contendo caracteres especiais

O campo Pasta dentro das Propriedades do arquivo de uma Habilidade de IA ou de um modelo de Habilidade de IA atualmente não funciona como pretendido. Alterar o local da pasta nesta tela não move realmente a Habilidade de IA ou o modelo de Habilidade de IA para o local especificado quando as alterações são salvas.
O teste com Proteções para IA não está disponível para Prompt do sistema em Habilidades de IA

Testes com Proteções para IA atualmente não são compatíveis para prompts do sistema no editor de Habilidades de IA. Embora as proteções funcionem corretamente para prompts do sistema quando usadas em automações e executadas em tempo de execução. Por causa disso, você não pode testar diretamente a aplicação de proteções aos prompts do sistema durante a fase de desenvolvimento da Habilidade de IA. Essa limitação afeta apenas o teste com Proteções para IA.

Problema de registro da Tarefa de API Habilidade de IA

Execuções de Habilidade de IA acionadas sob demanda Tarefas de API não registram respostas no Log de eventos de Governança de IA. Adicionar ação de atraso de pelo menos 1 segundo após a Habilidade de IA: Executar a ação para todas as execuções sob demanda de Tarefa de API é uma solução temporária atual para resolver esse problema de registro.


Habilidade de IA Problema de registro de execução com Tarefas de API sob demanda

Atualizações na interface

Proteções de IA
Um novo menu de navegação é apresentado para acessar Proteções de IA:

Nova navegação para acessar Proteções de IA

Proteções de IA