Perguntas frequentes sobre AI Agent Studio
- Última atualização2024/08/21
Perguntas frequentes sobre AI Agent Studio
Consulte estas perguntas frequentes para ver questões gerais sobre o comportamento e a funcionalidade da criação de Conexões de modelo, Modelos de prompt, da execução de automações usando o pacote Modelo de prompt de IA generativa bem como do rastreamento e do monitoramento de dados de interação do modelo em automações para segurança e governança.
Perguntas frequentes gerais
- Quais são os modelos de base compatíveis?
- Atualmente, o Ferramentas de IA oferece suporte a modelos de base de fornecedores de hiperescaladores, como Amazon Bedrock, Vertex AI do Google, Azure OpenAI, OpenAI e outros. Estes são os modelos compatíveis de cada fornecedor:
- Amazon Bedrock: anthropic.claude-v2:1, amazon.titan-text-express-v1, amazon.titan-text-lite-v1.
- Vertex AI do Google: text-unicorn, text-bison, text-bison-32k, gemini-1.0-pro.
- Azure OpenAI: gpt-4, gpt-4-32k, gpt-35-turbo, gpt-35-turbo-16k.
- OpenAI: gpt-4, gpt-4-turbo-preview, gpt-3.5-turbo, gpt-3.5-turbo-16k.
- A Automation Anywhere disponibiliza modelos de base para uso no AI Agent Studio?
- Não, o AI Agent Studio oferece aos clientes a capacidade de se conectar aos seus próprios modelos de base de fornecedores como Azure OpenAI, OpenAI, Amazon Bedrock e Vertex AI do Google fornecendo os detalhes de conexão desses modelos às instâncias de clientes em Conexões de modelo. Consulte Gerenciar Conexões de modelo.
- Qual é o requisito da licença para o Ferramentas de IA?
- O Ferramentas de IA está incluído no conjunto de produtos AI Agent Studio e pode ser disponibilizado com a compra da licença Enterprise Platform. Para obter detalhes sobre a licença Enterprise Platform, consulte Enterprise Platform.
- Qual é a disponibilidade geral do AI Agent Studio?
- Esse produto está disponível somente na Nuvem do Automation 360.
- Que tipo de dados são armazenados e por quanto tempo quando eu ativo o registro de dados?
- Quando o registro de dados está ativado, todas as interações do modelo, incluindo prompts, respostas do modelo e parâmetros, são armazenadas durante a automação ou execuções de prompt. Esses dados são armazenados em seu ambiente e usados para oferecer insights detalhados sobre o uso de IA em automações.
- Os dados para consulta e ajuste de prompt são exibidos nos registros do Governança de IA armazenados na Nuvem?
- Os registros do Governança de IA capturam as interações do modelo quando as automações são executadas. As respostas de prompt e modelo trocadas com os modelos hiperescaladores podem ser auditadas.
- O que acontece com os dados enviados a um modelo de terceiros que processa prompts e gera uma saída?
- O Log de auditoria fornece detalhes dos prompts e respostas do modelo que foram enviados aos modelos do hiperescalador. A Automation Anywhere não tem acesso a nenhum modelo de terceiros que você tenha assinado e aos dados armazenados ou processados por eles. Recomendamos consultar a documentação relevante para obter detalhes sobre como seus dados são processados e armazenados por eles.
- Um terceiro, como a Azure OpenAI, consegue acessar meus dados e usá-los?
- A Automation Anywhere não tem nenhum controle sobre quais dados são usados ou armazenados por modelos de terceiros que você assina, quando você envia consultas aos seus modelos. Recomendamos consultar a documentação relevante para obter detalhes sobre processamento e armazenamento de dados.
- Qual é a política de retenção de dados armazenados?
- Aderimos a uma política consistente de retenção de dados para logs de auditoria. Você pode analisar as políticas aqui: Automation 360 Perguntas frequentes.
- Posso usar integrações SIEM para encaminhar os logs armazenados?
- Sim, os dados armazenados podem ser encaminhados para um sistema SIEM integrado configurado na Control Room.
- Quais medidas de segurança são implementadas para proteger os prompts armazenados?
- Todos os dados registrados são armazenados no ambiente de produção do cliente, nunca saindo dos limites protegidos. Esses dados são usados exclusivamente para análise, a fim de fornecer insights sobre o uso de IA nas automações. Os prompts e as respostas do modelo são criptografados usando algoritmos padrão do setor, e os dados de log são transmitidos com segurança via TLS. O acesso para visualizar os prompts e respostas é controlado por meio de controle de acesso baseado em função.
- Os prompts de texto e as respostas do modelo podem ser exportados ou impressos?
- Para proteger a privacidade, os prompts e as respostas do modelo não podem ser exportados ou impressos da Control Room. No entanto, eles podem ser encaminhados para um SIEM por meio de uma integração SIEM.
- Preciso de licenças adicionais para registro de dados?
- Registro de dados e Governança de IA fazem parte da licença Enterprise Platform, disponível por meio do AI Agent Studio.
Para obter detalhes sobre a licença Enterprise Platform, consulte Enterprise Platform.
Comportamento conhecido do produto
- Depois de criar um Modelo de prompt, o nome e a descrição desse template não poderão ser alterados.
- Atualmente, o uso de Modelos de prompt está disponível apenas em um Task Bot.
- Se você excluir uma Conexão de modelo que está conectada a um Modelo de prompt, receberá um erro ao executar o Task Bot que foi configurado para usar esse Modelo de prompt.
- Se você excluir uma Conexão de modelo e criar uma nova com o mesmo nome, o Modelo de prompt fará referência à nova versão. No entanto, se os modelos LLM subjacentes forem diferentes, o resultado poderá ser outro.
- Para conexões do Microsoft Azure:
- A configuração de Conexão de modelo requer que o usuário forneça um ID da implementação que é o nome da implementação no portal do Microsoft Azure. Uma vez que essa implantação é mapeada para um modelo de base específico, os usuários devem garantir que tenham selecionado o modelo correto de Conexão de modelo mapeado para o modelo de implantação do Microsoft Azure.Nota: Você verá uma mensagem de aviso se esses valores não forem correspondentes.
- Os usuários devem estar cientes de que alterar os detalhes da conexão de uma Conexão de modelo salvaria detalhes de entrada incorretos e não acionaria automaticamente a funcionalidade de Conexão de teste. Isso fazer com que Modelos de prompt ou Task Bots que usam a Conexão de modelo quebrem durante a execução. Se você fizer alguma alteração em uma Conexão de modelo, teste a conexão atualizada para que os Bots que estão usando essa Conexão de modelo não falhem durante a execução da automação.
- A configuração de Conexão de modelo requer que o usuário forneça um ID da implementação que é o nome da implementação no portal do Microsoft Azure. Uma vez que essa implantação é mapeada para um modelo de base específico, os usuários devem garantir que tenham selecionado o modelo correto de Conexão de modelo mapeado para o modelo de implantação do Microsoft Azure.
- Se você encontrar um erro de tempo de execução durante uma execução de automação, com base na mensagem de erro exibida pelo sistema: “Não é possível publicar logs de auditoria de Governança de IA. Certifique-se de que a versão do Agente de bot seja a 22.60.10 ou superior. Erro: <mensagem de erro java.lang.NoSuchMethodError>”, recomendamos atualizar para a versão mais recente do Agente de bot.
- Se você não conseguir ver nenhum dado do log de auditoria, recomendamos primeiro verificar as permissões de função personalizada relevantes. Se você tiver as permissões necessárias, sugerimos que você use a versão mais recente do Agente de bot.
- Para os recursos de log de auditoria e execução de Bot funcionarem sem problemas, recomendamos usar as versões compatíveis da Control Room e do Agente de bot. Consulte Atribuir funções e permissões para habilitar Governança de IA para exibir a matriz de compatibilidade de versão.