Gerenciar Conexões de modelo
- Última atualização2024/09/03
Gerenciar Conexões de modelo
Conecte-se a uma lista selecionada de modelos básicos de fornecedores de hiperescala, como Amazon Bedrock, Vertex AI do Google, Azure OpenAI, OpenAI e outros para integrar o potencial da IA generativa nas automações.
O administrador de automação cria e testa Conexões de modelo se conectando a modelos básicos e disponibilizando essas conexões disponíveis para os desenvolvedores profissionais, que podem se conectar a elas ao criar Modelos de prompt. As Conexões de modelo são usadas em Modelos de prompt para enviar prompts e receber respostas dos modelos.
Além disso, o administrador de automação cria funções personalizadas e atribui essas Conexões de modelo para as funções personalizadas. Essas funções personalizadas são então atribuídas a usuários que podem acessar as Conexões de modelo.
Siga estas etapas para criar uma Conexão de modelo.
Pré-requisitos
- Função: AAE_Basic, função personalizada de administrador de automação
- Permissão: Executor de bots assistidos
Veja Funções e permissões para Ferramentas de IA para consultar as permissões de função personalizada do administrador de automação.
- Para armazenar detalhes de autenticação em um cofre de credenciais, tenha essas informações em mãos. Consulte Armazenamento seguro de credenciais no Credential Vault.
- Para testar uma Conexão de modelo, é necessário estar conectado a um Agente de bot (v22.60.10 e superior). Como parte do teste, é necessário executar o bot na sua área de trabalho. Portanto, certifique-se de que o Agente de bot esteja configurado para seu usuário. Para esta tarefa, se você tiver que mudar a conexão para uma outra Control Room, consulte: Alternar o registro do dispositivo entre instâncias da Control Room.
- Você precisa de acesso aos pacotes Gravador e Modelo de prompt de IA generativa para testar a conexão. Um Prompt de teste deve ser executado para testar a Conexão de modelo.
Procedimento
Próximas etapas
Ao criar, testar, editar ou excluir uma Conexão de modelo, os detalhes de sucesso ou falha das ações são capturados como logs e podem ser visualizados em e .
Consulte Governança de IA.