Vertex AI: Ação Chat AI
Baixar como PDF
Compartilhar
- Última atualização2024/10/31
O Vertex AI: A ação Chat AI usa a API de conclusão do Vertex AI do Google para interagir com os modelos. Ela gera texto em um formato de conversa.
Pré-requisitos
- Você precisa ter a função Criador de bots para usar a ação IA de chat Vertex em um bot.
- Certifique-se de ter as credenciais necessárias para enviar uma solicitação e de ter incluído Vertex AI: Ação Conectar antes de chamar qualquer ação do Google Cloud.
Este exemplo mostra como enviar uma mensagem de linguagem natural usando o Vertex AI: use a ação do Chat de IA e receba uma resposta apropriada.
Procedimento
- Na Automation Anywhere Control Room, acesse o painel Ações, selecione IA generativa > Google, arraste Vertex AI: Use Chat AI e coloque-a na tela.
-
Insira ou selecione os seguintes campos:
- Insira o Número/nome do projeto. Este é o ID do projeto exclusivo do GCP. Para obter informações sobre o ID do projeto, consulte ID de projeto do Google Cloud.
- Insira o Local. Para obter mais informações sobre o local do Vertex AI, consulte Locais Vertex AI.
- Clique no menu suspenso Editor e selecione Google; ou selecione Terceiros para inserir um editor de terceiros.
-
Selecione um LLM (Large Language Model, grande modelo de linguagem) para usar para o seu prompt na lista suspensa Modelo. É possível selecionar os seguintes modelos:
- chat-bison (mais recente)
- chat-bison-32k (mais recente)
- chat-bison-32k@002
- chat-bison@001
- chat-bison@002
- codechat-bison
- codechat-bison-32k
- codechat-bison-32k@002
- codechat-bison@001
- codechat-bison@002
- gemini-1.0-pro-001
- Outra versão suportada para inserir outros modelos suportados.
-
Envie uma mensagem no chat para ser usada pelo modelo para gerar uma resposta.
Nota: As ações de chat manterão o resultado da ação de chat anterior na mesma sessão. Se você chamar ações de chat consecutivamente, o modelo poderá entender as mensagens subsequentes e relacioná-las à mensagem anterior. No entanto, todo o histórico de chat é excluído após o término da sessão.
- Insira o número máximo de tokens (Máx. de tokens) para gerar. Por padrão, se você não inserir um valor, o número máximo de tokens gerados será definido automaticamente para mantê-lo dentro do comprimento máximo de contexto do modelo selecionado, considerando o comprimento da resposta gerada.
- Digite uma Temperatura. Esse valor se refere à aleatoriedade da resposta. À medida que a temperatura se aproxima de zero, a resposta se torna mais focada e determinística. Quanto maior o valor, mais aleatória é a resposta.
- Digite Padrão como o nome da sessão para limitar a sessão à sessão atual.
-
Para gerenciar os parâmetros opcionais, clique em Mostrar mais opções e selecione Sim. Se você selecionar Sim, poderá adicionar outros parâmetros, como: Contexto, Exemplos, Top K e Top P. Para obter informações sobre esses parâmetros opcionais, consulte Modelos de aprendizagem.
Nota: Embora os modelos Vertex AI, como codechat-bison@002, permitam fornecer Contexto e Exemplos para refinar prompts, o modelo gemini-1.0-pro-001 atualmente não oferece suporte a esses recursos. Embora esses campos estejam disponíveis na interface, você pode deixá-los em branco com segurança.
- Salve a resposta em uma variável. Neste exemplo, a resposta é salva como VertexChatResponse.
-
Clique em Executar para iniciar o bot. Você pode ler o valor do campo imprimindo a resposta em uma ação de Caixa de mensagem. Neste exemplo, VertexChatResponse imprime a resposta. Você pode incluir solicitações de chat adicionais para obter mais respostas.
Dica: Para manter vários chats no mesmo bot, será necessário criar várias sessões com nomes ou variáveis diferentes.