Vertex AI: Ação Chat AI

O Vertex AI: A ação Chat AI usa a API de conclusão do Vertex AI do Google para interagir com os modelos. Ela gera texto em um formato de conversa.

Pré-requisitos

  • Você precisa ter a função Criador de bots para usar a ação IA de chat Vertex em um bot.
  • Certifique-se de ter as credenciais necessárias para enviar uma solicitação e de ter incluído Vertex AI: Ação Conectar antes de chamar qualquer ação do Google Cloud.

Este exemplo mostra como enviar uma mensagem de linguagem natural usando o Vertex AI: use a ação do Chat de IA e receba uma resposta apropriada.

Procedimento

  1. Na Automation Anywhere Control Room, acesse o painel Ações, selecione IA generativa > Google, arraste Vertex AI: Use Chat AI e coloque-a na tela.
  2. Insira ou selecione os seguintes campos:

    IA do bate-papo do Vertex

    1. Insira o Número/nome do projeto. Este é o ID do projeto exclusivo do GCP. Para obter informações sobre o ID do projeto, consulte ID de projeto do Google Cloud.
    2. Insira o Local. Para obter mais informações sobre o local do Vertex AI, consulte Locais Vertex AI.
    3. Clique no menu suspenso Editor e selecione Google; ou selecione Terceiros para inserir um editor de terceiros.
    4. Selecione um LLM (Large Language Model, grande modelo de linguagem) para usar para o seu prompt na lista suspensa Modelo. É possível selecionar os seguintes modelos:
      • chat-bison (mais recente)
      • chat-bison-32k (mais recente)
      • chat-bison-32k@002
      • chat-bison@001
      • chat-bison@002
      • codechat-bison
      • codechat-bison-32k
      • codechat-bison-32k@002
      • codechat-bison@001
      • codechat-bison@002
      • gemini-1.0-pro-001
      • Outra versão suportada para inserir outros modelos suportados.
    5. Envie uma mensagem no chat para ser usada pelo modelo para gerar uma resposta.
      Nota: As ações de chat manterão o resultado da ação de chat anterior na mesma sessão. Se você chamar ações de chat consecutivamente, o modelo poderá entender as mensagens subsequentes e relacioná-las à mensagem anterior. No entanto, todo o histórico de chat é excluído após o término da sessão.
    6. Insira o número máximo de tokens (Máx. de tokens) para gerar. Por padrão, se você não inserir um valor, o número máximo de tokens gerados será definido automaticamente para mantê-lo dentro do comprimento máximo de contexto do modelo selecionado, considerando o comprimento da resposta gerada.
    7. Digite uma Temperatura. Esse valor se refere à aleatoriedade da resposta. À medida que a temperatura se aproxima de zero, a resposta se torna mais focada e determinística. Quanto maior o valor, mais aleatória é a resposta.
    8. Digite Padrão como o nome da sessão para limitar a sessão à sessão atual.
    9. Para gerenciar os parâmetros opcionais, clique em Mostrar mais opções e selecione Sim. Se você selecionar Sim, poderá adicionar outros parâmetros, como: Contexto, Exemplos, Top K e Top P. Para obter informações sobre esses parâmetros opcionais, consulte Modelos de aprendizagem.
      Nota: Embora os modelos Vertex AI, como codechat-bison@002, permitam fornecer Contexto e Exemplos para refinar prompts, o modelo gemini-1.0-pro-001 atualmente não oferece suporte a esses recursos. Embora esses campos estejam disponíveis na interface, você pode deixá-los em branco com segurança.
    10. Salve a resposta em uma variável. Neste exemplo, a resposta é salva como VertexChatResponse.
  3. Clique em Executar para iniciar o bot. Você pode ler o valor do campo imprimindo a resposta em uma ação de Caixa de mensagem. Neste exemplo, VertexChatResponse imprime a resposta. Você pode incluir solicitações de chat adicionais para obter mais respostas.
    Dica: Para manter vários chats no mesmo bot, será necessário criar várias sessões com nomes ou variáveis diferentes.