Vertex AI: Ação Chat AI

O Vertex AI: A ação Chat AI usa a API de conclusão do Vertex AI do Google para interagir com os modelos. Ela gera texto em um formato de conversa.

Pré-requisitos

  • Você precisa ter a função Criador de bots para usar a ação IA de chat Vertex em um bot.
  • Certifique-se de ter as credenciais necessárias para enviar uma solicitação e de ter incluído Vertex AI: Ação Conectar antes de chamar qualquer ação do Google Cloud.

Este exemplo mostra como enviar uma mensagem de linguagem natural usando o Vertex AI: use a ação do Chat de IA e receba uma resposta apropriada.

Procedimento

  1. Na Automation Anywhere Control Room, acesse o painel Ações, selecione IA generativa > Google, arraste Vertex AI: Use Chat AI e coloque-a na tela.
  2. Insira ou selecione os seguintes campos:

    IA do bate-papo do Vertex

    1. Insira o Número/nome do projeto. Este é o ID do projeto exclusivo do GCP. Para obter informações sobre o ID do projeto, consulte ID de projeto do Google Cloud.
    2. Insira o Local. Para obter mais informações sobre o local do Vertex AI, consulte Locais Vertex AI.
    3. Clique no menu suspenso Editor e selecione Google; ou selecione Terceiros para inserir um editor de terceiros.
    4. Selecione um LLM (Large Language Model, grande modelo de linguagem) para usar para o seu prompt na lista suspensa Modelo. É possível selecionar os seguintes modelos:
      • chat-bison (mais recente)
      • chat-bison-32k (mais recente)
      • chat-bison-32k@002
      • chat-bison@001
      • chat-bison@002
      • codechat-bison
      • codechat-bison-32k
      • codechat-bison-32k@002
      • codechat-bison@001
      • codechat-bison@002
      • gemini-1.0-pro-001
      • Outra versão suportada para inserir outros modelos suportados.
    5. Envie uma mensagem no chat para ser usada pelo modelo para gerar uma resposta.
      Nota: Chat actions retain the result of the previous chat action within the same session. If you call chat actions consecutively, the model can understand subsequent messages and relate them to the previous message. However, all chat history is deleted after the session ends.
    6. Insira o número máximo de tokens (Máx. de tokens) para gerar. Por padrão, se você não inserir um valor, o número máximo de tokens gerados será definido automaticamente para mantê-lo dentro do comprimento máximo de contexto do modelo selecionado, considerando o comprimento da resposta gerada.
    7. Digite uma Temperatura. Esse valor se refere à aleatoriedade da resposta. À medida que a temperatura se aproxima de zero, a resposta se torna mais focada e determinística. Quanto maior o valor, mais aleatória é a resposta.
    8. Digite Padrão como o nome da sessão para limitar a sessão à sessão atual.
    9. Para gerenciar os parâmetros opcionais, clique em Mostrar mais opções e selecione Sim. Se você selecionar Sim, poderá adicionar outros parâmetros, como: Contexto, Exemplos, Top K e Top P. Para obter informações sobre esses parâmetros opcionais, consulte Modelos de aprendizagem.
      Nota: Embora os modelos Vertex AI, como codechat-bison@002, permitam fornecer Contexto e Exemplos para refinar prompts, o modelo gemini-1.0-pro-001 atualmente não oferece suporte a esses recursos. Embora esses campos estejam disponíveis na interface, você pode deixá-los em branco com segurança.
    10. Salve a resposta em uma variável. Neste exemplo, a resposta é salva como VertexChatResponse.
  3. Clique em Executar para iniciar o bot. Você pode ler o valor do campo imprimindo a resposta em uma action de Caixa de mensagem. Neste exemplo, VertexChatResponse imprime a resposta. Você pode incluir solicitações de chat adicionais para obter mais respostas.
    Dica: To maintain multiple chats in the same bot, you will need to create multiple sessions with different names or variables.