Vertex AI: Ação de Prompt de IA

O Vertex AI: A ação Prompt de IA usa a API PaLM do Google, que dá acesso à capacidade do modelo de gerar texto. Você pode dar ao modelo um prompt de texto em inglês e ele completará o texto.

Pré-requisitos

  • Você deve ter a função Criador de bots para usar a ação de Prompt da IA do Vertex em um bot.
  • Certifique-se de ter as credenciais necessárias para enviar uma solicitação e de ter incluído Vertex AI: Ação Conectar antes de chamar qualquer ação do Google Cloud.

Este exemplo mostra como enviar um prompt de linguagem natural usando a action de Prompt da IA do Vertex e obter uma resposta apropriada.

Procedimento

  1. Na Automation Anywhere Control Room, acesse o painel Ações, selecione IA generativa > Google, arraste Vertex AI: Prompt de IA e coloque-o na tela.
  2. Insira ou selecione os seguintes campos:

    Ação de Prompt da IA do Google Vertex

    1. Insira o Número/nome do projeto. Este é o ID do projeto exclusivo do GCP. Para obter mais informações sobre o ID do projeto, consulte ID do projeto do Google Cloud.
    2. Insira o Local. Para obter mais informações sobre o local do Vertex AI, consulte Locais Vertex AI.
    3. Clique no menu suspenso Editor e selecione Google; ou selecione Terceiros para inserir um editor de terceiros.
    4. Selecione um LLM (Large Language Model, grande modelo de linguagem) para usar para o seu prompt na lista suspensa Modelo. É possível selecionar os seguintes modelos:
      • text-bison (mais recente)
      • text-bison-32k (mais recente)
      • text-bison-32k@002
      • text-bison@001
      • text-bison@002
      • text-unicorn@001
      • code-bison (mais recente)
      • code-bison-32k@002
      • code-bison@001
      • code-bison@002
      • code-gecko@001
      • code-gecko@002
      • code-gecko
      • gemini-1.0-pro-001
      • Outra versão suportada para inserir outros modelos suportados.
      Nota:
      • Bison: O melhor valor em termos de capacidade e custo.
      • Gecko: O menor modelo e de menor custo para tarefas simples.
    5. Insira um Prompt a ser usado pelo modelo para gerar uma resposta.
    6. Insira o número máximo de tokens (Máx. de tokens) para gerar. Por padrão, se você não inserir um valor, o número máximo de tokens gerados será definido automaticamente para mantê-lo dentro do comprimento máximo de contexto do modelo selecionado, considerando o comprimento da resposta gerada.
    7. Digite uma Temperatura. Esse valor se refere à aleatoriedade da resposta. À medida que a temperatura se aproxima de zero, a resposta se torna mais focada e determinística. Quanto maior o valor, mais aleatória é a resposta.
    8. Digite Padrão como o nome da sessão para limitar a sessão à sessão atual.
    9. Para gerenciar os parâmetros opcionais, clique em Mostrar mais opções e selecione Sim. Se você selecionar Sim, poderá adicionar outros parâmetros, como: Top K e Top P. Para obter informações sobre esses parâmetros opcionais, consulte Aprender modelos.
    10. Salve a resposta em uma variável. Neste exemplo, a resposta é salva como google-vertex_prompt-response.
  3. Clique em Executar para iniciar o bot. Você pode ler o valor do campo imprimindo a resposta em uma action de Caixa de mensagem. Neste exemplo, google-vertex_prompt-response imprime a resposta.