Azure OpenAI: Ação de Prompt de IA

O Azure OpenAI: A ação Prompt de IA usa o endpoint de conclusões do Microsoft Azure AI para gerar texto. Este endpoint dá acesso à interface de entrada e saída de texto do modelo. Você pode dar ao modelo um prompt de texto em linguagem natural e isso gerará uma conclusão.

Pré-requisitos

  • Você deve ter a função de Criador de bots para usar o Azure OpenAI: action Prompt de IA em um bot.
  • Certifique-se de ter as credenciais necessárias para enviar uma solicitação e de ter incluído Azure OpenAI: Ação de autenticação antes de chamar qualquer ação do Microsoft Azure OpenAI.

Este exemplo mostra como enviar um prompt de linguagem natural usando o Azure OpenAI: use a action Prompt de IA e receba uma resposta apropriada.

Procedimento

  1. Em Automation Anywhere Control Room, acesse o painel Ações, selecione IA generativa > Microsoft, arraste Azure OpenAI: Prompt de IA e coloque-o na tela.
  2. Insira ou selecione os seguintes campos:

    IA do prompt da Azure

    1. Para Autenticar, selecione Versão mais recente para usar o Azure OpenAI: Ação de autenticação com a chave de API.
      Se selecionar A ser descontinuado, você poderá autenticar usando a chave de API sem chamar a ação Autenticar.
      Nota: A opção A ser descontinuado será descontinuada na próxima versão.
    2. Digite Padrão como o nome da sessão para limitar a sessão à sessão atual.
    3. Insira o ID da implantação. O ID da implantação está vinculado ao LLM (Large Language Model, grande modelo de linguagem) que você deseja usar para seu prompt.
    4. Insira um Prompt a ser usado pelo modelo para gerar uma resposta.
    5. Insira o número máximo de tokens para gerar. Por padrão, se você não inserir um valor, o número máximo de tokens gerados será definido automaticamente para mantê-lo dentro do comprimento máximo de contexto do modelo selecionado, considerando o comprimento da resposta gerada.
    6. Digite uma Temperatura. Esse valor se refere à aleatoriedade da resposta. À medida que a temperatura se aproxima de zero, a resposta se torna mais focada e determinística. Quanto maior o valor, mais aleatória é a resposta.
    7. Para gerenciar os parâmetros opcionais, clique em Exibir mais opções e selecione Sim se quiser gerenciar os parâmetros opcionais. Se você selecionar Sim, poderá adicionar outros parâmetros, como: Versão da API, Sufixo, Top P, N, Logprobs, Echo, Interromper, Penalidade de presença, Penalidade de frequência, Melhor de, Viés de Logit e Usuário. Para obter mais informações sobre esses parâmetros opcionais, consulte Conclusões do Azure Open AI.
    8. Salve a resposta em uma variável. Neste exemplo, a resposta é salva como str_promptai_response.
  3. Clique em Executar para iniciar o bot. A saída de um prompt é uma lista na qual você pode definir N como o parâmetro opcional e gerar múltiplos prompts para cada entrada. Para ler a resposta do prompt, você pode imprimir a resposta em uma action caixa de mensagem. Neste exemplo, o primeiro elemento da lista str_promptai_response[0] imprime a resposta porque N é definido como 1.