OpenAI: Ação de Prompt de IA

A OpenAI: A ação de Prompt de IA imita as conclusões da OpenAI, que recebe um prompt como entrada e retorna uma ou mais conclusões previstas geradas por modelo.

Pré-requisitos

  • Você deve ter a função Criador de bots para usar a ação de Prompt de IA da OpenAI em um bot.
  • Certifique-se de ter as credenciais obrigatórias para enviar uma solicitação e de ter incluído Ação de autenticação antes de chamar qualquer ação do OpenAI.

Este exemplo mostra como enviar um prompt de linguagem natural usando a ação de Prompt de IA da OpenAI e obter uma resposta apropriada.

Procedimento

  1. Na Automation Anywhere Control Room, acesse o painel Ações, selecione IA generativa > OpenAI, arraste OpenAI: Prompt de IA e coloque-o na tela.
  2. Insira ou selecione os seguintes campos:

    Prompt da IA da OpenAI

    1. Para Autenticar, selecione Versão mais recente para usar o Ação de autenticação com a chave de API.
      Se selecionar A ser descontinuado, você poderá autenticar usando a chave de API sem chamar a ação Autenticar.
      Nota: A opção A ser descontinuado será descontinuada na próxima versão.
    2. Digite Padrão como o nome da sessão para restringir a sessão atual.
    3. Selecione um LLM (Large Language Model, grande modelo de linguagem) para usar para o seu prompt na lista suspensa Modelo. É possível selecionar os seguintes modelos:
      • gpt-3.5-turbo-instruct (padrão)
      • babbage-002
      • davinci-002
      • text-davinci-003 (descontinuado - 04/01/2024)
      • text-davinci-002 (descontinuado - 04/01/2024)
      • davinci (descontinuado - 04/01/2024)
      • text-curie-001 (descontinuado - 04/01/2024)
      • curie (descontinuado - 04/01/2024)
      • text-babbage-001 (descontinuado - 04/01/2024)
      • babbage (descontinuado - 04/01/2024)
      • text-ada-001 (descontinuado - 04/01/2024)
      • ada (descontinuado - 04/01/2024)
      • Outra versão suportada para inserir outros modelos suportados.
    4. Insira um Prompt a ser usado pelo modelo para gerar uma resposta.
    5. Insira o número máximo de tokens para gerar. Por padrão, se você não inserir um valor, o número máximo de tokens gerados será definido automaticamente para ficar no comprimento máximo do contexto do modelo selecionado, considerando o comprimento da resposta gerada.
    6. Digite uma Temperatura. Esse valor se refere à aleatoriedade da resposta. À medida que a temperatura se aproxima de zero, a resposta se torna mais focada e específica. Quanto maior o valor, mais aleatória é a resposta.
    7. Para gerenciar os parâmetros opcionais, selecione Sim em Mostrar mais opções para adicionar outros parâmetros, como: Sufixo, Top P, N, Logprobs, Echo, Parar, Penalidade de Presença, Penalidade de Frequência, Melhor de, Viés Logit e Usuário. Para obter informações sobre esses parâmetros opcionais, consulte Conclusões da Open AI.
    8. Salve a resposta em uma variável. Neste exemplo, a resposta é salva como list_OpenAI_prompt_response.
  3. Clique em Executar para iniciar o bot. A saída de um prompt é uma lista onde você pode definir N como o parâmetro opcional, gerando vários prompts para cada entrada. Para ler a resposta do prompt, você pode imprimir a resposta em uma ação caixa de mensagem. Neste exemplo, o primeiro elemento da lista list_OpenAI_prompt_response[0] imprime a resposta porque N é definido como 1.