OpenAI: プロンプト AI アクション

OpenAI: プロンプト AI アクションは、OpenAI の入力補完を模倣しており、入力としてプロンプトを受け取り、モデルが生成した 1 つ以上の予測補完が返されます。

前提条件

  • Bot で OpenAI プロンプト AI アクションを使用するには、Bot Creator ロールが必要です。
  • OpenAI のアクションを呼び出す前に、リクエストを送信するために必要な認証情報があり、[認証] アクション が含まれていることを確認してください。

この例では、OpenAI のプロンプト AI アクションを使用して自然言語プロンプトを送信し、適切なレスポンスを得る方法を示しています。

手順

  1. Automation Anywhere Control Room で [アクション] ペインに移動し、[生成 AI] > [OpenAI] を選択し、[OpenAI: プロンプト AI] をドラッグしてキャンバスに配置します。
  2. 以下のフィールドを入力または選択します。

    OpenAI のプロンプト AI

    1. [認証] では、API キーによる [認証] アクション を使用する場合は、[最新バージョン] を選択します。
      [非推奨化] を選択した場合、[認証] アクションを呼び出さずに API キーを使って認証することができます。
      注: [非推奨化] オプションは次のリリースで非推奨になります。
    2. 現在のセッションに限定するセッション名として、「デフォルト」を入力します。
    3. [モデル] ドロップダウンからプロンプトに使用する大規模言語モデル (LLM) を選択します。以下のモデルを選択できます。
      • gpt-3.5-turbo-instruct (デフォルト)
      • babbage-002
      • davinci-002
      • text-davinci-003 (非推奨 - 2024-01-04)
      • text-davinci-002 (非推奨 - 2024-01-04)
      • davinci (非推奨 - 2024-01-04)
      • text-curie-001 (非推奨 - 2024-01-04)
      • curie (非推奨 - 2024-01-04)
      • text-babbage-001 (非推奨 - 2024-01-04)
      • babbage (非推奨 - 2024-01-04)
      • text-ada-001 (非推奨 - 2024-01-04)
      • ada (非推奨 - 2024-01-04)
      • [その他のサポートされているバージョン] にその他の対応モデルを入力できます。
    4. レスポンスを生成するためにモデルが使用する [プロンプト] を入力します。
    5. 生成するトークンの最大数を入力します。デフォルトでは、値を入力しない場合、生成されるトークンの最大数は、生成されるレスポンスの長さを考慮することで、選択されたモデルのコンテキストの最大長に収まるように自動的に設定されます。
    6. [Temperature (温度)] を入力します。この値は、レスポンスのランダム性を示します。温度がゼロに近づくにつれて、レスポンスの焦点がより絞り込まれ、決定的になります。値が高いほど、よりランダムなレスポンスとなります。
    7. オプションのパラメーターを管理するには、[その他のオプションを表示] で [はい] を選択し、次のような他のパラメーターを追加します。SuffixTop PNLogprobsEchoStopPresence PenaltyFrequency PenaltyBest ofLogit biasUser。これらのオプション パラメーターの詳細については、「Open AI の完了」を参照してください。
    8. 変数にレスポンスを保存します。この例では、レスポンスは list_OpenAI_prompt_response に保存されます。
  3. [実行] をクリックして、Bot を起動します。プロンプトの出力はリストであり、オプションのパラメーターとして N を設定することで、各入力に対して複数のプロンプトを生成することができます。プロンプトのレスポンスを読み取るには、メッセージ ボックス アクションでレスポンスを印刷できます。この例では、N が 1 に設定されているので、リスト list_OpenAI_prompt_response[0] の先頭の要素がレスポンスを出力します。