OpenAI: Prompt AI アクション
- 最終更新日2025/07/21
OpenAI: プロンプト AI アクションは、OpenAI の入力補完を模倣しており、入力としてプロンプトを受け取り、モデルが生成した 1 つ以上の予測補完が返されます。
前提条件
- Bot 作成者ロールを持っている必要があります。Bot で OpenAI Prompt AI アクション を使用するには。
- OpenAI のアクションを呼び出す前に、リクエストを送信するために必要な認証情報があり、OpenAI: [認証] アクション が含まれていることを確認してください。
この例では、OpenAI プロンプト AI アクションを使用して自然言語プロンプトを送信し、適切なレスポンスを得る方法を示しています。
手順
- Automation Anywhere Control Room で アクション ペインに移動し、生成 AI > OpenAI を選択し、 OpenAI: をドラッグします Prompt AI をキャンバスに配置します。
-
次のフィールドを入力または選択します。
-
認証 では、API キーで を使用する場合、最新バージョンOpenAI: [認証] アクション を選択します。
非推奨化 を選択した場合、認証アクションを呼び出さずに API キーを使って認証することができます。注: [非推奨化] オプションは次のリリースで非推奨になります。
- 現在のセッションに限定するセッション名として、デフォルトと入力します。
-
[モデル] ドロップダウンからプロンプトに使用する大規模言語モデル (LLM) を選択します。 以下のモデルを選択できます。
- gpt-3.5-turbo-instruct (デフォルト)
- babbage-002
- davinci-002
- text-davinci-003 (非推奨 - 2024-01-04)
- text-davinci-002 (非推奨 - 2024-01-04)
- davinci (非推奨 - 2024-01-04)
- text-curie-001 (非推奨 - 2024-01-04)
- curie (非推奨 - 2024-01-04)
- text-babbage-001 (非推奨 - 2024-01-04)
- babbage (非推奨 - 2024-01-04)
- text-ada-001 (非推奨 - 2024-01-04)
- ada (非推奨 - 2024-01-04)
- その他のサポートされているバージョン にサポートされているモデルを入力できます。 上記のモデルに加えて、OpenAI other supported versions のサポートされている他のさまざまなテキストベースのプレビューモデルを調べることができます (ビジョンモデルを除く)。
- モデルが応答を生成するために使用する プロンプト を入力します。
- 生成するトークンの最大数を入力します。 デフォルトでは、値を入力しない場合、生成されるトークンの最大数は、生成されるレスポンスの長さを考慮して、選択したモデルの最大コンテキスト長に収まるように自動的に設定されます。
- [Temperature (温度)] を入力します。 この値は、レスポンスのランダム性を示します。 温度がゼロに近づくと、レスポンスがより焦点化され、決定的になります。 値が高いほど、よりランダムなレスポンスとなります。
- 任意のパラメーターを管理するには、その他のオプションを表示の下ではいを選択し、次のような他のパラメーターを追加します: Suffix、Top P、N、Logprobs、Echo、Stop、Presence Penalty、Frequency Penalty、Best of、Logit bias、および User。 これらの任意のパラメーターの詳細については、Open AI の完了を参照してください。
- レスポンスを変数に保存します。 この例では、レスポンスは list_OpenAI_prompt_response に保存されます。
-
認証 では、API キーで を使用する場合、最新バージョンOpenAI: [認証] アクション を選択します。
- 実行 をクリックして、Bot を初級します。 プロンプトの出力はリストであり、N を任意のパラメーターとして設定することで、各入力に対して複数のプロンプトを生成することができます。 プロンプトの応答を読み取るには、メッセージ ボックス アクション でレスポンスを印刷することができます。 この例では、N が 1 に設定されているので、リスト list_OpenAI_prompt_response[0] の先頭の要素がレスポンスを出力します。