Vertex AI: プロンプト AI アクションは、Google の PaLM API を使用します。PaLM API は、モデルのテキスト生成機能へのアクセスを提供します。 モデルに英語のテキスト プロンプトを与えると、テキストを補完します。

前提条件

  • BotでVertex Prompt AIアクションを使用するには、Bot 作成者ロールを持っている必要があります。
  • Google Cloud のアクションを呼び出す前に、リクエストを送信するために必要な認証情報があり、Vertex AI: [接続] アクション が含まれていることを確認してください。

この例では、Vertex のプロンプト AI アクションを使用して自然言語プロンプトを送信し、適切なレスポンスを得る方法を示しています。

手順

  1. Automation Anywhere Control Roomアクション ペインに移動し、生成 AI > Google を選択し、 Vertex AI をドラッグします: プロンプト AI をキャンバスに配置します。
  2. 次のフィールドを入力または選択します。

    Google Vertex のプロンプト AI アクション

    1. [プロジェクト番号/名称] を入力します。 GCP からの一意のプロジェクト ID です。 プロジェクト ID の詳細については、Google Cloud Project のプロジェクト IDを参照してください。
    2. 場所を入力します。 Vertex AI のロケーションに関する詳細は、Vertex AI の場所 をご覧ください。
    3. 発行元 ドロップダウンをクリックし、Google を選択するか、サードパーティ を選択してサードパーティの発行元を入力します。
    4. モデル ドロップダウンからプロンプトに使用する大規模言語モデル (LLM) を選択します。 以下のモデルを選択できます。
      • text-bison (最新)
      • text-bison-32k (最新)(非推奨)
      • text-bison-32k@002(非推奨)
      • text-bison@001(非推奨)
      • text-bison@002(非推奨)
      • text-unicorn@001(非推奨)
      • code-bison (最新)(非推奨)
      • code-bison-32k (最新)(非推奨)
      • code-bison-32k@002(非推奨)
      • code-bison@001(非推奨)
      • code-bison@002(非推奨)
      • code-gecko@001(非推奨)
      • code-gecko@002(非推奨)
      • code-gecko
      • gemini-1.0-pro-001
      • その他のサポートされているバージョン にその他の対応モデルを入力できます。
    5. モデルが応答を生成するために使用する プロンプト を入力します。
    6. 生成するトークンの最大数 (最大トークン) を入力します。 デフォルトでは、値を入力しない場合、生成されるトークンの最大数は、生成されるレスポンスの長さを考慮して、選択したモデルの最大コンテキスト長に収まるように自動的に設定されます。
    7. [Temperature (温度)] を入力します。 この値は、レスポンスのランダム性を示します。 温度がゼロに近づくと、レスポンスはより焦点化され、決定的になります。 値が高いほど、よりランダムなレスポンスとなります。
    8. 現在のセッションに限定するセッション名として、デフォルトと入力します。
    9. 任意のパラメーターを管理するには、その他のオプションを表示 をクリックし、はい を選択します。 [はい] を選択した場合、他のパラメーターを追加することができます。 Top KTop P。これらの任意のパラメーターの詳細については、[モデル学習]を参照してください。
    10. レスポンスを変数に保存します。 この例では、レスポンスは google-vertex_prompt-response に保存されます。
  3. [実行] をクリックして、Bot を初級します。 メッセージ ボックス アクションでレスポンスを印刷することで、フィールドの値を読み取ることができます。 この例では、google-vertex_prompt-response がレスポンスを印刷します。