Anthropic: プロンプト AI アクション

Anthropic のプロンプト AI アクションは、オートメーションと Amazon Bedrock Anthropic プロンプト AI 機能を接続します。 このアクションによって、オートメーションはユーザーが定義したプロンプトに基づいて、人間並みの品質のテキストを生成し、言語を翻訳し、さまざまな種類のクリエイティブなコンテンツを書き、有益な方法で質問に答えることができるようになります。

前提条件

  • Bot 作成者ロールを持っている必要があります。Bot でAnthropic Prompt AIアクションを使用するには。
  • リクエストを送信するために必要な資格情報があることを確認してください。 資格情報の取得の詳細については、[Amazon Bedrock: 認証アクション]を参照してください。

この例では、Anthropic プロンプト AI アクションを使用して自然言語メッセージを送信し、適切なレスポンスを得る方法について説明します。

手順

  1. Automation Anywhere Control Room[アクション] ペインに移動し、[生成 AI] > [Amazon Bedrock] を選択し、Anthropic: Prompt AI をキャンバスに配置します。
  2. 次のフィールドを入力または選択します。

    Anthropic Prompt AI

    1. 地域を入力します。 地域の詳細については、[Amazon Bedrock GA の地域]を参照してください。
    2. [モデル] ドロップダウンからプロンプトに使用する大規模言語モデル (LLM) を選択します。 以下のモデルを選択できます。
      • Claude Instant v1.2
      • Claude v1.3
      • Claude v2
      • Claude v2.1
      • Claude 3 Sonnet v1
      • Claude 3 Haiku v1
      • その他のサポートされているバージョン にその他の対応モデルを入力できます。
      注: [Claude 3 Sonnet v1] または [Claude 3 Haiku v1] を選択すると、システム プロンプト (オプション) を入力するためのテキスト ボックスが表示されます。 Claude 3 のシステム プロンプトには、大規模言語モデルと対話する前に、コンテキスト、指示、およびガイドラインを入力します。 これは対話の準備のようなもので、Claude 3 にあなたが何をさせたいのかを知らせるものです。 システム プロンプトの詳細については、以下を参照してください。

      [Use system prompts]および[Anthropic Claude Messages API]

    3. モデルが応答を生成するために使用するプロンプト メッセージ を入力します。
    4. [最長] を入力します。
      デフォルトでは、値を入力しない場合、最大長は、生成されるレスポンスの長さを考慮して、選択したモデルの最大コンテキスト長に収まるように自動的に設定されます。
    5. [Temperature (温度)] を入力します。 この値は、レスポンスのランダム性を示します。 温度がゼロに近づくにつれて、レスポンスがより焦点化され、決定的になります。 値が高いほど、よりランダムなレスポンスとなります。
    6. 現在のセッションに限定するセッション名として、デフォルトと入力します。
    7. 任意のパラメーターを管理するには、その他のオプションを表示 をクリックし、はい を選択します。 [はい] を選択した場合、他のパラメーターを追加することができます。 Top PTop Kシーケンスを停止 などのパラメーターを追加するか、Anthropic バージョンを入力できます。 これらの任意のパラメーターの詳細については、[モデルを学ぶ]を参照してください。
    8. 変数にレスポンスを保存します。
      この例では、レスポンスは str_Anthropic_promptResponse に保存されます。
  3. [実行] をクリックして、Bot を開始します。
    メッセージ ボックス アクションでレスポンスを印刷することで、フィールドの値を読み取ることができます。 この例では、str_Anthropic_promptResponse がレスポンスを印刷します。