サポートされている基礎モデルのパラメーター設定について

すべての AI モデルにおいて、パラメーターとは、モデルがデータ分析によって情報を処理し、レスポンスを介して予測を行う方法に影響を与える基礎モデル (LLM) の設定を構成するために使用できる数値です。パラメーターが増えると、より複雑な設定が可能になり、プロンプト レスポンスが向上します。

パラメーター設定を微調整すると、より正確なレスポンスを返すことができます。これらのモデルで使用できるさまざまなパラメーターを見てみましょう。
  • Amazon Bedrock
  • Google Vertex AI
  • Azure OpenAI
  • OpenAI
モデル パラメーター
Amazon Bedrock
  • サンプルする最大トークン数
  • 温度
  • Top P
注: パラメーターの詳細については、「AI21 Labs チャット AI action」と「モデルの学習」をご覧ください。
Google Vertex AI
  • 最大出力トークン数
  • 温度
  • Top K
  • Top P
注: パラメーターの詳細は、「Vertex AI: チャット AI アクション」をご覧ください。
Azure OpenAI
  • 頻度ペナルティ
  • 最大トークン数
  • N
  • プレゼンス ペナルティ
  • 温度
  • Top P
注: パラメーターの詳細は、「Azure OpenAI: チャット AI アクション」をご覧ください。
OpenAI
  • 頻度ペナルティ
  • 最大トークン数
  • N
  • プレゼンス ペナルティ
  • 温度
  • Top P
注: パラメーターの詳細は、「OpenAI: チャット AI action」をご覧ください。

これらのパラメーターの使用方法と機能を見てみましょう。パラメーター設定を理解していれば、モデルの機能とパフォーマンスのバランスの評価に役立ちます。

モデル パラメーターの説明

基礎モデル パラメーターでは、複雑なプロンプト入力を処理するモデルの機能を微調整して、より微細で正確なレスポンスを返すことができます。プロンプト入力の複雑さに基づいてモデルを選択すると、それに応じてパラメーターを設定して、正確で明確に定義されたレスポンスを処理して返すことができます。

頻度ペナルティ/プレゼンス ペナルティ
この設定は、トークンの使用頻度に基づいてトークンの繰り返し使用を制限することで、生成されるテキストでの繰り返しを抑制します。テキスト中でトークンを使えば使うほど、そのトークンが繰り返される可能性は低くなります。-2.0 から 2 までの値を 10 進数で選択します。
最大トークン数/サンプルする最大トークン数/最大出力トークン数
この設定は、生成されたレスポンスで使用されるトークンの最大数を示します。1 から 2048 までの任意の値を選択でき、デフォルト値は 2048 に設定されています。ここで設定された値によって、プロンプト レスポンスが影響を受けます。トークンの数を増やせば、より包括的で詳細なレスポンスが得られます。
プレゼンス ペナルティ
この設定は、出現頻度に基づいてトークンの使用を制限することで、生成されるテキストでのトークンの繰り返しを抑制します。トークンがテキスト中で頻繁に使われれば使われるほど、繰り返される可能性は低くなります。-2.0 から 2 までの値を 10 進数で選択します。
温度
値を高くすると、多様で予測しにくいレスポンスが返ってきます。0 から 1 までの任意の値を 10 進数で選択できます。この値が大きいほど、返されるレスポンスはより多様になります。
Top P/Top K
この設定は、生成されるレスポンスの多様性を決定するためのものです。値が高いほど、より多様なレスポンスが得られます。P/K 値か温度値の両方ではなく、どちらか一方を変更することをお勧めします。0 から 1 までの値を 10 進数で選択します。
N
これは、特定のプロンプトに対してモデルが生成するレスポンスの数を定義します。1 ~ 9 の間で選択し、デフォルト値は 1 に設定されています。より多くのトークンを割り当て、より高い温度値を設定して、9 という高い N 値を選択した場合、2048 個のトークンを収容する、詳細で多様な 9 個のレスポンスを得られます。

Create Prompt Templates に戻ります