顶点 AI: Prompt AI 操作
- Updated: 2025/04/23
顶点 AI: Prompt AI 操作使用了 Google 的 PaLM API,通过该 API 可以访问模型生成文本的能力。 您可以给模型一个英语文本提示,它就能完成文本。
先决条件
- 要在机器人中使用 Vertex Prompt AI 操作,必须拥有 Bot Creator 角色。
- 确保您拥有发送请求所需的凭据,并在调用任何 Google Cloud 操作之前包含 Vertex AI: 连接操作。
此示例展示了如何使用 Vertex Prompt AI action 发送自然语言提示并获得适当的响应。
过程
- 在Automation Anywhere Control Room中,导航到操作窗格,选择生成式AI > 谷歌,拖动 Vertex AI: Prompt AI,并将其放置在画布上。
-
输入或选择以下字段:
- 输入项目编号/名称。 这是来自 GCP 的唯一 项目 ID。 有关项目 ID 的更多信息,请参阅 Google Cloud 项目的项目 ID。
- 输入位置。 有关 Vertex AI 位置的更多信息,请参阅 Vertex AI locations。
- 单击发布商下拉菜单并选择谷歌;或者选择第三方以输入第三方发布商。
-
从模型下拉菜单中选择一个大型语言模型(LLM)来使用您的提示。 可以选择以下模型:
- text-bison(最新)
- text-bison-32k(最新)
- text-bison-32k@002
- text-bison@001
- text-bison@002
- text-unicorn@001
- code-bison(最新)
- code-bison-32k@002
- code-bison@001
- code-bison@002
- code-gecko@001
- code-gecko@002
- code-gecko
- gemini-1.0-pro-001
- 其他支持版本输入其他支持的型号。
注:- Bison: 在能力和成本方面具有最高价值。
- Gecko: 规模最小、成本最低的模型,适用于简单任务。
- 输入一个提示,以供模型生成响应。
- 输入要生成的最大令牌数(最大令牌数)。 默认情况下,如果您不输入值,则生成的最大令牌数会自动设置,以通过考虑生成响应的长度来保持在所选模型的最大上下文长度内。
- 输入温度。 该值指的是响应的随机性。 当温度接近零时,反应变得更加集中和确定。 值越高,响应就越随机。
- 输入默认作为会话名称,以将会话限制为当前会话。
- 要管理可选参数,请单击显示更多选项并选择是。 如果您选择是,您可以添加其他参数,例如: Top K 和 Top P。有关这些可选参数的信息,请参阅学习模型。
- 将响应保存到变量。 在此示例中,响应被保存到 google-vertex_prompt-response。
- 单击 Run 启动bot。 您可以通过在消息框 action中打印响应来读取字段的值。 在此示例中,google-vertex_prompt-response 打印响应。