Vertex AI: 聊天 AI 操作
- Updated: 2025/05/28
Vertex AI: 聊天 AI 操作使用 Google 的 Vertex AI 完成 API 与模型进行交互。 它以对话的形式生成文本。
先决条件
- 要在机器人中使用 Vertex 聊天 AI 操作,您必须拥有机器人创造程序角色。
- 在调用任何 Google Cloud 操作之前,请确保您拥有发送请求所需的凭据并且已包含 Vertex AI: 连接操作。
此示例展示了如何使用 Vertex AI 发送自然语言消息: 聊天 AI 操作并得到适当的回应。
过程
- 在 Automation Anywhere Control Room 中,导航到操作窗格,选择生成式 AI > Google,拖动 Vertex AI: 聊天 AI,并将其放置在画布中。
-
输入或选择以下字段:
- 输入项目编号/名称。 这是来自 GCP 的唯一项目 ID。 有关项目 ID 的信息,请参阅 Google Cloud 项目的项目 ID。
- 输入位置。 有关 Vertex AI 位置的更多信息,请参阅 Vertex AI 位置。
- 单击发布商下拉菜单并选择谷歌;或者选择第三方以输入第三方发布商。
-
从模型下拉菜单中选择一个大型语言模型 (LLM) 来使用您的提示。 您可以选择以下模型:
- chat-bison(最新)
- chat-bison-32k(最新)
- chat-bison-32k@002
- chat-bison@001
- chat-bison@002
- codechat-bison
- codechat-bison-32k
- codechat-bison-32k@002
- codechat-bison@001
- codechat-bison@002
- gemini-1.0-pro-001
- 其他支持的版本: 要输入上述模型的其他支持版本。 有关更多信息,请参阅 Google Vertex AI models。
注: 生成式人工智能软件包依赖于模型的特定输入/输出模式才能正常运行。 由于不同的模型通常具有不同的架构,因此只能集成同一模型的不同版本。 如需了解其他受支持的版本,请查阅超大规模云服务提供商文档中关于模型支持版本的信息。 -
输入聊天消息,以供模型生成回复。
注: 聊天操作会在同一会话中保留前一个聊天操作的结果。 如果您连续调用聊天操作,模型可以理解后续消息并将其与之前的消息关联起来。 然而,所有聊天记录在会话结束后都会被删除。
- 输入要生成的最大令牌数(最大令牌数)。 默认情况下,如果您不输入值,则会通过考虑生成的响应的长度自动设置生成的最大令牌数,以使其保持在所选模型的最大上下文长度内。
- 输入温度。 该值指的是响应的随机性。 当温度接近零时,响应会更加集中和确定。 值越高,响应就越随机。
- 输入默认作为会话名称,以将会话限制为当前会话。
-
要管理可选参数,请单击显示更多选项并选择是。 如果您选择是,您可以添加其他参数,例如: 上下文、示例、Top K 和 Top P。有关这些可选参数的信息,请参阅学习模型。
注: 虽然 Vertex AI 模型(例如 codechat-bison@002)允许提供上下文和示例来优化提示,但 gemini-1.0-pro-001 模型目前不支持这些功能。 虽然这些字段在界面中可用,但您可以放心地将它们留空。
- 将响应保存到变量。 在此示例中,响应被保存到 VertexChatResponse。
-
单击运行启动 机器人。 您可以通过打印消息框
操作中的响应来读取字段的值。 在这个例子中,VertexChatResponse 打印响应。 您可以添加额外的聊天请求以获得更多响应。
提示: 要在同一个机器人中维护多个聊天,您需要用不同的名称或变量创建多个会话。