Vertex AI: 聊天 AI 操作使用 Google 的 Vertex AI 完成 API 与模型进行交互。 它以对话的形式生成文本。

先决条件

  • 要在机器人中使用 Vertex 聊天 AI 操作,您必须拥有机器人创造程序角色
  • 在调用任何 Google Cloud 操作之前,请确保您拥有发送请求所需的凭据并且已包含 Vertex AI: 连接操作

此示例展示了如何使用 Vertex AI 发送自然语言消息: 聊天 AI 操作并得到适当的回应。

过程

  1. Automation Anywhere Control Room 中,导航到操作窗格,选择生成式 AI > Google,拖动 Vertex AI: 聊天 AI,并将其放置在画布中。
  2. 输入或选择以下字段:

    Vertex 聊天 AI

    1. 输入项目编号/名称。 这是来自 GCP 的唯一项目 ID。 有关项目 ID 的信息,请参阅 Google Cloud 项目的项目 ID
    2. 输入位置。 有关 Vertex AI 位置的更多信息,请参阅 Vertex AI 位置
    3. 单击发布商下拉菜单并选择谷歌;或者选择第三方以输入第三方发布商。
    4. 模型下拉菜单中选择一个大型语言模型 (LLM) 来使用您的提示。 您可以选择以下模型:
      • chat-bison(最新)
      • chat-bison-32k(最新)
      • chat-bison-32k@002
      • chat-bison@001
      • chat-bison@002
      • codechat-bison
      • codechat-bison-32k
      • codechat-bison-32k@002
      • codechat-bison@001
      • codechat-bison@002
      • gemini-1.0-pro-001
      • 其他支持的版本: 要输入上述模型的其他支持版本。 有关更多信息,请参阅 Google Vertex AI models
      注: 生成式人工智能软件包依赖于模型的特定输入/输出模式才能正常运行。 由于不同的模型通常具有不同的架构,因此只能集成同一模型的不同版本。 如需了解其他受支持的版本,请查阅超大规模云服务提供商文档中关于模型支持版本的信息。
    5. 输入聊天消息,以供模型生成回复。
      注: 聊天操作会在同一会话中保留前一个聊天操作的结果。 如果您连续调用聊天操作,模型可以理解后续消息并将其与之前的消息关联起来。 然而,所有聊天记录在会话结束后都会被删除。
    6. 输入要生成的最大令牌数(最大令牌数)。 默认情况下,如果您不输入值,则会通过考虑生成的响应的长度自动设置生成的最大令牌数,以使其保持在所选模型的最大上下文长度内。
    7. 输入温度。 该值指的是响应的随机性。 当温度接近零时,响应会更加集中和确定。 值越高,响应就越随机。
    8. 输入默认作为会话名称,以将会话限制为当前会话。
    9. 要管理可选参数,请单击显示更多选项并选择。 如果您选择,您可以添加其他参数,例如: 上下文示例Top KTop P。有关这些可选参数的信息,请参阅学习模型
      注: 虽然 Vertex AI 模型(例如 codechat-bison@002)允许提供上下文示例来优化提示,但 gemini-1.0-pro-001 模型目前不支持这些功能。 虽然这些字段在界面中可用,但您可以放心地将它们留空。
    10. 将响应保存到变量。 在此示例中,响应被保存到 VertexChatResponse
  3. 单击运行启动 机器人。 您可以通过打印消息框 操作中的响应来读取字段的值。 在这个例子中,VertexChatResponse 打印响应。 您可以添加额外的聊天请求以获得更多响应。
    提示: 要在同一个机器人中维护多个聊天,您需要用不同的名称或变量创建多个会话。