我们引入了生成式人工智能 (GenAI) 融合功能,以帮助我们的客户通过构建更好、更智能的自动化来实现生产力提升。 我们的客户可以通过为业务用户提供的 Automation Co-Pilot文档自动化 等功能来实现 GenAI 的强大功能。

Automation Anywhere 支持客户使用他们自己的许可证来使用大型语言模型 (LLM) 的命令包。 一些 Automation Anywhere 产品包含嵌入的第三方 LLM。 本文档旨在回答与数据有关的常见问题,以及我们为安全使用 GenAI 融合功能而采取的安全措施。 在本文档中,我们提到的数据可以分为两个类别,了解这两类数据非常重要。

客户数据
指的是客户通过 Automation Anywhere 托管系统(如Automation Success Platform)提交的数据。 这些数据是操作和提供服务所需的。 例如,用户文本提示被视为客户数据。
  • 输入:由客户以提示或查询形式提交的数据。 根据客户的决定,某些输入可能包含客户数据。 其他输入可能仅包含对 Automation Anywhere 服务的指令,例如客户提供自然语言输入以构建机器人。
  • 输出:根据客户提交的输入,由 GenAI 模型返回的数据。
使用数据
指的是使用平台服务和功能所生成的数据。 这些数据是匿名和汇总的数据,用于指标和其他遥测信息,例如标准的 软件包 名称和由 Automation Anywhere 收集的步骤顺序,以改进服务和产品性能。
Automation Anywhere 如何使客户能够针对他们自己的 LLM 订阅进行自动化?
Automation Anywhere 支持客户在使用 Automation Anywhere 提供的命令 软件包 时自带他们首选基础模型的许可证,例如,面向业务用户的 Automation Co-Pilot。 这些托管在超大规模平台上的基础模型可以通过我们的命令包使用 Automation 360 的本地集成进行访问,其中包括 Microsoft Azure OpenAIOpenAI 和 Google Vertex AI。

要了解您是否可以与所选的 LLM 集成,请参阅 产品文档

哪些产品使用了由 Automation Anywhere 提供的第三方 AI 模型?
我们在以下产品中使用来自第三方提供商的 LLM:
  • 文档自动化
  • Automator AI
Automation Anywhere 所提供的模型进行训练将使用什么数据
Automation Anywhere 可以使用输入和输出来训练或以其他方式改进 AI 功能,但前提是这些输入和输出已 (a) 去标识化,无法识别客户、其用户或任何其他人员,并且 (b) 与其他客户的数据进行汇总。
为了确保客户数据不被用于训练大型语言模型 (LLM) 库,采取了哪些措施?
没有客户数据用于训练模型,也没有客户数据存储在 Automation Success Platform 的客户租户实际正式环境之外。

我们已经审核了供应商的评价,以确保第三方 LLM 不会使用客户数据来训练他们的模型。

为了防止未经授权的访问或数据泄露,采取了哪些措施?
我们已经实施了安全措施,例如防止客户数据被外部存储,以及在某些产品中提供防护措施、编辑或屏蔽。 Automation Success Platform 确保客户数据始终受到保护,通过对静态数据和传输中的数据使用行业标准加密。 这些存储客户数据的系统受到全天候监控和访问控制,以确保符合 SOC 1、SOC 2、ISO 27001:2022 的安全操作: 信息安全管理系统 (ISMS),ISO 27017:2015: 云部署 服务的信息安全控制、ISO 27018:2019: 在 云部署 环境中保护个人身份信息 (PII) 和 HITRUST。 我们已经实施了适当的安全措施,例如:网页应用防火墙、加密(静态时为 AES 256,传输中为 TLS),以及符合行业标准的 RBAC 身份验证和授权。 我们的平台设计已经考虑了对 OWASP Top10 for LLMs 中列出的威胁进行保护。
Automation Anywhere 如何在使用 GenAI 时保护客户数据?
我们的产品使用 GenAI,与我们当前的产品在同一平台上,并且享有与我们其他产品相同的安全认证(SOC1、SOC2、ISO 和 COBIT)和标准。 专门的云安全团队负责确保合规性,并支持外部专业审计员对我们的安全认证进行的审计。 我们的安全认证和报告可以在我们的 Compliance Portal 上找到。
客户可以利用哪些最佳实践来从 GenAI 产品中受益?
以下是在使用融合了 GenAI 的产品功能时可以借鉴的一些最佳实践:
了解您的数据在哪里以及如何被使用
在使用您自己的 LLM 提供商时,只使用经过审查的模型提供商,并确保对您的数据及其使用有明确的了解。 确保不使用敏感数据来训练共享模型,并了解您的数据存储位置以及谁可以访问这些数据。
在模型输入和输出上使用护栏
GenAI 模型对其接收到的输入变化非常敏感,并且由于生成的是自由形式的文本,输出有时可能会不可预测。 通过设计使用 GenAI 模型的工作流程来处理已批准的任务,并结合预先设计的提示和输出验证步骤,您可以进一步确保该模型在实际正式环境中以高度的信心运行。 为诸如摘要生成之类的任务设计一个明确且受控的提示,可以让用户从模型中获得更高质量和更一致的输出,以便在他们的工作流程中使用。 确保用户不要在他们的提示中提交敏感信息。
审核并监控自动化中 AI 的使用情况

必须评估 GenAI 模型的准确性和安全性。 利用 AI Agent Studio 中的治理功能,确保用户只能访问经批准的模型。 使用这些功能安全连接到授权模型,并通过 AI 治理日志审核所有交互。

保持生成内容的人机回圈
在生成个性化客户电子邮件或患者摘要等内容时,确保在对外共享之前的流程中包含人工验证步骤是至关重要的。 了解 GenAI 模型在生成输出时有时可能会不可预测,尤其是在生成新内容时,这一点很重要。 使用通知实时推送需要审核的用户工作,并跟踪整体工作流程状态。