Modelos oferecidos pela Automation Anywhere

Esse tópico descreve os modelos oferecidos diretamente pela Automation Anywhere.

A Automation Anywhere oferece uma maneira de acessar e usar modelos de IA no Automation Anywhere. Essa abordagem simplifica o processo ao oferecer modelos diretamente, eliminando a necessidade de você gerenciar suas próprias licenças.

Seleção de modelo
  • Ao criar uma conexão de modelo, você seleciona a Automation Anywhere como o fornecedor.
  • Dois modelos padrão estão disponíveis atualmente: Claude Sonnet 3.5 e GPT-4o.
  • Você precisa selecionar uma região para rotear o tráfego, com opções para os Estados Unidos e Europa.
    Nota: Embora a Automation Anywhere ofereça opções de roteamento regional, as conexões não são restritas a outras geografias. É sua responsabilidade escolher a região mais adequada com base no desempenho e nos requisitos de processamento de dados.
Como funciona
  • A Automation Anywhere gerencia o licenciamento e a hospedagem dos modelos em segundo plano. Não há serviços adicionais ou contas de provedores de LLM que você precise criar. A Automation Anywhere gerencia o acesso e a hospedagem dos modelos de maneira transparente em segundo plano, garantindo uma experiência simples e unificada.
  • O uso é monitorado por meio de um sistema de créditos, em que cada chamada ao modelo consome um determinado número de créditos.
    Nota: Quando os Créditos de IA para automação se esgotam, automações e agentes que dependem de chamadas LLM não conseguirão executar essas etapas específicas baseadas em modelo até que créditos adicionais estejam disponíveis. A Automation Anywhere oferece uma política de carência que permite o uso contínuo de até 10% de créditos adicionais e 15 dias além do limite adquirido, prevenindo interrupções enquanto os créditos são renovados ou recarregados. Para mais informações, consulte Utilização de créditos de automação.
  • Esse sistema foi projetado para oferecer uma conexão simples e direta com modelos avançados de IA para suas automações.
  • A capacidade de LLM fornecida está disponível exclusivamente dentro da plataforma Automation 360 e só pode ser utilizada ao criar Agentes de IA ou Habilidades de IA. Ela não pode ser acessada ou consumida externamente.
  • Os LLMs são implantados como instâncias sem estado, ou seja, os dados de entrada são processados, mas nunca armazenados.
  • Os endpoints são implantados pela equipe de TI da Automation Anywhere dentro dos ambientes de nuvem da Automation Anywhere.
  • As instâncias são regionais (EUA e UE), garantindo que o tráfego dos locatários permaneça dentro da geografia escolhida.
Por que isso importa:
  • Acesso simplificado: você não precisa mais navegar pelo complexo processo de obtenção de suas próprias licenças, o que economiza tempo e esforço.
  • Integração simplificada: os modelos são integrados nativamente, facilitando o teste e uso com Agentes de IA, Habilidades de IA e Bots de tarefas existentes.
  • Controle de dados: a seleção regional permite que você gerencie a soberania e a conformidade dos dados.

Riscos relacionados a dados e privacidade avaliados

A Automation Anywhere avaliou os principais dados e riscos de privacidade como parte de sua implantação de grandes modelos de linguagem (LLMs). Essas avaliações garantem que você adote os modelos fornecidos (Claude Sonnet 3.5 e GPT-4o) com confiança em conformidade e processamento de dados.

Dados do cliente enviados para LLMs: onde são armazenados?
Os dados são processados apenas pelo LLM; nada é armazenado.
Residência de dados: onde os dados são armazenados?
Os dados não são armazenados. Os endpoints de LLM fazem parte das assinaturas de nuvem da Automation Anywhere. A residência é limitada à região de implantação.
Conformidade com as diretrizes de residência de dados da UE e dos EUA?
Sim. Os LLMs são implantados regionalmente (EUA/UE). Os dados em trânsito permanecem dentro do limite regional.
Risco de vazamento de dados entre clientes?
Avaliações e testes de estresse confirmam que não há mistura ou armazenamento de dados entre locatários.
Risco de injeção de prompt: os dados podem vazar?
As avaliações contra cargas de injeção de prompt não encontraram nenhum vazamento de dados. O design sem estado garante que nada seja armazenado em cache ou exposto.