Perguntas frequentes sobre AI Guardrails

Consulte estas perguntas frequentes para consultas gerais sobre os recursos e a funcionalidade da AI guardrail. Isso foi projetado para proteger dados confidenciais nas respostas de prompt e modelo quando a IA generativa é usada em automações.

O que é o AI guardrail?

O uso de LLMs hospedados publicamente e de modelos de IA generativa apresenta riscos consideráveis de privacidade e segurança para as empresas. As AI Guardrails, uma solução de tokenização inteligente, protegem os dados confidenciais compartilhados ou processados pelos LLMs, mantendo o contexto. Esse recurso foi projetado para garantir a proteção dos dados, oferecer aos clientes o máximo de privacidade e segurança e monitorar os níveis de toxicidade do conteúdo para evitar resultados não intencionais que afetem a reputação da marca. As AI Guardrails permitem que você controle com precisão os dados confidenciais nas automações de IA generativa por meio dos seguintes recursos:

  • gerencie políticas de AI guardrail para dados confidenciais em automações que se integram com modelos de IA generativa.
  • Defina regras para gerenciar dados confidenciais em prompts e respostas de modelos.
  • Especifique as preferências de tratamento de dados com base em categorias de dados, como PII, PHI e PCI.
  • Aplique políticas nas automações durante a execução.
  • Monitore e audite o tratamento de dados e as pontuações de toxicidade dos prompts executados nas automações.
Esse recurso usa IA?
Sim, utilizamos um modelo bem estabelecido de reconhecimento de entidades nomeadas (NER), uma forma especializada de IA, para identificar dados confidenciais.
O NER, um subcampo do processamento de linguagem natural (PLN), identifica e localiza informações confidenciais em solicitações de texto, como nomes, endereços, números de telefone e datas. Isso nos permite mascarar ou redigir esses dados, protegendo a privacidade e garantindo a conformidade com as normas de proteção de dados. Essencialmente, o NER atua como a etapa inicial na identificação do que precisa ser mascarado em um conjunto de dados de texto.
Quais licenças são necessárias para as AI Guardrails?
Você precisará adquirir a licença Enterprise Platform, além das AI Guardrails, que é uma licença baseada em consumo. Para obter detalhes sobre a licença Enterprise Platform, consulte Enterprise Platform
Quais permissões são necessárias para gerenciar AI Guardrails?
A permissão Gerenciar proteções de IA é necessária para configurar, editar ou excluir políticas de AI Guardrails. A permissão Exibir proteções de IA permite que os usuários visualizem as políticas de AI Guardrails configuradas.
As AI Guardrails estão disponíveis para implantações locais?

As AI Guardrails atualmente não oferecem suporte para implantações locais.

Quais regiões oferecem suporte atualmente?

Atualmente, há suporte para AI Guardrails nos EUA e na UE.

Como as AI Guardrails protegem meus dados confidenciais?

Quando aplicadas em automações, as AI Guardrails interceptam cada prompt executado usando o pacote de comandos de IA generativa e o pacote de comandos de AI Skill. O serviço verifica os prompts em busca de dados confidenciais e os substitui por valores tokenizados para desidentificá-los. Esses prompts tokenizados são então enviados para os LLMs. Ao receber as respostas, o serviço as examina novamente e as reconstrói com os valores originais. Esse é o comportamento de mascaramento padrão. As AI Guardrails também oferecem suporte à anonimização irreversível, configurável por meio da política de proteções.

Onde posso visualizar os logs relacionados à proteção de dados confidenciais?

Os rastros de atividade estão disponíveis nos logs de prompt de AI Governance e nos logs de eventos. Use as exibições detalhadas nos logs do prompt de IA para ver os prompts e as respostas com conteúdo mascarado e pontuações de toxicidade.

Por quanto tempo o mapeamento de dados confidenciais é armazenado?

Os mapeamentos de dados confidenciais são armazenados em um cofre seguro dentro da nuvem do Automation 360, criptografados com uma chave AES-256 rotacionada regularmente, que é compatível com FIPS 197. Os mapeamentos também são armazenados com segurança em um banco de dados no ambiente do locatário de produção do cliente por 30 dias e, em seguida, são eliminados com segurança. Novos mapeamentos são criados para cada transação após 30 dias.

Quais controles de segurança são aplicados aos dados confidenciais armazenados?

Os mapeamentos de dados confidenciais são protegidos usando criptografia padrão do setor e os seguintes controles de segurança: isolamento da rede com conectividade restrita, acesso limitado a usuários autorizados com base no princípio do menor privilégio e criptografia em repouso e em trânsito.

As AI Guardrails enviam dados confidenciais para LLMs ou nuvens de terceiros durante o mascaramento/desmascaramento?

Não, todos os dados confidenciais são processados dentro do locatário do Automation 360 Cloud. As AI Guardrails não se integram a nenhum LLM de terceiros ou serviços de nuvem externos para mascaramento ou desmascaramento.

Qual é o tamanho máximo de prompt aceito?
O limite atual é de 100.000 palavras por prompt.
Quais idiomas são compatíveis com as AI Guardrails?

Os seguintes idiomas são atualmente compatíveis:

  • Inglês
  • Francês
  • Alemão
  • Italiano
  • Espanhol
  • Holandês
As AI Guardrails oferecem suporte a conteúdo multimodal (como vídeo ou áudio)?

Atualmente, as AI Guardrails oferecem suporte, principalmente, a conteúdo baseado em texto.