Proteções de IA

As Proteções de IA oferecem um mecanismo de interceptação em linha que reforça as políticas de segurança e conformidade, protegendo dados confidenciais e garantindo práticas éticas de IA.

Ela emprega uma tokenização inteligente para identificar dados confidenciais usados nos prompts e substituí-los por valores tokenizados. Da mesma forma, ela intercepta as respostas do modelo para reconstruir e substituir os valores tokenizados, garantindo a relevância da resposta. Além disso, ela monitora os níveis de toxicidade dos prompts e modela as respostas para auditar os níveis de toxicidade.

Ao configurar Proteções de IA no Automation 360, é fundamental definir regras de mascaramento de dados e entender o monitoramento de toxicidade. Esses recursos definem como o sistema trata diferentes tipos de dados confidenciais e avalia a adequação da linguagem usada nas interações com os LLMs, evitando possíveis problemas durante a execução do bot. Este tópico oferece insights sobre a implementação e a funcionalidade de Proteções de IA, enfatizando seu papel na promoção da segurança de dados e de práticas responsáveis de IA.


Proteções para IA

No centro das Proteções de IA está o recurso de mascaramento de dados, que opera identificando e substituindo elementos de dados confidenciais no prompt de um bot por valores tokenizados antes de transmitir a solicitação ao grande modelo de linguagem (LLM). Esse processo protege informações confidenciais de serem processadas de forma direta pelo LLM, preservando o contexto necessário para gerar uma resposta precisa. Além disso, a capacidade de monitoramento de toxicidade monitora os prompts enviados aos LLMs e as respostas geradas por eles para identificar linguagem potencialmente prejudicial.

Benefícios

Mascaramento de dados
O mascaramento de dados é uma técnica de ofuscação para identificar dados confidenciais conhecidos e substituí-los por valores fictícios.
Categorias de dados confidenciais para mascaramento

Para garantir uma proteção de dados robusta, é crucial identificar e mascarar informações sensíveis de forma eficaz. As Proteções de IA ajudam você a estabelecer regras precisas de mascaramento de dados adaptadas às seguintes categorias essenciais: Informações de identificação pessoal (PII), Informações de saúde protegidas (PHI) e Dados do setor de cartões de pagamento (PCI).

Essas categorias permitem a organização e a aplicação do comportamento de mascaramento consistente a tipos específicos de dados confidenciais. Por exemplo, você pode optar pela anonimização irreversível de todos os dados de PCI para impedir seu armazenamento ou uso de qualquer forma, enquanto escolhe o mascaramento reversível dos dados de PII para manter a funcionalidade.

Ao adotar essas abordagens estratégicas, as organizações podem proteger dados confidenciais, cumprir regulamentações e mitigar riscos potenciais.

Configuração do comportamento de mascaramento

Nas Proteções de IA do Automation 360, você tem a flexibilidade de determinar como cada categoria de dados é tratada:

  • Mascarar: um processo reversível em que dados confidenciais são temporariamente substituídos por um token. Os dados originais são recuperados e restabelecidos na resposta do LLM antes de serem apresentados ao usuário.
  • Anonimizar: um processo irreversível que substitui de forma permanente dados confidenciais por um token. Os dados originais não são armazenados nem usados para reconstruir a resposta final, o que o torna adequado para cenários com proibições rigorosas de retenção de dados.
  • Permitir: para casos de uso específicos que exigem acesso a dados confidenciais, você pode optar por permitir que os dados sejam enviados para o LLM em texto claro.

Por padrão, o sistema aplica Mascarar se nenhum comportamento específico for selecionado, garantindo um nível básico de proteção para todos os dados confidenciais. Você pode configurar essas regras e atribuí-las a pastas designadas, garantindo que qualquer bot operando dentro de uma pasta com uma regra atribuída implemente de forma automática o comportamento de mascaramento definido.

Monitoramento de toxicidade

As Proteções de IA analisam tanto os prompts enviados aos LLMs quanto as respostas geradas por eles em busca de linguagem potencialmente prejudicial, classificando-os como baixa, moderada ou alta toxicidade. Embora atualmente esteja no modo "somente observação", esse recurso permite a identificação de uso potencialmente problemático da linguagem. Versões futuras incluirão a capacidade de bloquear prompts com base no nível de toxicidade.

Monitoramento e registro de logs

Automation 360 registra todas as ações da proteção, incluindo detalhes do processo de mascaramento de dados. Este registro abrangente oferece uma trilha de auditoria, permitindo que os administradores monitorem a funcionalidade das Proteções de IA e verifiquem a conformidade com as políticas de proteção de dados.

Requisitos de licença

Para ativar e usar o serviço de Proteções de IA para aplicação, você precisa adquirir uma SKU de consumo - Proteções de IA (Número de prompts de LLM) juntamente com a licença Enterprise Platform. Veja Enterprise Platform.
Nota: Os créditos de Proteções de IA do volume adquirido são consumidos ao executar prompts de automações ou Habilidades de IA em um espaço de trabalho público ou ao testar no editor de Habilidades de IA em um espaço de trabalho privado.