Proteções de IA
- Última atualização2025/03/10
Proteções de IA
As Proteções de IA oferecem um mecanismo de interceptação em linha que reforça as políticas de segurança e conformidade, protegendo dados confidenciais e garantindo práticas éticas de IA.
Ela emprega uma tokenização inteligente para identificar dados confidenciais usados nos prompts e substituí-los por valores tokenizados. Da mesma forma, ela intercepta as respostas do modelo para reconstruir e substituir os valores tokenizados, garantindo a relevância da resposta. Além disso, ela monitora os níveis de toxicidade dos prompts e modela as respostas para auditar os níveis de toxicidade.
Ao configurar Proteções de IA no Automation 360, é fundamental definir regras de mascaramento de dados e entender o monitoramento de toxicidade. Esses recursos definem como o sistema trata diferentes tipos de dados confidenciais e avalia a adequação da linguagem usada nas interações com os LLMs, evitando possíveis problemas durante a execução do bot. Este tópico oferece insights sobre a implementação e a funcionalidade de Proteções de IA, enfatizando seu papel na promoção da segurança de dados e de práticas responsáveis de IA.

No centro das Proteções de IA está o recurso de mascaramento de dados, que opera identificando e substituindo elementos de dados confidenciais no prompt de um bot por valores tokenizados antes de transmitir a solicitação ao grande modelo de linguagem (LLM). Esse processo protege informações confidenciais de serem processadas de forma direta pelo LLM, preservando o contexto necessário para gerar uma resposta precisa. Além disso, a capacidade de monitoramento de toxicidade monitora os prompts enviados aos LLMs e as respostas geradas por eles para identificar linguagem potencialmente prejudicial.
Benefícios
- Mascaramento de dados
- O mascaramento de dados é uma técnica de ofuscação para identificar dados confidenciais conhecidos e substituí-los por valores fictícios.
- Monitoramento de toxicidade
-
As Proteções de IA analisam tanto os prompts enviados aos LLMs quanto as respostas geradas por eles em busca de linguagem potencialmente prejudicial, classificando-os como baixa, moderada ou alta toxicidade. Embora atualmente esteja no modo "somente observação", esse recurso permite a identificação de uso potencialmente problemático da linguagem. Versões futuras incluirão a capacidade de bloquear prompts com base no nível de toxicidade.
- Monitoramento e registro de logs
-
Automation 360 registra todas as ações da proteção, incluindo detalhes do processo de mascaramento de dados. Este registro abrangente oferece uma trilha de auditoria, permitindo que os administradores monitorem a funcionalidade das Proteções de IA e verifiquem a conformidade com as políticas de proteção de dados.