Regra de análise de código de Governança de IA
- Última atualização2024/10/31
Regra de análise de código de Governança de IA
Com a nova regra de análise de código de Governança de IA, você pode garantir o uso responsável e em conformidade da IA. Os aprimoramentos de análise de código permitem que você monitore e aplique sua política de uso de IA por meio de notificações para correção imediata.
Visão geral
O uso de modelos fundamentais que não foram testados pode representar riscos consideráveis à segurança dos usuários e dos aplicativos que os utilizam. Sem os controles de segurança para governar o acesso aos modelos de IA generativa, os usuários e aplicativos estariam expostos aos riscos associados ao uso do modelo. Implemente políticas de governança que estejam alinhadas com as políticas de IA responsável e uso seguro da sua organização para mitigar esses riscos. Restrinja o acesso a modelos aprovados e testados para gerenciar riscos ao usar modelos que não foram verificados quanto à qualidade das respostas, além de aplicar regras conforme as restrições regionais.
A nova regra impõe o uso do modelo durante o design e desenvolvimento de automações por meio de análise de código. Essa política fácil de aplicar ajuda a garantir a conformidade antes que as automações sejam registradas na pasta de Produção para execução. A política verifica e relata automações na Produção que violam a política e fornece visibilidade do risco quando esses modelos comprometidos e não aprovados são usados. Isso oferece a oportunidade de corrigir esses incidentes.
Consulte Regras de análise de código e Configurar e atribuir política de análise de código.
Benefícios
- Restrinja o uso de modelos apenas a modelos testados e validados
- Monitore violações à política
- Evite checkins de código com violações de política
Usuários e permissões
O administrador de automação, o desenvolvedor profissional ou o líder de automação seriam os principais usuários da política de análise de código de Governança de IA. Eles definiriam a regra para que os Criadores de bot e os desenvolvedores profissionais monitorassem e aplicassem restrições de política sobre o uso do modelo e o consumo de tokens. As personas podem definir a política por meio do Gerenciador de políticas da Control Room e atribuí-las a pastas que contêm automações.
Depois de desenvolver as automações, quando o desenvolvedor profissional as salva e faz o checkin, as verificações de política são acionadas e o notificam sobre quaisquer violações de política no código de automação. Os desenvolvedores profissionais devem abordar e resolver as violações de política para concluir o processo de checkin de código com êxito.
- Lista de publicadores de hiperescaladores compatíveis
- Lista de modelos dos publicadores de hiperescaladores
- Regiões de implantação compatíveis
Consulte Análise de código para obter detalhes de permissão.
Disponibilidade
Este recurso requer a licença Enterprise Platform. Para informações sobre a versão compatível com esse recurso, consulte Enterprise Platform.
Acessar a política de análise de código de Governança de IA
- Na tela Políticas, clique em Criar política ou no ícone + para exibir a página Criar política com a opção de adicionar os Detalhes da política.
- Role até a política de Governança de IA e habilite o botão.
- Clique em Adicionar modelo e comece adicionando o Publicador, que é o fornecedor do hiperescalador, o Modelo, que é o modelo ao qual o fornecedor oferece suporte, e a Região de implantação.Nota: O nome do modelo pode ser inserido manualmente. Recomendamos usar o seguinte formato ao inserir o nome do modelo:
- Amazon Bedrock : Jurassic-2 Mid, Jurassic-2 Ulta, Claude Instant v1.2, Claude v1.3, Claude v2.1 (outras versões compatíveis), Titan Text G1 – Lite e Titan Text G1 – Express (outras versões compatíveis).
- Google Vertex AI : chat-bison (mais recente), chat-bison-32k (mais recente), chat-bison-32k@002, chat-bison@001, chat-bison@002, codechat-bison, codechat-bison-32k, codechat-bison-32k@002, codechat-bison@001, codechat-bison@002 (outras versões compatíveis), text-bison (mais recente), text-bison-32k (mais recente), text-bison-32k@002, text-bison@001, text-bison@002, text-unicorn@001, code-bison (mais recente), code-bison-32k@002, code-bison@001, code-bison@002, code-gecko@001, code-gecko@002, code-gecko (outras versões compatíveis) e Gemini Pro.
- OpenAI : gpt-3.5-turbo (padrão), gpt-3.5-turbo-16k, gpt-4, gpt-4-32k (outras versões compatíveis), text-davinci-003, text-davinci-002, davinci, text-curie-001, curie, text-babbage-001, babbage, text-ada-001 e modelos personalizados.
- Clicar no botão Adicionar modelo permite adicionar uma nova linha na tabela Modelos permitidos.
- Em seguida, adicione o nível de gravidade como Crítico conforme a política de análise de código.Nota: Recomendamos adicionar o nível de gravidade como Crítico para evitar que o desenvolvedor profissional faça checkin de uma automação, em caso de violações de regra.
- Em seguida, salve as alterações.