Regra de análise de código de Governança de IA

Com a nova regra de análise de código de Governança de IA, você pode garantir o uso responsável e em conformidade da IA. Os aprimoramentos de análise de código permitem que você monitore e aplique sua política de uso de IA por meio de notificações para correção imediata.

Nota: Este recurso requer a licença Enterprise Platform. Para informações sobre a versão compatível com esse recurso, consulte Enterprise Platform.

Visão geral

O uso de modelos fundamentais que não foram testados pode representar riscos consideráveis à segurança dos usuários e dos aplicativos que os utilizam. Sem os controles de segurança para governar o acesso aos modelos de IA generativa, os usuários e aplicativos estariam expostos aos riscos associados ao uso do modelo. Implemente políticas de governança que estejam alinhadas com as políticas de IA responsável e uso seguro da sua organização para mitigar esses riscos. Restrinja o acesso a modelos aprovados e testados para gerenciar riscos ao usar modelos que não foram verificados quanto à qualidade das respostas, além de aplicar regras conforme as restrições regionais.

A nova regra impõe o uso do modelo durante o design e desenvolvimento de automações por meio de análise de código. Essa política fácil de aplicar ajuda a garantir a conformidade antes que as automações sejam registradas na pasta de Produção para execução. A política verifica e relata automações na Produção que violam a política e fornece visibilidade do risco quando esses modelos comprometidos e não aprovados são usados. Isso oferece a oportunidade de corrigir esses incidentes.

Consulte Regras de análise de código e Configurar e atribuir política de análise de código.

Benefícios

Nova regra de análise de código para Governança de IA

Imponha o uso apenas de modelos e editores aprovados com políticas de uso de modelos aplicadas por meio de análise de código:
  • Restrinja o uso de modelos apenas a modelos testados e validados
  • Monitore violações à política
  • Evite checkins de código com violações de política

Usuários e permissões

O administrador de automação, o desenvolvedor profissional ou o líder de automação seriam os principais usuários da política de análise de código de Governança de IA. Eles definiriam a regra para que os Criadores de bot e os desenvolvedores profissionais monitorassem e aplicassem restrições de política sobre o uso do modelo e o consumo de tokens. As personas podem definir a política por meio do Gerenciador de políticas da Control Room e atribuí-las a pastas que contêm automações.

Depois de desenvolver as automações, quando o desenvolvedor profissional as salva e faz o checkin, as verificações de política são acionadas e o notificam sobre quaisquer violações de política no código de automação. Os desenvolvedores profissionais devem abordar e resolver as violações de política para concluir o processo de checkin de código com êxito.

Essa nova regra de política permite que o administrador de automação, o desenvolvedor profissional ou o líder de automação definam o seguinte:
  • Lista de publicadores de hiperescaladores compatíveis
  • Lista de modelos dos publicadores de hiperescaladores
  • Regiões de implantação compatíveis
Nota: Recomendamos adicionar o nível de gravidade como Crítico para evitar que o desenvolvedor profissional faça checkin de uma automação, em caso de violações de regra.

Consulte Análise de código para obter detalhes de permissão.

Disponibilidade

Este recurso requer a licença Enterprise Platform. Para informações sobre a versão compatível com esse recurso, consulte Enterprise Platform.

Acessar a política de análise de código de Governança de IA

Navegue até Administração > Políticas e defina a política de Governança de IA na Control Room.
Nota: Consulte Gestão de políticas de análise de códigos para habilitar, criar e atribuir políticas de análise de código.
  1. Na tela Políticas, clique em Criar política ou no ícone + para exibir a página Criar política com a opção de adicionar os Detalhes da política.
  2. Role até a política de Governança de IA e habilite o botão.
  3. Clique em Adicionar modelo e comece adicionando o Publicador, que é o fornecedor do hiperescalador, o Modelo, que é o modelo ao qual o fornecedor oferece suporte, e a Região de implantação.
    Nota: O nome do modelo pode ser inserido manualmente. Recomendamos usar o seguinte formato ao inserir o nome do modelo:
    • Amazon Bedrock : Jurassic-2 Mid, Jurassic-2 Ulta, Claude Instant v1.2, Claude v1.3, Claude v2.1 (outras versões compatíveis), Titan Text G1 – Lite e Titan Text G1 – Express (outras versões compatíveis).
    • Google Vertex AI : chat-bison (mais recente), chat-bison-32k (mais recente), chat-bison-32k@002, chat-bison@001, chat-bison@002, codechat-bison, codechat-bison-32k, codechat-bison-32k@002, codechat-bison@001, codechat-bison@002 (outras versões compatíveis), text-bison (mais recente), text-bison-32k (mais recente), text-bison-32k@002, text-bison@001, text-bison@002, text-unicorn@001, code-bison (mais recente), code-bison-32k@002, code-bison@001, code-bison@002, code-gecko@001, code-gecko@002, code-gecko (outras versões compatíveis) e Gemini Pro.
    • OpenAI : gpt-3.5-turbo (padrão), gpt-3.5-turbo-16k, gpt-4, gpt-4-32k (outras versões compatíveis), text-davinci-003, text-davinci-002, davinci, text-curie-001, curie, text-babbage-001, babbage, text-ada-001 e modelos personalizados.
  4. Clicar no botão Adicionar modelo permite adicionar uma nova linha na tabela Modelos permitidos.
  5. Em seguida, adicione o nível de gravidade como Crítico conforme a política de análise de código.
    Nota: Recomendamos adicionar o nível de gravidade como Crítico para evitar que o desenvolvedor profissional faça checkin de uma automação, em caso de violações de regra.
  6. Em seguida, salve as alterações.