Monitoramento Logs de eventos

O Log de eventos apresenta um resumo visual de todos os eventos que ocorrem durante uma sessão de interação do modelo.

Pode haver vários eventos em uma sessão com a possibilidade de ver detalhes de um evento específico. Por exemplo: detalhes de conexão bem-sucedida a modelos de base, envio de prompts e recebimento de respostas, sessões com falha ou sucesso, uso de token e outros detalhes de eventos. A capacidade de monitorar e visualizar esses detalhes permite analisar os dados e tomar medidas preventivas proativamente para segurança, governança e conformidade dos dados.

Você pode refinar sua pesquisa por parâmetros disponíveis, como ID de sessão, para visualizar todos os tipos de eventos específicos da sessão selecionada.

Veja todos os tipos de eventos de uma sessão específica

Nota: Use o cursor para passar sobre os ícones de ação para identificar funções específicas.

Detalhes da tabela do Log de eventos

A tabela do Log de eventos classifica e exibe detalhes conforme estas colunas:

Detalhes da tabela do Log de eventos

um

Status: Mostra se um evento teve falha ou sucesso.

dois

Horário: Mostra a hora de início do evento.

três

Tipo de evento: Mostra o tipo de cada sessão, como: Enviar prompt, Resposta recebida, Conexão de modeloe Acionar modelo de prompt.

Você pode clicar no link Tipo de evento para detalhar e visualizar detalhes adicionais do evento.

quatro

Nome do modelo: Mostra o nome da versão do modelo de base com o qual houve interação, por exemplo: Claude para Amazon Bedrock, VertexAI para Vertex AI do Google, GPT 3.5 Turbo para Azure OpenAI e outros.

cinco
Tipo de prompt: Mostra o tipo de prompt utilizado na automação. Estes são:
  • Logs de prompt de Formato livre capturados para todos os Pacotes IA generativa.
  • Logs de prompt de Modelo de prompt capturados para Modelos de prompt.
seis

Nome da automação: Mostra o nome da automação que usou um prompt específico.

sete

ID da sessão: Mostra o ID da sessão de automação.

oito

ID do dispositivo: Mostra o ID do dispositivo em que a automação foi executada.

nove

ID do usuário: Mostra o ID do usuário que executou a automação.

Logs de tipos de eventos compatíveis

Os logs de tipo de evento a seguir são capturados para todas as interações de modelo em uma automação.
  • Conexão de modelo
  • Enviar prompt
  • Resposta recebida
  • Gatilho Modelo de prompt

Na coluna Tipo de evento, clique no link para detalhar ainda mais a visualização do evento pelos parâmetros a seguir. Os detalhes variam conforme o tipo de evento. Na mesma tela, visualize diferentes parâmetros para cada tipo de evento.

Detalhes de Log de eventos

Nota: O campo Tipo de automação mostra o tipo de automação usado na sessão de interação do modelo. Os campos restantes são iguais aos detalhes da tabela do Log de eventos.

Os detalhes do evento são exibidos com base no Tipo de evento.

Logs de formato livre (gerados ao usar Pacotes IA generativa) são capturados para automações executadas com Pacotes IA generativa e são compatíveis com os tipos de eventos Conexões de modelo, Enviar prompt e Resposta recebida.

Vamos examinar os parâmetros de tipo de evento compatíveis.

Conexão de modelo
  • Template de prompt: Mostra o Modelo de prompt usado ao testar a conexão de modelo.
  • Fornecedor: Mostra o nome do fornecedor do modelo de base, como Azure OpenAI, Vertex AI do Google e outros.
  • Número da linha: Mostra o número da linha no Task Bot onde essa conexão foi usada.
  • Modo de conexão: Mostra o tipo de conexão usado para conectar a um modelo. Por exemplo: Conexão Amazon Bedrock, Azure OpenAI e OpenAI usando Chaves de API. O Vertex AI do Google se conecta a uma Conta de usuário, Conta de serviço ou conexão OAuth da Control Room.
Enviar prompt
  • Prompt: Mostra o texto de prompt completo inserido pelo usuário.
  • Clique em Mais detalhes para ver as seguintes informações:
    • Fornecedor: Mostra o nome do fornecedor do modelo de base, como Amazon Bedrock, Vertex AI do Google, Azure OpenAI, OpenAI e outros.
    • Parâmetros: Mostra os valores dos parâmetros usados para o prompt, como: Máximo de tokens, Top P, Temperatura e outros. Esses parâmetros variam para diferentes modelos.
Resposta recebida
  • Prompt: Mostra o texto de prompt completo inserido pelo usuário.
  • Resposta: Mostra a resposta recebida do modelo.
  • Clique em Mais detalhes para visualizar informações adicionais sobre os Tokens consumidos: Mostra o número de tokens consumidos pela interação do modelo. Isso ajuda a controlar os tokens consumidos e o equilíbrio.
Acionar Modelo de prompt
  • Template de prompt: Mostra o Modelo de prompt usado ao testar a conexão de modelo.