Überwachen von Ereignisprotokolle
- Zuletzt aktualisiert2024/12/20
Überwachen von Ereignisprotokolle
Ereignisprotokoll gibt Ihnen eine visuelle Zusammenfassung aller Ereignisse, die während einer Modellinteraktionssitzung auftreten.
In einer Sitzung könnte es mehrere Ereignisse geben, mit der Möglichkeit, Details zu einem bestimmten Ereignis zu sehen. Zum Beispiel: Details zu erfolgreichen Verbindungen zu grundlegenden Modellen, das Senden von Eingabeaufforderungen und das Empfangen von Antworten, fehlgeschlagene und erfolgreiche Sitzungen, Token-Nutzung und andere Ereignisdetails. Indem Sie diese Details überwachen und anzeigen, können Sie die Daten analysieren und proaktiv vorbeugende Maßnahmen für Datensicherheit, Governance und Compliance ergreifen.
Sie können Ihre Suche verfeinern, indem Sie verfügbare Suchparameter wie Sitzungs-ID verwenden, um alle Ereignistypen anzuzeigen, die spezifisch für die ausgewählte Sitzung sind.
Ereignisprotokoll-Tabellendetails
Die Ereignisprotokoll-Tabelle sortiert und zeigt die Details nach diesen Spalten an:
Status: Zeigt den Erfolg oder das Fehlschlagen eines Ereignisses. |
|
Uhrzeit: Zeigt die Startzeit des Ereignisses an. |
|
Ereignistyp: Zeigt jeden Sitzungstyp an, wie: Aufforderung senden, Antwort erhalten, Modellverbindung, und Auslöser-Aufforderungsvorlage. Sie können auf den Link Ereignistyp klicken, um ins Detail zu gehen und zusätzliche Ereignisdetails anzuzeigen. |
|
Modellname: Zeigt den Namen der Grundmodellversion an, mit der interagiert wurde, wie zum Beispiel: Claude for Amazon Bedrock, VertexAI forGoogle Vertex AI, GPT 3.5 Turbo for Azure OpenAI und andere. |
|
Eingabeaufforderungs-Typ Zeigt die Art des in der Automatisierung verwendeten Prompts an. Dies sind:
|
|
Automatisierungsname: Zeigt den Namen der Automatisierung, die eine bestimmte Eingabeaufforderung verwendet hat. |
|
Sitzungs-ID: Zeigt die ID der Automatisierungssitzung an. |
|
Gerätename: Zeigt die ID des Geräts an, auf dem die Automatisierung ausgeführt wurde. |
|
Nutzer: Zeigt die ID des Nutzers an, der die Automatisierung ausgeführt hat. |
|
Ordnerpfad: Der Ordnerspeicherort der Automatisierung, von dem aus sie ausgeführt wurde. |
Unterstützte Ereignistypprotokolle
- Modellverbindung
- Prompt gesendet
- Antwort erhalten
- Prompt-Vorlage auslösen
Klicken Sie in der Spalte Ereignistyp auf den Link, um detailliertere Informationen zu den Ereignissen anhand der folgenden Parameter anzuzeigen. Die Einzelheiten variieren je nach Ereignistyp. Zeigen Sie auf demselben Bildschirm unterschiedliche Parameter für jeden Ereignistyp an.
Die Ereignisdetails werden basierend auf Ereignistyp angezeigt.
Freiformprotokolle (erzeugt bei der Verwendung der Generative KI-Pakete) werden für Automatisierungen erfasst, die über generative KI-Pakete ausgeführt werden, und werden unterstützt von den Ereignistypen Modellverbindung, Eingabeaufforderung senden und Antwort erhalten.
Lassen Sie uns die unterstützten Ereignistyp-Parameter durchgehen.
- Prompt-Vorlage: Zeigt die Prompt-Vorlage an, die beim Test der Modellverbindung verwendet wurde.
- Anbieter: Zeigt den Namen des Anbieters des grundlegenden Modells an, wie Azure OpenAI, Google Vertex AI und andere.
- Zeilennummer: Zeigt die Zeilennummer im TaskBot an, in der diese Verbindung verwendet wurde.
- Verbindungsmethode: Zeigt den Verbindungstyp an, der zur Verbindung mit einem Modell verwendet wird. Zum Beispiel: Amazon Bedrock, Azure OpenAI und OpenAI verbinden sich mit API-Schlüsseln. Google Vertex AI verbindet sich mit einem Benutzerkonto, Dienstkonto oder Control Room OAuth-Verbindung.
- Prompt: Zeigt den vollständigen Eingabetext an, der vom Nutzer eingegeben wurde.
- Klicken Sie auf Weitere Informationen, um die folgenden Informationen aufzurufen:
- Anbieter: Zeigt den Namen des Anbieters des grundlegenden Modells an, wie Amazon Bedrock, Google Vertex AI, Azure OpenAI, OpenAI und andere.
- Parameter: Zeigt die für die Eingabeaufforderung verwendeten Parameterwerte an, wie z. B.: Maximalanzahl an Tokens, Top P, Temperature und andere. Diese Parameter variieren für verschiedene Modelle.
- Prompt: Zeigt den vollständigen Eingabetext an, der vom Nutzer eingegeben wurde.
- Antwort: Zeigt die vom Modell erhaltene Antwort an.
- Klicken Sie auf Weitere Informationen, um zusätzliche Informationen über Verbrauchte Tokens aufzurufen: Zeigt die Anzahl der von der Modellinteraktion verwendeten Token an. Dies hilft, den Verbrauch von Tokens und das Guthaben im Auge zu behalten.
- Prompt-Vorlage: Zeigt die Prompt-Vorlage an, die beim Test der Modellverbindung verwendet wurde.