Überwachen von Ereignisprotokolle
- Zuletzt aktualisiert2024/10/31
Überwachen von Ereignisprotokolle
Das Ereignisprotokoll gibt Ihnen einen visuellen Überblick über alle Ereignisse, die während einer Modellinteraktionssitzung auftreten.
Es kann mehrere Ereignisse in einer Sitzung geben, wobei Sie die Möglichkeit haben, Details zu einem bestimmten Ereignis anzuzeigen. Zum Beispiel: Einzelheiten über die erfolgreiche Verbindung zu Basismodellen, das Senden von Eingabeaufforderungen und Empfangen von Antworten, fehlgeschlagene und erfolgreiche Sitzungen, die Verwendung von Token und andere Ereignisdetails. Dank der Möglichkeit, diese Details zu überwachen und anzuzeigen, können Sie die Daten analysieren und proaktiv vorbeugende Maßnahmen für Datensicherheit, Governance und Compliance ergreifen.
Sie können Ihre Suche durch verfügbare Suchparameter verfeinern, z. B. durch Sitzungs-ID, um alle Ereignistypen anzuzeigen, die für die ausgewählte Sitzung spezifisch sind.
Ereignisprotokoll-Tabellendetails
Die Ereignisprotokoll-Tabelle sortiert und zeigt die Details nach diesen Spalten an:
Status: Zeigt den Erfolg oder Misserfolg eines Ereignisses an. |
|
Uhrzeit: Zeigt die Startzeit des Ereignisses an. |
|
Ereignistyp: Zeigt jeden Sitzungstyp an, z. B.: Eingabeaufforderung senden, Antwort empfangen, Modellverbindung und Eingabeaufforderungs-Vorlage auslösen. Sie können auf den Link Ereignistyp klicken, um weitere Details zum Ereignis anzuzeigen. |
|
Modellname: Zeigt den Versionsnamen des Basismodells an, mit dem interagiert wurde, z. B.: Claude für Amazon Bedrock, VertexAI für Google Vertex AI, GPT 3.5 Turbo für Azure OpenAI, und andere. |
|
Eingabeaufforderungs-Typ Zeigt die Art des in der Automatisierung verwendeten Prompts an. Diese sind:
|
|
Automatisierungsname: Zeigt den Automatisierungsnamen an, der eine bestimmte Eingabeaufforderung verwendet hat. |
|
Sitzungs-ID: Zeigt die ID der Automatisierungssitzung an. |
|
Gerätename: Zeigt die ID des Geräts an, auf dem die Automatisierung ausgeführt wurde. |
|
Nutzer: Zeigt die ID des Nutzers an, der die Automatisierung ausgeführt hat. |
|
Ordnerpfad: Der Ordnerspeicherort der Automatisierung, von dem aus sie ausgeführt wurde. |
Unterstützte Ereignistyp-Protokolle
- Modellverbindung
- Prompt gesendet
- Antwort erhalten
- Eingabeaufforderungs-Vorlage auslösen
Klicken Sie in der Spalte Ereignistyp auf den Link, um die Ereignisdetails nach den folgenden Parametern aufzuschlüsseln. Die Details variieren je nach Art des Ereignistyps. Auf demselben Bildschirm können Sie verschiedene Parameter für jeden Ereignistyp anzeigen.
Die Anzeige der Ereignisdetails basiert auf dem Ereignistyp.
Freiform-Protokolle (erzeugt bei Verwendung von Generative KI-Paketen) werden für Automatisierungen erfasst, die mit generative KI-Paketen ausgeführt werden, und werden von den Ereignistypen Modellverbindung, Eingabeaufforderung senden und Antwort erhalten unterstützt.
Schauen wir uns die unterstützten Ereignistyp-Parameter an.
- Prompt-Vorlage: Zeigt die Eingabeaufforderungs-Vorlage an, die beim Test der Modellverbindung verwendet wurde.
- Anbieter: Zeigt den Namen des Herstellers des Basismodells an, z. B. Azure OpenAI, Google Vertex AI und andere.
- Zeilennummer: Zeigt die Zeilennummer im TaskBot an, in der diese Verbindung verwendet wurde.
- Verbindungsmethode: Zeigt den Verbindungstyp an, der für die Verbindung mit einem Modell verwendet wird. Zum Beispiel: Amazon Bedrock, Azure OpenAI und OpenAI verbinden sich mit API-Schlüsseln. Google Vertex AI verbindet sich mit einem Benutzerkonto, Dienstkonto oder Control Room OAuth-Verbindung.
- Prompt: Zeigt den gesamten vom Nutzer eingegebenen Eingabeaufforderungs-Text an.
- Klicken Sie auf Weitere Informationen, um die folgenden Informationen aufzurufen:
- Anbieter: Zeigt den Namen des Lieferanten des Basismodells an, z. B. Amazon Bedrock, Google Vertex AI, Azure OpenAI, OpenAI und andere.
- Parameter: Zeigt die für die Eingabeaufforderung verwendeten Parameterwerte an, wie z. B.: Max Token, Top P, Temperatur und andere. Diese Parameter variieren von Modell zu Modell.
- Prompt: Zeigt den gesamten vom Nutzer eingegebenen Eingabeaufforderungs-Text an.
- Antwort: Zeigt die vom Modell erhaltene Antwort an.
- Klicken Sie auf Mehr Details, um zusätzliche Informationen über Verbrauchte Token anzuzeigen: Zeigt die Anzahl der von der Modellinteraktion verwendeten Token an. So behalten Sie den Überblick über die verbrauchten Token und das Guthaben.
- Prompt-Vorlage: Zeigt die Eingabeaufforderungs-Vorlage an, die beim Test der Modellverbindung verwendet wurde.