AI Agent Studio v.37

Sehen Sie sich die neuen Funktionen sowie Fehlerbehebungen und Einschränkungen in AI Agent Studio v.37 an.

Neue Funktionen

Neue Seite „Fähigkeiten“ für AI Skills-Verwaltung

Die neue Seite „Fähigkeiten“ finden Sie im Abschnitt KI in der linken Navigation. Über diese zentrale Ansicht können Sie ganz einfach auf all Ihre AI Skills zugreifen und sie verwalten. Die Seite ist in zwei Abschnitte unterteilt: den Fähigkeiten-Tab zur Verwaltung Ihrer bestehenden Fähigkeiten und den Vorlagen-Tab, um Vorlagen zu durchsuchen und Fähigkeiten aus verfügbaren Vorlagen zu erstellen, was eine Alternative zur bisherigen Erstellungsmethode über die Automatisierung bietet.

Fähigkeiten

Verbesserte AI Guardrails mit Überwachung und Blockierung von Toxizität

Der AI Guardrails-Erstellungsassistent enthält jetzt einen eigenen Toxizität-Abschnitt. In diesem Abschnitt können Administratoren die Sprache in KI-Interaktionen steuern. Diese Verbesserung analysiert sowohl Eingabeaufforderungen als auch von LLM generierte Antworten und stuft den Toxizitätsgrad als niedrig, mittel oder hoch ein. Über die einfache Überwachung hinaus können Administratoren nun Schutzvorrichtungen konfigurieren, um Eingabeaufforderungen mit toxischer Sprache ab einem bestimmten Grad aktiv zu blockieren, bevor sie das LLM erreichen. Ähnlich können Schutzvorrichtungn LLM-Antworten, die festgelegte Toxizitätsschwellen überschreiten, blockieren, bevor sie dem Nutzer präsentiert werden. Blockierte Eingabeaufforderungen lösen Fehlermeldungen aus und verhindern die Verarbeitung durch LLM. Blockierte Antworten führen zu leeren Ausgaben und Fehlermeldungen. Das System protokolliert alle Blockierungsaktionen sorgfältig für umfassende AI Governance. Standardmäßig sind die Toxizitätsprüfungen auf Alle zulassen für Prüfzwecke eingestellt, und das System zeichnet den Toxizitätswert in AI Governance im Nur-Beobachten-Modus auf.

AI Guardrails

AI Guardrails-Tests

Der Erstellungsassistent für AI Guardrails verfügt nun über einen speziellen Testen-Abschnitt, in dem Sie die Schutzvorrichtungen mit den konfigurierten Einstellungen zu testen. Sie können jetzt Beispiel-Eingabeaufforderungen eingeben und auf Schutzvorrichtung testen klicken, um zu sehen, wie die Schutzvorrichtung basierend auf den konfigurierten Einstellungen für Toxizität/Data Masking reagiert.

AI Guardrails erstellen und verwalten

Quelle der Eingabeaufforderungen angezeigt in AI Governance

Die Quelle für jede Eingabeaufforderung wird in den Eingabeaufforderungs- und Ereignisprotokollen in AI Governance angezeigt. Dies bietet Administratoren einen besseren Einblick in die Nutzung der KI-Funktionen und die Leistung verschiedener Produkte.

Korrekturen

AI Skill API Task Protokollierungsproblem behoben:

AI Skill-Ausführungen, die über On-Demand-API Tasks ausgelöst werden, protokollieren jetzt korrekt Antworten im AI Governance-Event log. Bisher konnten diese Antworten aufgrund einer Einschränkung nicht protokolliert werden. Die bisherige Behelfslösung, bei der nach der AI Skill „Aktion für alle On-Demand-API Task-Ausführungen ausführen“ eine Verzögerung von mindestens einer Sekunde hinzugefügt werden musste, ist nun nicht mehr erforderlich.

Begrenzung von Sonderzeichen im AI Governance-Dashboard behoben:

Wenn Sie in der AI Governance-Dashboard-Registerkarte auf dem Startbildschirm auf Modellnamen klicken, die Sonderzeichen enthalten, wird nun eine exakte Suche nach diesem spezifischen Modellnamen durchgeführt. Bisher wurden Sonderzeichen wie „*“, „?“, „+“, „=“, „&&“, „||“, „>“, „<“, „!“, „(“, „)“, „{“, „}“, „[“, „]“, „^“ und „~", ":“ sowie Wörter in doppelten Anführungszeichen von der zugrunde liegenden Suchfunktion nicht vollständig unterstützt. Folglich würde das Klicken auf einen Modellnamen, der eines dieser Zeichen enthält, zu einem Fehler führen.

Startseite der Schutzvorrichtungen Datei nicht gefunden Fehler behoben

Sie können jetzt erfolgreich die Startseite der Schutzvorrichtungen anzeigen, auch wenn Sie keine Berechtigung zum Anzeigen von Inhalten für jeden Ordner haben, in dem Schutzvorrichtungen von anderen Nutzern erstellt oder zugewiesen werden. Zuvor haben Sie auf dieser Seite möglicherweise einen Datei nicht gefunden-Fehler erhalten, wenn Sie keinen Zugriff auf Inhalte in einem Ordner hatten, dem eine Schutzvorrichtung zugewiesen ist, was fälschlicherweise die allgemeine Navigation und Verwaltung von Schutzvorrichtungen behinderte.

Diese Korrektur gibt Ihnen den Zugang zu den für Ihre Berechtigungen relevanten Schutzvorrichtungen. Die Spalte Ordner zugewiesen an auf dieser Seite zeigt jetzt nur noch Ordner an, für die Sie Berechtigungen zum Anzeigen von Inhalten haben. Sie benötigen außerdem die Berechtigung KI-Schutzvorrichtung anzeigen, um auf diese Seite zuzugreifen. Nutzer mit der Rolle AAE_Admin haben weiterhin implizite Berechtigungen, um alle zugewiesenen Ordner und Schutzvorrichtungen anzuzeigen, was eine umfassende Übersicht bietet.

Einschränkungen

Begrenzte Sichtbarkeit von Toxizitätsausfällen bei System prompten

Die AI Guardrails kann hochgradig toxische Inhalte blockieren, aber es gibt einige Einschränkungen speziell für die System prompt, die in zukünftigen Versionen behoben werden sollen. Diese bekannten Einschränkungen umfassen:

  • Wenn die System prompt aufgrund von Toxizität fehlschlägt, wird dieses Fehlschlagen im Ereignis Eingabeaufforderung senden in den Protokollen nicht explizit angezeigt, da hier die Anzeige von Nutzer- und Systemeingabeaufforderungen kombiniert wird.
  • Darüber hinaus fehlt in AI Governance-Protokollen ein spezielles Fehlerfeld für Eingabeaufforderung senden-Fehler, was dazu führt, dass Fehlermeldungen in die User prompt eingebettet werden, was verwirrend sein kann. Ähnlich verknüpfen Sitzungsprotokolle System prompt-Fehlermeldungen mit der User prompt, was potenziell zu einer schlechten Erfahrung führen kann, insbesondere bei längeren Eingaben.
Verwendung von RAG-Model connections

Die System prompt wird bei der Verwendung von RAG-basierten Model connections nicht berücksichtigt. Außerdem wird das Data Masking nicht angewendet, wenn ein RAG-Modell mit Daten aus einer Wissensdatenbank interagiert.

AI Skills-Landingpage zeigt eine Fehlermeldung an, wenn keine Fähigkeiten verfügbar sind

Admins mit Berechtigungen für Model connections und AI Skills sehen einen Datei nicht gefunden-Fehler, wenn sie die AI Skills-Seite aufrufen, falls keine Fähigkeiten konfiguriert wurden.

Aktualisierungen der Schnittstelle

Fähigkeiten
Ein neues Navigationsmenü wird eingeführt, um auf AI Skills zuzugreifen:

Neue Navigation zum Zugriff auf AI Skills

Fähigkeiten