AI Agent Studio v.37
- Zuletzt aktualisiert2025/10/10
AI Agent Studio v.37
Neue Funktionen
|
Neue Seite „Fähigkeiten“ für AI Skills-Verwaltung
Die neue Seite „Fähigkeiten“ finden Sie im Abschnitt KI in der linken Navigation. Über diese zentrale Ansicht können Sie ganz einfach auf all Ihre AI Skills zugreifen und sie verwalten. Die Seite ist in zwei Abschnitte unterteilt: den Fähigkeiten-Tab zur Verwaltung Ihrer bestehenden Fähigkeiten und den Vorlagen-Tab, um Vorlagen zu durchsuchen und Fähigkeiten aus verfügbaren Vorlagen zu erstellen, was eine Alternative zur bisherigen Erstellungsmethode über die Automatisierung bietet. |
|
Verbesserte AI Guardrails mit Überwachung und Blockierung von Toxizität
Der AI Guardrails-Erstellungsassistent enthält jetzt einen eigenen Toxizität-Abschnitt. In diesem Abschnitt können Administratoren die Sprache in KI-Interaktionen steuern. Diese Verbesserung analysiert sowohl Eingabeaufforderungen als auch von LLM generierte Antworten und stuft den Toxizitätsgrad als niedrig, mittel oder hoch ein. Über die einfache Überwachung hinaus können Administratoren nun Schutzvorrichtungen konfigurieren, um Eingabeaufforderungen mit toxischer Sprache ab einem bestimmten Grad aktiv zu blockieren, bevor sie das LLM erreichen. Ähnlich können Schutzvorrichtungn LLM-Antworten, die festgelegte Toxizitätsschwellen überschreiten, blockieren, bevor sie dem Nutzer präsentiert werden. Blockierte Eingabeaufforderungen lösen Fehlermeldungen aus und verhindern die Verarbeitung durch LLM. Blockierte Antworten führen zu leeren Ausgaben und Fehlermeldungen. Das System protokolliert alle Blockierungsaktionen sorgfältig für umfassende AI Governance. Standardmäßig sind die Toxizitätsprüfungen auf Alle zulassen für Prüfzwecke eingestellt, und das System zeichnet den Toxizitätswert in AI Governance im Nur-Beobachten-Modus auf. |
|
AI Guardrails-Tests
Der Erstellungsassistent für AI Guardrails verfügt nun über einen speziellen Testen-Abschnitt, in dem Sie die Schutzvorrichtungen mit den konfigurierten Einstellungen zu testen. Sie können jetzt Beispiel-Eingabeaufforderungen eingeben und auf Schutzvorrichtung testen klicken, um zu sehen, wie die Schutzvorrichtung basierend auf den konfigurierten Einstellungen für Toxizität/Data Masking reagiert. |
|
Quelle der Eingabeaufforderungen angezeigt in AI Governance
Die Quelle für jede Eingabeaufforderung wird in den Eingabeaufforderungs- und Ereignisprotokollen in AI Governance angezeigt. Dies bietet Administratoren einen besseren Einblick in die Nutzung der KI-Funktionen und die Leistung verschiedener Produkte. |
Korrekturen
|
AI Skill
API Task Protokollierungsproblem behoben:
AI Skill-Ausführungen, die über On-Demand-API Tasks ausgelöst werden, protokollieren jetzt korrekt Antworten im AI Governance-Event log. Bisher konnten diese Antworten aufgrund einer Einschränkung nicht protokolliert werden. Die bisherige Behelfslösung, bei der nach der AI Skill „Aktion für alle On-Demand-API Task-Ausführungen ausführen“ eine Verzögerung von mindestens einer Sekunde hinzugefügt werden musste, ist nun nicht mehr erforderlich. |
|
Begrenzung von Sonderzeichen im AI Governance-Dashboard behoben:
Wenn Sie in der AI Governance-Dashboard-Registerkarte auf dem Startbildschirm auf Modellnamen klicken, die Sonderzeichen enthalten, wird nun eine exakte Suche nach diesem spezifischen Modellnamen durchgeführt. Bisher wurden Sonderzeichen wie „*“, „?“, „+“, „=“, „&&“, „||“, „>“, „<“, „!“, „(“, „)“, „{“, „}“, „[“, „]“, „^“ und „~", ":“ sowie Wörter in doppelten Anführungszeichen von der zugrunde liegenden Suchfunktion nicht vollständig unterstützt. Folglich würde das Klicken auf einen Modellnamen, der eines dieser Zeichen enthält, zu einem Fehler führen. |
|
Startseite der Schutzvorrichtungen Datei nicht gefunden Fehler behoben Sie können jetzt erfolgreich die Startseite der Schutzvorrichtungen anzeigen, auch wenn Sie keine Berechtigung zum Anzeigen von Inhalten für jeden Ordner haben, in dem Schutzvorrichtungen von anderen Nutzern erstellt oder zugewiesen werden. Zuvor haben Sie auf dieser Seite möglicherweise einen Datei nicht gefunden-Fehler erhalten, wenn Sie keinen Zugriff auf Inhalte in einem Ordner hatten, dem eine Schutzvorrichtung zugewiesen ist, was fälschlicherweise die allgemeine Navigation und Verwaltung von Schutzvorrichtungen behinderte. Diese Korrektur gibt Ihnen den Zugang zu den für Ihre Berechtigungen relevanten Schutzvorrichtungen. Die Spalte Ordner zugewiesen an auf dieser Seite zeigt jetzt nur noch Ordner an, für die Sie Berechtigungen zum Anzeigen von Inhalten haben. Sie benötigen außerdem die Berechtigung KI-Schutzvorrichtung anzeigen, um auf diese Seite zuzugreifen. Nutzer mit der Rolle AAE_Admin haben weiterhin implizite Berechtigungen, um alle zugewiesenen Ordner und Schutzvorrichtungen anzuzeigen, was eine umfassende Übersicht bietet. |
Einschränkungen
|
Begrenzte Sichtbarkeit von Toxizitätsausfällen bei System prompten
Die AI Guardrails kann hochgradig toxische Inhalte blockieren, aber es gibt einige Einschränkungen speziell für die System prompt, die in zukünftigen Versionen behoben werden sollen. Diese bekannten Einschränkungen umfassen:
|
|
Verwendung von RAG-Model connections
Die System prompt wird bei der Verwendung von RAG-basierten Model connections nicht berücksichtigt. Außerdem wird das Data Masking nicht angewendet, wenn ein RAG-Modell mit Daten aus einer Wissensdatenbank interagiert. |
|
AI Skills-Landingpage zeigt eine Fehlermeldung an, wenn keine Fähigkeiten verfügbar sind
Admins mit Berechtigungen für Model connections und AI Skills sehen einen Datei nicht gefunden-Fehler, wenn sie die AI Skills-Seite aufrufen, falls keine Fähigkeiten konfiguriert wurden. |
Aktualisierungen der Schnittstelle
| Fähigkeiten |
|---|
Ein neues Navigationsmenü wird eingeführt, um auf AI Skills zuzugreifen:![]() |
