AI Agent Studio v.36 Veröffentlichung
- Zuletzt aktualisiert2025/07/07
AI Agent Studio v.36 Veröffentlichung
Neue Funktionen
AI Guardrails
Diese Veröffentlichung führt AI Guardrails ein, eine neue Funktion zum Schutz sensibler Daten und zur Förderung einer verantwortungsvollen Nutzung von KI. AI Guardrails schützen sensible Daten, indem sie PII, PHI und PCI in Aufforderungen, die an LLMs gesendet werden, maskieren. Darüber hinaus überwachen sie Eingaben und Antworten auf potenziell anstößige Sprache. Administratoren können Regeln zur Datenmaskierung konfigurieren und sie bestimmten Ordnern zuweisen, um einen konsistenten Datenschutz in allen Automatisierungen zu gewährleisten. Wichtig: Das AI Guardrails-Angebot ist ab Automation 360-Cloud verfügbar und kann mit der KI-Schutzvorrichtung-Lizenz (Anzahl der LLM-Eingabeaufforderungen) zusammen mit der Enterprise Platform-Lizenz genutzt werden. Einzelheiten zu dieser Lizenz finden Sie unter Enterprise Platform.
|
System prompt in AI Skills
Innerhalb von AI Skills wird eine neue Funktion namens System-Eingabeaufforderung eingeführt. Dieses optionale Feld, das für jeden sichtbar ist, der Zugriff auf die Ansicht oder Bearbeitung der AI Skill hat. Darin können Sie anfängliche Anleitungen oder Kontext für das zugrunde liegende Modell bereitstellen. Die System prompt hilft, das Modell zu orientieren oder zu verankern, beeinflusst seine Reaktionen auf Nutzereingaben und macht Ergebnisse relevanter und genauer. Das Feld System prompt wird für alle Modelle angezeigt. Für Modelle, die System prompt unterstützen, wird der bereitgestellte Text als System prompt gesendet. Für Modelle, die System-Eingabeaufforderungen nicht unterstützen, wird der im Feld System prompt angegebene Text vor die User prompt gestellt. |
Aktivieren oder deaktivieren Sie AI Guardrails-Richtlinien global innerhalb des Control Rooms
Administratoren können jetzt die AI Guardrails im Control Room mit einer Cloud-Lizenz aktivieren, indem sie zu navigieren. Wenn diese Einstellung aktiviert ist, können professionelle Entwickler AI Guardrails erstellen, um Regeln zum Schutz sensibler Informationen durchzusetzen und die verantwortungsvolle Nutzung von KI zu fördern. Zuweisung von Rollen und Berechtigung zur Aktivierung von AI Guardrails |
Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Model connections mithilfe von - zu erstellen Azure OpenAI
Grounded by AI Search
Erstellen Sie Grounded by AI Search-Model connections unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um Informationen aus Azure AI Search-Indizes abzurufen und genauere und relevantere Antworten zu erhalten. Grounded-Model connections mit Azure OpenAI-RAG-Fähigkeit erstellen |
Mit AI guardrail in testen AI Skills
Verbessern Sie die Zuverlässigkeit und Sicherheit Ihrer AI Skills, indem Sie sie vor der Bereitstellung gegen die AI Guardrails testen. Mit dieser neuen Funktion können Sie, die Auswirkungen Ihrer gewählten Schutzvorrichtungen auf Eingabeaufforderungen und Modellantworten zu simulieren. Dieses Update liefert Ergebnisse zur Toxizität und Datenmaskierung. Sie können die Option Datenmaskierungsausführung anzeigen anklicken, um die tokenisierten maskierten Werte sensibler Daten anzuzeigen. Gewinnen Sie wertvolle Einblicke, wie Ihre AI Skill in einer Produktionsumgebung mit aktivierten Schutzvorrichtungen funktionieren wird. Greifen Sie auf diese Funktionalität im AI Skills-Editor zu und überprüfen Sie die AI Governance-Protokolle, um eine detaillierte Aufzeichnung jedes Tests zu erhalten. |
Benutzerdefinierte Modelldefinitionen – Authentifizieren mit AWS Signature-Authentifizierung
Diese Version führt die Unterstützung für die AWS Signature-Authentifizierung ein, wenn benutzerdefinierte Modelle in AI Agent Studio definiert werden. Mit dieser Verbesserung können Sie nahtlos mit einer größeren Auswahl an AWS-basierten KI/ML-Diensten integrieren, die diese Authentifizierungsmethode verwenden. Sie können jetzt den Zum Beispiel:
|
Benutzerdefinierte Modelldefinitionen – Vorhandenes Modell aktualisieren
Diese Version führt die Möglichkeit ein, bestehende benutzerdefinierte Modelldefinitionen mit den neu eingeführten PUT- und PATCH-Methoden zu ändern. Bisher wurden Änderungen an einem bestehenden benutzerdefinierten Modell nicht unterstützt.
PUT (Gesamtes Modell ersetzen/aktualisieren): Verwenden Sie den PUT-Endpunkt, um eine vorhandene benutzerdefinierte Modelldefinition vollständig zu ersetzen oder zu aktualisieren. Diese Methode wird verwendet, wenn Sie mehrere Eigenschaften des Modells aktualisieren müssen.
Anmerkung: Diese Aktion ist auf benutzerdefinierte Modelle beschränkt, die keine zugehörigen Modellverbindungen haben.
PATCH (Teilaktualisierung – Name und Beschreibung): Verwenden Sie den PATCH-Endpunkt, um nur den Namen und die Beschreibung einer vorhandenen benutzerdefinierten Modelldefinition zu aktualisieren.
Beide Endpunkte erfordern den |
Benutzerdefinierte Modelldefinitionen – Liste der benutzerdefinierten Modell-API, kann nach Anbieternamen gefiltert werden
Diese Version führt die Möglichkeit ein, die Liste der benutzerdefinierten Modelle nach Anbieternamen zu filtern und die Ergebnisse basierend auf bestimmten Kriterien zu sortieren.
Anforderungstext:
|
Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Model connections mithilfe von Azure OpenAI-Grounded by AI Search zu erstellen
Erstellen Sie Grounded by AI Search-Model connections unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um umfassende Sucherlebnisse zu gestalten, die große Sprachmodelle mit Unternehmensdaten von Azure AI Search kombinieren. Grounded-Model connections mit Azure OpenAI-RAG-Fähigkeit erstellen |
Einführung des GenAI-Modellaufruf-Widgets
Das neue GenAI-Modell ruft das Widget im AI Governance-Dashboard auf dem Startbildschirm auf, das die Top 5 der in den Automatisierungen verwendeten GenAI-Modelle anzeigt. Durch Klicken auf einen Modellnamen gelangen Sie zum AI Governance-Ereignisprotokoll, das bereits für dieses Modell vorgefiltert ist. |
Änderungen
Verbesserungen der benutzerdefinierten Modellintegration (Service Cloud-Fall-ID: 02147228) AI Agent Studio unterstützt jetzt die Integration von benutzerdefinierten Large Language Models (LLMs), die Sie entwickelt oder bereitgestellt haben. Diese Funktion umfasst nun APIs für das vollständige Lebenszyklusmanagement dieser benutzerdefinierten Modelle – einschließlich der Definition, des Abrufs, der Modifizierung und der Entfernung – wodurch Sie die Möglichkeit erhalten, spezialisierte KI-Modelle innerhalb des AI Agent Studios zu verwenden. |
Rollen im Model connections-Erstellungs-Assistenten suchen und hinzufügen
Sie können jetzt Rollen suchen und hinzufügen, während Sie Model connections erstellen. |
Verbesserte AI Governance-Protokollierung für die Ausführung von übergeordneten/untergeordneten Bots
AI Governance-Protokolle bieten jetzt eine verbesserte Sichtbarkeit in die Bot-Ausführung, indem sie die Details des übergeordneten Bots genau widerspiegeln, wenn untergeordnete Bots initiiert werden. Dies gilt sowohl für Generative KI-Befehls-Pakete als auch für Automatisierungen, die AI Skills nutzen. Zuvor zeigten Protokolle Informationen über den untergeordneten Bot an, was zu Inkonsistenzen führte. Dank dieser Verbesserung enthalten Protokolle jetzt die ID des übergeordneten Bots, den Namen und den Ordnerpfad für verbesserte Prüfpfade. Zum Beispiel, wenn der übergeordnete Bots mit der ID 103 einen untergeordneten Bot auslöst, werden die Protokolle korrekt 103 anzeigen, nicht die ID des untergeordneten Bots. Diese Verbesserung betrifft sowohl die Eingabeaufforderungs- als auch die Ereignisprotokolle innerhalb von AI Governance. |
AI Governance
AI prompt log- und Event log-Registerkarten: Neue Spalte fürAI guardrailen
Eine neue Spalte, AI guardrail, wurde zu den Bildschirmen AI Governance AI prompt log und Event log hinzugefügt. Ein neues Feld AI guardrail ist ebenfalls in den Sitzungsdetails oder Ereignissen enthalten, wenn Sie einzelne Eingabeaufforderungs- oder Ereignisprotokolle öffnen. Diese Spalte enthält Informationen über die spezifischen Schutzvorrichtungen, die auf jede Eingabeaufforderung und jedes Ereignis angewendet werden. |
Optimierung für das AI Governance-AI prompt log : Neue Toxizitätsanalyse und System prompt/User prompt
|
Optimierung für das AI Governance-Event log : Neue Toxizitätsanalyse und System prompt/User prompt
|
Korrekturen
Die Modelle Anthropic Claude 2.1 und Anthropic Claude 3.5, die auf Amazon Bedrock nicht als feinabgestimmte Modelle unterstützt werden, wurden aus den verfügbaren Modelloptionen innerhalb der Amazon Bedrock feinabgestimmten Typen entfernt. Zuvor wurden diese Modelle fälschlicherweise in der Modellauswahl angezeigt, wenn unter Amazon Bedrock der Typ Feinabgestimmt ausgewählt wurde. |
Korrektur für ein Problem, bei dem AI Governance-Protokolle für API Tasks im Echtzeitmodus (beaufsichtigte Automatisierung) nicht unterstützt wurden. Dieses Problem wurde in dieser Version behoben. |
Korrektur der irreführenden Fehlermeldung, die fälschlicherweise angibt, dass Bot Agent ein Update für eine genaue AI Governance-Protokollierung benötigt. Zuvor wurde dieser Fehler in den AI Governance-Abschnitten beobachtet, insbesondere in den AI prompt log und Event log für Bot Agent Versionen 22.100.xx oder später. |
Korrektur für ein Problem, bei dem Sie fälschlicherweise eine Benachrichtigung über ein Bot Agent-Update für AI-Governance-Auditprotokolle erhalten. Zuvor erschien diese Benachrichtigung fälschlicherweise in den Einstellungen und AI Governance-Protokollen ( AI prompt log und Event log), selbst bei Verwendung kompatibler Bot Agent-Versionen (22.60.10 und höher). |
Behebung eines Problems, das Sie daran hindert, ap-southeast-2 als Region hinzuzufügen, während Sie eine Model connection erstellen. Bisher wurde die Region bei Eingabe von ap-southeast-2 nicht korrekt hinzugefügt.Service Cloud-Fall-ID: 02175254 |
Behebung eines Problems, das Sie daran hindert, eine Model connection zu erstellen, wenn Sie Automation Anywhere Enterprise Knowledge verwenden. Zuvor schlug der Versuch, die Model connection zu erstellen, fehl. Service Cloud-Fall-ID: 02204046 |
Einschränkungen
Ordner AI Guardrails zuweisen
|
Datei nicht gefunden
Fehler auf der Startseite der Schutzvorrichtungen:
In dieser Version kann beim Versuch, die Schutzvorrichtungs-Startseite aufzurufen, ein Datei nicht gefunden-Fehler auftreten. Dies tritt auf, wenn Ihnen die Berechtigung zum Anzeigen von Inhalten für einen Ordner fehlt, dem eine Schutzvorrichtung zugewiesen ist, unabhängig davon, ob diese Schutzvorrichtung von Ihnen oder einem anderen Nutzer erstellt wurde oder ob sie Ihnen direkt zugewiesen ist. Diese Einschränkung verhindert die allgemeine Navigation und Verwaltung von Schutzvorrichtungen. |
Beim Klicken auf einen Modellnamen, der Sonderzeichen enthält (wie "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":" oder Wörter, die in Anführungszeichen stehen) im AI Governance-Dashboard-Tab auf dem Startbildschirm, wird eine Fehlermeldung angezeigt, die dem folgenden Screenshot ähnelt. Dies tritt auf, weil die Suchfunktion im AI Governance-Dashboard derzeit diese Sonderzeichen nicht unterstützt.
|
Das Feld Ordner innerhalb der Dateieigenschaften einer AI Skill oder einer AI Skillen-Vorlage funktioniert derzeit nicht wie vorgesehen. Das Ändern des Ordnerstandorts in diesem Bildschirm verschiebt die AI Skill oder die AI Skillen-Vorlage nicht tatsächlich an den angegebenen Ort, wenn die Änderungen gespeichert werden. |
Das Testen mit AI guardrail ist für die System prompt in der nicht verfügbarAI Skills
Der Test mit der AI guardrail wird derzeit im AI Skillsen-Editor für Systemaufforderungen nicht unterstützt. Während Schutzvorrichtungen bei System-Eingabeaufforderungen korrekt funktionieren, wenn sie innerhalb von Automatisierungen verwendet und zur Laufzeit ausgeführt werden. Das bedeutet, dass Sie die Anwendung von Schutzvorrichtungen auf System-Eingabeaufforderungen während der Entwicklungsphase der AI Skill nicht direkt testen können. Diese Einschränkung betrifft nur das Testen mit AI guardrailen. |
AI Skill
API Task Protokollierungsproblem
AI Skill Ausführungen, die über On-Demand-API Tasks ausgelöst werden, protokollieren keine Antworten im AI Governance-Event log. Hinzufügen einer Verzögerungsaktion von mindestens 1 Sekunde nach der AI Skill: Die Ausführung von Aktionen für alle On-Demand-API Task-Ausführungen ist eine aktuelle temporäre Lösung, um dieses Protokollierungsproblem zu beheben. ![]() |
Aktualisierungen der Schnittstelle
AI Guardrails |
---|
Ein neues Navigationsmenü wird eingeführt, um auf AI Guardrails zuzugreifen:
|