AI Agent Studio v.36 Veröffentlichung
- Zuletzt aktualisiert2025/07/22
AI Agent Studio v.36 Veröffentlichung
Neue Funktionen
|
KI-Schutzvorrichtungen
Diese Veröffentlichung führt KI-Schutzvorrichtungen ein, eine neue Funktion zum Schutz sensibler Daten und zur Förderung einer verantwortungsvollen Nutzung von KI. KI-Schutzvorrichtungen schützen sensible Daten, indem sie PII, PHI und PCI in Aufforderungen, die an LLMs gesendet werden, maskieren. Darüber hinaus überwachen sie Eingaben und Antworten auf potenziell anstößige Sprache. Administratoren können Regeln zur Datenmaskierung konfigurieren und sie bestimmten Ordnern zuweisen, um einen konsistenten Datenschutz in allen Automatisierungen zu gewährleisten. Wichtig: Das KI-Schutzvorrichtungen-Angebot ist ab Automation 360
Cloud verfügbar und kann mit der KI-Schutzvorrichtung-Lizenz (Anzahl der LLM-Eingabeaufforderungen) zusammen mit der Enterprise Platform-Lizenz genutzt werden. Einzelheiten zu dieser Lizenz finden Sie unter Enterprise Platform.
|
|
System-Prompt in KI-Fähigkeiten
Innerhalb von KI-Fähigkeiten wird eine neue Funktion namens System-Eingabeaufforderung eingeführt. Dieses optionale Feld, das für jeden sichtbar ist, der Zugriff auf die Ansicht oder Bearbeitung der KI-Fähigkeit hat. Darin können Sie anfängliche Anleitungen oder Kontext für das zugrunde liegende Modell bereitstellen. Die System-Prompt hilft, das Modell zu orientieren oder zu verankern, beeinflusst seine Reaktionen auf Nutzereingaben und macht Ergebnisse relevanter und genauer. Das Feld System-Prompt wird für alle Modelle angezeigt. Für Modelle, die System-Prompt unterstützen, wird der bereitgestellte Text als System-Prompt gesendet. Für Modelle, die System-Eingabeaufforderungen nicht unterstützen, wird der im Feld System-Prompt angegebene Text vor die Nutzer-Prompt gestellt. |
|
Aktivieren oder deaktivieren Sie KI-Schutzvorrichtungen-Richtlinien global innerhalb des Control Rooms
Administratoren können jetzt die KI-Schutzvorrichtungen im Control Room mit einer Cloud-Lizenz aktivieren, indem sie zu navigieren. Wenn diese Einstellung aktiviert ist, können professionelle Entwickler KI-Schutzvorrichtungen erstellen, um Regeln zum Schutz sensibler Informationen durchzusetzen und die verantwortungsvolle Nutzung von KI zu fördern. Zuweisung von Rollen und Berechtigung zur Aktivierung von KI-Schutzvorrichtungen |
|
Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Modellverbindungen mithilfe von - zu erstellen Azure OpenAI
Grounding durch AI Search
Erstellen Sie Grounding durch AI Search-Modellverbindungen unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um Informationen aus Azure AI Search-Indizes abzurufen und genauere und relevantere Antworten zu erhalten. Grounded-Modellverbindungen mit Azure OpenAI-RAG-Fähigkeit erstellen |
|
Mit KI-Schutzvorrichtung in testen KI-Fähigkeiten
Verbessern Sie die Zuverlässigkeit und Sicherheit Ihrer KI-Fähigkeiten, indem Sie sie vor der Bereitstellung gegen die KI-Schutzvorrichtungen testen. Mit dieser neuen Funktion können Sie, die Auswirkungen Ihrer gewählten Schutzvorrichtungen auf Eingabeaufforderungen und Modellantworten zu simulieren. Dieses Update liefert Ergebnisse zur Toxizität und Datenmaskierung. Sie können die Option Datenmaskierungsausführung anzeigen anklicken, um die tokenisierten maskierten Werte sensibler Daten anzuzeigen. Gewinnen Sie wertvolle Einblicke, wie Ihre KI-Fähigkeit in einer Produktionsumgebung mit aktivierten Schutzvorrichtungen funktionieren wird. Greifen Sie auf diese Funktionalität im KI-Fähigkeiten-Editor zu und überprüfen Sie die KI-Governance-Protokolle, um eine detaillierte Aufzeichnung jedes Tests zu erhalten. |
|
Benutzerdefinierte Modelldefinitionen – Authentifizieren mit AWS Signature-Authentifizierung
Diese Version führt die Unterstützung für die AWS Signature-Authentifizierung ein, wenn benutzerdefinierte Modelle in AI Agent Studio definiert werden. Mit dieser Verbesserung können Sie nahtlos mit einer größeren Auswahl an AWS-basierten KI/ML-Diensten integrieren, die diese Authentifizierungsmethode verwenden. Sie können jetzt den Zum Beispiel:
|
|
Benutzerdefinierte Modelldefinitionen – Vorhandenes Modell aktualisieren
Diese Version führt die Möglichkeit ein, bestehende benutzerdefinierte Modelldefinitionen mit den neu eingeführten PUT- und PATCH-Methoden zu ändern. Bisher wurden Änderungen an einem bestehenden benutzerdefinierten Modell nicht unterstützt.
PUT (Gesamtes Modell ersetzen/aktualisieren): Verwenden Sie den PUT-Endpunkt, um eine vorhandene benutzerdefinierte Modelldefinition vollständig zu ersetzen oder zu aktualisieren. Diese Methode wird verwendet, wenn Sie mehrere Eigenschaften des Modells aktualisieren müssen.
Anmerkung: Diese Aktion ist auf benutzerdefinierte Modelle beschränkt, die keine zugeordneten Modellverbindung haben.
PATCH (Teilaktualisierung – Name und Beschreibung): Verwenden Sie den PATCH-Endpunkt, um nur den Namen und die Beschreibung einer vorhandenen benutzerdefinierten Modelldefinition zu aktualisieren.
Beide Endpunkte erfordern den |
|
Benutzerdefinierte Modelldefinitionen – Liste der benutzerdefinierten Modell-API, kann nach Anbieternamen gefiltert werden
Diese Version führt die Möglichkeit ein, die Liste der benutzerdefinierten Modelle nach Anbieternamen zu filtern und die Ergebnisse basierend auf bestimmten Kriterien zu sortieren.
Anforderungstext:
|
|
Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Modellverbindungen mithilfe von Azure OpenAI-Grounding durch AI Search zu erstellen
Erstellen Sie Grounding durch AI Search-Modellverbindungen unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um umfassende Sucherlebnisse zu gestalten, die große Sprachmodelle mit Unternehmensdaten von Azure AI Search kombinieren. Grounded-Modellverbindungen mit Azure OpenAI-RAG-Fähigkeit erstellen |
|
Einführung des GenAI-Modellaufruf-Widgets
Das neue GenAI-Modell ruft das Widget im KI-Governance-Dashboard auf dem Startbildschirm auf, das die Top 5 der in den Automatisierungen verwendeten GenAI-Modelle anzeigt. Durch Klicken auf einen Modellnamen gelangen Sie zum KI-Governance-Ereignisprotokoll, das bereits für dieses Modell vorgefiltert ist. |
Änderungen
|
Verbesserungen der benutzerdefinierten Modellintegration (Service Cloud-Fall-ID: 02147228) AI Agent Studio unterstützt jetzt die Integration von benutzerdefinierten Large Language Models (LLMs), die Sie entwickelt oder bereitgestellt haben. Diese Funktion umfasst nun APIs für das vollständige Lebenszyklusmanagement dieser benutzerdefinierten Modelle – einschließlich der Definition, des Abrufs, der Modifizierung und der Entfernung – wodurch Sie die Möglichkeit erhalten, spezialisierte KI-Modelle innerhalb des AI Agent Studios zu verwenden. |
|
Rollen im Modellverbindungen-Erstellungs-Assistenten suchen und hinzufügen
Sie können jetzt Rollen suchen und hinzufügen, während Sie Modellverbindungen erstellen. |
|
Verbesserte KI-Governance-Protokollierung für die Ausführung von übergeordneten/untergeordneten Bots
KI-Governance-Protokolle bieten jetzt eine verbesserte Sichtbarkeit in die Bot-Ausführung, indem sie die Details des übergeordneten Bots genau widerspiegeln, wenn untergeordnete Bots initiiert werden. Dies gilt sowohl für Generative KI-Befehls-Pakete als auch für Automatisierungen, die KI-Fähigkeiten nutzen. Zuvor zeigten Protokolle Informationen über den untergeordneten Bot an, was zu Inkonsistenzen führte. Dank dieser Verbesserung enthalten Protokolle jetzt die ID des übergeordneten Bots, den Namen und den Ordnerpfad für verbesserte Prüfpfade. Zum Beispiel, wenn der übergeordnete Bots mit der ID 103 einen untergeordneten Bot auslöst, werden die Protokolle korrekt 103 anzeigen, nicht die ID des untergeordneten Bots. Diese Verbesserung betrifft sowohl die Eingabeaufforderungs- als auch die Ereignisprotokolle innerhalb von KI-Governance. |
|
KI-Governance
KI-Prompt-Protokoll- und Ereignisprotokoll-Registerkarten: Neue Spalte fürKI-Schutzvorrichtungen
Eine neue Spalte, KI-Schutzvorrichtung, wurde zu den Bildschirmen KI-Governance KI-Prompt-Protokoll und Ereignisprotokoll hinzugefügt. Ein neues Feld KI-Schutzvorrichtung ist ebenfalls in den Sitzungsdetails oder Ereignissen enthalten, wenn Sie einzelne Eingabeaufforderungs- oder Ereignisprotokolle öffnen. Diese Spalte enthält Informationen über die spezifischen Schutzvorrichtungen, die auf jede Eingabeaufforderung und jedes Ereignis angewendet werden. |
Optimierung für das KI-Governance-KI-Prompt-Protokoll : Neue Toxizitätsanalyse und System-Prompt/Nutzer-Prompt
|
Optimierung für das KI-Governance-Ereignisprotokoll : Neue Toxizitätsanalyse und System-Prompt/Nutzer-Prompt
|
Korrekturen
| Die Modelle Anthropic Claude 2.1 und Anthropic Claude 3.5, die auf Amazon Bedrock nicht als feinabgestimmte Modelle unterstützt werden, wurden aus den verfügbaren Modelloptionen innerhalb der Amazon Bedrock feinabgestimmten Typen entfernt. Zuvor wurden diese Modelle fälschlicherweise in der Modellauswahl angezeigt, wenn unter Amazon Bedrock der Typ Feinabgestimmt ausgewählt wurde. |
| Korrektur für ein Problem, bei dem KI-Governance-Protokolle für API-Aufgaben im Echtzeitmodus (beaufsichtigte Automatisierung) nicht unterstützt wurden. Dieses Problem wurde in dieser Version behoben. |
| Korrektur der irreführenden Fehlermeldung, die fälschlicherweise angibt, dass Bot-Agent ein Update für eine genaue KI-Governance-Protokollierung benötigt. Zuvor wurde dieser Fehler in den KI-Governance-Abschnitten beobachtet, insbesondere in den KI-Prompt-Protokoll und Ereignisprotokoll für Bot-Agent Versionen 22.100.xx oder später. |
| Korrektur für ein Problem, bei dem Sie fälschlicherweise eine Benachrichtigung über ein Bot-Agent-Update für AI-Governance-Auditprotokolle erhalten. Zuvor erschien diese Benachrichtigung fälschlicherweise in den Einstellungen und KI-Governance-Protokollen ( KI-Prompt-Protokoll und Ereignisprotokoll), selbst bei Verwendung kompatibler Bot-Agent-Versionen (22.60.10 und höher). |
Behebung eines Problems, das Sie daran hindert, ap-southeast-2 als Region hinzuzufügen, während Sie eine Modellverbindung erstellen. Bisher wurde die Region bei Eingabe von ap-southeast-2 nicht korrekt hinzugefügt.Service Cloud-Fall-ID: 02175254 |
| Behebung eines Problems, das Sie daran hindert, eine Modellverbindung zu erstellen, wenn Sie Automation Anywhere Enterprise Knowledge verwenden. Zuvor schlug der Versuch, die Modellverbindung zu erstellen, fehl. Service Cloud-Fall-ID: 02204046 |
Einschränkungen
Ordner KI-Schutzvorrichtungen zuweisen
|
|
Datei nicht gefunden
Fehler auf der Startseite der Schutzvorrichtungen:
In dieser Version kann beim Versuch, die Schutzvorrichtungs-Startseite aufzurufen, ein Datei nicht gefunden-Fehler auftreten. Dies tritt auf, wenn Ihnen die Berechtigung zum Anzeigen von Inhalten für einen Ordner fehlt, dem eine Schutzvorrichtung zugewiesen ist, unabhängig davon, ob diese Schutzvorrichtung von Ihnen oder einem anderen Nutzer erstellt wurde oder ob sie Ihnen direkt zugewiesen ist. Diese Einschränkung verhindert die allgemeine Navigation und Verwaltung von Schutzvorrichtungen. |
| Beim Klicken auf einen Modellnamen, der Sonderzeichen enthält (wie "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":" oder Wörter, die in Anführungszeichen stehen) im KI-Governance-Dashboard-Tab auf dem Startbildschirm, wird eine Fehlermeldung angezeigt, die dem folgenden Screenshot ähnelt. Dies tritt auf, weil die Suchfunktion im KI-Governance-Dashboard derzeit diese Sonderzeichen nicht unterstützt.
|
| Das Feld Ordner innerhalb der Dateieigenschaften einer KI-Fähigkeit oder einer KI-Fähigkeiten-Vorlage funktioniert derzeit nicht wie vorgesehen. Das Ändern des Ordnerstandorts in diesem Bildschirm verschiebt die KI-Fähigkeit oder die KI-Fähigkeiten-Vorlage nicht tatsächlich an den angegebenen Ort, wenn die Änderungen gespeichert werden. |
|
Das Testen mit KI-Schutzvorrichtung ist für die System-Prompt in der nicht verfügbarKI-Fähigkeiten
Der Test mit der KI-Schutzvorrichtung wird derzeit im KI-Fähigkeitenen-Editor für Systemaufforderungen nicht unterstützt. Während Schutzvorrichtungen bei System-Eingabeaufforderungen korrekt funktionieren, wenn sie innerhalb von Automatisierungen verwendet und zur Laufzeit ausgeführt werden. Das bedeutet, dass Sie die Anwendung von Schutzvorrichtungen auf System-Eingabeaufforderungen während der Entwicklungsphase der KI-Fähigkeit nicht direkt testen können. Diese Einschränkung betrifft nur das Testen mit KI-Schutzvorrichtungen. |
|
KI-Fähigkeit
API-Aufgabe Protokollierungsproblem
KI-Fähigkeit Ausführungen, die über On-Demand-API-Aufgaben ausgelöst werden, protokollieren keine Antworten im KI-Governance-Ereignisprotokoll. Hinzufügen einer Verzögerungsaktion von mindestens 1 Sekunde nach der KI-Fähigkeit: Die Ausführung von Aktionen für alle On-Demand-API-Aufgabe-Ausführungen ist eine aktuelle temporäre Lösung, um dieses Protokollierungsproblem zu beheben. ![]() |
Aktualisierungen der Schnittstelle
| KI-Schutzvorrichtungen |
|---|
| Ein neues Navigationsmenü wird eingeführt, um auf KI-Schutzvorrichtungen zuzugreifen:
|
