AI Agent Studio v.36 Veröffentlichung
- Zuletzt aktualisiert2025/03/10
AI Agent Studio v.36 Veröffentlichung
Neue Funktionen
KI-Schutzvorrichtungen
Diese Veröffentlichung führt KI-Schutzvorrichtungen ein, eine neue Funktion zum Schutz sensibler Daten und zur Förderung einer verantwortungsvollen Nutzung von KI. KI-Schutzvorrichtungen schützen sensible Daten, indem sie PII, PHI und PCI in Aufforderungen, die an LLMs gesendet werden, maskieren. Darüber hinaus überwachen sie Eingaben und Antworten auf potenziell anstößige Sprache. Administratoren können Regeln zur Datenmaskierung konfigurieren und sie bestimmten Ordnern zuweisen, um einen konsistenten Datenschutz in allen Automatisierungen zu gewährleisten. Wichtig: Das KI-Schutzvorrichtungen-Angebot ist ab Automation 360-Cloud verfügbar und kann mit der KI-Schutzvorrichtung-Lizenz (Anzahl der LLM-Eingabeaufforderungen) zusammen mit der Enterprise Platform-Lizenz genutzt werden. Einzelheiten zu dieser Lizenz finden Sie unter Enterprise Platform.
|
System-Eingabeaufforderung in KI-Fähigkeiten
Innerhalb von KI-Fähigkeiten wird eine neue Funktion namens System-Eingabeaufforderung eingeführt. Dieses optionale Feld, das für jeden sichtbar ist, der Zugriff auf die Ansicht oder Bearbeitung der KI-Fähigkeit hat. Darin können Sie anfängliche Anleitungen oder Kontext für das zugrunde liegende Modell bereitstellen. Die System-Eingabeaufforderung hilft, das Modell zu orientieren oder zu verankern, beeinflusst seine Reaktionen auf Nutzereingaben und macht Ergebnisse relevanter und genauer. Das Feld System-Eingabeaufforderung wird für alle Modelle angezeigt. Für Modelle, die System-Eingabeaufforderung unterstützen, wird der bereitgestellte Text als System-Eingabeaufforderung gesendet. Für Modelle, die System-Eingabeaufforderungen nicht unterstützen, wird der im Feld System-Eingabeaufforderung angegebene Text an das Nutzer-Eingabeaufforderung angehängt. |
Aktivieren oder deaktivieren Sie KI-Schutzvorrichtungen-Richtlinien global innerhalb des Control Rooms
Administratoren können jetzt die KI-Schutzvorrichtungen im Control Room mit einer Cloud-Lizenz aktivieren, indem sie zu navigieren. Wenn diese Einstellung aktiviert ist, können professionelle Entwickler KI-Schutzvorrichtungen erstellen, um Regeln zum Schutz sensibler Informationen durchzusetzen und die verantwortungsvolle Nutzung von KI zu fördern. Zuweisung von Rollen und Berechtigung zur Aktivierung von KI-Schutzvorrichtungen |
Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Modellverbindungen mithilfe von Azure OpenAI-Grounding durch AI Search zu erstellen
Erstellen Sie Grounding durch AI Search-Modellverbindungen unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um Informationen aus Azure AI Search-Indizes abzurufen und genauere und relevantere Antworten zu erhalten. Grounded-Modellverbindungen mit Azure OpenAI-RAG-Fähigkeit erstellen |
Benutzerdefinierte Modelldefinitionen – Authentifizieren mit AWS Signature-Authentifizierung
Diese Version führt die Unterstützung für die AWS Signature-Authentifizierung ein, wenn benutzerdefinierte Modelle in AI Agent Studio definiert werden. Mit dieser Verbesserung können Sie nahtlos mit einer größeren Auswahl an AWS-basierten KI/ML-Diensten integrieren, die diese Authentifizierungsmethode verwenden. Sie können jetzt den Beispiel:
|
Benutzerdefinierte Modelldefinitionen – Vorhandenes Modell aktualisieren
Diese Version führt die Möglichkeit ein, bestehende benutzerdefinierte Modelldefinitionen mit den neu eingeführten PUT- und PATCH-Methoden zu ändern. Bisher wurden Änderungen an einem bestehenden benutzerdefinierten Modell nicht unterstützt.
PUT (Gesamtes Modell ersetzen/aktualisieren): Verwenden Sie den PUT-Endpunkt, um eine vorhandene benutzerdefinierte Modelldefinition vollständig zu ersetzen oder zu aktualisieren. Diese Methode wird verwendet, wenn Sie mehrere Eigenschaften des Modells aktualisieren müssen.
Anmerkung: Diese Aktion ist auf benutzerdefinierte Modelle beschränkt, die keine zugehörigen Modellverbindungen haben.
PATCH (Teilaktualisierung – Name und Beschreibung): Verwenden Sie den PATCH-Endpunkt, um nur den Namen und die Beschreibung einer vorhandenen benutzerdefinierten Modelldefinition zu aktualisieren.
Beide Endpunkte erfordern den |
Benutzerdefinierte Modelldefinitionen – Liste der benutzerdefinierten Modell-API, kann nach Anbieternamen gefiltert werden
Diese Version führt die Möglichkeit ein, die Liste der benutzerdefinierten Modelle nach Anbieternamen zu filtern und die Ergebnisse basierend auf bestimmten Kriterien zu sortieren.
Anforderungstext:
|
Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Modellverbindungen mithilfe von Azure OpenAI-Grounding durch AI Search zu erstellen
Erstellen Sie Grounding durch AI Search-Modellverbindungen unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um umfassende Sucherlebnisse zu gestalten, die große Sprachmodelle mit Unternehmensdaten von Azure AI Search kombinieren. Grounded-Modellverbindungen mit Azure OpenAI-RAG-Fähigkeit erstellen |
Einführung des GenAI-Modellaufruf-Widgets
Das neue GenAI-Modell ruft das Widget im KI-Governance-Dashboard auf dem Startbildschirm auf, das die Top 5 der in den Automatisierungen verwendeten GenAI-Modelle anzeigt. Durch Klicken auf einen Modellnamen gelangen Sie zum KI-Governance-Ereignisprotokoll, das bereits für dieses Modell vorgefiltert ist. |
Änderungen
Verbesserungen der benutzerdefinierten Modellintegration (Service Cloud-Fall-ID: 02147228) Sie können jetzt Ihre eigenen proprietären LLM-Wrapper-APIs mit AI Agent Studio nutzen. Hauptmerkmale umfassen APIs zum Erstellen, Lesen, Aktualisieren und Löschen benutzerdefinierter Modelldefinitionen, die eine nahtlose Integration und Verwaltung benutzerdefinierter Modelle innerhalb von AI Agent Studio ermöglichen. |
Rollen im Modellverbindungen-Erstellungs-Assistenten suchen und hinzufügen
Sie können jetzt Rollen suchen und hinzufügen, während Sie Modellverbindungen erstellen. |
Verbesserte KI-Governance-Protokollierung für die Ausführung von übergeordneten/untergeordneten Bots
KI-Governance-Protokolle bieten jetzt eine verbesserte Sichtbarkeit in die Bot-Ausführung, indem sie die Details des übergeordneten Bots genau widerspiegeln, wenn untergeordnete Bots initiiert werden. Dies gilt sowohl für Generative KI-Befehls-Pakete als auch für Automatisierungen, die KI-Fähigkeiten nutzen. Zuvor zeigten Protokolle Informationen über den untergeordneten Bot an, was zu Inkonsistenzen führte. Dank dieser Verbesserung enthalten Protokolle jetzt die ID des übergeordneten Bots, den Namen und den Ordnerpfad für verbesserte Prüfpfade. Zum Beispiel, wenn der übergeordnete Bots mit der ID 103 einen untergeordneten Bot auslöst, werden die Protokolle korrekt 103 anzeigen, nicht die ID des untergeordneten Bots. Diese Verbesserung betrifft sowohl die Eingabeaufforderungs- als auch die Ereignisprotokolle innerhalb von KI-Governance. |
KI-Governance
KI-Prompt-Protokoll- und Ereignisprotokoll-Registerkarten: Neue Spalte fürKI-Schutzvorrichtungen
Eine neue Spalte, KI-Schutzvorrichtung, wurde zu den Bildschirmen KI-Governance KI-Prompt-Protokoll und Ereignisprotokoll hinzugefügt. Ein neues Feld KI-Schutzvorrichtung ist ebenfalls in den Sitzungsdetails oder Ereignissen enthalten, wenn Sie einzelne Eingabeaufforderungs- oder Ereignisprotokolle öffnen. Diese Spalte enthält Informationen über die spezifischen Schutzvorrichtungen, die auf jede Eingabeaufforderung und jedes Ereignis angewendet werden. KI-Prompt-Protokoll-Interaktionen überwachen | Überwachen von Ereignisprotokoll-Interaktionen |
Optimierung für das KI-Governance-KI-Prompt-Protokoll : Neue Toxizitätsanalyse und System-Eingabeaufforderung/Nutzer-Eingabeaufforderung
|
Optimierung für das KI-Governance-Ereignisprotokoll : Neue Toxizitätsanalyse und System-Eingabeaufforderung/Nutzer-Eingabeaufforderung
|
Korrekturen
Die Modelle Anthropic Claude 2.1 und Anthropic Claude 3.5, die auf Amazon Bedrock nicht als feinabgestimmte Modelle unterstützt werden, wurden aus den verfügbaren Modelloptionen innerhalb der Amazon Bedrock feinabgestimmten Typen entfernt. Zuvor wurden diese Modelle fälschlicherweise in der Modellauswahl angezeigt, wenn unter Amazon Bedrock der Typ Feinabgestimmt ausgewählt wurde. |
Korrektur für ein Problem, bei dem KI-Governance-Protokolle für API-Aufgaben im Echtzeitmodus (beaufsichtigte Automatisierung) nicht unterstützt wurden. Dieses Problem wurde in dieser Version behoben. |
Einschränkungen
Ordner KI-Schutzvorrichtungen zuweisen
|
Beim Klicken auf einen Modellnamen, der Sonderzeichen enthält (wie "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":" oder Wörter, die in Anführungszeichen stehen) im KI-Governance-Dashboard auf dem Startbildschirm des Meistgenutzte Modelle-Widgets, wird eine Fehlermeldung angezeigt, die dem folgenden Screenshot ähnelt. Dies tritt auf, weil die Suchfunktion im KI-Governance-Dashboard derzeit diese Sonderzeichen nicht unterstützt.
|
Das Feld Ordner innerhalb der Dateieigenschaften einer KI-Fähigkeit oder einer KI-Fähigkeiten-Vorlage funktioniert derzeit nicht wie vorgesehen. Das Ändern des Ordnerstandorts in diesem Bildschirm verschiebt die KI-Fähigkeit oder die KI-Fähigkeiten-Vorlage nicht tatsächlich an den angegebenen Ort, wenn die Änderungen gespeichert werden. |
Test mit KI-Schutzvorrichtung ist für die System-Eingabeaufforderung in der KI-Fähigkeiten nicht verfügbar
Der Test mit der KI-Schutzvorrichtung wird derzeit im KI-Fähigkeitenen-Editor für Systemaufforderungen nicht unterstützt. Während Schutzvorrichtungen bei System-Eingabeaufforderungen korrekt funktionieren, wenn sie innerhalb von Automatisierungen verwendet und zur Laufzeit ausgeführt werden. Das bedeutet, dass Sie die Anwendung von Schutzvorrichtungen auf System-Eingabeaufforderungen während der Entwicklungsphase der KI-Fähigkeit nicht direkt testen können. Diese Einschränkung betrifft nur das Testen mit KI-Schutzvorrichtungen. |
KI-Fähigkeit
API-Aufgabe Protokollierungsproblem
KI-Fähigkeit Ausführungen, die über On-Demand-API-Aufgaben ausgelöst werden, protokollieren keine Antworten im KI-Governance-Ereignisprotokoll. Hinzufügen einer Verzögerungsaktion von mindestens 1 Sekunde nach der KI-Fähigkeit: Die Ausführung von Aktionen für alle On-Demand-API-Aufgabe-Ausführungen ist eine aktuelle temporäre Lösung, um dieses Protokollierungsproblem zu beheben.
|