AI Agent Studio v.36 Veröffentlichung

Sehen Sie sich neue Funktionen und Änderungen sowie Fehlerbehebungen und Einschränkungen in AI Agent Studio v.36 an.

Neue Funktionen

KI-Schutzvorrichtungen

Diese Veröffentlichung führt KI-Schutzvorrichtungen ein, eine neue Funktion zum Schutz sensibler Daten und zur Förderung einer verantwortungsvollen Nutzung von KI. KI-Schutzvorrichtungen schützen sensible Daten, indem sie PII, PHI und PCI in Aufforderungen, die an LLMs gesendet werden, maskieren. Darüber hinaus überwachen sie Eingaben und Antworten auf potenziell anstößige Sprache. Administratoren können Regeln zur Datenmaskierung konfigurieren und sie bestimmten Ordnern zuweisen, um einen konsistenten Datenschutz in allen Automatisierungen zu gewährleisten.

Wichtig: Das KI-Schutzvorrichtungen-Angebot ist ab Automation 360-Cloud verfügbar und kann mit der KI-Schutzvorrichtung-Lizenz (Anzahl der LLM-Eingabeaufforderungen) zusammen mit der Enterprise Platform-Lizenz genutzt werden. Einzelheiten zu dieser Lizenz finden Sie unter Enterprise Platform.

KI-Schutzvorrichtungen

System-Eingabeaufforderung in KI-Fähigkeiten

Innerhalb von KI-Fähigkeiten wird eine neue Funktion namens System-Eingabeaufforderung eingeführt. Dieses optionale Feld, das für jeden sichtbar ist, der Zugriff auf die Ansicht oder Bearbeitung der KI-Fähigkeit hat. Darin können Sie anfängliche Anleitungen oder Kontext für das zugrunde liegende Modell bereitstellen. Die System-Eingabeaufforderung hilft, das Modell zu orientieren oder zu verankern, beeinflusst seine Reaktionen auf Nutzereingaben und macht Ergebnisse relevanter und genauer. Das Feld System-Eingabeaufforderung wird für alle Modelle angezeigt. Für Modelle, die System-Eingabeaufforderung unterstützen, wird der bereitgestellte Text als System-Eingabeaufforderung gesendet. Für Modelle, die System-Eingabeaufforderungen nicht unterstützen, wird der im Feld System-Eingabeaufforderung angegebene Text an das Nutzer-Eingabeaufforderung angehängt.

System-Eingabeaufforderung

Aktivieren oder deaktivieren Sie KI-Schutzvorrichtungen-Richtlinien global innerhalb des Control Rooms

Administratoren können jetzt die KI-Schutzvorrichtungen im Control Room mit einer Cloud-Lizenz aktivieren, indem sie zu Administration > Einstellungen > KI-Schutzvorrichtungen navigieren.

Wenn diese Einstellung aktiviert ist, können professionelle Entwickler KI-Schutzvorrichtungen erstellen, um Regeln zum Schutz sensibler Informationen durchzusetzen und die verantwortungsvolle Nutzung von KI zu fördern.

Zuweisung von Rollen und Berechtigung zur Aktivierung von KI-Schutzvorrichtungen

Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Modellverbindungen mithilfe von Azure OpenAI-Grounding durch AI Search zu erstellen

Erstellen Sie Grounding durch AI Search-Modellverbindungen unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um Informationen aus Azure AI Search-Indizes abzurufen und genauere und relevantere Antworten zu erhalten.

Grounded-Modellverbindungen mit Azure OpenAI-RAG-Fähigkeit erstellen

Benutzerdefinierte Modelldefinitionen – Authentifizieren mit AWS Signature-Authentifizierung

Diese Version führt die Unterstützung für die AWS Signature-Authentifizierung ein, wenn benutzerdefinierte Modelle in AI Agent Studio definiert werden. Mit dieser Verbesserung können Sie nahtlos mit einer größeren Auswahl an AWS-basierten KI/ML-Diensten integrieren, die diese Authentifizierungsmethode verwenden. Sie können jetzt den authType auf AWS SIGNATURE setzen, wenn Sie ein neues benutzerdefiniertes Modell definieren. Beispiel: "authType" : "AWS_SIGNATURE_V4". Hierfür müssen die erforderlichen AWS-Anmeldeinformationen bereitgestellt werden – Access Key ID, Secret Access Key, Session Key (Optional), Region.

Beispiel:

{
   "name":"Bedrock - Claude2.1",
   "description":"string",
   "version":"string",
   "auth_action":{
      "auth_type":"AWS_SIGNATURE_V4",
      "awsSignatureV4":{
         "accessKey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "secretkey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "sessionkey":{
            "location":"header",
            "keyName":"aws_sign_session_key"
         }
      }
   },
   "api_type":"REST",
   "actions":[
      {
         .... 
      }
   ]
}

Benutzerdefinierte Modelldefinitionen

Benutzerdefinierte Modelldefinitionen – Vorhandenes Modell aktualisieren

Diese Version führt die Möglichkeit ein, bestehende benutzerdefinierte Modelldefinitionen mit den neu eingeführten PUT- und PATCH-Methoden zu ändern. Bisher wurden Änderungen an einem bestehenden benutzerdefinierten Modell nicht unterstützt.

PUT (Gesamtes Modell ersetzen/aktualisieren): Verwenden Sie den PUT-Endpunkt, um eine vorhandene benutzerdefinierte Modelldefinition vollständig zu ersetzen oder zu aktualisieren. Diese Methode wird verwendet, wenn Sie mehrere Eigenschaften des Modells aktualisieren müssen.
PUT https://{ControlRoom}/gai/prompttools/v1/custommodel
Anmerkung: Diese Aktion ist auf benutzerdefinierte Modelle beschränkt, die keine zugehörigen Modellverbindungen haben.
PATCH (Teilaktualisierung – Name und Beschreibung): Verwenden Sie den PATCH-Endpunkt, um nur den Namen und die Beschreibung einer vorhandenen benutzerdefinierten Modelldefinition zu aktualisieren.
PATCH https://{ControlRoom}/gai/prompttools/v1/custommodel

Beide Endpunkte erfordern den vendorName und modelName, um das benutzerdefinierte Modell zu identifizieren, das aktualisiert werden soll, und geben bei erfolgreicher Ausführung eine 200 OK-Antwort mit den aktualisierten Modelldetails zurück.

Benutzerdefinierte Modelldefinitionen

Benutzerdefinierte Modelldefinitionen – Liste der benutzerdefinierten Modell-API, kann nach Anbieternamen gefiltert werden

Diese Version führt die Möglichkeit ein, die Liste der benutzerdefinierten Modelle nach Anbieternamen zu filtern und die Ergebnisse basierend auf bestimmten Kriterien zu sortieren.

POST https://{ControlRoom}/gai/prompttools/v1/custommodel/list
Anforderungstext:
{
   "sort":[
      {
         "field":"name",
         "direction":"asc"
      }
   ],
   "filter":{
      "operator":"and",
      "operands":[
         {
            "operator":"eq",
            "field":"name",
            "value":"CustomVendor"
         }
      ]
   }
}

AI Agent Studio API

Unterstützung für die RAG-Fähigkeit in AI Agent Studio, um fundierte Modellverbindungen mithilfe von Azure OpenAI-Grounding durch AI Search zu erstellen

Erstellen Sie Grounding durch AI Search-Modellverbindungen unter Verwendung der nativen RAG-Funktion (retrieval-augmented generation) von Azure OpenAI, um umfassende Sucherlebnisse zu gestalten, die große Sprachmodelle mit Unternehmensdaten von Azure AI Search kombinieren.

Grounded-Modellverbindungen mit Azure OpenAI-RAG-Fähigkeit erstellen

Einführung des GenAI-Modellaufruf-Widgets

Das neue GenAI-Modell ruft das Widget im KI-Governance-Dashboard auf dem Startbildschirm auf, das die Top 5 der in den Automatisierungen verwendeten GenAI-Modelle anzeigt. Durch Klicken auf einen Modellnamen gelangen Sie zum KI-Governance-Ereignisprotokoll, das bereits für dieses Modell vorgefiltert ist.

Verwenden von KI-Governance-Dashboard-Widgets

Änderungen

Verbesserungen der benutzerdefinierten Modellintegration (Service Cloud-Fall-ID: 02147228)

Sie können jetzt Ihre eigenen proprietären LLM-Wrapper-APIs mit AI Agent Studio nutzen. Hauptmerkmale umfassen APIs zum Erstellen, Lesen, Aktualisieren und Löschen benutzerdefinierter Modelldefinitionen, die eine nahtlose Integration und Verwaltung benutzerdefinierter Modelle innerhalb von AI Agent Studio ermöglichen.

Benutzerdefinierte Modelldefinitionen

Rollen im Modellverbindungen-Erstellungs-Assistenten suchen und hinzufügen

Sie können jetzt Rollen suchen und hinzufügen, während Sie Modellverbindungen erstellen.

Modellverbindungen erstellen und verwalten

Verbesserte KI-Governance-Protokollierung für die Ausführung von übergeordneten/untergeordneten Bots

KI-Governance-Protokolle bieten jetzt eine verbesserte Sichtbarkeit in die Bot-Ausführung, indem sie die Details des übergeordneten Bots genau widerspiegeln, wenn untergeordnete Bots initiiert werden. Dies gilt sowohl für Generative KI-Befehls-Pakete als auch für Automatisierungen, die KI-Fähigkeiten nutzen. Zuvor zeigten Protokolle Informationen über den untergeordneten Bot an, was zu Inkonsistenzen führte. Dank dieser Verbesserung enthalten Protokolle jetzt die ID des übergeordneten Bots, den Namen und den Ordnerpfad für verbesserte Prüfpfade. Zum Beispiel, wenn der übergeordnete Bots mit der ID 103 einen untergeordneten Bot auslöst, werden die Protokolle korrekt 103 anzeigen, nicht die ID des untergeordneten Bots. Diese Verbesserung betrifft sowohl die Eingabeaufforderungs- als auch die Ereignisprotokolle innerhalb von KI-Governance.

KI-Governance

KI-Governance KI-Prompt-Protokoll- und Ereignisprotokoll-Registerkarten: Neue Spalte fürKI-Schutzvorrichtungen

Eine neue Spalte, KI-Schutzvorrichtung, wurde zu den Bildschirmen KI-Governance KI-Prompt-Protokoll und Ereignisprotokoll hinzugefügt. Ein neues Feld KI-Schutzvorrichtung ist ebenfalls in den Sitzungsdetails oder Ereignissen enthalten, wenn Sie einzelne Eingabeaufforderungs- oder Ereignisprotokolle öffnen. Diese Spalte enthält Informationen über die spezifischen Schutzvorrichtungen, die auf jede Eingabeaufforderung und jedes Ereignis angewendet werden.

KI-Prompt-Protokoll-Interaktionen überwachen | Überwachen von Ereignisprotokoll-Interaktionen

Optimierung für das KI-Governance-KI-Prompt-Protokoll : Neue Toxizitätsanalyse und System-Eingabeaufforderung/Nutzer-Eingabeaufforderung
  1. Gesamte Toxizität: Toxizitätswerte werden jetzt sowohl für die System- als auch für die Benutzereingaben angezeigt.
  2. Reaktionstoxität: Der Toxizitätsgrad der Antwort des LLM ist ebenfalls enthalten, was eine bessere Bewertung des generierten Inhalts ermöglicht.
  3. Anzeige beider Eingabeauforderungen: Sowohl die System-Eingabeaufforderung als auch die Nutzer-Eingabeaufforderung sind jetzt deutlich sichtbar. Dies klärt den Kontext der Interaktion, insbesondere mit der Einführung von System-Eingabeaufforderungen neben Nutzer-Eingabeaufforderungen. Das vorherige Feld Eingabeaufforderung wurde in Benutzer-Eingabeaufforderung umbenannt.
  4. Modellverbindungstyp: Der KI-Prompt-Protokoll zeigt jetzt den Modellverbindungstyp an, der detailliert beschreibt, wie Modelle verbunden sind, wie zum Beispiel Standard, Feinabstimmung oder verschiedene grounded Optionen.

KI-Prompt-Protokoll-Interaktionen überwachen

Optimierung für das KI-Governance-Ereignisprotokoll : Neue Toxizitätsanalyse und System-Eingabeaufforderung/Nutzer-Eingabeaufforderung
  1. Gesamte Toxizität: Toxizitätswerte werden jetzt sowohl für die System- als auch für die Benutzereingaben angezeigt.
  2. Reaktionstoxität: Der Toxizitätsgrad der Antwort des LLM ist ebenfalls enthalten, was eine bessere Bewertung des generierten Inhalts ermöglicht.
  3. Anzeige beider Eingabeauforderungen: Sowohl die System-Eingabeaufforderung als auch die Nutzer-Eingabeaufforderung sind jetzt deutlich sichtbar. Dies klärt den Kontext der Interaktion, insbesondere mit der Einführung von System-Eingabeaufforderungen neben Nutzer-Eingabeaufforderungen. Das vorherige Feld Eingabeaufforderung wurde in Benutzer-Eingabeaufforderung umbenannt.
  4. Modellverbindungstyp: Der Ereignisprotokoll zeigt jetzt den Modellverbindungstyp an, der detailliert beschreibt, wie Modelle verbunden sind, wie zum Beispiel Standard, Feinabstimmung oder verschiedene grounded Optionen.

Überwachen von Ereignisprotokoll-Interaktionen

Korrekturen

Die Modelle Anthropic Claude 2.1 und Anthropic Claude 3.5, die auf Amazon Bedrock nicht als feinabgestimmte Modelle unterstützt werden, wurden aus den verfügbaren Modelloptionen innerhalb der Amazon Bedrock feinabgestimmten Typen entfernt. Zuvor wurden diese Modelle fälschlicherweise in der Modellauswahl angezeigt, wenn unter Amazon Bedrock der Typ Feinabgestimmt ausgewählt wurde.
Korrektur für ein Problem, bei dem KI-Governance-Protokolle für API-Aufgaben im Echtzeitmodus (beaufsichtigte Automatisierung) nicht unterstützt wurden. Dieses Problem wurde in dieser Version behoben.

Einschränkungen

Ordner KI-Schutzvorrichtungen zuweisen
  • KI-Schutzvorrichtungen kann nur übergeordneten Ordnern zugewiesen werden. Unterordner innerhalb des übergeordneten Ordners erben keine oder haben keine spezifischen Schutzvorrichtungszuweisungen.
  • Wenn ein übergeordneter Bot einen untergeordneten Bot aufruft, der sich in einem anderen Ordner befindet, wird die Schutzvorrichtungsrichtlinie des Ordners des übergeordneten Bots angewendet.
Beim Klicken auf einen Modellnamen, der Sonderzeichen enthält (wie "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":" oder Wörter, die in Anführungszeichen stehen) im KI-Governance-Dashboard auf dem Startbildschirm des Meistgenutzte Modelle-Widgets, wird eine Fehlermeldung angezeigt, die dem folgenden Screenshot ähnelt. Dies tritt auf, weil die Suchfunktion im KI-Governance-Dashboard derzeit diese Sonderzeichen nicht unterstützt.

Fehlermeldung beim Klicken auf Modellname mit Sonderzeichen

Das Feld Ordner innerhalb der Dateieigenschaften einer KI-Fähigkeit oder einer KI-Fähigkeiten-Vorlage funktioniert derzeit nicht wie vorgesehen. Das Ändern des Ordnerstandorts in diesem Bildschirm verschiebt die KI-Fähigkeit oder die KI-Fähigkeiten-Vorlage nicht tatsächlich an den angegebenen Ort, wenn die Änderungen gespeichert werden.
Test mit KI-Schutzvorrichtung ist für die System-Eingabeaufforderung in der KI-Fähigkeiten nicht verfügbar

Der Test mit der KI-Schutzvorrichtung wird derzeit im KI-Fähigkeitenen-Editor für Systemaufforderungen nicht unterstützt. Während Schutzvorrichtungen bei System-Eingabeaufforderungen korrekt funktionieren, wenn sie innerhalb von Automatisierungen verwendet und zur Laufzeit ausgeführt werden. Das bedeutet, dass Sie die Anwendung von Schutzvorrichtungen auf System-Eingabeaufforderungen während der Entwicklungsphase der KI-Fähigkeit nicht direkt testen können. Diese Einschränkung betrifft nur das Testen mit KI-Schutzvorrichtungen.

KI-Fähigkeit API-Aufgabe Protokollierungsproblem

KI-Fähigkeit Ausführungen, die über On-Demand-API-Aufgaben ausgelöst werden, protokollieren keine Antworten im KI-Governance-Ereignisprotokoll. Hinzufügen einer Verzögerungsaktion von mindestens 1 Sekunde nach der KI-Fähigkeit: Die Ausführung von Aktionen für alle On-Demand-API-Aufgabe-Ausführungen ist eine aktuelle temporäre Lösung, um dieses Protokollierungsproblem zu beheben.

KI-Fähigkeit Problem mit der Ausführungsprotokollierung mit On-Demand-API-Aufgaben