Découvrez les nouveautés, les modifications, ainsi que les correctifs et les limitations de AI Agent Studio pour la version v.36.

Nouveautés

AI Guardrails

Cette version introduit AI Guardrails, une nouvelle fonctionnalité qui protège les données sensibles et promeut l\'utilisation responsable de l\'IA. Les AI Guardrails protègent les données sensibles en masquant les PII, les PHI et les PCI dans les invites envoyées aux LLM. De plus, ils surveillent les invites et les réponses pour détecter un langage potentiellement nuisible. Les administrateurs peuvent configurer des règles de masquage des données et les attribuer à des dossiers spécifiques, garantissant ainsi une protection cohérente des données dans toutes les automatisations.

Important : L\'offre AI Guardrails est disponible sur Automation 360 Cloud et sera utilisable avec la licence AI Guardrail (Nombre de demandes LLM) ainsi qu\'avec la licence Enterprise Platform. Pour plus d\'informations sur cette licence, consultez Plateforme Enterprise.

AI Guardrails

System prompt dans le AI Skills

Dans AI Skills, une nouvelle fonctionnalité appelée Invite Système sera introduite. Ce champ facultatif, visible par toute personne ayant accès pour voir ou modifier la AI Skill, vous permet de fournir des instructions ou un contexte initiaux au modèle sous-jacent. Le System prompt aide à orienter ou à ancrer le modèle, influençant ses réponses aux invites des utilisateurs et garantissant des résultats plus pertinents et précis. Le champ System prompt est affiché pour tous les modèles. Pour les modèles qui prennent en charge System prompt, le texte fourni sera envoyé en tant que System prompt. Pour les modèles qui ne prennent pas en charge les invites système, le texte fourni dans le champ System prompt sera placé avant User prompt.

Invite du système

Activer ou désactiver les stratégies AI Guardrails globalement au sein de la Control Room

Les administrateurs peuvent désormais activer les AI Guardrails dans la Control Room avec une licence cloud en accédant à Administration > Paramètres > AI Guardrails .

Lorsque ce paramètre est activé, les développeurs professionnels peuvent créer AI Guardrails pour appliquer des règles visant à protéger les informations sensibles et promouvoir l\'utilisation responsable de l\'IA.

Attribution des rôles et des autorisations pour activer la AI Guardrails

Prise en charge de la capacité RAG dans AI Agent Studio pour créer des Model connections ancrés à l\'aide de Azure OpenAI Grounded by AI Search

Créez des Grounded by AI Search Model connections en utilisant la capacité native de RAG (génération augmentée par extraction) de Azure OpenAI pour extraire des informations des index Azure AI Search pour des réponses plus précises et pertinentes.

Créer Grounded Model connections avec Azure OpenAI RAG la capacité

Tester les AI guardrail dans les AI Skills

Améliorez la fiabilité et la sécurité de vos AI Skills en les testant avec les AI Guardrails avant le déploiement. Cette nouvelle fonctionnalité vous permet de simuler les effets des garde-fous que vous avez choisis sur les invites et les réponses du modèle. Cette mise à jour fournit des résultats sur la toxicité et le masquage des données. Vous pouvez cliquer sur l\'option afficher l\'exécution du masquage des données pour révéler les valeurs masquées tokenisées des données sensibles. Obtenez des informations précieuses sur la façon dont votre AI Skill fonctionnera dans un environnement de production avec des garde-fous activés. Accédez à cette fonctionnalité dans l\'éditeur AI Skills et consultez les journaux AI Governance pour un enregistrement détaillé de chaque test.

Créer AI Skills

Définitions de modèle personnalisé - s\'authentifier avec l\'authentification AWS Signature

Cette version introduit la prise en charge de l\'authentification AWS Signature lors de la définition de modèles personnalisés dans AI Agent Studio. Cette amélioration vous permet de vous intégrer de manière transparente à un plus large éventail de services IA/ML basés sur AWS qui utilisent cette méthode d\'authentification. Vous pouvez désormais définir le authType sur SIGNATURE AWS lors de la création d\'un nouveau modèle personnalisé. Par exemple : "authType" :« AWS_SIGNATURE_V4 » Cela nécessitera de fournir les informations d\'identification AWS nécessaires - Access Key ID, Secret Access Key, Session Key (facultatif), Region.

Par exemple :

{
   "name":"Bedrock - Claude2.1",
   "description":"string",
   "version":"string",
   "authAction":{
      "authType":"AWS_SIGNATURE_V4",
      "awsSignatureV4":{
         "accessKey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "secretkey":{
            "location":"header",
            "keyName":"aws_sign_access_key"
         },
         "sessionkey":{
            "location":"header",
            "keyName":"aws_sign_session_key"
         }
      }
   },
   "api_type":"REST",
   "actions":[
      {
         .... 
      }
   ]
}

Définitions de modèles personnalisés

Définitions de modèle personnalisé - Mettre à jour le modèle existant

Cette version introduit la possibilité de modifier les définitions de modèles personnalisés existants en utilisant les nouvelles méthodes PUT et PATCH. Auparavant, les modifications d\'un modèle personnalisé existant n\'étaient pas prises en charge.

PUT (Remplacer/Mettre à jour l\'ensemble du modèle) : Utilisez le point de terminaison PUT pour remplacer ou mettre à jour complètement une définition de modèle personnalisé existante. Cette méthode est utilisée lorsque vous devez mettre à jour plusieurs propriétés du modèle.
PUT https://{ControlRoom}/gai/prompttools/v1/custommodel
Remarque : Cette action est limitée aux modèles personnalisés qui n\'ont pas de connexions de modèle associées.
[Mise à jour partielle - Nom et description] : Utilisez le point de terminaison PATCH pour ne mettre à jour que le nom et la description d\'une définition de modèle personnalisé existante.
PATCH https://{ControlRoom}/gai/prompttools/v1/custommodel

Les deux points de terminaison nécessitent le vendorName et le modelName pour identifier le modèle personnalisé à mettre à jour, et renverront une réponse 200 OK avec les détails du modèle mis à jour après une exécution réussie.

Définitions de modèles personnalisés

Définitions de modèles personnalisés - Liste de l\'API des modèles personnalisés, pouvant être filtrée par nom de fournisseur

Cette version introduit la possibilité de filtrer la liste des modèles personnalisés par nom de fournisseur et de trier les résultats selon des critères spécifiques.

POST https://{ControlRoom}/gai/prompttools/v1/custommodel/list
Corps de la demande :
{
   "sort":[
      {
         "field":"name",
         "direction":"asc"
      }
   ],
   "filter":{
      "operator":"and",
      "operands":[
         {
            "operator":"eq",
            "field":"name",
            "value":"CustomVendor"
         }
      ]
   }
}

API IA Agent Studio

Prise en charge de la capacité RAG dans AI Agent Studio pour créer des Model connections ancrés à l\'aide de Azure OpenAI Grounded by AI Search

Créez Grounded by AI Search Model connections en utilisant la capacité native de RAG (génération augmentée par extraction) de Azure OpenAI pour construire des expériences de recherche enrichies qui combinent de grands modèles de langage avec les données d\'entreprise de Azure AI Search.

Créer Grounded Model connections avec Azure OpenAI RAG la capacité

Présentation du widget d\'appels de modèle GenAI

Le nouveau modèle GenAI appelle le widget dans le tableau de bord AI Governance sur l\'écran d\'accueil, affichant les 5 principaux modèles GenAI utilisés dans les automatisations. En cliquant sur le nom d\'un modèle, vous accédez au journal des événements AI Governance, pré-filtré pour ce modèle.

Utilisation des widgets du tableau de bord AI Governance

Qu\'est-ce qui a changé ?

Améliorations de l\'intégration du modèle personnalisé (ID de cas Service Cloud : 02147228)

AI Agent Studio prend maintenant en charge l\'intégration de modèles de langage de grande taille (LLM) personnalisés que vous avez développés ou déployés. Cette fonctionnalité inclut désormais des API pour la gestion complète du cycle de vie de ces modèles personnalisés, y compris la définition, la récupération, la modification et la suppression de ceux-ci, vous offrant la possibilité d\'utiliser des modèles d\'IA spécialisés au sein de AI Agent Studio.

Définitions de modèles personnalisés

Rechercher et ajouter des rôles dans l\'assistant de création Model connections

Vous pouvez désormais rechercher et ajouter des rôles lors de la création des Model connections.

Création et gestion de Model connections

Amélioration de la journalisation AI Governance pour l\'exécution du Bot parent/enfant

Les journaux AI Governance offrent désormais une visibilité améliorée sur l\'exécution du robot en reflétant avec précision les détails du Bot parent lors de l\'initiation des robots enfants, applicable à la fois aux packages de commande d\'IA générative et aux automatisations utilisant AI Skills. Auparavant, les journaux affichaient des informations sur le robot enfant, créant une incohérence. Cette amélioration garantit que les journaux incluent désormais l\'ID du parent Bot, le nom et le chemin du dossier pour améliorer les pistes d\'audit. Par exemple, si le Bot parent ID 103 déclenche un robot enfant, les journaux afficheront correctement 103, et non l\'ID du robot enfant. Cette amélioration affecte à la fois les journaux d\'invite et d\'événements au sein de AI Governance.

AI Governance

AI Governance AI prompt logOnglets Event log et  : Nouvelle colonne AI guardrail

Une nouvelle colonne, AI guardrail, a été ajoutée aux écransAI Governance AI prompt log et Event log . Un nouveau champ AI guardrail est également inclus dans les détails de la session ou des événements lorsque vous ouvrez les journaux d\'invite ou d\'événements individuels. Cette colonne fournit des informations sur les garde-fous spécifiques appliqués à chaque invite et événement.

AI prompt log | Event log

Amélioration apportée à etAI Governance AI prompt log : Nouvelle analyse de toxicité et System prompt/User prompt
  1. Toxicité globale : Les scores de toxicité sont désormais affichés pour les invites système et de l\'utilisateur.
  2. Toxicité de la réponse : Le niveau de toxicité de la réponse du LLM est également inclus, permettant une meilleure évaluation du contenu généré.
  3. Affichage à double invite : System prompt et User prompt sont maintenant toutes deux clairement affichées. Cela clarifie le contexte de l\'interaction, notamment avec l\'introduction des invites système en plus des invites utilisateur. Le champ Invite précédent a été renommé en Invite utilisateur.
  4. Type de connexion du modèle : Le AI prompt log affiche désormais le Type de connexion du modèle détaillant comment les modèles sont connectés, tels que Standard, Ajusté ou diverses options ancrées.

AI prompt log

Amélioration apportée à etAI Governance Event log : Nouvelle analyse de toxicité et System prompt/User prompt
  1. Toxicité globale : Les scores de toxicité sont désormais affichés pour les invites système et de l\'utilisateur.
  2. Toxicité de la réponse : Le niveau de toxicité de la réponse du LLM est également inclus, permettant une meilleure évaluation du contenu généré.
  3. Affichage à double invite : System prompt et User prompt sont maintenant toutes deux clairement affichées. Cela clarifie le contexte de l\'interaction, notamment avec l\'introduction des invites système en plus des invites utilisateur. Le champ Invite précédent a été renommé en Invite utilisateur.
  4. Type de connexion du modèle : Le Event log affiche désormais le Type de connexion du modèle détaillant comment les modèles sont connectés, tels que Standard, Ajusté ou diverses options ancrées.

Event log

Correctifs

Les modèles Anthropic Claude 2.1 et Anthropic Claude 3.5, qui ne sont pas pris en charge sur Amazon Bedrock en tant que modèles ajustés, ont été retirés des options de modèles disponibles dans les types ajustés Amazon Bedrock. Auparavant, ces modèles étaient affichés de manière incorrecte dans la sélection de modèles lors du choix de l\'option Ajusté comme type sous Amazon Bedrock.
Correction d\'un problème où les journaux AI Governance n\'étaient pas pris en charge pour l\'exécution API Tasks en mode temps réel (automatisation assistée). Cette limitation a été résolue dans cette version.
Correction du message d\'erreur trompeur qui indique à tort que le Bot Agent nécessite une mise à jour pour une journalisation AI Governance précise. Auparavant, cette erreur a été observée dans les sections AI Governance, spécifiquement les AI prompt log et Event log pour les versions Bot Agent 22.100.xx ou ultérieures.
Correctif pour un problème où vous recevez incorrectement une notification vous invitant à effectuer une mise à jour du Bot Agent pour les journaux d\'audit de la gouvernance de l\'IA. Auparavant, cette notification apparaissait incorrectement dans les paramètres Administration > Paramètres > Gestion des données IA > Paramètres de journalisation des données et les journaux AI Governance ( AI prompt log et Event log) même lors de l\'utilisation de versions du Bot Agent compatibles (22.60.10 et ultérieures).
Correctif pour un problème vous empêchant d\'ajouter ap-southeast-2 comme région lors de la création d\'une Model connection. Auparavant, saisir ap-southeast-2 n\'ajoutait pas correctement la région.

ID de cas Service Cloud : 02175254

Correction d\'un problème vous empêchant de créer un(e) Model connection lors de l\'utilisation de Automation Anywhere Enterprise Knowledge. Auparavant, tenter de créer le Model connection échouait.

ID de cas Service Cloud: 02204046

Limites

Affectation de dossiers à AI Guardrails
  • AI Guardrails ne peut être attribué qu\'aux dossiers parents. Les dossiers enfant dans le dossier parent n\'héritent pas ou n\'ont pas d\'assignations spécifiques de garde-fou.
  • Lorsqu\'un robot parent invoque un robot enfant résidant dans un dossier différent, la politique de garde-fou associée au dossier du robot parent sera appliquée.
Erreur sur la page de destination des garde-fous : Fichier non trouvé

Dans cette version, vous pourriez rencontrer une erreur Fichier introuvable lors de la tentative d\'accès à la page de destination des garde-fous. Cela se produit si vous n\'avez pas les autorisations Voir le contenu pour un dossier auquel un garde-fou est attribué, que ce garde-fou ait été créé par vous ou un autre utilisateur, ou s\'il vous est directement attribué. Cette limitation empêche la navigation générale et la gestion des garde-fous.

Lorsqu\'on clique sur un nom de modèle contenant des caractères spéciaux (tels que "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":", ou des mots entre guillemets doubles) dans l\'onglet du tableau de bord AI Governance sur l\'écran d\'accueil, un message d\'erreur s\'affiche, similaire à la capture d\'écran suivante. Cela se produit parce que la fonctionnalité de recherche dans le tableau de bord AI Governance ne prend actuellement pas en charge ces caractères spéciaux.

Message d\'erreur lors du clic sur un nom de modèle contenant des caractères spéciaux

Le champ Dossier dans les Propriétés du fichier d\'un modèle AI Skill ou AI Skill ne fonctionne pas comme prévu actuellement. Modifier l\'emplacement du dossier dans cet écran ne déplace pas réellement le modèle AI Skill ou AI Skill vers l\'emplacement spécifié lorsque les modifications sont enregistrées.
Test avec AI guardrail indisponible pour System prompt dans AI Skills

Le test avec AI guardrail n\'est actuellement pas pris en charge pour les invites système dans l\'éditeur AI Skills. Les garde-fous fonctionnent cependant correctement pour les invites système lorsqu\'ils sont utilisés dans des automatisations et exécutés en temps réel. Cela signifie que vous ne pouvez pas tester directement l\'application des garde-fous aux invites système pendant la phase de développement AI Skill. Cette limitation n\'affecte que les tests avec AI guardrail.

AI Skill API TaskProblème de journalisation

Les exécutions AI Skill déclenchées à la demande via API Tasks ne consignent pas les réponses dans le AI Governance Event log. Ajout d\'une action de délai d\'au moins 1 seconde après le AI Skill : Exécuter l\'action pour toutes les exécutions API Task à la demande est une solution temporaire actuelle pour résoudre ce problème de journalisation.


AI SkillProblème de journalisation d\'exécution avec les à la demandeAPI Tasks

Mises à jour de l\'interface

AI Guardrails
Un nouveau menu de navigation est introduit pour accéder à AI Guardrails :

Nouvelle navigation pour accéder à AI Guardrails

AI Guardrails