Publication de AI Agent Studio v.36
- Dernière mise à jour2025/07/07
Nouveautés
AI Guardrails
Cette version introduit AI Guardrails, une nouvelle fonctionnalité qui protège les données sensibles et promeut l\'utilisation responsable de l\'IA. Les AI Guardrails protègent les données sensibles en masquant les PII, les PHI et les PCI dans les invites envoyées aux LLM. De plus, ils surveillent les invites et les réponses pour détecter un langage potentiellement nuisible. Les administrateurs peuvent configurer des règles de masquage des données et les attribuer à des dossiers spécifiques, garantissant ainsi une protection cohérente des données dans toutes les automatisations. Important : L\'offre AI Guardrails est disponible sur Automation 360
Cloud et sera utilisable avec la licence AI Guardrail (Nombre de demandes LLM) ainsi qu\'avec la licence Enterprise Platform. Pour plus d\'informations sur cette licence, consultez Plateforme Enterprise.
|
System prompt dans le AI Skills
Dans AI Skills, une nouvelle fonctionnalité appelée Invite Système sera introduite. Ce champ facultatif, visible par toute personne ayant accès pour voir ou modifier la AI Skill, vous permet de fournir des instructions ou un contexte initiaux au modèle sous-jacent. Le System prompt aide à orienter ou à ancrer le modèle, influençant ses réponses aux invites des utilisateurs et garantissant des résultats plus pertinents et précis. Le champ System prompt est affiché pour tous les modèles. Pour les modèles qui prennent en charge System prompt, le texte fourni sera envoyé en tant que System prompt. Pour les modèles qui ne prennent pas en charge les invites système, le texte fourni dans le champ System prompt sera placé avant User prompt. |
Activer ou désactiver les stratégies AI Guardrails globalement au sein de la Control Room
Les administrateurs peuvent désormais activer les AI Guardrails dans la Control Room avec une licence cloud en accédant à . Lorsque ce paramètre est activé, les développeurs professionnels peuvent créer AI Guardrails pour appliquer des règles visant à protéger les informations sensibles et promouvoir l\'utilisation responsable de l\'IA. Attribution des rôles et des autorisations pour activer la AI Guardrails |
Prise en charge de la capacité RAG dans AI Agent Studio pour créer des Model connections ancrés à l\'aide de Azure OpenAI
Grounded by AI Search
Créez des Grounded by AI Search Model connections en utilisant la capacité native de RAG (génération augmentée par extraction) de Azure OpenAI pour extraire des informations des index Azure AI Search pour des réponses plus précises et pertinentes. Créer Grounded Model connections avec Azure OpenAI RAG la capacité |
Tester les AI guardrail dans les AI Skills
Améliorez la fiabilité et la sécurité de vos AI Skills en les testant avec les AI Guardrails avant le déploiement. Cette nouvelle fonctionnalité vous permet de simuler les effets des garde-fous que vous avez choisis sur les invites et les réponses du modèle. Cette mise à jour fournit des résultats sur la toxicité et le masquage des données. Vous pouvez cliquer sur l\'option afficher l\'exécution du masquage des données pour révéler les valeurs masquées tokenisées des données sensibles. Obtenez des informations précieuses sur la façon dont votre AI Skill fonctionnera dans un environnement de production avec des garde-fous activés. Accédez à cette fonctionnalité dans l\'éditeur AI Skills et consultez les journaux AI Governance pour un enregistrement détaillé de chaque test. |
Définitions de modèle personnalisé - s\'authentifier avec l\'authentification AWS Signature
Cette version introduit la prise en charge de l\'authentification AWS Signature lors de la définition de modèles personnalisés dans AI Agent Studio. Cette amélioration vous permet de vous intégrer de manière transparente à un plus large éventail de services IA/ML basés sur AWS qui utilisent cette méthode d\'authentification. Vous pouvez désormais définir le Par exemple :
|
Définitions de modèle personnalisé - Mettre à jour le modèle existant
Cette version introduit la possibilité de modifier les définitions de modèles personnalisés existants en utilisant les nouvelles méthodes PUT et PATCH. Auparavant, les modifications d\'un modèle personnalisé existant n\'étaient pas prises en charge.
PUT (Remplacer/Mettre à jour l\'ensemble du modèle) : Utilisez le point de terminaison PUT pour remplacer ou mettre à jour complètement une définition de modèle personnalisé existante. Cette méthode est utilisée lorsque vous devez mettre à jour plusieurs propriétés du modèle.
Remarque : Cette action est limitée aux modèles personnalisés qui n\'ont pas de connexions de modèle associées.
[Mise à jour partielle - Nom et description] : Utilisez le point de terminaison PATCH pour ne mettre à jour que le nom et la description d\'une définition de modèle personnalisé existante.
Les deux points de terminaison nécessitent le |
Définitions de modèles personnalisés - Liste de l\'API des modèles personnalisés, pouvant être filtrée par nom de fournisseur
Cette version introduit la possibilité de filtrer la liste des modèles personnalisés par nom de fournisseur et de trier les résultats selon des critères spécifiques.
Corps de la demande :
|
Prise en charge de la capacité RAG dans AI Agent Studio pour créer des Model connections ancrés à l\'aide de Azure OpenAI
Grounded by AI Search
Créez Grounded by AI Search Model connections en utilisant la capacité native de RAG (génération augmentée par extraction) de Azure OpenAI pour construire des expériences de recherche enrichies qui combinent de grands modèles de langage avec les données d\'entreprise de Azure AI Search. Créer Grounded Model connections avec Azure OpenAI RAG la capacité |
Présentation du widget d\'appels de modèle GenAI
Le nouveau modèle GenAI appelle le widget dans le tableau de bord AI Governance sur l\'écran d\'accueil, affichant les 5 principaux modèles GenAI utilisés dans les automatisations. En cliquant sur le nom d\'un modèle, vous accédez au journal des événements AI Governance, pré-filtré pour ce modèle. |
Qu\'est-ce qui a changé ?
Améliorations de l\'intégration du modèle personnalisé (ID de cas Service Cloud : 02147228) AI Agent Studio prend maintenant en charge l\'intégration de modèles de langage de grande taille (LLM) personnalisés que vous avez développés ou déployés. Cette fonctionnalité inclut désormais des API pour la gestion complète du cycle de vie de ces modèles personnalisés, y compris la définition, la récupération, la modification et la suppression de ceux-ci, vous offrant la possibilité d\'utiliser des modèles d\'IA spécialisés au sein de AI Agent Studio. |
Rechercher et ajouter des rôles dans l\'assistant de création Model connections
Vous pouvez désormais rechercher et ajouter des rôles lors de la création des Model connections. |
Amélioration de la journalisation AI Governance pour l\'exécution du Bot parent/enfant
Les journaux AI Governance offrent désormais une visibilité améliorée sur l\'exécution du robot en reflétant avec précision les détails du Bot parent lors de l\'initiation des robots enfants, applicable à la fois aux packages de commande d\'IA générative et aux automatisations utilisant AI Skills. Auparavant, les journaux affichaient des informations sur le robot enfant, créant une incohérence. Cette amélioration garantit que les journaux incluent désormais l\'ID du parent Bot, le nom et le chemin du dossier pour améliorer les pistes d\'audit. Par exemple, si le Bot parent ID 103 déclenche un robot enfant, les journaux afficheront correctement 103, et non l\'ID du robot enfant. Cette amélioration affecte à la fois les journaux d\'invite et d\'événements au sein de AI Governance. |
AI Governance
AI prompt logOnglets Event log et : Nouvelle colonne AI guardrail
Une nouvelle colonne, AI guardrail, a été ajoutée aux écransAI Governance AI prompt log et Event log . Un nouveau champ AI guardrail est également inclus dans les détails de la session ou des événements lorsque vous ouvrez les journaux d\'invite ou d\'événements individuels. Cette colonne fournit des informations sur les garde-fous spécifiques appliqués à chaque invite et événement. |
Amélioration apportée à etAI Governance
AI prompt log : Nouvelle analyse de toxicité et System prompt/User prompt
|
Amélioration apportée à etAI Governance
Event log : Nouvelle analyse de toxicité et System prompt/User prompt
|
Correctifs
Les modèles Anthropic Claude 2.1 et Anthropic Claude 3.5, qui ne sont pas pris en charge sur Amazon Bedrock en tant que modèles ajustés, ont été retirés des options de modèles disponibles dans les types ajustés Amazon Bedrock. Auparavant, ces modèles étaient affichés de manière incorrecte dans la sélection de modèles lors du choix de l\'option Ajusté comme type sous Amazon Bedrock. |
Correction d\'un problème où les journaux AI Governance n\'étaient pas pris en charge pour l\'exécution API Tasks en mode temps réel (automatisation assistée). Cette limitation a été résolue dans cette version. |
Correction du message d\'erreur trompeur qui indique à tort que le Bot Agent nécessite une mise à jour pour une journalisation AI Governance précise. Auparavant, cette erreur a été observée dans les sections AI Governance, spécifiquement les AI prompt log et Event log pour les versions Bot Agent 22.100.xx ou ultérieures. |
Correctif pour un problème où vous recevez incorrectement une notification vous invitant à effectuer une mise à jour du Bot Agent pour les journaux d\'audit de la gouvernance de l\'IA. Auparavant, cette notification apparaissait incorrectement dans les paramètres et les journaux AI Governance ( AI prompt log et Event log) même lors de l\'utilisation de versions du Bot Agent compatibles (22.60.10 et ultérieures). |
Correctif pour un problème vous empêchant d\'ajouter ap-southeast-2 comme région lors de la création d\'une Model connection. Auparavant, saisir ap-southeast-2 n\'ajoutait pas correctement la région.ID de cas Service Cloud : 02175254 |
Correction d\'un problème vous empêchant de créer un(e) Model connection lors de l\'utilisation de Automation Anywhere Enterprise Knowledge. Auparavant, tenter de créer le Model connection échouait. ID de cas Service Cloud: 02204046 |
Limites
Affectation de dossiers à AI Guardrails
|
Erreur sur la page de destination des garde-fous :
Fichier non trouvé
Dans cette version, vous pourriez rencontrer une erreur Fichier introuvable lors de la tentative d\'accès à la page de destination des garde-fous. Cela se produit si vous n\'avez pas les autorisations Voir le contenu pour un dossier auquel un garde-fou est attribué, que ce garde-fou ait été créé par vous ou un autre utilisateur, ou s\'il vous est directement attribué. Cette limitation empêche la navigation générale et la gestion des garde-fous. |
Lorsqu\'on clique sur un nom de modèle contenant des caractères spéciaux (tels que "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":", ou des mots entre guillemets doubles) dans l\'onglet du tableau de bord AI Governance sur l\'écran d\'accueil, un message d\'erreur s\'affiche, similaire à la capture d\'écran suivante. Cela se produit parce que la fonctionnalité de recherche dans le tableau de bord AI Governance ne prend actuellement pas en charge ces caractères spéciaux.
|
Le champ Dossier dans les Propriétés du fichier d\'un modèle AI Skill ou AI Skill ne fonctionne pas comme prévu actuellement. Modifier l\'emplacement du dossier dans cet écran ne déplace pas réellement le modèle AI Skill ou AI Skill vers l\'emplacement spécifié lorsque les modifications sont enregistrées. |
Test avec AI guardrail indisponible pour System prompt dans AI Skills
Le test avec AI guardrail n\'est actuellement pas pris en charge pour les invites système dans l\'éditeur AI Skills. Les garde-fous fonctionnent cependant correctement pour les invites système lorsqu\'ils sont utilisés dans des automatisations et exécutés en temps réel. Cela signifie que vous ne pouvez pas tester directement l\'application des garde-fous aux invites système pendant la phase de développement AI Skill. Cette limitation n\'affecte que les tests avec AI guardrail. |
AI Skill
API TaskProblème de journalisation
Les exécutions AI Skill déclenchées à la demande via API Tasks ne consignent pas les réponses dans le AI Governance Event log. Ajout d\'une action de délai d\'au moins 1 seconde après le AI Skill : Exécuter l\'action pour toutes les exécutions API Task à la demande est une solution temporaire actuelle pour résoudre ce problème de journalisation. ![]() |
Mises à jour de l\'interface
AI Guardrails |
---|
Un nouveau menu de navigation est introduit pour accéder à AI Guardrails :
|