AI Agent Studio v.37 publication
- Dernière mise à jour2025/08/22
AI Agent Studio v.37 publication
Nouveautés
Nouvelle page Compétences pour la gestion des AI Skills
Présentation de la nouvelle page Compétences, située sous la section IA dans la navigation de gauche. Cette vue centralisée vous permet d\'accéder facilement à toutes vos AI Skills. La page est divisée en deux sections : l\'onglet Compétences pour gérer vos compétences existantes et l\'onglet Modèles pour parcourir et créer des compétences à partir des modèles disponibles, offrant une alternative à la méthode de création précédente via l\'automatisation. |
Amélioré AI Guardrails avec surveillance et blocage de la toxicité
L\'assistant de création des AI Guardrails inclut désormais une section Toxicité dédiée. Cette section permet aux administrateurs de contrôler le langage dans les interactions avec l\'IA. Cette amélioration analyse à la fois les invites d\'entrée et les réponses générées par le modèle de langage, en classant les niveaux de toxicité comme faible, modéré ou élevé. Allant au-delà de la simple surveillance, les administrateurs peuvent désormais configurer des garde-fous pour bloquer activement les invites contenant des niveaux spécifiés de langage toxique avant qu\'elles n\'atteignent le LLM. De même, les garde-fous peuvent bloquer les réponses des modèles de langage qui dépassent les seuils de toxicité définis avant de les présenter à l\'utilisateur. Les invites bloquées déclenchent des messages d\'erreur et empêchent le traitement par le LLM. Les réponses bloquées entraînent des sorties vides et des notifications d\'erreur. Le système journalise méticuleusement toutes les actions de blocage pour une AI Governance exhaustive. Par défaut, les vérifications de toxicité sont définies sur Tout autoriser à des fins d\'audit, et le système enregistre le score de toxicité dans AI Governance en mode observation uniquement. |
Essai des AI Guardrails
L\'assistant de création des AI Guardrails comprend désormais une section Essai dédiée, vous permettant d\'essayer les garde-fous avec les paramètres configurés. Vous pouvez maintenant saisir des exemples d\'invite et cliquer sur Essayer le garde-fou pour voir comment le garde-fou réagit en fonction des paramètres de toxicité/de masquage des données configurés. |
Source des invites affichée dans AI Governance
La source de chaque invite est affichée dans les journaux d\'invite et d\'événement dans AI Governance. Cela offre aux administrateurs plus de visibilité sur la façon dont les capacités IA sont utilisées et sur la performance de divers produits. |
Correctifs
AI Skill
API Task problème de journalisation résolu :
AI Skill Les exécutions déclenchées à la demande via API Tasks consignent désormais correctement les réponses dans le AI Governance Event log. Auparavant, une limitation empêchait ces réponses d\'être enregistrées ; la solution temporaire précédente, qui nécessite d\'ajouter une action de délai d\'au moins 1 seconde après le AI Skill : Exécuter l\'action pour toutes les exécutions à la demande de API Task n\'est plus nécessaire. |
Limitation des caractères spéciaux dans le tableau de bord AI Governance corrigée.
Cliquer sur des noms de modèles contenant des caractères spéciaux dans l\'onglet AI Governance du tableau de bord de l\'écran d\'accueil déclenche désormais une recherche exacte pour ce nom de modèle spécifique. Auparavant, la fonctionnalité de recherche sous-jacente ne fournissait pas entièrement d\'assistance pour les caractères spéciaux tels que "*", "?", "+", "=", "&&", "||", ">", "<", "!", "(", ")", "{", "}", "[", "]", "^", "~", ":", ou les mots entre guillemets doubles. Par conséquent, cliquer sur un nom de modèle contenant l\'un de ces caractères entraînerait une erreur. |
Erreur corrigée Page de destination des garde-fous Fichier introuvable Vous pouvez maintenant correctement afficher la page de destination des garde-fous, même si vous n\'avez pas les autorisations Voir le contenu pour chaque dossier où les garde-fous sont créés ou attribués par d\'autres utilisateurs. Auparavant, vous pouviez rencontrer une erreur Fichier introuvable sur cette page si vous n\'aviez pas l\'accès Voir le contenu à tout dossier auquel un garde-fou était attribué, ce qui entravait à tort la navigation générale et la gestion des garde-fous. Ce correctif garantit que vous pouvez accéder aux garde-fous correspondants à vos autorisations. La colonne Dossiers attribués à sur cette page affichera désormais uniquement les dossiers pour lesquels vous avez des autorisations Voir le contenu. Vous avez également besoin d\'une autorisation Voir le garde-fou IA pour accéder à cette page. Les utilisateurs ayant le rôle AAE_Admin continueront d\'avoir des autorisations implicites pour afficher tous les dossiers attribués et les garde-fous, offrant une supervision complète. |
Limites
Visibilité limitée des System promptéchecs de toxicité de
Le AI Guardrails peut bloquer du contenu hautement toxique, mais il existe certaines limitations spécifiquement pour le System prompt, qui seront abordées dans de futures versions. Ces limitations connues comprennent :
|
Utilisation des Model connections
RAG
Les System prompt ne sont pas prises en compte lors de l\'utilisation de la RAG basée sur les Model connections. De plus, le masquage des données n\'est pas appliqué lorsqu\'un modèle de RAG interagit avec des données provenant d\'une base de connaissances. |
La page de destination des AI Skills affiche un message d\'erreur lorsqu\'aucune compétence n\'est disponible
Les administrateurs disposant des autorisations pour les Model connections et les AI Skills verront une erreur Fichier introuvable lors de l\'accès à la page AI Skills si aucune compétence n\'a été configurée. |
Mises à jour de l\'interface
Compétences |
---|
Un nouveau menu de navigation est introduit pour accéder à AI Skills :![]() |