Création et gestion de AI Guardrails

Ce sujet explorera comment créer AI Guardrails dans Automation 360. AI Guardrails agissent comme une protection cruciale, garantissant l\'utilisation responsable de l\'IA et la protection des informations sensibles pendant l\'exécution du robot.

Pour créer un garde-fou dans le Control Room :

Remarque : Un garde-fou par défaut préconfiguré est automatiquement créé pour les nouveaux clients avec la licence requise. Ce garde-fou par défaut peut être attribué à des dossiers, ou vous pouvez créer des garde-fous personnalisés en suivant les Instructions de ce sujet.

Procédure

  1. Dans votre environnement Control Room, accédez à IA > AI Guardrails et cliquez sur + pour créer un nouveau AI Guardrails.
  2. Dans l\'écran Créer une garde-fou, configurez ces paramètres généraux :
    1. Nom : donnez un nom pour identifier facilement les AI Guardrails.
    2. Description (Facultatif) : ajoutez une brève description définissant les AI Guardrails.
    3. Cliquez sur Suivant pour passer à la section Toxicité.
  3. Dans la section Règle de toxicité, configurez les règles d\'analyse des invites et des réponses du modèle à la recherche de contenu toxique. Vous verrez des options pour configurer les niveaux de toxicité pour les Invites et pour les Réponses du modèle. Pour plus d\'informations sur le choix d\'une règle de toxicité appropriée, voir Toxicité dans l\'IA .
  4. Dans la section Règle de masquage des données, configurez les règles de masquage des données pour tous les Task Bots et AI Skills. Vous pouvez configurer ces règles et les attribuer à des dossiers, en vous assurant que tout robot dans ce dossier suit automatiquement le comportement de masquage.
    1. Masquer toutes les catégories : sélectionnez cette option pour activer le masquage des données pour toutes les catégories et tous les types de données sensibles connus prêts à l\'emploi. La sélection de cette option offre une approche complète de la protection des données en masquant automatiquement toute information sensible détectée dans les invites et les réponses du modèle.
    2. Choisissez les catégories et les types pour lesquels vous souhaitez modifier le traitement des données. Les catégories et types non répertoriés seront masqués par défaut. : sélectionner cette option permet de personnaliser la façon dont le système AI Guardrails gère les données sensibles. Vous pouvez commencer à créer une règle pour le masquage des données. Pour en savoir plus sur la création d\'une règle, voir Masquage des données dans l\'IA.
    3. Cliquez sur Ajouter.
    4. Cliquez sur Suivant pour passer à la section Essai.
  5. Facultatif : Essai du garde-fou : vous pouvez saisir un exemple d\'invite pour effectuer un essai du comportement du garde-fou avec les paramètres configurés. Une fois que vous saisissez une invite et cliquez sur Essayer le garde-fou, le garde-fou indiquera si l\'invite est autorisée ou bloquée, selon les paramètres de toxicité configurés. Dans la réponse, vous verrez le contenu masqué.
  6. Cliquez sur Suivant pour passer à la section Affecter aux dossiers.
  7. Dans la section Attribuer aux dossiers, sélectionnez les dossiers dans l\'espace de travail public. Le AI Guardrails s\'appliquera à tous les Task Bots et AI Skills dans les dossiers sélectionnés.
    Remarque :
    1. Garde-fou unique par dossier : un seul garde-fou peut être appliqué à chaque dossier.
    2. Héritage pour les dossiers enfant : si un dossier parent dans le dossier Bots a un garde-fou attribué, tous ses dossiers enfant hériteront automatiquement du même garde-fou.
    3. Sélection du dossier parent : lors de l\'attribution des AI Guardrails, vous ne pouvez sélectionner que des dossiers parent dans le dossier Bots. Les dossiers enfants ne peuvent pas être attribués individuellement AI Guardrails.
  8. Cliquez sur Créer pour terminer la création de la glissière de sécurité.

    Vous obtiendrez un message de succès généré par le système indiquant que votre garde-fou a été créé. Vous êtes dirigé vers l\'écran AI Guardrails affichant une liste de AI Guardrails

    Vous pouvez Afficher la barrière de sécurité, Modifier la barrière de sécurité ou Supprimer chaque barrière de sécurité en cliquant sur les trois points situés en regard. De plus, le tableau affiche le Dossier attribué à, la date/heure de la Dernière modification et Modifié par pour chaque garde-corps.

    Voir, Modifier, Supprimer AI Guardrails

    Actions Fonction
    Voir la glissière de sécurité

    Les détails de la glissière de sécurité vous donnent une vue d\'ensemble de la glissière de sécurité.

    Paramètres généraux affiche le nom, la description, le masquage des données et les paramètres d\'affectation aux dossiers.

    Modifier la glissière de sécurité Permet de modifier les détails de la glissière de sécurité.
    Le bouton Modifier n\'est activé que pour l\'administrateur de l\'automatisation.
    Remarque : Les utilisateurs, tels que le Développeur Pro et le Développeur Citoyen, avec la permission AI STUDIO > Voir les garde-fous AI, pourraient voir les détails du AI Guardrails mais ne pourraient pas le modifier.
    Supprimer

    Lorsque vous cliquez sur Supprimer, un message s\'affiche pour vous demander votre confirmation, puis supprime la glissière de sécurité. Après la suppression, vous recevez un message de confirmation.

    Si vous supprimez une barrière de sécurité, tous les AI Skills et les automatisations du dossier référençant la barrière de sécurité supprimée n\'auront aucun AI Guardrails qui leur est attribué.

    Le bouton Supprimer n\'est activé que pour l\'administrateur de l\'automatisation.
    Remarque : Les utilisateurs, tels que le Développeur Pro et le Développeur Citoyen, avec la permission AI STUDIO > Voir les garde-fous AI, pourront voir les détails du AI Guardrails mais ne pourront pas le supprimer.

Étapes suivantes

Lors de la création, AI Guardrails s\'appliquent automatiquement à toutes les automatisations dans un dossier spécifié. Au fur et à mesure que ces automatisations s\'exécutent, le tableau de bord AI Governance fournira des informations sur les techniques de masquage des données appliquées et les niveaux de toxicité identifiés. Les journaux du tableau de bord incluent également une colonne pour AI Guardrails.