Garde-fous IA
- Dernière mise à jour2025/03/07
Garde-fous IA
Garde-fous IA fournit un mécanisme d\'interception en ligne qui applique les Stratégies de sécurité et de conformité, protégeant les données sensibles et garantissant des pratiques éthiques en matière d\'IA.
Il utilise une tokenisation intelligente pour identifier les données sensibles utilisées dans les invites et les remplacer par des valeurs tokenisées. De même, il intercepte les réponses du modèle pour reconstruire et remplacer les valeurs tokenisées, garantissant ainsi la pertinence de la réponse. De plus, il surveille les niveaux de toxicité des invites et des réponses du modèle pour auditer les niveaux de toxicité.
Lors de la configuration de Garde-fous IA dans Automation 360, la mise en place de règles de masquage des données et la compréhension de la surveillance de la toxicité sont cruciales. Ces fonctionnalités définissent comment le système traite différents types de données sensibles et évalue la pertinence du langage utilisé dans les interactions avec les LLMs, évitant ainsi les problèmes potentiels lors de l\'exécution du robot. Ce sujet fournit des informations sur la mise en œuvre et la fonctionnalité de Garde-fous IA, en soulignant leur rôle dans la promotion de la sécurité des données et des pratiques d\'IA responsables.

Au cœur de Garde-fous IA se trouve la fonctionnalité de masquage des données, qui fonctionne en identifiant et en substituant les éléments de données sensibles dans l\'invite d\'un robot par des valeurs tokenisées avant de transmettre la demande au Large Language Model (LLM). Ce processus protège les informations sensibles contre tout traitement direct par le LLM tout en préservant le contexte nécessaire pour générer une réponse précise. De plus, la capacité de surveillance de la toxicité surveille les invites envoyées aux LLM et les réponses générées par eux pour détecter tout langage potentiellement dangereux.
Avantages
- Masquage des données
- La masquage des données est une technique d\'obfuscation qui permet d\'identifier les données sensibles connues et de les remplacer par des valeurs fictives.
- Surveillance de la toxicité
-
Garde-fous IA analyser à la fois les invites envoyées aux LLM et les réponses générées par les LLM pour détecter un langage potentiellement dangereux, en les classant comme étant de toxicité faible, modérée ou élevée. Bien qu\'actuellement en mode « observation uniquement », cette fonctionnalité permet d\'identifier une utilisation potentiellement problématique du langage. Les futures versions incluront la possibilité de bloquer les invites en fonction de leur niveau de toxicité.
- Suivi et journalisation
-
Automation 360 enregistre toutes les actions de guardrail, y compris les détails du processus de masquage des données. Ce journal complet fournit une piste d\'audit, permettant aux administrateurs de surveiller la fonctionnalité des Garde-fous IA et de vérifier la conformité avec les stratégies de protection des données.