AI Guardrails erstellen und verwalten

In diesem Thema wird untersucht, wie AI Guardrails in Automation 360 erstellt werden. AI Guardrails dienen als entscheidende Schutzmaßnahme, um die verantwortungsvolle Nutzung von KI zu gewährleisten und sensible Informationen während der Bot-Ausführung zu schützen.

Um eine Schutzvorrichtung im Control Room zu erstellen:

Anmerkung: Eine vorkonfigurierte standardmäßige Schutzvorrichtung wird automatisch für neue Kunden mit der erforderlichen Lizenz erstellt. Diese standardmäßige Schutzvorrichtung kann Ordnern zugewiesen werden, oder Sie können benutzerdefinierte Schutzvorrichtungen erstellen, indem Sie den Anleitungen in diesem Thema folgen.

Prozedur

  1. Navigieren Sie in Ihrer Control Room-Umgebung zu KI > AI Guardrails und klicken Sie auf + , um eine neue AI Guardrails zu erstellen.
  2. Im Bildschirm Schutzvorrichtung erstellen konfigurieren Sie diese Allgemeinen Einstellungen:
    1. Name: Geben Sie einen Namen an, um die AI Guardrails leicht zu identifizieren.
    2. Beschreibung (optional): Fügen Sie eine Kurzbeschreibung der AI Guardrails hinzu.
    3. Klicken Sie auf Weiter, um zum Abschnitt Toxizität zu gelangen.
  3. Im Abschnitt Toxizitätsregel konfigurieren Sie Regeln zum Scannen von Eingabeaufforderungen und Modellantworten auf toxische Inhalte. Sie werden Optionen sehen, um die Toxizitätsstufen sowohl für Eingabeaufforderungen als auch für Modellantworten zu konfigurieren. Weitere Informationen zur Auswahl einer geeigneten Toxizitätsregel finden Sie unter Toxizität in KI .
  4. Im Abschnitt Datenmaskierungsregel richten Sie die Datenmaskierungsregeln für alle Task Bots und AI Skills ein. Sie können diese Regeln konfigurieren und sie Ordnern zuweisen, damit jeder Bot in diesem Ordner automatisch das Maskierungsverhalten befolgt.
    1. Alle Kategorien maskieren: Wählen Sie diese Option, um die Datenmaskierung für alle bekannten Kategorien und Typen vertraulicher Daten zu aktivieren. Die Auswahl dieser Option bietet einen umfassenden Ansatz zum Datenschutz, indem alle in Eingabeaufforderungen und Modellantworten erkannten vertraulichen Informationen automatisch maskiert werden.
    2. Wählen Sie die Kategorien und Typen, für die Sie den Datenumgang ändern möchten. Kategorien und Typen, die nicht aufgeführt sind, werden standardmäßig maskiert.: Durch Auswahl dieser Option können Sie anpassen, wie das AI Guardrails-System mit vertraulichen Daten umgeht. Sie können mit der Erstellung einer Regel für Data Masking beginnen. Weitere Informationen zur Erstellung einer Regel finden Sie unter Data Masking in KI.
    3. Klicken Sie auf Hinzufügen.
    4. Klicken Sie auf Weiter, um zum Test zu gelangen.
  5. Optional: Testen der Schutzvorrichtungen: Sie können eine Beispielaufforderung eingeben, um zu testen, wie die Schutzvorrichtung mit den konfigurierten Einstellungen funktioniert. Sobald Sie eine Eingabe machen und auf Schutzvorrichtung testen klicken, zeigt die Schutzvorrichtung je nach den konfigurierten Toxizitätseinstellungen an, ob die Eingabe erlaubt oder blockiert ist. In der Antwort sehen Sie den maskierten Inhalt.
  6. Klicken Sie auf Weiter, um zum Abschnitt Ordner zuweisen zu gelangen.
  7. Wählen Sie im Abschnitt Ordnern zuweisen die Ordner im öffentlichen Arbeitsbereich aus. Die AI Guardrails gelten für alle Task Bots und AI Skills innerhalb der ausgewählten Ordner.
    Anmerkung:
    1. Einzelne Schutzvorrichtung pro Ordner: Für jeden Ordner kann nur eine Schutzvorrichtung angewendet werden.
    2. Vererbung für untergeordnete Ordner: Wenn einem übergeordneten Ordner im Bots-Ordner eine Schutzvorrichtung zugewiesen ist, erben alle seine Unterordner automatisch dieselbe Schutzvorrichtung.
    3. Übergeordneter Ordner auswählen: Beim Zuweisen von AI Guardrails können Sie nur übergeordnete Ordner innerhalb des Bot-Ordners auswählen. Unterordnern können nicht einzeln AI Guardrails zugewiesen werden.
  8. Klicken Sie auf Erstellen, um die Erstellung der Schutzvorrichtung abzuschließen.

    Sie erhalten eine vom System generierte Erfolgsmeldung, die besagt, dass Ihre Schutzvorrichtung erstellt wurde. Sie werden zum Bildschirm der AI Guardrails mit einer Liste der AI Guardrails weitergeleitet.

    Sie können jede Schutzvorrichtung Anzeigen, Bearbeiten oder Löschen, indem Sie auf die Ellipse neben ihnen klicken. Darüber hinaus zeigt die Tabelle für jede Schutzvorrichtung den Zugewiesenen Ordner, das Datum/die Uhrzeit der Letzten Änderung und Geändert von an.

    AI Guardrails anzeigen, bearbeiten, löschen

    Aktionen Funktion
    Schutzvorrichtung anzeigen

    „Details zur Schutzvorrichtung“ geben Ihnen einen zusammenfassenden Überblick über die Schutzvorrichtung.

    Allgemeine Einstellungen zeigt den Namen, die Beschreibung, die Datenmaskierung und die Einstellungen zur Ordnerzuweisung an.

    Schutzvorrichtung bearbeiten Erlaubt die Bearbeitung der Details der Schutzvorrichtung.
    Die Schaltfläche Bearbeiten ist nur für den Automatisierungsadministrator aktiviert.
    Anmerkung: Nutzer, wie z. B. professionelle Entwickler und Citizen Developer, mit der Berechtigung AI STUDIO > KI-Schutzvorrichtungen anzeigen können die Details der AI Guardrails sehen, aber nicht bearbeiten.
    Löschen

    Wenn Sie auf Löschen klicken, wird eine Meldung angezeigt, die Sie um eine Bestätigung bittet, und dann wird die Schutzvorrichtung gelöscht. Sie erhalten eine Meldung zur Bestätigung des Löschvorgangs.

    Wenn Sie eine Schutzvorrichtung löschen, werden allen AI Skills und Automatisierungen im Ordner, die auf die gelöschte Schutzvorrichtung verweisen, keine AI Guardrails zugewiesen.

    Die Schaltfläche Löschen ist nur für den Automatisierungsadministrator aktiviert.
    Anmerkung: Nutzer, wie z. B. professionelle Entwickler und Citizen Developer, mit der Berechtigung AI STUDIO > KI-Schutzvorrichtungen anzeigen können die Details der AI Guardrails sehen, aber nicht löschen.

Nächste Maßnahme

Bei der Erstellung erzwingen AI Guardrails automatisch alle Automatisierungen in einem angegebenen Ordner. Während diese Automatisierungen ausgeführt werden, bietet das AI Governance-Dashboard Einblicke in die angewandten Datenmaskierungstechniken und die identifizierten Toxizitätsgrade. Die Dashboard-Protokolle enthalten auch eine Spalte für AI Guardrails.