Häufig gestellte Fragen zum AI Guardrails

Allgemeine Fragen zu den Merkmalen und zur Funktionalität der AI guardrail finden Sie in diesen FAQ. Dies ist dazu gedacht, sensible Daten innerhalb der Eingabeaufforderung und der Modellantworten zu schützen, wenn GenAI in Automatisierungen verwendet wird.

Was ist AI guardrail?

Die Nutzung von öffentlich gehosteten LLMs und Generative-KI-Modellen stellt erhebliche Datenschutz- und Sicherheitsrisiken für Unternehmen dar. AI Guardrails, eine intelligente Tokenisierungs-Lösung, schützt sensible Daten, die mit LLMs geteilt oder von ihnen verarbeitet werden, während der Kontext erhalten bleibt. Diese Funktion wurde entwickelt, um den Datenschutz zu gewährleisten, den Kunden ein Höchstmaß an Vertraulichkeit und Sicherheit zu bieten und die Toxizitätswerte in Inhalten zu überwachen, um unbeabsichtigte Ergebnisse zu verhindern, die sich auf den Ruf der Marke auswirken. Mit AI Guardrails können Sie sensible Daten innerhalb Generative KI-Automatisierungen mithilfe der folgenden Funktionen präzise steuern:

  • Verwalten Sie AI guardrail-Richtlinien für sensible Daten in Automatisierungen, die mit Generative-KI-Modellen integriert sind.
  • Definieren Sie Regeln für den Umgang mit sensiblen Daten in Eingabeaufforderungen und Modellantworten.
  • Geben Sie Datenverarbeitungspräferenzen basierend auf Datenkategorien wie PII, PHI und PCI an.
  • Erzwingen Sie Richtlinien bei Automatisierungen während der Ausführung.
  • Überwachen und prüfen Sie die Datenverarbeitung und Toxizitätsbewertungen für Eingabeaufforderungen, die innerhalb von Automatisierungen ausgeführt werden.
Verwendet diese Funktion KI?
Ja, wir nutzen ein etabliertes Named Entity Recognition (NER)-Modell, eine spezialisierte Form der KI, um sensible Daten zu identifizieren.
NER, ein Teilgebiet der Verarbeitung natürlicher Sprache (NLP), identifiziert und lokalisiert sensible Informationen in Textvorgaben, wie zum Beispiel Namen, Adressen, Telefonnummern und Daten. Dadurch können wir diese Daten maskieren oder schwärzen, die Privatsphäre schützen und die Einhaltung der Datenschutzbestimmungen sicherstellen. Im Wesentlichen fungiert die NER als erster Schritt, um zu identifizieren, was in einem Textdatensatz maskiert werden muss.
Welche Lizenzen sind für AI Guardrails erforderlich?
Sie müssen die Enterprise Platform-Lizenz sowie AI Guardrails erwerben, bei der es sich um eine verbrauchsbasierte Lizenz handelt. Einzelheiten zu der Enterprise Platform-Lizenz finden Sie unter Enterprise Platform
Welche Berechtigungen sind erforderlich, um AI Guardrails zu verwalten?
Die Berechtigung KI-Schutzvorrichtungen verwalten ist erforderlich, um AI Guardrails-Richtlinien zu konfigurieren, zu bearbeiten oder zu löschen. Mit der Berechtigung KI-Schutzvorrichtungen anzeigen können Nutzer konfigurierte Richtlinien für AI Guardrails einsehen.
Sind AI Guardrails für On-Premise-Bereitstellungen verfügbar?

AI Guardrails werden derzeit nicht für On-Premise-Bereitstellungen unterstützt.

Welche Regionen werden derzeit unterstützt?

AI Guardrails werden derzeit in den USA und der EU unterstützt.

Wie schützen AI Guardrails meine sensiblen Daten?

Wenn AI Guardrails für Automatisierungen aktiviert sind, werden alle Eingabeaufforderungen, die mit dem Befehlspaket „Generative KI“ und dem AI Skill-Befehlspaket ausgeführt werden, abgefangen. Der Dienst scannt die Eingaben nach sensiblen Daten und ersetzt sie durch tokenisierte Werte, um sie zu anonymisieren. Diese tokenisierten Eingabeaufforderungen werden dann an die LLMs gesendet. Nach Erhalt der Antworten scannt der Dienst sie erneut und rekonstruiert sie mit den ursprünglichen Werten. Dies ist das standardmäßige Maskierungsverhalten. AI Guardrails unterstützen auch die irreversible Anonymisierung, die über die Richtlinie der Schutzvorrichtungen konfigurierbar ist.

Wo kann ich Protokolle im Zusammenhang mit dem Schutz sensibler Daten einsehen?

Aktivitätsspuren sind in den AI Governance-ingabeprotokollen und Ereignisprotokollen verfügbar. Verwenden Sie die detaillierten Ansichten in den Protokollen der KI-Eingabeaufforderungen, um Eingabeaufforderungen und Antworten mit maskierten Inhalten und Toxizitätswerten anzuzeigen.

Wie lange werden die Zuordnungen sensibler Daten gespeichert?

Zuordnungen sensibler Daten werden in einem sicheren Tresor innerhalb der Automation 360-Cloud gespeichert und mit einem regelmäßig rotierten AES-256-Schlüssel verschlüsselt, der FIPS 197-konform ist. Zuordnungen werden auch sicher in einer Datenbank innerhalb der Produktionsumgebung des Kunden für 30 Tage gespeichert und dann sicher gelöscht. Neue Zuordnungen werden für jede Transaktion nach 30 Tagen erstellt.

Welche Sicherheitsmaßnahmen werden auf gespeicherte sensible Daten angewendet?

Zuordnungen sensibler Daten werden durch Verschlüsselung nach Industriestandard und die folgenden Sicherheitskontrollen geschützt: Netzwerkisolation mit eingeschränkter Konnektivität, Zugriff nur für autorisierte Nutzer basierend auf dem Least-Privilege-Prinzip sowie Verschlüsselung im Ruhezustand und während der Übertragung.

Senden AI Guardrails während des Maskierens/Entmaskierens sensible Daten an Drittanbieter-LLMs oder Clouds?

Nein, alle sensiblen Daten werden innerhalb des Automation 360 Cloud-Mandanten verarbeitet. AI Guardrails integrieren sich nicht mit Drittanbieter-LLMs oder externen Cloud-Diensten zum Maskieren oder Entmaskieren.

Was ist die maximale Eingabeaufforderungsgröße, die unterstützt wird?
Das aktuelle Limit beträgt 100000 Wörter pro Eingabeaufforderung.
Wird AI Guardrails in anderen Sprachen als Englisch unterstützt?
Nein. Während die AI Guardrails-Benutzeroberfläche (UI) in mehreren Sprachen verfügbar ist, wird die Kernfunktionalität zur Erkennung von toxischen Inhalten und Data Masking (PII, PCI, PHI) derzeit nur auf Englisch unterstützt.

Das bedeutet, dass selbst wenn Sie den Control Room in einer anderen Sprache verwenden, AI Guardrails keine sensiblen Daten oder toxischen Inhalte in Prompts und Antworten erkennt oder maskiert, die in anderen Sprachen verfasst sind.

Unterstützt AI Guardrails multimodale Inhalte (wie Video oder Audio)?

Derzeit unterstützen AI Guardrails hauptsächlich textbasierte Inhalte.