Datensicherheit für generative KI – FAQ

Wir haben von generativer KI (GenAI) gestützte Funktionen eingeführt, damit unsere Kunden die Produktivität steigern können, indem sie bessere und intelligentere Automatisierungen erstellen. Unsere Kunden können die Leistungsfähigkeit von GenAI mit Funktionen wie Automation Co-Pilot für Geschäftsanwender und Document Automation nutzen.

Automation Anywhere unterstützt Befehlspakete für Kunden, die für die großen Sprachmodelle (LLMs) ihre eigenen Lizenzen verwenden. Einige Automation Anywhere-Produkte enthalten eingebettete LLMs von Drittanbietern. Dieses Dokument soll Antworten auf häufig gestellte Fragen zu Daten und Sicherheitsmaßnahmen geben, die wir für die sichere Nutzung der GenAI-Funktionen geschaffen haben. Sie sollten unbedingt die beiden Datenkategorien kennen, auf die wir uns in diesem Dokument beziehen.

Kundendaten
Bezieht sich auf Daten, die von Kunden über von Automation Anywhere gehostete Systeme wie die Plattform für Automatisierungserfolg übermittelt werden. Diese Daten sind für den Betrieb und die Erbringung von Dienstleistungen erforderlich. So werden z. B. Nutzertexteingaben als Kundendaten behandelt.
Nutzungsdaten
Bezieht sich auf Daten, die durch die Nutzung der Plattformdienste und -funktionen generiert werden. Bei diesen Daten handelt es sich um anonymisierte und aggregierte Daten für Metriken und weitere Telemetriedaten, etwa standardmäßige Paket-Namen und die Reihenfolge der von Automation Anywhere gesammelten Schritte, um die Leistung der Dienste und die Produkte zu verbessern.
Wie ermöglicht Automation Anywhere Kunden, die Automatisierung mit ihrem eigenen LLM-Abonnement durchzuführen?
Automation Anywhere unterstützt Kunden, die ihre eigene Lizenz für ihre bevorzugten Basismodelle mitbringen, wenn sie die von Automation Anywhere bereitgestellten Befehls-Pakete verwenden, zum Beispiel Automation Co-Pilot für Geschäftsanwender. Diese auf Hyperscaler-Plattformen gehosteten Basismodelle sind mithilfe der Automation 360-nativen Integrationen über unsere Befehlspakete zugänglich, zu denen Microsoft Azure, OpenAI, OpenAI und Google Vertex AI gehören.

In der Produktdokumentation erfahren Sie, ob diese in Ihr gewünschtes LLM integriert werden können.

Welche Produkte verwenden von Automation Anywhere bereitgestellte KI-Modelle von Drittanbietern?
Wir verwenden LLMs von Drittanbietern in den folgenden Produkten:
  • Document Automation
  • Automator AI
Mit welchen Daten werden die von Automation Anywhere bereitgestellten Modelle trainiert?
Zum Trainieren der in unsere Produkte eingebetteten LLMs werden keine Kundendaten verwendet. Für von Automation Anywhere bereitgestellte Modelle in den von Automation Anywhere gesteuerten Umgebungen werden nur Nutzungsdaten zum Trainieren dieser von Automation Anywhere bereitgestellten Modelle verwendet. Diese Daten enthalten keine Kundendaten.
Mit welchen Maßnahmen wird gewährleistet, dass keine Kundendaten für das Training der großen Sprachmodellbibliotheken (Large Language Model, LLM) verwendet werden?
Kundendaten werden weder zum Trainieren der Modelle verwendet noch außerhalb der vom Kunden gemieteten Produktionsumgebungen auf der Plattform für Automatisierungserfolg gespeichert.

Wir haben die Rezensionen der Anbieter überprüft, um zu gewährleisten, dass in LLMs von Drittanbietern keine Kundendaten für das Training der Modelle verwendet werden.

Welche Maßnahmen werden ergriffen, um unbefugten Zugriff oder Datenschutzverletzungen zu verhindern?
Wir haben Sicherheitsvorkehrungen getroffen, um zu verhindern, dass Kundendaten extern gespeichert werden, und bieten in bestimmten Produkten Schutzvorrichtungen, Unkenntlichmachung oder Maskierungen an. Durch die Plattform für Automatisierungserfolg wird gewährleistet, dass die Kundendaten sowohl im Ruhezustand als auch bei der Übertragung immer durch eine branchenübliche Verschlüsselung geschützt sind. Diese Systeme, auf denen Kundendaten gespeichert sind, werden rund um die Uhr überwacht und der Zugriff wird kontrolliert, um einen sicheren Betrieb gemäß SOC 1, SOC 2, ISO 27001:2022 zu gewährleisten. Information Security Management Systems (ISMS), ISO 27017:2015: Informationssicherheitsmaßnahmen für Cloud Dienstleistungen), ISO 27018:2019: Schutz von personenbezogenen Daten (PII) in Cloud-Umgebungen und HITRUST. Wir haben angemessene Sicherheitsmaßnahmen implementiert, etwa eine Web-Anwendungs-Firewall, Verschlüsselung (AES 256 im Ruhezustand, TLS bei der Übertragung) und branchenübliche Authentifizierung und Autorisierung für RBAC. Bei der Entwicklung unserer Plattform haben wir wie in OWASP Top10 for LLMs dargelegt den Schutz vor Bedrohungen berücksichtigt.
Wie schützt Automation Anywhere Kundendaten bei der Verwendung von GenAI?
Unsere Produkte, in denen GenAI verwendet wird, befinden sich auf derselben Plattform wie unsere aktuellen Produkte und unterliegen den gleichen Sicherheitszertifizierungen (SOC1, SOC2, ISO und COBIT) und Standards wie unsere anderen Produkte. Für die Einhaltung der Vorschriften ist ein dediziertes Cloud-Sicherheitsteam verantwortlich, das die von externen, professionellen Prüfern durchgeführten Audits für unsere Sicherheitszertifizierungen unterstützt. Unsere Sicherheitszertifikate und -berichte finden Sie auf unserem Compliance Portal.
Welche bewährten Verfahren können Kunden nutzen, um von GenAI-Produkten zu profitieren?
Hier finden Sie einige bewährte Verfahren, die Sie bei der Verwendung von Produktfunktionen nutzen können, in die GenAI integriert ist:
Wissen, wo Ihre Daten sind und wie sie verwendet werden
Wenn Sie Ihre eigenen LLM-Anbieter nutzen, verwenden Sie nur geprüfte Modellanbieter, bei denen Sie Klarheit in Bezug auf Ihre Daten und deren Verwendung haben. Achten Sie darauf, dass zum Trainieren der gemeinsam genutzten Modelle keine sensiblen Daten verwendet werden, und informieren Sie sich darüber, ob und wo Ihre Daten gespeichert sind und wer Zugriff darauf hat.
Verwendung von Schutzvorrichtungen für Modelleingaben und -ausgaben
GenAI-Modelle reagieren empfindlich auf Schwankungen bei den Eingaben, die sie erhalten haben, und können gelegentlich unvorhersehbare Ergebnisse erzeugen, da es sich um Freiformtext handelt. Durch die Gestaltung von Workflows, bei denen GenAI-Modelle für genehmigte Aufgaben mit vordefinierten Eingabeaufforderungen und Ausgabevalidierungsschritten verwendet werden, können Sie zusätzlich gewährleisten, dass das Modell in Produktionsumgebungen sehr zuverlässig funktioniert. Das Entwerfen einer deutlichen und kontrollierten Eingabeaufforderung für eine Aufgabe wie eine Zusammenfassung führt dazu, dass Ihre Nutzer eine qualitativ hochwertigere und konsistentere Ausgabe von den Modellen erhalten, die sie in ihren Workflows verwenden. Achten Sie darauf, dass Nutzer in ihren Eingabeaufforderungen keine sensiblen Informationen angeben.
Beziehen Sie bei generierten Inhalten Menschen mit ein
Bei der Erstellung von Inhalten wie personalisierten Kunden-E-Mails oder Patientendossiers muss unbedingt gewährleistet sein, dass ein menschlicher Validierungsschritt in Ihrem Prozess vorhanden ist, bevor Sie etwas nach außen geben. Sie müssen sich darüber im Klaren sein, dass GenAI-Modelle gelegentlich unvorhersehbare Ausgaben erzeugen können, insbesondere wenn sie neue Inhalte generieren. Verwenden Sie Benachrichtigungen, um die zu prüfenden Arbeiten der Nutzer in Echtzeit zu melden und den gesamten Workflow-Status zu verfolgen.
Code-Analyse verwenden
Die Code-Analyse von Automation Anywhere ist eine eingebaute Sicherheitsfunktion zur Ermittlung von Verstößen gegen bewährte Verfahren. Die Funktion wurde entwickelt, um bewährte Codierungsverfahren zu fördern und durchzusetzen. Diese helfen dabei, Abweichungen von bewährten Verfahren proaktiv zu erkennen und zu beheben, denn durch die Durchsetzung sicherer Codierungsverfahren werden die Sicherheit und Konformität von Automatisierungen erhöht, und die Lesbarkeit und Qualität des Codes wird verbessert.