Häufig gestellte Fragen zum AI Agent Studio

In dieser FAQ finden Sie allgemeine Fragen zum Verhalten und zur Funktionalität beim Erstellen von Modellverbindungen, Eingabeaufforderungs-Vorlagen, zum Ausführen von Automatisierungen mit dem Eingabeaufforderungs-Vorlage für generative KI-Paket und zum Verfolgen und Überwachen von Modellinteraktionsdaten innerhalb von Automatisierungen für Sicherheit und Governance.

Allgemeine FAQs

Was sind die unterstützten Basismodelle?
Derzeit unterstützt KI-Werkzeuge Basismodelle von Hyperscaler-Anbietern wie Amazon Bedrock, Google Vertex AI, Azure OpenAI, OpenAI und anderen. Dies sind die unterstützten Modelle für jeden Anbieter:
  • Amazon Bedrock: anthropic.claude-v2:1, amazon.titan-text-express-v1, amazon.titan-text-lite-v1
  • Google Vertex AI: text-unicorn, text-bison, text-bison-32k, gemini-1.0-pro
  • Azure OpenAI: gpt-4, gpt-4-32k, gpt-35-turbo, gpt-35-turbo-16k
  • OpenAIgpt-4, gpt-4-turbo-preview, gpt-3.5-turbo, gpt-3.5-turbo-16k
Bietet Automation Anywhere Basismodelle für die Verwendung innerhalb von AI Agent Studio?
Nein, AI Agent Studio bietet Kunden die Möglichkeit, sich mit ihren eigenen Basismodellen von Anbietern wie Azure OpenAI, OpenAI, Amazon Bedrock und Google Vertex AI zu verbinden, indem die Verbindungsdetails zu Kundeninstanzen dieser Modelle innerhalb von Modellverbindungen bereitgestellt werden. Einzelheiten finden Sie unter Modellverbindungenen verwalten.
Wie sehen die Lizenzanforderungen für KI-Werkzeuge aus?
KI-Werkzeuge ist in der AI Agent Studio-Produktsuite enthalten und kann mit dem Erwerb der Enterprise Platform-Lizenz erhalten werden. Einzelheiten zu der Enterprise Platform-Lizenz finden Sie unter Enterprise Platform.
Was ist die allgemeine Verfügbarkeit für AI Agent Studio?
Dieses Produkt ist nur für Automation 360 Cloud erhältlich.
Welche Art von Daten werden gespeichert und wie lange, wenn ich die Datenprotokollierung aktiviere?
Wenn die Datenprotokollierung aktiviert ist, werden alle Modellinteraktionen, einschließlich Eingabeaufforderungen, Modellantworten und Parameter, während der Automatisierung oder der Ausführung von Eingabeaufforderungen gespeichert. Diese Daten werden in Ihrer Umgebung gespeichert und bieten detaillierte Insights in die KI-Nutzung in Automatisierungen.
Werden die Daten für die Abfrage und Feinabstimmung der Eingabeaufforderungen, die in den KI-Governance Protokollen angezeigt werden, in der Cloud gespeichert?
Bei der Ausführung von Automatisierungen werden die Modellinteraktionen in den KI-Governance-Protokollen erfasst. Die Eingabeaufforderungen und Modellantworten, die mit den Hyperscaler-Modellen ausgetauscht werden, können geprüft werden.
Was geschieht mit den Daten, die an ein Drittanbietermodell gesendet werden, das Eingabeaufforderungen verarbeitet und eine Ausgabe generiert?
Das Auditprotokoll enthält Details zu den Eingabeaufforderungen und Modellantworten, die an die Hyperscaler-Modelle gesendet wurden. Automation Anywhere hat weder Zugriff auf Modelle von Drittanbietern, die Sie abonniert haben, noch auf die von ihnen gespeicherten oder verarbeiteten Daten. Wir empfehlen Ihnen, sich anhand der entsprechenden Dokumentation darüber zu informieren, wie Ihre Daten von Drittanbietern verarbeitet und gespeichert werden.
Kann ein Drittanbieter, z. B. Azure OpenAI, auf meine Daten zugreifen und sie verwenden?
Automation Anywhere hat keine Kontrolle darüber, welche Daten von den von Ihnen abonnierten Drittanbietermodellen verwendet oder gespeichert werden, wenn Sie Abfragen an deren Modelle senden. Wir empfehlen Ihnen, sich anhand der entsprechenden Dokumentation über Datenverarbeitung und -speicherung zu informieren.
Wie sieht die Aufbewahrungspolitik für gespeicherte Daten aus?
Wir halten uns an eine einheitliche Datenaufbewahrungsrichtlinie für Audit-Protokolle. Sie können die Richtlinien hier einsehen: Automation 360 FAQ.
Kann ich SIEM-Integrationen verwenden, um die gespeicherten Protokolle weiterzuleiten?
Ja, gespeicherte Daten können an ein integriertes SIEM-System weitergeleitet werden, das im Control Room konfiguriert wurde.
Welche Sicherheitsmaßnahmen werden zum Schutz der gespeicherten Eingabeaufforderungen getroffen?
Alle protokollierten Daten werden in der Produktionsumgebung des Kunden gespeichert und verlassen niemals die geschützten Grenzen. Diese Daten werden ausschließlich zu Analysezwecken verwendet, um Insights in die KI-Nutzung innerhalb von Automatisierungen zu erhalten. Eingabeaufforderungen und Modellantworten werden mit branchenüblichen Algorithmen verschlüsselt und die Protokolldaten werden sicher über TLS übertragen. Der Zugriff auf die Eingabeaufforderungen und Antworten wird durch eine rollenbasierte Zugriffskontrolle gesteuert.
Können die textbasierten Eingabeaufforderungen und Modellantworten exportiert oder gedruckt werden?
Um die Privatsphäre zu schützen, können Eingabeaufforderungen und Modellantworten nicht aus dem Control Room exportiert oder ausgedruckt werden. Sie können jedoch über eine SIEM-Integration an ein SIEM weitergeleitet werden.
Benötige ich zusätzliche Lizenzen für die Datenprotokollierung?
Datenprotokollierung und KI-Governance sind Teil der Enterprise Platform-Lizenz, die über AI Agent Studio erhältlich ist.

Einzelheiten zu der Enterprise Platform-Lizenz finden Sie unter Enterprise Platform.

Bekanntes Verhalten des Produkts

  • Nach der Erstellung einer Eingabeaufforderungs-Vorlage können der Name und die Beschreibung dieser Vorlage nicht mehr geändert werden.
  • Derzeit ist die Verwendung von Eingabeaufforderungs-Vorlagen nur innerhalb eines TaskBots möglich.
  • Wenn Sie eine Modellverbindung löschen, die mit einer Eingabeaufforderungs-Vorlage verbunden ist, erhalten Sie einen Fehler bei der Ausführung des TaskBots, der für die Verwendung dieser Eingabeaufforderungs-Vorlage konfiguriert wurde.
  • Wenn Sie eine Modellverbindung löschen und eine neue mit demselben Namen erstellen, verweist die Eingabeaufforderungs-Vorlage auf die neue Version. Wenn die zugrunde liegenden LLM-Modelle jedoch unterschiedlich sind, könnte das Ergebnis anders ausfallen.
  • Für Microsoft Azure-Verbindungen:
    • Die Konfiguration der Modellverbindung erfordert, dass ein Nutzer eine Bereitstellungs-ID angibt, die dem Namen der Bereitstellung im Microsoft Azure-Portal entspricht. Da diese Bereitstellung einem bestimmten LLM-Modell zugeordnet ist, sollten Nutzer sicherstellen, dass sie das richtige Modellverbindungs-Modell auswählen, das dem Microsoft Azure-Bereitstellungsmodell entspricht.
      Anmerkung: Wenn diese Werte nicht übereinstimmen, erhalten Sie eine Warnmeldung.
    • Nutzer sollten sich darüber im Klaren sein, dass das Ändern der Verbindungsdetails einer bestehenden Modellverbindung falsche Eingabedetails speichert und nicht automatisch die Funktion Verbindung testen auslöst. Dies könnte dazu führen, dass Eingabeaufforderungs-Vorlagen oder TaskBots, die die Modellverbindung verwenden, bei der Ausführung fehlschlagen. Wenn Sie Änderungen an einer Modellverbindung vornehmen, müssen Sie die aktualisierte Verbindung testen, damit die Bots, die diese Modellverbindung verwenden, während der Automatisierungsausführung nicht fehlschlagen.
  • Wenn Sie während einer Automatisierungsausführung auf einen Laufzeitfehler stoßen, der auf der vom System angezeigten Fehlermeldung „Unable to publish KI-Governance audit logs“ beruht, stellen Sie sicher, dass die Bot-Agent-Version mindestens 22.60.10 ist. Fehler: <java.lang.NoSuchMethodError Fehlermeldung>: Hier empfehlen wir ein Update auf die neueste verfügbare Bot-Agent-Version.
  • Wenn Sie keine Auditprotokolldaten sehen können, empfehlen wir Ihnen, zunächst zu prüfen, ob Sie über entsprechende benutzerdefinierte Rollenberechtigungen verfügen. Wenn Sie über die erforderlichen Berechtigungen verfügen, sollten Sie sicherstellen, dass Sie die neueste verfügbare Bot-Agent-Version verwenden.
  • Damit die Funktionen für das Audit-Protokoll und die Bot-Ausführung reibungslos funktionieren, empfehlen wir, kompatible Control Room- und Bot-Agent-Versionen zu verwenden. Siehe Zuweisung von Rollen und Berechtigungen zur Aktivierung von KI-Governance zum Anzeigen einer Kompatibilitätsmatrix der Versionen.