Häufig gestellte Fragen zum AI Agent Studio

In dieser FAQ finden Sie allgemeine Fragen zum Verhalten und zur Funktionalität beim Erstellen von Modellverbindungen, KI-Fähigkeiten, zum Ausführen von Automatisierungen mit dem KI-Fähigkeiten Paket und zum Verfolgen und Überwachen von Modellinteraktionsdaten innerhalb von Automatisierungen für Sicherheit und Governance.

Allgemeine FAQs

Was sind die unterstützten Basismodelle?
Derzeit unterstützt KI-Werkzeuge Standard-, Fein abgestimmt- und RAG-Basismodelle von Hyperscaler-Anbietern wie Amazon Bedrock, Google Vertex AI, Azure OpenAI, OpenAI und anderen. Dies sind die Standard- und Fein abgestimmt-Modelle, die für jeden Anbieter unterstützt werden:
  • Amazon Bedrock : anthropic.claude-v2:1, amazon.titan-text-express-v1, amazon.titan-text-lite-v1, Anthropic Claude 3.5 Sonnet.
  • Google Vertex AI : text-unicorn, text-bison, text-bison-32k, gemini-1.0-pro, Gemini 1.5 Flash, Anthropic Claude 3.5 Sonnet.
  • Azure OpenAI : gpt-4, gpt-4-32k, gpt-35-turbo, gpt-35-turbo-16k, GPT-4o, GPT-4o mini.
  • OpenAI : gpt-4, gpt-4-turbo-preview, gpt-3.5-turbo, gpt-3.5-turbo-16k, GPT-4o, GPT-4o mini.
Diese RAG Modelle werden für jeden Anbieter unterstützt:
  • Amazon Bedrock : Amazon Titan Text Premier, Anthropic Claude v2.1, Anthropic Claude Instant v1, Anthropic Claude v2.0, Anthropic Claude 3 Sonnet v1 und Anthropic Claude 3 Haiku v1.
  • Google Vertex AI : Gemini 1.0 Pro 1, Gemini 1.0 Pro 2 und Gemini 1.5 Flash 1.
Wichtig: Um eine Verbindung zu externen generativen-KI-Modellen in AI Agent Studio herzustellen, benötigen Sie eigene Lizenzen (BYOL), wie API-Schlüssel, Zugangsschlüssel oder Tokens, von den jeweiligen Modellanbietern.
Was ist ein Grounded-Modellverbindung?
Wir bieten Ihnen nun die Möglichkeit, Modellverbindungen mithilfe der Amazon Bedrock und Google Vertex AI RAG Funktion zu erstellen. Erstellen Sie Grounding durch Wissensdatenbank oder Grounding durch Data Store Modellverbindungen unter Verwendung der nativen RAG-Funktion, um genaue und kontextrelevante Informationen zu generieren, auf die in Amazon-Wissensdatenbank und Google Data Source verwiesen wird.
Was ist ein Fein abgestimmt Modellverbindung?
Ein Fein abgestimmt Modellverbindung kann erstellt werden, indem die unterstützten Basismodelle durch Tests und Feinabstimmung angepasst und durch Verbindung mit dem erstellten KI-Fähigkeiten zur Verwendung bereitgestellt werden.
Bietet Automation Anywhere Basismodelle für die Verwendung innerhalb von AI Agent Studio?
Nein, AI Agent Studio bietet Kunden die Möglichkeit, sich mit ihren eigenen Basismodellen von Anbietern wie Azure OpenAI, OpenAI, Amazon Bedrock und Google Vertex AI zu verbinden, indem die Verbindungsdetails zu Kundeninstanzen dieser Modelle innerhalb von Modellverbindungen bereitgestellt werden. Einzelheiten finden Sie unter Modellverbindungen erstellen und verwalten.
Ermöglicht AI Agent Studio es Kunden, eine Verbindung zu benutzerdefinierten Modellen anderer Hyperscaler oder zu Modellen herzustellen, die auf privater Kundeninfrastruktur gehostet werden?
Derzeit unterstützt AI Agent Studio nur die grundlegenden Modellkonnektoren, die über Modellverbindungen bereitgestellt werden. Wir haben jedoch Pläne, in einer zukünftigen Version benutzerdefinierte Modellverbindungen zu unterstützen.
Wie sehen die Lizenzanforderungen für KI-Werkzeuge aus?
KI-Werkzeuge ist in der AI Agent Studio-Produktsuite enthalten und kann mit dem Erwerb der Enterprise Platform-Lizenz erhalten werden. Einzelheiten zu der Enterprise Platform-Lizenz finden Sie unter Enterprise Platform.
Was ist die allgemeine Verfügbarkeit für AI Agent Studio?
AI Agent Studio ist nur auf Automation 360 Cloud für Automation 360 v.33 verfügbar.
AI Agent Studio ist in Automation 360 Cloud und Lokal für Automation 360 v.34 verfügbar.
Welche Art von Daten werden gespeichert und wie lange, wenn ich die Datenprotokollierung aktiviere?
Wenn die Datenprotokollierung aktiviert ist, werden alle Modellinteraktionen, einschließlich Eingabeaufforderungen, Modellantworten und Parameter, während der Automatisierung oder der Ausführung von Eingabeaufforderungen gespeichert. Diese Daten werden in Ihrer Umgebung gespeichert und bieten detaillierte Insights in die KI-Nutzung in Automatisierungen.
Welche Hyperscaler-Anbietermodelle werden für die neue Codeanalyseregel KI-Governance unterstützt?
Dies ist eine Liste der unterstützten Modelle für jeden Hyperscaler-Anbieter:
  • Amazon Bedrock : Jurassic-2 Mid, Jurassic-2 Ulta, Claude Instant v1.2, Claude v1.3, Claude v2.1 (andere unterstützte Versionen), Titan Text G1 – Lite und Titan Text G1 – Express (andere unterstützte Versionen).
  • Google Vertex AI : chat-bison (neueste), chat-bison-32k (neueste), chat-bison-32k@002, chat-bison@001, chat-bison@002, codechat-bison, codechat-bison-32k, codechat-bison-32k@002, codechat-bison@001, codechat-bison@002 (andere unterstützte Versionen), text-bison (neueste), text-bison-32k (neueste), text-bison-32k@002, text-bison@001, text-bison@002, text-unicorn@001, code-bison (neueste), code-bison-32k@002, code-bison@001, code-bison@002, code-gecko@001, code-gecko@002, code-gecko (andere unterstützte Versionen) und Gemini Pro.
  • OpenAI : gpt-3.5-turbo (default), gpt-3.5-turbo-16k, gpt-4, gpt-4-32k (other supported versions), text-davinci-003, text-davinci-002, davinci, text-curie-001, curie, text-babbage-001, babbage, text-ada-001, and custom models.
Werden die Daten für die Abfrage und Feinabstimmung der Eingabeaufforderungen, die in den KI-Governance Protokollen angezeigt werden, in der Cloud gespeichert?
Bei der Ausführung von Automatisierungen werden die Modellinteraktionen in den KI-Governance-Protokollen erfasst. Die Eingabeaufforderungen und Modellantworten, die mit den Hyperscaler-Modellen ausgetauscht werden, können geprüft werden.
Was geschieht mit den Daten, die an ein Drittanbietermodell gesendet werden, das Eingabeaufforderungen verarbeitet und eine Ausgabe generiert?
Der Auditprotokoll enthält Details zu den Eingabeaufforderungen und Modellantworten, die an die Hyperscaler-Modelle gesendet wurden. Automation Anywhere hat keinen Zugriff auf irgendwelche Drittanbieter-Modelle, bei denen Sie abonniert haben, sowie auf die Daten, die von ihnen gespeichert oder verarbeitet werden. Wir empfehlen Ihnen, sich anhand der entsprechenden Dokumentation darüber zu informieren, wie Ihre Daten von Drittanbietern verarbeitet und gespeichert werden.
Kann ein Drittanbieter, z. B. Azure OpenAI, auf meine Daten zugreifen und sie verwenden?
Automation Anywhere hat keine Kontrolle darüber, welche Daten von den von Ihnen abonnierten Drittanbietermodellen verwendet oder gespeichert werden, wenn Sie Abfragen an deren Modelle senden. Wir empfehlen Ihnen, sich anhand der entsprechenden Dokumentation über Datenverarbeitung und -speicherung zu informieren.
Wie sieht die Aufbewahrungspolitik für gespeicherte Daten aus?
Wir halten uns an eine einheitliche Datenaufbewahrungsrichtlinie für Audit-Protokolle. Sie können die Richtlinien hier einsehen: Automation 360 FAQ.
Kann ich SIEM-Integrationen verwenden, um die gespeicherten Protokolle weiterzuleiten?
Ja, gespeicherte Daten können an ein integriertes SIEM-System weitergeleitet werden, das im Control Room konfiguriert wurde.
Welche Sicherheitsmaßnahmen werden zum Schutz der gespeicherten Eingabeaufforderungen getroffen?
Alle protokollierten Daten werden in der Produktionsumgebung des Kunden gespeichert und verlassen niemals die geschützten Grenzen. Diese Daten werden ausschließlich zu Analysezwecken verwendet, um Insights in die KI-Nutzung innerhalb von Automatisierungen zu erhalten. Eingabeaufforderungen und Modellantworten werden mit branchenüblichen Algorithmen verschlüsselt und die Protokolldaten werden sicher über TLS übertragen. Der Zugriff auf die Eingabeaufforderungen und Antworten wird durch eine rollenbasierte Zugriffskontrolle gesteuert.
Können die textbasierten Eingabeaufforderungen und Modellantworten exportiert oder gedruckt werden?
Um die Privatsphäre zu schützen, können Eingabeaufforderungen und Modellantworten nicht aus dem Control Room exportiert oder ausgedruckt werden. Sie können jedoch über eine SIEM-Integration an ein SIEM weitergeleitet werden.
Benötige ich zusätzliche Lizenzen für die Datenprotokollierung?
Datenprotokollierung und KI-Governance sind Teil der Enterprise Platform-Lizenz, die über AI Agent Studio erhältlich ist.

Einzelheiten zu der Enterprise Platform-Lizenz finden Sie unter Enterprise Platform.

Bekanntes Verhalten des Produkts

  • In Automation 360 v.34, KI-Governance Auditprotokoll werden für API-Aufgaben nicht unterstützt. Dies ist spezifisch für die API-Aufgaben, die im Echtzeitmodus ausgeführt werden (für Attended Automations).
  • Benutzer müssen über die Berechtigung Einstellungen anzeigen verfügen, um ein KI-Fähigkeit zu bearbeiten. Andernfalls wird eine Fehlermeldung angezeigt und Benutzer können KI-Fähigkeit nicht bearbeiten.
  • Im Editor KI-Fähigkeit, wenn Sie versuchen, den Titel einer vorhandenen KI-Fähigkeit ohne zugehörige Modellverbindung, Eingabeaufforderungstext oder definierte Eingabeaufforderungseingabe zu aktualisieren, zeigt das System eine Fehlermeldung über einen Validierungsfehler an und das Speichern der Aktualisierung schlägt fehl. Die KI-Fähigkeit sollte das Update übernehmen und die Änderung speichern.
  • Einige der Modelle geben keine Token-Nutzung-Daten zurück, daher zeigen die KI-Governance-Protokolle in den Protokolldetailfeldern einen Wert von „0“ an.
  • Wenn Sie eine Modellverbindung löschen, die mit einem KI-Fähigkeit verbunden ist, erhalten Sie einen Fehler bei der Ausführung des TaskBots, der für die Verwendung dieser KI-Fähigkeit konfiguriert wurde.
  • Wenn Sie eine Modellverbindung löschen und eine neue mit demselben Namen erstellen, verweist die KI-Fähigkeit auf die neue Version. Wenn die zugrunde liegenden LLM-Modelle jedoch unterschiedlich sind, könnte das Ergebnis anders ausfallen.
  • Für Microsoft Azure-Verbindungen:
    • Die Konfiguration der Modellverbindung erfordert, dass ein Nutzer eine Bereitstellungs-ID angibt, die dem Namen der Bereitstellung im Microsoft Azure-Portal entspricht. Da diese Bereitstellung einem bestimmten LLM-Modell zugeordnet ist, sollten Nutzer sicherstellen, dass sie das richtige Modellverbindungs-Modell auswählen, das dem Microsoft Azure-Bereitstellungsmodell entspricht.
      Anmerkung: Wenn diese Werte nicht übereinstimmen, erhalten Sie eine Warnmeldung.
    • Nutzer sollten sich darüber im Klaren sein, dass das Ändern der Verbindungsdetails einer bestehenden Modellverbindung falsche Eingabedetails speichert und nicht automatisch die Funktion Verbindung testen auslöst. Dies könnte dazu führen, dass KI-Fähigkeiten, TaskBots oder API-Aufgaben, die den Modellverbindung verwenden, bei der Ausführung fehlschlagen. Wenn Sie Änderungen an einer Modellverbindung vornehmen, müssen Sie die aktualisierte Verbindung testen, damit die Bots, die diese Modellverbindung verwenden, während der Automatisierungsausführung nicht fehlschlagen.
  • Für KI-Governance besteht eine Abhängigkeit von Bot-Agent 22.60.10 und höher zum Generieren von Prüfprotokollen. Wenn Ihre Bot-Agent niedriger als 22.60.10 ist, erhalten Sie eine Benachrichtigung mit der Aufforderung, eine kompatible Bot-Agent-Version zu installieren, um sicherzustellen, dass die Prüfprotokolle für alle Modellinteraktionen erfolgreich in Control Room protokolliert werden. Als Administrator erhalten Sie eine Benachrichtigung, wenn ein bei Control Room registriertes Gerät eine niedrigere Version als die empfohlene Version Bot-Agent aufweist.
  • Wenn Sie während einer Automatisierungsausführung auf einen Laufzeitfehler stoßen, der auf der vom System angezeigten Fehlermeldung „Unable to publish KI-Governance audit logs“ beruht, stellen Sie sicher, dass die Bot-Agent mindestens 22.60.10 oder später ist. Fehler: <java.lang.NoSuchMethodError Fehlermeldung>: Hier empfehlen wir ein Update auf die neueste verfügbare Bot-Agent-Version.
  • Wenn Sie keine Auditprotokoll-Daten sehen können, empfehlen wir Ihnen, zunächst zu prüfen, ob Sie über entsprechende benutzerdefinierte Rollenberechtigungen verfügen. Wenn Sie über die erforderlichen Berechtigungen verfügen, sollten Sie sicherstellen, dass Sie die neueste verfügbare Bot-Agent-Version verwenden. Wir empfehlen die Verwendung von Bot-Agent 22.60.10 und später.
  • Damit die Funktionen für die Auditprotokoll- und Bot-Ausführung reibungslos funktionieren, empfehlen wir, kompatible Control Room- und Bot-Agent-Versionen zu verwenden. Siehe Zuweisung von Rollen und Berechtigungen zur Aktivierung von KI-Governance zum Anzeigen einer Kompatibilitätsmatrix der Versionen.
  • Der Automation Command Center (ACC) aktualisiert und erneuert die Daten alle fünf Minuten. Allerdings dauert es nach einer vollständigen Control Room Aktualisierung 15 bis 20 Minuten, bis die aggregierten Daten zusammengefasst sind.