Automation Anywhere Enterprise Knowledge On-Premises-Bereitstellungsoptionen

Wenden Sie sich an Ihren Automation Anywhere-Kundensupport, um Automation Anywhere Enterprise Knowledge On-Premises zu installieren und bereitzustellen. Geben Sie mindestens eine Woche im Voraus Bescheid, um die Installation zu planen.

Bereitstellungsoptionen und Voraussetzungen

Anmerkung: Unterstützte Betriebssysteme: Red Hat oder Ubuntu Linux.
  1. Kleine Bereitstellung (ungefähr 100 Nutzer zeitgleich):
    • Einzelne VM: 16 Kerne, 64 GB RAM, 1 TB SSD
  2. Mittlere Bereitstellung (ungefähr 500 Nutzer zeitgleich):
    • Größere Maschine: 32 Kerne, 128 GB RAM, 2 TB SSD
  3. Große Bereitstellung (ungefähr mehr als 1.000 Nutzer zeitgleich):
    • Bereitgestellt über Container hinweg zur Skalierbarkeit
    • Vollständig verteilte Architektur

Automation Anywhere (AAI) Enterprise Knowledge ist eine ausgereifte Plattform, die über einfache Retrieval-Augmented Generation (RAG)-Implementierungen, wie sie bei Hyperscalern zu finden sind, hinausgeht. Das OnPrem-Angebot stellt die vollständige Plattform für die Bereitstellung und Nutzung innerhalb des Sicherheitsperimeters eines Kunden unter dessen Kontrolle bereit. Während Proof-of-Concept (POC)-Bereitstellungen derzeit mit Docker durchgeführt werden, können vollständige Produktionsbereitstellungen mit EKS, AKS, GKE oder Kubernetes implementiert werden.

On-Premises Zero

  • Die Spezifikationen der Serveranforderungen basieren auf Docker-Images und PostgreSQL, konfiguriert als Supabase für den Vektorindex-Speicher.
  • On-Premises erstellt typischerweise eine Cloud-Architektur auf einem einzigen Rechner nach.
  • Zwei Einzelbox-Bereitstellungen sind für kleine und mittlere Bereitstellungen geeignet. Die Skalierung auf eine vollständig verteilte Bereitstellung beinhaltet das Verteilen von Komponenten auf mehrere Pod-Service-Boxen.
  • Eine vollständig verteilte Basiseinrichtung beginnt mit 8 Rechnern und kann je nach gleichzeitiger Nutzung auf über 40 skaliert werden, wobei bis zu 100 gleichzeitige Nutzer unterstützt werden.
  • Diese Architektur liefert eine funktionale Cloud-Lösung innerhalb einer vom Kunden kontrollierten On-Premises-Umgebung.
  • Diese Informationen stellen eine Ausgangsbasis dar, und eine spezifische Skalierungsbewertung wird in Absprache mit unseren Enterprise Knowledge SMEs erforderlich sein.

AAI Enterprise Knowledge OnPrem-Bereitstellung

Element Beschreibung
Item1 Automation Anywhere Enterprise Knowledge-Verbindungen und AI Skills werden innerhalb des Control Rooms entworfen und gespeichert.
Element2 Wenn Prompts ausgeführt werden, werden sie an einen lokalen Ausführungsagenten innerhalb Ihrer Infrastruktur weitergeleitet.
Item3 Die RAG-Relevanz wird anhand bekannter Wissensquellen überprüft.
Item4 Prompts werden mit RAG an das LLM gesendet und direkt an die AAI Enterprise Knowledge Platform zurückgegeben (dies kann auch an das VPC des Kunden weitergeleitet werden)
Item5 Verbindungsdetails und zusätzliche Informationen werden in den AI Governance-Protokollen innerhalb Ihres Mandanten gespeichert.

On-Premises-Bereitstellungsarchitektur und -muster

Automation Anywhere Enterprise Knowledge On-Premises bietet zwei grundlegende Bereitstellungsmuster, um unterschiedlichen Anforderungen und Größenordnungen gerecht zu werden:

  1. Bereitstellung auf einem einzelnen Rechner: Diese Architektur konsolidiert alle Enterprise Knowledge-Komponenten auf einem einzigen Rechner. Es ist eine geeignete Option für Proof of Concepts (POCs) und kleine bis mittelgroße Bereitstellungen.
    • Eine einzelne Virtuelle Maschine (VM) kann für POC-Umgebungen genutzt werden.
    • Für eine optimale POC-Leistung wird ein Prozessor empfohlen, der einem Intel i7 13700 mit Hyperthreading entspricht, zusammen mit ausreichenden Ressourcen zur Bereitstellung sowohl der Datenbank als auch der Komponenten-Docker-Container.
    • Eine einzelne VM, die mit etwa 16 Kernen, 64 GB RAM und einer 1-TB-SSD konfiguriert ist, kann ungefähr 100 gleichzeitige Nutzer unterstützen.
    • Für größere Einzelrechnerbereitstellungen kann eine VM mit etwa 32 Kernen, 128 GB RAM und einer 2-TB-SSD potenziell bis zu 500 Nutzer unterstützen.
    • In Einzelrechnerbereitstellungen achten Sie bitte darauf, dass die Supabase-VM und alle Docker-Container ohne Netzwerkbeschränkungen kommunizieren können.
  2. Vollständig verteilte Bereitstellung: Für größere Bereitstellungen, die eine höhere gleichzeitige Nutzerkapazität erfordern, wird ein vollständig verteiltes Modell empfohlen. Dieses Muster verteilt die Enterprise Knowledge-Komponenten auf mehrere Rechner, die typischerweise in Pod-Diensten organisiert sind.
    • Ein grundlegender vollständig verteilter Einsatz beginnt mit mindestens 8 Rechnern und kann auf 40 oder mehr Rechner skaliert werden, um etwa 100 gleichzeitige Nutzer zu unterstützen, abhängig von den spezifischen Nutzungsmustern.
    • Dieses Bereitstellungsmodell spiegelt die Architektur des Cloud-Angebots wider und schafft so effektiv eine funktionale Cloud-Lösung innerhalb der kontrollierten Umgebung Ihrer Organisation.
    • Die Architektur umfasst zentrale Komponenten wie PostgreSQL (nativ installiert), Websocket-Server und Signalisierungsserver. Diese Komponenten können auf denselben Root-Rechnern, die Docker hosten, zusammengelegt oder auf separaten dedizierten Rechnern bereitgestellt werden.

Schlüsselkomponenten der On-Premises-Bereitstellung

Die Automation Anywhere Enterprise Knowledge Architektur basiert auf den folgenden Hauptkomponenten:

  1. Betriebssystem (OS): Die unterstützten Betriebssysteme sind Red Hat oder Ubuntu Linux. Während Ubuntu 22 ideal ist, sind andere Distributionen wie RHEL (RedHat) kompatibel. Sie können Ihre Linux-Distribution basierend auf Ihren IT-Support-Anforderungen auswählen, und die Bereitstellung wird sich entsprechend anpassen. Es ist wichtig zu berücksichtigen, wie Docker mit verschiedenen Linux-Distributionen funktioniert. Mindestens Docker v27.1.1 ist erforderlich. Der Docker-Dienst sollte so konfiguriert werden, dass er nach einem Neustart des Rechners automatisch neu startet. Beachten Sie, dass RHEL standardmäßig Docker beim Neustart nicht startet und manuell so konfiguriert werden muss, dass es neu startet.
  2. Datenbank: Die zugrunde liegende Datenbank ist PostgreSQL, die speziell als Vektorindexspeicher modifiziert wurde, bekannt als Supabase. Diese Datenbank erfordert einen dedizierten, eigenständigen Server, der als VM gestartet wird und kann nicht durch verwaltete Cloud-Datenbankdienste wie AWS RDS ersetzt werden. Der erste Server in Ihrer Bereitstellung wird die native PostgreSQL-Installation hosten.
  3. Dockers: Docker-Container sind grundlegend für die Architektur und bieten eine standardisierte und isolierte Umgebung zur Bereitstellung verschiedener Enterprise Knowledge-Komponenten. Die minimal unterstützte Docker-Version ist v27.1.1. Docker Compose-Dateien sind verfügbar, um die Zusammenstellung und Bereitstellung von Docker-Images zu erleichtern.
  4. Websocket-Server und Signalisierungsserver: Diese Server übernehmen die Echtzeitkommunikation innerhalb der Plattform. Sie können auf einem einzelnen Rechner bereitgestellt oder auf demselben Server zusammengelegt werden. Die Sentry Signaling Machine spielt eine entscheidende Rolle bei der Bereitstellung von Debugging-Informationen durch Protokollierung zu Supportzwecken.
  5. Nginx: Nginx dient als Reverse-Proxy für den gesamten ein- und ausgehenden Datenverkehr zur Enterprise Knowledge-Plattform.
  6. Optionale Komponenten:
    • Sentry Signaling Machine: Diese Komponente ist Optional und ihre Einbeziehung wirkt sich nicht auf die für die Bereitstellung erforderliche Mindestanzahl an Rechnern aus.
    • Dokumenteditor: Diese Komponente, die eine Funktion der Konsole ist und Websockets für die Echtzeitdokumentenerstellung bereitstellt, ist ebenfalls Optional. Es ist nicht erforderlich für Wissensdatenbanken, die hauptsächlich aus hochgeladenen oder gecrawlten Daten erstellt wurden. Die Aufnahme optionaler Komponenten verringert die Anforderungen an das Basissystem nicht.