Options de déploiement On-Premises Automation Anywhere Enterprise Knowledge

Contactez votre support client Automation Anywhere pour installer et déployer Automation Anywhere Enterprise Knowledge sur site en fournissant un préavis d\'au moins une semaine pour planifier votre installation.

Options de déploiement et prérequis

Remarque : Systèmes d\'exploitation pris en charge : Red Hat ou Ubuntu Linux.
  1. Petit déploiement (environ 100 utilisateurs simultanés) :
    • VM unique : 16 cœurs, 64 Go de RAM, SSD 1 To
  2. Déploiement intermédiaire (environ 500 utilisateurs simultanés) :
    • Machine plus puissante : 32 cœurs, 128 Go de RAM, SSD 2 To
  3. Déploiement à grande échelle (environ 1 000 utilisateurs simultanés) :
    • Déployé sur des conteneurs pour une évolutivité
    • Architecture entièrement distribuée

Automation Anywhere (AAI) Enterprise Knowledge est une plateforme mature qui va au-delà des simples implémentations de génération augmentée par extraction (RAG) proposées par les hyperscalers. L\'offre OnPrem fournit la plateforme complète pour le déploiement et l\'utilisation au sein du périmètre de sécurité du client, sous son contrôle. Alors que les déploiements de preuve de concept (POC) sont actuellement réalisés avec Docker, les déploiements en production à grande échelle peuvent être mis en œuvre en utilisant EKS, AKS, GKE ou Kubernetes.

Empreinte On-Premises

  • Les spécifications des exigences du serveur sont basées sur des images Docker et PostgreSQL, configurées en tant que Supabase pour le stockage d\'index vectoriel.
  • On-Premises recrée généralement une architecture cloud sur une seule machine.
  • Deux déploiements mono-boîte conviennent aux petits et moyens déploiements. La mise à l\'échelle vers un déploiement entièrement distribué implique de distribuer les composantes sur plusieurs instances de service de pod.
  • Un déploiement de base entièrement distribué commence avec 8 machines et peut s\'étendre à plus de 40, selon l\'utilisation simultanée, prenant en charge jusqu\'à 100 utilisateurs simultanés.
  • Cette architecture fournit une solution cloud fonctionnelle dans un environnement On-Premises contrôlé par le client.
  • Ces informations représentent une base de référence, et une évaluation spécifique de l\'échelle sera nécessaire en consultation avec nos experts Enterprise Knowledge.

Déploiement sur site de la solution AAI Enterprise Knowledge

Élément Description
Item1 Les connexions Automation Anywhere Enterprise Knowledge et les AI Skills sont conçues et stockées dans la Control Room.
Item2 Lorsque des invites sont exécutées, elles sont acheminées vers un agent d\'exécution local au sein de votre infrastructure.
Item3 La pertinence RAG est vérifiée par rapport aux sources de connaissances connues.
Item4 Les invites sont envoyées au LLM avec RAG et renvoyées directement à la plateforme AAI Enterprise Knowledge (Cela peut également être dirigé vers le VPC du client)
Item5 Les détails de connexion et les informations supplémentaires sont stockés dans les journaux AI Governance au sein de votre locataire.

Architecture de déploiement et schémas On-Premises

On-Premises Automation Anywhere Enterprise Knowledge propose deux principaux schémas de déploiement pour répondre à différents besoins et différentes échelles :

  1. Déploiement sur une seule machine : Cette architecture regroupe toutes les composantes Enterprise Knowledge sur une seule machine. Il s\'agit d\'une option adaptée pour les preuves de concept (POC) et les déploiements de petite à moyenne taille.
    • Une seule machine virtuelle (VM) peut être utilisée pour les environnements POC.
    • Pour des performances POC optimales, il est recommandé d\'utiliser un processeur équivalent à un Intel i7 13700 avec hyperthreading, ainsi que des ressources suffisantes pour héberger à la fois la base de données et les conteneurs Docker des composantes.
    • Une seule machine virtuelle configurée avec environ 16 cœurs, 64 Go de RAM et un SSD de 1 To peut prendre en charge environ 100 utilisateurs simultanés.
    • Pour des déploiements mono-machine plus importants, une machine virtuelle avec environ 32 cœurs, 128 Go de RAM et un SSD de 2 To peut potentiellement prendre en charge jusqu\'à 500 utilisateurs.
    • Dans les déploiements sur une seule machine, assurez-vous que la machine virtuelle Supabase et tous les conteneurs Docker peuvent communiquer sans aucune restriction réseau.
  2. Déploiement entièrement distribué : Pour les déploiements plus importants nécessitant une capacité d\'utilisateurs simultanés plus élevée, un modèle entièrement distribué est recommandé. Ce modèle répartit les composantes Enterprise Knowledge sur plusieurs machines, généralement organisées en services de pod.
    • Un déploiement totalement distribué de base commence avec un minimum de 8 machines et peut évoluer jusqu\'à 40 machines ou plus pour prendre en charge environ 100 utilisateurs simultanés, selon les schémas d\'utilisation spécifiques.
    • Ce modèle de déploiement reflète l\'architecture de l\'offre cloud, créant ainsi efficacement une solution cloud fonctionnelle au sein de l\'environnement contrôlé de votre organisation.
    • L\'architecture comprend des composantes clés telles que PostgreSQL (installé nativement), le serveur Websocket et le serveur de signalisation. Ces composantes peuvent être regroupées sur les mêmes machines racines hébergeant Docker ou déployées sur des machines dédiées distinctes.

Composantes clés du déploiement On-Premises

L\'architecture Automation Anywhere Enterprise Knowledge repose sur les composantes clés suivantes :

  1. Système d\'exploitation (SE): Les systèmes d\'exploitation pris en charge sont Linux Red Hat ou Ubuntu. Bien qu\'Ubuntu 22 soit idéal, d\'autres distributions comme RHEL (RedHat) sont compatibles. Vous pouvez choisir votre distribution Linux en fonction de vos besoins de prise en charge informatique, et le déploiement s\'adaptera en conséquence. Il est important de considérer comment Docker se comporte avec différentes distributions Linux. Une version minimale de Docker v27.1.1 est requise. Le service Docker doit être configuré pour redémarrer automatiquement lors d\'un redémarrage de la machine. Notez que, par défaut, RHEL ne démarre pas Docker au redémarrage et doit être configuré manuellement pour redémarrer.
  2. Base de données : La base de données sous-jacente est PostgreSQL, spécialement modifiée en tant que magasin d\'index vectoriel connu sous le nom de Supabase. Cette base de données nécessite un serveur dédié et autonome lancé en tant que VM et ne peut pas être remplacée par des services de base de données cloud gérés tels qu\'AWS RDS. Le serveur initial de votre déploiement hébergera l\'installation PostgreSQL native.
  3. Dockers : Les conteneurs Docker sont fondamentaux pour l\'architecture, fournissant un environnement standardisé et isolé pour le déploiement de diverses composantes Enterprise Knowledge. La version minimale de Docker prise en charge est la v27.1.1. Des fichiers Docker Compose sont disponibles pour faciliter l\'assemblage et le déploiement des images Docker.
  4. Serveur WebSocket et serveur de signalisation : Ces serveurs gèrent la communication en temps réel au sein de la plateforme. Ils peuvent être déployés sur une seule machine ou colocalisés sur le même serveur. La machine de signalisation Sentry joue un rôle crucial en fournissant des détails de débogage via la journalisation à des fins d\'assistance.
  5. Nginx : Nginx sert de proxy inverse pour tout le trafic entrant et sortant vers la plateforme Enterprise Knowledge.
  6. Composantes facultatives :
    • Machine de signalisation Sentry : Cette composante est facultative et son inclusion n\'a pas d\'impact sur le nombre minimum de machines requis pour le déploiement.
    • Éditeur de document : Cette composante, qui fait partie de la console et fournit des web sockets pour la création de documents en temps réel, est également facultative. Elle n\'est pas requise pour les bases de connaissances essentiellement basées sur des données chargées ou extraites par exploration. L\'inclusion de composantes facultatives ne réduit pas les exigences de machine de base.