Automation Anywhere Enterprise Knowledge On-Premises デプロイ オプション
- 最終更新日2025/09/10
Automation Anywhere Enterprise Knowledge On-Premises デプロイ オプション
Automation Anywhereのカスタマーサポートに連絡して、Automation Anywhere Enterprise Knowledgeのオンプレミスでのインストールと展開をスケジュールするために、少なくとも1週間前に通知を提供してください。
デプロイメントオプションと前提条件
注: サポートされているオペレーティング システム: Red Hat または Ubuntu Linux.
-
小規模デプロイ(同時ユーザー約100人):
- 単一 VM 16コア、64GB RAM、1 TB SSD
-
中規模デプロイ(同時ユーザー約500人):
- より大きなマシン: 32コア、128GB RAM、2 TB SSD
-
大規模デプロイ(同時ユーザー約1000人以上):
- スケーラビリティのためにコンテナ全体に展開されました。
- 完全分散型アーキテクチャ
Automation Anywhere(AAI)Enterprise Knowledge は、ハイパースケーラーで見られる単純な Retrieval-augmented Generation(RAG)実装を超えた成熟したプラットフォームです。 OnPrem は、顧客のセキュリティ境界内での展開と利用のための完全なプラットフォームを提供し、顧客の管理下にあります。 現在、Proof-of-Concept (POC) のデプロイメントは現在 Docker で行われていますが、フルスケールのプロダクションデプロイメントは EKS、AKS、GKE、または Kubernetes を使用して実装できます。
On-Premises フットプリント
- サーバー要件仕様は、ベクターインデックスストア用に Supabase として構成された Docker イメージと PostgreSQL に基づいています。
- On-Premises は通常、単一のマシン上にクラウド アーキテクチャを再現します。
- 小規模および中規模のデプロイメントには、2つのシングルボックス デプロイメントが適しています。 完全に分散されたデプロイメントへのスケーリングは、複数のポッド サービス ボックスにコンポーネントを分散することを含みます。
- 完全分散型のベース デプロイメントは8台のマシンから始まり、同時使用状況に応じて40台以上にスケール可能で、最大100人の同時ユーザーをサポートします。
- このアーキテクチャは、顧客が管理する On-Premises 環境内で機能的なクラウドソリューションを提供します。
- この情報はベースラインを示しており、特定のスケーリング評価は当社のエンタープライズ知識の SME との相談が必要です。
項目 | 内容 |
---|---|
![]() |
Automation Anywhere Enterprise Knowledge接続とAI Skillsは、Control Room内で設計されて保存されます。 |
![]() |
プロンプトが実行されると、貴社のインフラストラクチャ内のローカル実行エージェントに集約されます。 |
![]() |
RAG の関連性は既知の知識ソースに対して確認されます。 |
![]() |
プロンプトは RAG を使用して LLM に送信され、AAI エンタープライズ知識プラットフォームに直接返されます(これはクライアントの VPC にも向けることができます) |
![]() |
接続の詳細および追加情報は、お客様のテナント内の AI Governance ログに保存されます。 |
On-Premises デプロイメント アーキテクチャとパターン
Automation Anywhere Enterprise Knowledge On-Premises は、異なるニーズと規模に対応するために、2つの主要なデプロイメント パターンを提供します:
-
単一マシン デプロイ: このアーキテクチャは、すべてのEnterprise Knowledge コンポーネントを単一のマシンに統合します。 プルーフ オブ コンセプト(POC)や小規模から中規模の展開に適したオプションです。
- POC 環境には単一の仮想マシン(VM)を利用できます。
- 最適な POC パフォーマンスのためには、ハイパースレッディングを備えた Intel i7 13700 に相当するプロセッサと、データベースおよびコンポーネントの Docker コンテナをホストするための十分なリソースが推奨されます。
- 約16コア、64GBのRAM、1TBのSSDを搭載した単一のVMは、約100人の同時ユーザーをサポートできます。
- より大規模な単一マシンの展開の場合、約32コア、128GBのRAM、および2TBのSSDを備えたVMは、最大500ユーザーをサポートできる可能性があります。
- 単一マシンのデプロイメントでは、Supabase VM とすべての Docker コンテナがネットワーク制限なしに通信できることを確認してください。
-
完全分散型デプロイメント: より多くの同時ユーザー容量を必要とする大規模な展開には、完全に分散されたモデルを推奨します。 このパターンは、エンタープライズ知識コンポーネントを複数のマシンに分散させ、通常はポッドサービスに整理されます。
- 基本的な完全分散型デプロイメントは、最低8台のマシンから始まり、特定の使用パターンに応じて約100人の同時ユーザーをサポートするために40台以上のマシンまでスケールアップできます。
- このデプロイメント モデルは、クラウド オファリングのアーキテクチャを反映しており、組織の管理された環境内に機能的なクラウドソリューションを効果的に作成します。
- アーキテクチャには、PostgreSQL(ネイティブにインストール)、Websocket サーバー、およびシグナリング サーバーなどの重要なコンポーネントが含まれています。 これらのコンポーネントは、Docker をホストしている同じルートマシン上に配置することも、別の専用マシンに展開することもできます。
On-Premises デプロイの主要なコンポーネント
Automation Anywhere Enterprise Knowledge のアーキテクチャは、以下の主要なコンポーネントに依存しています。
- オペレーティングシステム(OS): サポートされているオペレーティングシステムは Red Hat または Ubuntu Linux です。 Ubuntu 22は理想的ですが、RHEL(RedHat)などの他のディストリビューションも互換性があります。 ITサポートの要件に基づいて Linux ディストリビューションを選択でき、その展開はそれに応じて適応します。 Docker が異なる Linux ディストリビューションでどのように動作するかを考慮することは重要です。 Docker v27.1.1以上が必要です。 Docker サービスは、マシンの再起動時に自動的に再起動するように構成する必要があります。 RHEL はデフォルトで再起動時に Docker を起動しないため、手動で再起動するように設定する必要があります。
- データベース: 基盤となるデータベースは PostgreSQL で、特にベクターインデックスストアとして変更され、Supabase として知られています。 このデータベースは、VM として起動される専用のスタンドアロンサーバーを必要とし、AWS RDS のようなマネージドクラウドデータベースサービスで代用することはできません。 あなたのデプロイメントの初期サーバーは、ネイティブの PostgreSQL インストールをホストします。
- Dockers: Docker コンテナはアーキテクチャの基本であり、さまざまな Enterprise Knowledge コンポーネントを展開するための標準化された隔離環境を提供します。 サポートされている最小の Docker バージョンはv27.1.1です。 Docker Compose ファイルは、Docker イメージの組み立てとデプロイを容易にするために利用できます。
- ウェブソケット サーバーとシグナリング サーバー: これらのサーバーはプラットフォーム内でリアルタイム通信を処理します。 それらは単一のマシンに展開することも、同じサーバーに配置することもできます。 哨兵信号機は、サポート目的でログを通じてデバッグの詳細を提供する重要な役割を果たします。
- Nginx: Nginx は、Enterprise Knowledge プラットフォームへのすべての受信および送信トラフィックのリバース プロキシとして機能します。
-
任意のコンポーネント:
- センチネル信号機: このコンポーネントは任意であり、これを含めてもデプロイに必要な最小マシン数には影響しません。
- ドキュメント エディター: このコンポーネントは、コンソールの機能の一つであり、リアルタイムのドキュメント作成のための Web ソケットを提供しますが、これも任意です。 アップロードまたはクロールされたデータから主に構築されたナレッジベースには必要ありません。 任意のコンポーネントを含めても、基本的なマシン要件が緩和されることはありません。