Automation Anywhere Enterprise Knowledge On-Premises 배포 옵션

Automation Anywhere 고객 지원에 연락하여 Automation Anywhere Enterprise Knowledge를 온프레미스에 설치 및 배포하려면 최소 일주일 전에 설치 일정을 예약해 주시기 바랍니다.

배포 옵션 및 필수 구성 요소

주: 지원되는 운영 체제: Red Hat 또는 Ubuntu Linux.
  1. 소규모 배포(동시 사용자 약 100명):
    • 단일 VM: 16코어, 64GB RAM, 1TB SSD
  2. 중간 규모 배포(동시 사용자 약 500명):
    • 더 큰 시스템: 32코어, 128GB RAM, 2TB SSD
  3. 대규모 배포(동시 사용자 약 1,000명 이상):
    • 확장성을 위해 컨테이너에 배포됨
    • 완전 분산형 아키텍처

Automation Anywhere(AAI) Enterprise Knowledge는 하이퍼스케일러에서 볼 수 있는 단순한 RAG(검색-증강 생성) 구현을 넘어서는 성숙한 플랫폼입니다. 온프레미스 오퍼링은 고객의 보안 경계 내에서, 고객의 통제하에 배포 및 사용할 수 있는 완전한 플랫폼을 제공합니다. 현재 POC(개념 증명) 배포는 Docker로 수행되지만, 전체 규모의 프로덕션 배포는 EKS, AKS, GKE 또는 Kubernetes를 사용하여 구현할 수 있습니다.

On-Premises 배포 환경

  • 서버 사양은 Docker 이미지와 PostgreSQL을 기반으로 하며, 벡터 인덱스 저장소 역할을 하는 Supabase로 구성되어야 합니다.
  • On-Premises는 일반적으로 단일 머신에서 클라우드 아키텍처를 재현합니다.
  • 두 개의 단일 박스 배포는 소규모 및 중간 규모 배포에 적합합니다. 완전 분산형 배포로 확장하려면 여러 개의 포드 서비스 박스에 구성 요소를 분산해야 합니다.
  • 기본적인 완전 분산형 배포는 8대의 머신으로 시작하며, 동시 사용량에 따라 40개 이상으로 확장 가능하고 최대 100명의 동시 사용자를 지원합니다.
  • 이 아키텍처는 고객이 제어하는 On-Premises 환경 내에서 기능적인 클라우드 솔루션을 제공합니다.
  • 이 정보는 기본선을 나타내며, 구체적인 확장성 평가는 당사의 Enterprise Knowledge SME와 협의하여 진행해야 합니다.

AAI Enterprise Knowledge 온프레미스 배포

항목 설명
항목1 Automation Anywhere Enterprise Knowledge 연결 및 AI SkillsControl Room 내에서 설계 및 저장됩니다.
항목2 프롬프트가 실행되면 인프라 내의 로컬 실행 에이전트로 전달됩니다.
항목3 RAG 관련성은 알려진 지식 소스에 대해 확인됩니다.
항목4 프롬프트는 RAG와 함께 LLM에 전송되어 직접 AAI Enterprise Knowledge 플랫폼으로 반환됩니다(클라이언트의 VPC로도 전달될 수 있음).
항목5 연결 세부 정보 및 추가 정보는 테넌트 내의 AI Governance 로그에 저장됩니다.

On-Premises 배포 아키텍처 및 패턴

Automation Anywhere Enterprise Knowledge On-Premises는 다양한 요구 사항과 규모에 맞춰 두 가지 주요 배포 패턴을 제공합니다.

  1. 단일 머신 배포: 이 아키텍처는 모든 Enterprise Knowledge 구성 요소를 하나의 머신에 통합합니다. POC(개념 증명) 및 소규모에서 중간 규모의 배포에 적합한 옵션입니다.
    • 단일 VM(가상 머신)은 POC 환경에 활용될 수 있습니다.
    • 최적의 POC 성능을 위해 하이퍼스레딩이 지원되는 Intel i7 13700과 동급의 프로세서와 데이터베이스 및 컴포넌트 Docker 컨테이너를 모두 호스팅할 수 있는 충분한 리소스를 권장합니다.
    • 약 16코어, 64GB RAM, 1TB SSD로 구성된 단일 VM은 대략 100명의 동시 사용자를 지원할 수 있습니다.
    • 더 큰 단일 머신 배포의 경우, 약 32코어, 128GB RAM, 2TB SSD를 갖춘 VM은 최대 500명의 사용자를 지원할 수 있습니다.
    • 단일 머신 배포에서는 Supabase VM과 모든 Docker 컨테이너가 네트워크 제한 없이 통신할 수 있도록 해야 합니다.
  2. 완전 분산형 배포: 더 많은 동시 사용자 수용이 필요한 대규모 배포의 경우, 완전히 분산된 모델을 권장합니다. 이 패턴은 Enterprise Knowledge 구성 요소를 여러 대의 머신에 분산시키며, 일반적으로 포드 서비스로 구성됩니다.
    • 기본적인 완전 분산형 배포는 최소 8대의 머신으로 시작하며, 특정 사용 패턴에 따라 약 100명의 동시 사용자를 지원하기 위해 40대 또는 그 이상의 머신으로 확장할 수 있습니다.
    • 이 배포 모델은 클라우드 제공의 아키텍처를 반영하여 귀하의 조직이 제어하는 환경 내에서 효과적으로 기능하는 클라우드 솔루션을 만듭니다.
    • 아키텍처에는 PostgreSQL(네이티브로 설치), 웹소켓 서버, 그리고 신호 서버와 같은 주요 구성 요소가 포함됩니다. 이러한 구성 요소는 Docker를 호스팅하는 동일한 루트 머신에 함께 배치하거나 별도의 전용 머신에 배포할 수 있습니다.

On-Premises 배포의 주요 구성 요소

Automation Anywhere Enterprise Knowledge 아키텍처는 다음 주요 구성 요소에 의존합니다.

  1. 운영 체제(OS): 지원되는 운영 체제는 Red Hat 및 Ubuntu Linux입니다. Ubuntu 22가 이상적이지만, RHEL(RedHat)과 같은 다른 배포판도 호환됩니다. IT 지원 요구 사항에 따라 Linux 배포판을 선택할 수 있으며, 배포는 그에 따라 조정됩니다. Docker가 다양한 리눅스 배포판에서 어떻게 동작하는지 고려하는 것이 중요합니다. Docker v27.1.1 이상이 필요합니다. Docker 서비스는 머신이 재부팅될 때 자동으로 다시 시작되도록 구성되어야 합니다. 참고로 RHEL은 기본적으로 재부팅 시 Docker를 자동으로 시작하지 않으며, 수동으로 재시작되도록 설정해야 합니다.
  2. 데이터베이스: 기본 데이터베이스는 PostgreSQL이며, Supabase라는 벡터 인덱스 저장소로 특별히 수정되었습니다. 이 데이터베이스는 VM으로 구동되는 독립형 전용 서버가 필요하며, AWS RDS와 같은 관리형 클라우드 데이터베이스 서비스로 대체할 수 없습니다. 배포의 초기 서버는 네이티브 PostgreSQL 설치를 호스팅합니다.
  3. Dockers: Docker 컨테이너는 아키텍처의 핵심으로, 다양한 Enterprise Knowledge 구성 요소를 배포할 수 있는 표준화되고 격리된 환경을 제공합니다. 지원되는 최소 Docker 버전은 v27.1.1입니다. Docker 이미지를 조립 및 배포하기 위한 Docker Compose 파일이 제공됩니다.
  4. 웹소켓 서버 및 시그널링 서버: 이 서버들은 플랫폼 내의 실시간 통신을 처리합니다. 단일 머신에 배포하거나 동일 서버에 함께 배치할 수 있습니다. Sentry 시그널링 머신은 지원 목적을 위해 로깅을 통해 디버깅 세부 정보를 제공하는 데 중요한 역할을 합니다.
  5. Nginx: Nginx는 Enterprise Knowledge 플랫폼으로의 모든 수신 및 발신 트래픽에 대해 리버스 프록시 역할을 합니다.
  6. 선택 사항 구성 요소:
    • Sentry 시그널링 머신: 이 구성 요소는 선택 사항이며, 이를 포함해도 배포에 필요한 최소 머신 수에 영향을 미치지 않습니다.
    • 문서 편집기: 이 구성 요소는 콘솔의 기능으로, 실시간 문서 생성을 위한 웹소켓을 제공합니다. 이 또한 선택 사항입니다. 업로드되거나 크롤링된 데이터로 주로 구축된 지식 베이스에는 필요하지 않습니다. 선택 사항 구성 요소는 기본적으로 필요한 머신 수에 영향을 미치지 않습니다.